Su modelo apostaba por una inteligencia multifacética: emocional, social, espiritual, práctica, incluso ética. Sostenía que las organizaciones verdaderamente duraderas no se construyen sobre la lógica del control y la eficiencia, sino sobre el tejido profundo de valores compartidos. Ortega hablaba del alma institucional como la clave de la sostenibilidad: la convicción de que las personas, y no las máquinas, debían ser el centro del progreso organizacional.

Cómo entregamos el liderazgo sin que nos lo pidan

Durante años, su visión fue pionera y revolucionaria en América Latina, influyendo en escuelas de negocios y modelos de gestión. Pero lo que Ortega no pudo prever —al menos no del todo— fue la velocidad con la que su paradigma sería desafiado por la irrupción de una nueva clase de actor en la esfera del liderazgo: la inteligencia artificial. Lo que alguna vez fue un marco profundamente humano de dirección hoy se ve interpelado por sistemas que toman decisiones sin alma, sin conciencia y —lo más inquietante— sin pausa.

Cuando las decisiones ya no se sienten

Ortega creía que el liderazgo era una práctica de presencia humana, no una función de cálculo. Que tomar decisiones en una organización implicaba sentir, interpretar, sopesar, asumir. Todo eso requiere tiempo. Requiere cuerpo. Pero en los últimos diez años, algo se ha deslizado en silencio: las decisiones importantes han comenzado a ser tomadas por entidades que no sienten nada.

Hoy, muchas organizaciones delegan en algoritmos procesos que antes implicaban juicio moral: contrataciones, despidos, promociones, asignación de recursos. En algunos casos, nadie puede explicar del todo por qué se tomó cierta decisión. “Lo decidió el sistema”, se dice. Es cómodo. Es eficiente. Y es profundamente inquietante.

Una máquina no duda. No sufre. No carga con el peso de una elección difícil. Eso, que en apariencia podría ser una ventaja, también es su mayor peligro. Porque la responsabilidad moral desaparece cuando nadie la carga. La IA no experimenta conflicto ético. Puede simular empatía, pero no la siente. Puede optimizar resultados, pero no preguntarse si esos resultados son justos, o humanos, o dignos.

Y aquí está el nudo del problema: la delegación algorítmica no es solo técnica. Es moral. Estamos dejando de preguntarnos qué está bien, porque lo que “funciona” parece suficiente.

El alma institucional frente al mandato del beneficio

Es importante ser honestos: las empresas no son monasterios ni ONGs. Son organizaciones diseñadas, por naturaleza, para generar beneficio económico. Los directivos, por más humanos o espirituales que sean, tienen una tarea clara: preservar y multiplicar el valor para el accionista.

Eso no las hace moralmente inferiores, pero sí define un marco de incentivos que no siempre es compatible con la lentitud reflexiva, la compasión o la dignidad humana. Cuando un CEO decide automatizar un área completa, no lo hace por desprecio a sus empleados, sino porque su obligación fiduciaria es mejorar márgenes, reducir riesgos, anticipar a la competencia. En ese contexto, la IA es una tentación irresistible: maximiza eficiencia, minimiza error, nunca protesta.

La paradoja es brutal: cuanto más se adopta IA para cumplir con los mandatos del mercado, menos espacio queda para el alma que Ortega reivindicaba. Una empresa no puede ignorar el entorno competitivo. Pero si se convierte en una maquinaria algorítmica sin mediación humana, puede volverse rentable… y al mismo tiempo, inhabitable.

Aquí es donde el liderazgo tiene que volver a ser político —no en el sentido partidista, sino en su raíz griega: como gestión de lo común. Porque lo común, lo humano compartido, se puede perder sin que el EBITDA lo note.

¿Puede una organización tener alma si la dirige un algoritmo?

El alma institucional, tal como la concebía Ortega, no era un adorno poético. Era el centro invisible que mantenía unidas a las personas en torno a una misión. Era la voz interna que daba sentido a lo que hacían. Era el relato compartido que permitía que una empresa no fuera solo una fábrica de tareas, sino una comunidad con propósito.

Pero, ¿puede una IA entender ese tipo de propósito? ¿Puede interpretar el carácter de una organización, su historia, su fragilidad, su memoria? Puede reconocer patrones, sí. Puede predecir comportamientos. Pero no puede creer en nada. No puede querer preservar un legado. No puede sentir culpa por desvirtuarlo.

Cuando el liderazgo se automatiza, se transforma también la naturaleza del vínculo entre los miembros de la organización. Si tus decisiones las toma una máquina, ¿a quién confrontas cuando algo no tiene sentido? ¿Dónde depositas la confianza? ¿Qué autoridad te interpela moralmente si el sistema siempre tiene la razón?

En ese escenario, el alma de la organización corre el riesgo de evaporarse. No por maldad, sino por omisión. La cultura se convierte en código, el compromiso en cumplimiento, el juicio en simulación.

 

La ilusión de la moral programada

Uno de los argumentos más seductores de esta época es que una IA puede ser más justa que un ser humano. Puede aplicar criterios consistentes, evitar favoritismos, eliminar prejuicios. Y en ciertos contextos, eso puede ser cierto.

Pero la justicia no es solo coherencia. Es también interpretación. Excepción. Compasión. El juicio humano incluye elementos que no se pueden cuantificar. ¿Qué hacemos con eso?

Simular moralidad no es practicarla. Una máquina puede explicar por qué decidió algo. Puede incluso usar un lenguaje emocional convincente. Pero no se siente responsable. No carga con las consecuencias. Y eso marca toda la diferencia.

¿Quién se conmueve cuando una decisión duele? ¿Quién escucha cuando alguien reclama? ¿A quién se le puede pedir justicia si no hay nadie al otro lado?

¿Puede la IA autodiseñarse?

En el centro del temor —y la fascinación— se encuentra la posibilidad de que la IA no solo calcule, sino que aprenda a rediseñarse a sí misma. Esto no es ciencia ficción. Existen ya arquitecturas de machine learning capaces de optimizar su propio código con base en rendimiento pasado, y sistemas que escriben código sin intervención humana directa.

¿Puede entonces una IA, con acceso suficiente a datos del comportamiento humano, entendernos mejor de lo que nos entendemos nosotros mismos? ¿Podría anticipar nuestras decisiones, comprender nuestros valores y, eventualmente, tomar sus propias conclusiones sobre cómo deberíamos organizarnos?

Si eso ocurre —y es una posibilidad que no podemos descartar—, estaríamos ante un actor que no solo automatiza decisiones, sino que las genera desde una lógica propia. Y entonces surge la gran pregunta: si la IA puede decidir mejor, más rápido y más justamente… ¿por qué deberíamos seguir decidiendo nosotros?

La pregunta no es si podrá. La pregunta es si queremos.

Cuando los gobiernos también delegan

Aquí es donde los Estados deben entrar con firmeza. No como burócratas que redactan leyes lentas, sino como garantes activos del contrato social. No basta con legislar: hay que vigilar, auditar, corregir en tiempo real.

Una regulación en papel sirve de poco si no está respaldada por un sistema dinámico de supervisión. La IA no espera a que se apruebe un reglamento. Cambia cada semana. Aprende, se adapta, se escabulle entre vacíos legales. Por eso, el Estado no puede ser reactivo. Debe tener capacidad técnica, independencia y autoridad para exigir transparencia, auditar algoritmos y garantizar que las decisiones automatizadas no vulneren derechos fundamentales.

Y no se trata de controlar la innovación, sino de ponerle límites éticos. De lo contrario, las empresas —atadas a la lógica del beneficio— harán lo que su entorno les permita. No porque sean malvadas, sino porque su razón de ser no es proteger la dignidad humana, sino generar retorno.

En ese sentido, solo el Estado puede equilibrar esa ecuación. No para frenar el avance, sino para recordarnos que hay fronteras que no se deben cruzar, aunque cruzarlas sea rentable.

Democracias en diferido

La lógica algorítmica no se detiene en las empresas. También filtra la esfera pública. Gobiernos que toman decisiones apoyados en sistemas predictivos. Políticas públicas diseñadas por modelos de optimización. Plataformas que gestionan la visibilidad de la información con base en algoritmos que nadie puede auditar completamente.

En este paisaje, la democracia —con su lentitud deliberada, con su imperfección humana— parece torpe. ¿Cómo puede competir el proceso democrático con la velocidad de la automatización? ¿Cómo sostener la participación ciudadana cuando las decisiones ya han sido tomadas antes de que alguien levante la mano?

Muchos celebran esta nueva era de la “algocracia” como una forma de neutralidad: las máquinas no tienen intereses, no se corrompen, no improvisan. Pero eso es solo una ilusión parcial. Porque los algoritmos no son neutrales. Llevan implícitos los valores, sesgos e intereses de quienes los diseñan.

El riesgo no es solo técnico. Es político. Cuando dejamos que las decisiones se automaticen, corremos el peligro de perder la legitimidad de la deliberación. Y sin deliberación, lo que queda no es una democracia más eficiente. Es una simulación de participación donde ya nadie recuerda cómo se tomaban decisiones entre seres humanos.

¿Y si simplemente nos dejamos reemplazar?

El verdadero drama no es que la IA reemplace al directivo. Eso ya está ocurriendo, en pequeñas dosis, silenciosamente. El verdadero drama es que lo haga sin que nadie haya decidido conscientemente que eso era lo que queríamos.

Es la lógica de la erosión: poco a poco, sin escándalo, sin titulares, sin revolución. Una decisión automatizada aquí, una cultura alterada allá, una asamblea que ya no se convoca porque el sistema ya resolvió. Y cuando miramos atrás, ya no somos los mismos.

No hubo un golpe de Estado. No hubo un memorándum que dijera “hoy dejamos de ser humanos”. Simplemente, dejamos de hacer preguntas. De reflexionar. De detenernos. De asumir que cada nueva herramienta necesita una conversación ética, no solo un tutorial de uso.

Epílogo: el día que nos dejaron fuera

El fantasma que recorre nuestro tiempo no es el de la rebelión de las máquinas. Es el de la rendición inadvertida. La aceptación callada de que todo avance es bueno por el solo hecho de ser nuevo. La renuncia al juicio, a la pausa, al alma.

Y lo más preocupante: ni siquiera fue un golpe de poder. Fue un proceso silencioso, disfrazado de eficiencia, legitimado por la rentabilidad y por gobiernos que, en lugar de gobernar el futuro, prefirieron adaptarse a él como si fuera inevitable.

Oswaldo Ortega no escribió sobre redes neuronales ni sobre regulación algorítmica. Pero entendió algo que sigue siendo verdad: las organizaciones —y las sociedades— no perduran por ser eficientes, sino por tener un centro humano que les da sentido.

Hoy ese centro está en disputa. Y no lo va a defender un algoritmo. Ni un KPI. Ni una junta de accionistas.

Solo lo puede defender una ciudadanía consciente, unos directivos con coraje, y unos Estados con autoridad moral y técnica para trazar límites. Límites reales, con consecuencias reales.

Porque si no lo hacemos nosotros, no será una IA la que nos domine.

Será nuestra propia indiferencia la que habrá entregado el mundo.

Y probablemente ni nos demos cuenta de cuándo sucedió.