Éxodo de altos ejecutivos de la IA: Zoë Hitzig y Mrinank Sharma acusan una crisis ética y renuncian a OpenAI y Anthropic
La industria de la inteligencia artificial enfrenta una crisis de identidad tras la renuncia de dos figuras fundamentales en sus respectivas compañías: Zoë Hitzig, investigadora de OpenAI, y Mri...
La industria de la inteligencia artificial enfrenta una crisis de identidad tras la renuncia de dos figuras fundamentales en sus respectivas compañías: Zoë Hitzig, investigadora de OpenAI, y Mrinank Sharma, ejecutivo líder en Anthropic. Ambas salidas subrayan una tensión creciente entre el avance comercial de la IA y el enorme crecimiento que han tenido estas compañías, y la seguridad ética de los modelos.
Zoë Hitzig anunció su salida de OpenAI esta semana, coincidiendo con el inicio de las pruebas de publicidad dentro de ChatGPT. En una columna de opinión para el New York Times, Hitzig —doctora en economía por Harvard— expresó su desilusión con el rumbo de la empresa. "Esta semana confirmó mi lenta comprensión de que OpenAI parece haber dejado de hacerse las preguntas que yo me uní para ayudar a responder“, afirmó la investigadora, quien pasó dos años moldeando las políticas de seguridad de la firma.
La mayor preocupación de Hitzig radica en el “archivo de franqueza humana sin precedentes” que OpenAI ha acumulado a través de las interacciones íntimas de los usuarios con ChatGPT. “OpenAI posee el registro más detallado del pensamiento humano privado jamás reunido. ¿Podemos confiar en que resistan las fuerzas arrolladoras que los empujan a abusar de él?“, se preguntaba en X.
Para Hitzig la introducción de publicidad (que comenzó esta semana en EE.UU.) en este espacio es peligrosa: "La publicidad construida sobre ese archivo crea un potencial para manipular a los usuarios de formas que no tenemos las herramientas para entender, y mucho menos para prevenir“. Para Hitzig, OpenAI ha priorizado un motor económico que genera fuertes incentivos para “anular sus propias reglas”.
Simultáneamente, Mrinank Sharma, quien dirigía el equipo de investigación en salvaguardas de Anthropic, presentó su renuncia mediante una carta pública en la red social X. Sharma, doctor en aprendizaje automático por la Universidad de Oxford, ha sido una pieza clave en el desarrollo de defensas contra el bioterrorismo y la manipulación en modelos de IA. Su salida es un golpe directo a la imagen de Anthropic como el laboratorio que prioriza la seguridad por encima de la competencia.
En su mensaje, Sharma utilizó un tono profundamente filosófico para advertir sobre los riesgos existenciales. "El mundo está en peligro. Y no solo por la inteligencia artificial... sino por una serie de crisis interconectadas que se desarrollan en este mismo momento“, escribió el investigador. Sharma señaló que la capacidad tecnológica de la humanidad está superando su madurez ética: ”Parece que nos acercamos a un umbral en el que nuestra sabiduría debe crecer en igual medida que nuestra capacidad para afectar al mundo“. Tras su salida, planea regresar al Reino Unido para estudiar una licenciatura en poesía y practicar el “habla valiente”.
Ambas renuncias ocurren en un contexto de alta presión financiera. Mientras OpenAI opera bajo presión para competir con Google, que gana terreno con Gemini (y que ya tiene una operación comercial montada detrás), quemando miles de millones de dólares anualmente, Anthropic transita de un laboratorio de investigación a una potencia comercial valorada en miles de millones.
Estas salidas sugieren que para los expertos dentro de las compañías los mecanismos internos de gobernanza están siendo superados por la necesidad de “lanzar productos rápido” en detrimento de presentar mejoras que no tengan un impacto negativo sobre los usuarios.
“La verdadera pregunta no es si hay anuncios o no -reflexiona Hitzig en su columna de opinión-. Es si podemos diseñar estructuras que eviten excluir a las personas del uso de estas herramientas y, potencialmente, no las manipulen como consumidores.”