Un exlíder de OpenAI que renunció a la empresa esta semana dijo el viernes que la seguridad “ha pasado a segundo plano” en la influyente compañía de inteligencia artificial (IA).
Jan Leike, que dirigió el equipo de “Superalineamiento” de OpenAI junto con el cofundador de la empresa, que también renunció esta semana, escribió en una serie de publicaciones en la red social X que se unió a la empresa, con sede en San Francisco, porque pensó que sería el mejor lugar para realizar investigaciones sobre IA.
“Sin embargo, durante bastante tiempo he estado en desacuerdo con la dirigencia de OpenAI respecto a las prioridades fundamentales de la empresa, hasta que finalmente llegamos a un punto crítico”, escribió Leike, cuyo último día en la empresa fue el jueves.
Leike, formado como investigador de IA, señaló que, en su opinión, se debería hacer más énfasis en prepararse para la próxima generación de modelos de IA, incluidos factores como la seguridad y el análisis del impacto de esas tecnologías en la sociedad. Dijo que la construcción de “máquinas más inteligentes que los seres humanos es una empresa inherentemente peligrosa”, y que la compañía “tiene una enorme responsabilidad para con la humanidad”.
“OpenAI debe convertirse en una empresa de AGI donde la seguridad sea lo primero”, escribió Leike, usando la abreviatura en inglés de inteligencia artificial general, una visión futurista de las máquinas que son, en general, tan inteligentes como los seres humanos, o al menos, pueden hacer muchas cosas tan bien como lo hacen las personas.
La renuncia de Leike se produjo después de que el cofundador de OpenAI y científico en jefe Ilya Sutskever dijera el martes que dejaría la empresa tras casi una década. Sutskever fue uno de...