OpenAI ha disuelto su equipo centrado en los riesgos a largo plazo de la inteligencia artificial apenas un año después de que la compañía anunciara el grupo, confirmó el viernes a CNBC una persona familiarizada con la situación.
La persona, que habló bajo condición de anonimato, dijo que algunos de los miembros del equipo serían asignados a varios otros equipos dentro de la empresa.
La noticia llega días después de que ambos líderes del equipo, los cofundadores de OpenAI, Ilya Sutskever y Jan Leike, anunciaran su salida de la startup respaldada por Microsoft. Leike escribió el viernes que «la cultura y los procesos de seguridad de OpenAI han pasado a un segundo plano frente a los productos brillantes».
Anunciado el año pasado, el equipo Superalignment de OpenAI se ha centrado en «avances científicos y de ingeniería para dirigir y controlar sistemas de IA mucho más inteligentes que nosotros». En ese momento, OpenAI dijo que comprometería el 20% de su potencia informática a la iniciativa durante cuatro años.
OpenAI no hizo comentarios, sino que refirió a CNBC a la reciente publicación del cofundador y director ejecutivo Sam Altman en X, en la que compartió que estaba triste por ver partir a Leike y que la compañía todavía tiene más trabajo por hacer.
La noticia de la disolución del equipo fue reportada por primera vez por Wired.
Sutskever y Leike hicieron el anuncio en la plataforma de redes sociales con horas de diferencia el martes.
«Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación», escribió Leike en Breaking Point.
Leike escribió que cree que una parte mucho mayor del alcance de la empresa debería centrarse en la seguridad, la vigilancia, la preparación, la seguridad y el impacto social.
«Estos problemas son bastante difíciles de resolver y me preocupa que no estemos en camino de llegar allí», escribió. “En los últimos meses mi equipo ha estado navegando contra el viento. A veces tuvimos problemas [computing resources] y se volvió cada vez más difícil llevar a cabo esta importante investigación”.
Leike añadió que OpenAI debe convertirse en una «empresa AGI que priorice la seguridad».
«Construir máquinas más inteligentes que los humanos es una tarea intrínsecamente peligrosa», escribió. “OpenAI asume una enorme responsabilidad en nombre de toda la humanidad. Pero en los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes”.
Leike no respondió de inmediato a una solicitud de comentarios.
Las salidas de alto perfil se producen meses después de que OpenAI sufriera una crisis de liderazgo que involucraba a Altman.
En noviembre, la junta directiva de OpenAI destituyó a Altman, diciendo en un comunicado que Altman «no había sido consistentemente abierto en sus comunicaciones con la junta».
El tema parecía volverse más complejo día a día, ya que The Wall Street Journal y otros medios de comunicación informaron que Sutskever cambió su enfoque para garantizar que la inteligencia artificial no dañe a las personas, mientras que otros, incluido Altman, se centraron más en eso, para avanzar en la implementación de nuevas tecnologías.
La destitución de Altman provocó renuncias o amenazas de renuncia, incluida una carta abierta firmada por prácticamente todos los empleados de OpenAI, y un alboroto de los inversores, incluidos microsoft. Al cabo de una semana, Altman estaba de regreso en la empresa y los miembros de la junta directiva Helen Toner, Tasha McCauley e Ilya Sutskever, que habían votado a favor de destituir a Altman, dimitieron. Sutskever permaneció en el personal en ese momento, pero ya no en su función de miembro de la junta directiva. Adam D’Angelo, quien también votó a favor de destituir a Altman, permaneció en la junta.
Cuando se le preguntó sobre el estado de Sutskever en una llamada de Zoom con periodistas en marzo, Altman dijo que no había actualizaciones que pudiera proporcionar. «Amo a Ilya… Espero que trabajemos juntos por el resto de nuestras carreras, mi carrera, lo que sea», dijo Altman. «No hay nada que anunciar hoy».
El martes, Altman compartió su opinión sobre la partida de Sutskever.
«Eso me pone muy triste; «Ilya es sin duda una de las mentes más brillantes de nuestra generación, un modelo a seguir en nuestro campo y un querido amigo», escribió Altman. en X. “Su brillantez y visión son bien conocidas; su calidez y compasión son menos conocidas, pero no menos importantes”. Altman dijo que el director de investigación Jakub Pachocki, que ha trabajado en OpenAI desde 2017, reemplazará a Sutskever como científico jefe.
La noticia de las salidas de Sutskever y Leike y la disolución del equipo de Superalignment llega pocos días después de que OpenAI lanzara un nuevo modelo de IA y una versión de escritorio de ChatGPT, así como una interfaz de usuario actualizada. Este es el último intento de la compañía de ampliar el uso de su popular chatbot.
La actualización trae el modelo GPT-4 a todos, incluidos los usuarios gratuitos de OpenAI, dijo la jefa de tecnología Mira Murati en un evento de transmisión en vivo el lunes. Agregó que el nuevo modelo GPT-4o es “mucho más rápido” y ofrece capacidades mejoradas de texto, video y audio.
OpenAI dijo que eventualmente planea permitir a los usuarios chatear por video con ChatGPT. «Esta es la primera vez que realmente hemos dado un gran paso adelante en términos de usabilidad», dijo Murati.