OpenAI ha disuelto su equipo enfocado en los riesgos a largo plazo de la inteligencia artificial, apenas un año después de que la empresa anunciara la formación de este grupo, confirmó una persona familiarizada con la situación a CNBC el viernes.
La persona, que habló bajo condición de anonimato, dijo que algunos miembros del equipo están siendo reasignados a otros equipos dentro de la empresa.
La noticia llega días después de que ambos líderes del equipo, el cofundador de OpenAI Ilya Sutskever y Jan Leike, anunciaran sus salidas de la startup respaldada por Microsoft. Leike escribió el viernes que la “cultura y procesos de seguridad de OpenAI han quedado relegados a un segundo plano frente a productos llamativos.”
El equipo de Superalignment de OpenAI, anunciado el año pasado, se había centrado en “avances científicos y técnicos para guiar y controlar sistemas de IA mucho más inteligentes que nosotros.” En ese momento, OpenAI dijo que destinaría el 20% de su poder de cómputo a la iniciativa durante cuatro años.
OpenAI no proporcionó comentarios y en su lugar dirigió a CNBC a la reciente publicación de Sam Altman, cofundador y CEO, en X, donde compartió que estaba triste de ver a Leike irse y que la empresa tenía más trabajo por hacer. El sábado, el cofundador Greg Brockman publicó una declaración atribuida a él y a Altman en X, afirmando que la empresa ha “aumentado la conciencia sobre los riesgos y oportunidades de la AGI para que el mundo pueda prepararse mejor para ello.”
La noticia de la disolución del equipo fue reportada primero por Wired.
Sutskever y Leike anunciaron sus salidas el martes en la plataforma de redes sociales X, con pocas horas de diferencia, pero el viernes Leike compartió más detalles sobre por qué dejó la startup.
“Me uní porque pensé que OpenAI sería el mejor lugar del mundo para hacer esta investigación,” escribió Leike en X. “Sin embargo, he estado en desacuerdo con la dirección de OpenAI sobre las prioridades fundamentales de la empresa durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura.”
Leike escribió que cree que mucho más del ancho de banda de la empresa debería centrarse en la seguridad, el monitoreo, la preparación, la seguridad y el impacto social.
“Estos problemas son bastante difíciles de resolver, y me preocupa que no estemos en una trayectoria para lograrlo,” escribió. “En los últimos meses mi equipo ha estado navegando contra el viento. A veces estábamos luchando por [recursos informáticos] y se estaba volviendo cada vez más difícil llevar a cabo esta investigación crucial.”
Leike agregó que OpenAI debe convertirse en una “empresa de AGI con prioridad en la seguridad.”
“Construir máquinas más inteligentes que los humanos es una empresa inherentemente peligrosa,” escribió. “OpenAI está asumiendo una responsabilidad enorme en nombre de toda la humanidad. Pero en los últimos años, la cultura y los procesos de seguridad han quedado relegados a un segundo plano frente a productos llamativos.”
Leike no respondió de inmediato a una solicitud de comentarios.
Las salidas de alto perfil llegan meses después de que OpenAI atravesara una crisis de liderazgo que involucró a Altman.
En noviembre, la junta directiva de OpenAI destituyó a Altman, diciendo en una declaración que Altman no había sido “consistentemente franco en sus comunicaciones con la junta.”
El problema parecía volverse más complejo cada día, con The Wall Street Journal y otros medios informando que Sutskever centraba su atención en asegurar que la inteligencia artificial no dañara a los humanos, mientras que otros, incluidos Altman, estaban más ansiosos por avanzar con la entrega de nueva tecnología.
La destitución de Altman provocó renuncias o amenazas de renuncias, incluyendo una carta abierta firmada por prácticamente todos los empleados de OpenAI, y un clamor de los inversores, incluyendo Microsoft. En una semana, Altman estaba de vuelta en la empresa, y los miembros de la junta Helen Toner, Tasha McCauley e Ilya Sutskever, que habían votado por destituir a Altman, se fueron. Sutskever permaneció en el personal en ese momento pero ya no en su capacidad como miembro de la junta. Adam D’Angelo, que también había votado por destituir a Altman, permaneció en la junta.
Cuando se le preguntó a Altman sobre el estado de Sutskever en una llamada de Zoom con periodistas en marzo, dijo que no había actualizaciones para compartir. “Amo a Ilya… Espero que trabajemos juntos por el resto de nuestras carreras, mi carrera, lo que sea,” dijo Altman. “Nada que anunciar hoy.”
El martes, Altman compartió sus pensamientos sobre la partida de Sutskever.
“Esto es muy triste para mí; Ilya es fácilmente una de las mentes más brillantes de nuestra generación, una luz guía de nuestro campo, y un querido amigo,” escribió Altman en X. “Su brillantez y visión son bien conocidas; su calidez y compasión son menos conocidas pero no menos importantes.” Altman dijo que el director de investigación Jakub Pachocki, que ha estado en OpenAI desde 2017, reemplazará a Sutskever como científico jefe.
Las noticias de las salidas de Sutskever y Leike, y la disolución del equipo de superalignment, llegan días después de que OpenAI lanzara un nuevo modelo de IA y una versión de escritorio de ChatGPT, junto con una interfaz de usuario actualizada, el último esfuerzo de la empresa para expandir el uso de su popular chatbot.
La actualización trae el modelo GPT-4 a todos, incluyendo a los usuarios gratuitos de OpenAI, dijo la jefa de tecnología Mira Murati el lunes en un evento transmitido en vivo. Agregó que el nuevo modelo, GPT-4o, es “mucho más rápido,” con capacidades mejoradas en texto, video y audio.
OpenAI dijo que eventualmente planea permitir que los usuarios realicen videollamadas con ChatGPT. “Esta es la primera vez que realmente estamos dando un gran paso adelante en lo que respecta a la facilidad de uso,” dijo Murati.