En solo un par de días, la compañía de IA despidió y recontrató a su director ejecutivo. Pero antes de ese drama, un grupo de investigadores habría enviado una carta de alerta a la junta directiva sobre los peligros de un nuevo proyecto.
OpenAI, el laboratorio de desarrollo de inteligencia artificial a cargo de modelos de lenguaje como ChapGPT y de modelos de imágenes automatizadas como DALL-E, ha estado en el ojo del huracán. El pasado 17 de noviembre, Sam Altman fue despedido de su puesto como director ejecutivo (CEO), mientras que Greg Brockman fue removido como presidente del director (chairman), lo que posteriormente lo llevó a renunciar como presidente de toda la compañía.
La situación generó un caos al interior de OpenIA, ya que cientos de trabajadores amenazaron con renunciar y unirse a Microsoft ante la decisión tomada con los cabecillas de la compañía. Sin embargo, solo cuatro días después, tanto Altman como Brockman volvieron a sus cargos, lo que llevó a que la mayoría del resto del directorio dejase sus puestos.
En ese contexto, ahora desde Reuters aseguraron que dos fuentes les han informado que, cuatro días antes del despido de Altman, un grupo de investigadores escribió una carta a la junta directiva para “alertar sobre un poderoso descubrimiento de inteligencia artificial que podría amenazar a la humanidad”.
“Las fuentes citaron la carta como un factor entre una lista más larga de quejas de la junta que llevaron al despido de Altman, entre las que se encontraban preocupaciones sobre la comercialización de avances antes de comprender las consecuencias. Reuters no pudo revisar una copia de la carta. El personal que escribió la carta no respondió a las solicitudes de comentarios”, plantearon en su revelación.
Q*: ¿Un proyecto preocupante?
De acuerdo a Reuters, OpenAI no quiso hacer comentarios sobre la supuesta carta, no obstante posteriormente realizó una comunicación interna con sus trabajadores para hablar de un proyecto llamando simplemente como Q*.
Por ahora está más o menos claro que algunos trabajadores de OpenAI creen que el proyecto Q* podría representar “un gran avance” para el desarrollo de una inteligencia artificial general (AGI, por sus siglas en inglés), lo que implica el desarrollo de un sistema autónomo que “puede superar a los humanos en la mayoría de las tareas económicas valiosas”.
“Dados los vastos recursos informáticos, el nuevo modelo pudo resolver ciertos problemas matemáticos”, indicó una de las fuentes de Reuters. “Aunque solo realizaba matemáticas al nivel de los estudiantes de escuela primaria, superar esas pruebas hizo que los investigadores se sintieran muy optimistas sobre el éxito futuro de Q*”, agregaron.
La carta enviada a la directiva de Open IA habría dado cuenta de “la destreza y el peligro potencia” de la inteligencia artificial, aunque por ahora no se han filtrado las preocupaciones de seguridad que listaron.
En ese escenario, aunque existen múltiples historias de ciencia ficción que apuntan a los peligros de una super computadora consciente, como es el caso de Skynet, en Reuters remarcan que los informáticos “llevan mucho tiempo debatiendo el peligro que suponen las máquinas muy inteligentes, si, por ejemplo, pudieran decidir que la destrucción de la humanidad era de su interés”.
Otra de las preocupaciones listadas implica el trabajo que llevaría a cabo un equipo de científicos expertos en inteligencia artificial para optimizar modelos actuales que permitan “mejorar su razonamiento y eventualmente realizar trabajo científico”.
Leer más:
- Todas quieren ser como Talca: las marcas trollean con su propuesta “más larga”
- “A veces me odio”: Metalero invitó una chica a un concierto y se le arrancó con el guitarrista