Tecnología

Los cofundadores de OpenAI reaccionan a la dimisión de sus jefes de seguridad

0

Dos de los cofundadores clave de OpenAI: el director ejecutivo del desarrollador ChatGPT, Sam Altmany su presidente, Greg Brockman— están intentando calmar las aguas tras la reorganización llevada a cabo la semana pasada en la división de seguridad de la empresa de inteligencia artificial.

El científico jefe de OpenAI (que también figuraba como cofundador de la startup), Ilya Sutskever, anunció su dimisión el pasado martes a través de una publicación en X (la red social antes conocida como Twitter). Horas más tarde, su compañero de cuarto Jan Leike siguió los pasos de Sutskever.

Sutskever y Leike lideraron el equipo Gran alineación por OpenAI, una división centrada en el desarrollo de sistemas de IA compatibles con los intereses humanos. Eso la metió en esto a veces una posición contraria a los intereses de los miembros de la dirección de la propia empresaquien abogó por un desarrollo más agresivo de la inteligencia artificial.

«Estuve en desacuerdo con la gerencia de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo hasta que finalmente llegamos a un punto de ruptura», dijo Leike en una publicación en su cuenta X este viernes.

por su parte Sutskever fue uno de los seis miembros de la junta que intentaron destituir a Altman como director ejecutivo. en noviembre pasado, aunque luego dijo que se arrepentía de haberlo intentado.

Logotipo de OpenAI con el texto

Tras la salida de los dos responsables de seguridad de OpenAI Altman llamó a Sutskever «una de las mentes más brillantes de nuestra generación». y dijo estar “súper agradecido” por las contribuciones de Leike. También admitió que Leike tenía razón: “Aún nos queda mucho por hacer, estamos decididos a hacerlo”.

Sin embargo, a medida que las preocupaciones del público sobre la seguridad de la tecnología OpenAI continúan creciendo, Brockman ofreció este sábado más detalles sobre cómo el desarrollador de ChatGPT abordará la seguridad y los riesgos en el futuro, especialmente en el desarrollo de IA general y la creación de sistemas que sean Más avanzado que los chatbots actuales.

En una publicación de casi 500 palabras firmada tanto por Altman como por el presidente de OpenAI: Brockman habló sobre las medidas que ya ha tomado la startup de inteligencia artificial para garantizar la seguridad en el desarrollo y uso de esta tecnología.

“Hemos demostrado una y otra vez las increíbles posibilidades de expansión aprendizaje profundo y hemos analizado sus efectos; Exigimos liderazgo internacional del IAG antes de que tales demandas fueran comunes; y hemos ayudado a ser pioneros en la ciencia de evaluar sistemas de inteligencia artificial para detectar riesgos de desastres”. explicó el presidente de OpenAI.

Altman afirmó recientemente que la mejor manera de regular la IA es crear una agencia internacional que garantice pruebas de seguridad adecuadas, pero también desconfiaba de la regulación de las legislaturas estatalesque tal vez no entiendan completamente la tecnología.

Por su parte, Brockman señaló que OpenAI también ha sentado las bases para el uso seguro de sistemas de inteligencia artificial más avanzados que GPT-4, el modelo de IA detrás de ChatGPT.

“Incluso si avanzamos en esta dirección, Todavía no estamos seguros de cuándo alcanzaremos nuestro límite de seguridad. para los despliegues y no pasa nada si retrasa los plazos de lanzamiento”, afirmó este sábado el presidente de OpenAI, en referencia a la publicación de modelos de inteligencia artificial como el que presentó recientemente su propia empresa, el GPT 4o.

Brockman y Altman agregaron en su publicación conjunta que la mejor manera de mantenerse un paso por delante de las amenazas es también a través de un «círculo de retroalimentación muy estrecho, pruebas rigurosas, consideración cuidadosa en cada paso, seguridad de clase mundial y la armonía de la seguridad y las capacidades». .» existe como cooperación con “gobiernos y actores de seguridad”.

Aún así, no todos están convencidos de que el equipo de OpenAI esté avanzando con el desarrollo de una manera que mantenga a las personas seguras, y menos aún, al parecer, son las personas que lideraban los esfuerzos de la compañía hasta hace unos días en esta dirección.

«Estos problemas son bastante difíciles de resolver. y me preocupa que no estemos en el camino correcto para lograrlo”, dijo sobre el tema Leike, exjefe de seguridad de la startup.


Los consejos más importantes que suelen dar.

Previous article

El juez aplaza el testimonio de la pareja del presidente madrileño hasta el 24 de junio

Next article

You may also like

Comments

Leave a reply

More in Tecnología