Tecnología

Con OpenAI todo se viene abajo (otra vez).

0
5/5 - (28 votos)

La semana complicada que ha tenido OpenAI poco a poco se va convirtiendo en un mes complicado, y eso no parece ser un problema El chico de oro de la empresa, Sam Altman.ve a resolverlo fácilmente.

En el último desarrollo de la saga «OpenAI-is-a-disaster», un grupo de empleados actuales y anteriores del desarrollador ChatGPT han expresado su preocupación sobre las motivaciones financieras de la empresa y su compromiso con la inteligencia artificial responsable. En un artículo de New York Times Los informes publicados este martes describen una cultura corporativa llena de falsas promesas.

«El mundo no está preparado y nosotros tampoco“dijo Daniel Kokotajlo, ex investigador de OpenAI, en un correo electrónico anunciando su renuncia, informó el medio estadounidense. “Me preocupa que, a pesar de todo, nos apresuremos y racionalicemos nuestras acciones”.

También es este martes Garganta profunda Los directivos de la startup, junto con otros expertos en IA, publicaron una carta abierta pidiendo cambios en la industria. este colectivo pide a las empresas de IA que se comprometan con una cultura de crítica abierta y prometer no tomar represalias contra quienes planteen preocupaciones.

Aunque la carta no está dirigida específicamente a OpenAI, es un aviso bastante claro y otro golpe para una empresa que ya ha recibido bastante en las últimas semanas.

En un comunicado al respecto Business InsiderUn portavoz del desarrollador de ChatGPT reafirmó el compromiso de su organización con la seguridad, destacando una «línea directa de integridad anónima» a través de la cual los trabajadores pueden plantear sus inquietudes y al comité de seguridad de la empresa.

«Estamos orgullosos de nuestro historial de ofrecer los sistemas de inteligencia artificial más potentes y seguros y creemos en nuestro enfoque científico para gestionar el riesgo», dijo el portavoz en un correo electrónico. «Estamos de acuerdo en que, dada la importancia de esta tecnología, es crucial un debate profundo y continuaremos trabajando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo”.

La seguridad ocupa el segundo o tercer lugar

Un tema común en las quejas contra OpenAI es que las startups no dan prioridad a la seguridad: el crecimiento y las ganancias son lo primero.

En 2019, la empresa pasó de ser una organización sin fines de lucro dedicada a proteger la tecnología a una organización de “beneficio limitado” valorada en 86 mil millones de dólares (aproximadamente 79 mil millones de euros al tipo de cambio actual). Ahora Altman se prepararía para convertirlo en otra herramienta del capitalismo tardío.

Según ex miembros de la junta directiva y ex empleados de OpenAI, esto habría empujado la seguridad aún más abajo en la lista de prioridades.

«Basándonos en nuestra experiencia, creemos que el autogobierno no puede resistir de manera confiable la presión de incentivos lucrativos.“Dijeron Helen Toner y Tasha McCauley, ex miembros de la junta directiva de OpenAI, en un comentario publicado el mes pasado. El economistaen el que pidieron supervisión externa de las empresas de inteligencia artificial.

Toner y McCauley votaron el año pasado para despedir a Altman como director ejecutivo del desarrollador ChatGPT. (En otro artículo de opinión publicado en los medios británicos en respuesta, los actuales miembros de la junta directiva de OpenAI, Bret Taylor y Larry Summers, defendieron tanto a Altman como los estándares de seguridad de la compañía).

Estos incentivos económicos han puesto el crecimiento en primer plano, según algunas personas con conocimiento de la situación de OpenAI. una dinámica en la que la startup compite con otras empresas de inteligencia artificial para desarrollar formas más avanzadas de esta tecnología (Algunos de estos productos se lanzan antes de que algunos piensen que están listos para ser el centro de atención).

Sam Altman, director ejecutivo de OpenAI.

Según una entrevista que Toner concedió la semana pasada, Altman mintió habitualmente y ocultó información a la junta, incluida información sobre procesos de seguridad. Según la exmiembro de la junta, la junta ni siquiera estaba al tanto de la publicación de ChatGPT en noviembre de 2023, según se enteró en Twitter. (La compañía no lo negó específicamente, pero dijo en un comunicado que estaba «decepcionada de que la Sra. Toner continúe volviendo a estos temas»).

Kokotajlo, el ex investigador de OpenAI, lo dijo New York Times que Microsoft comenzó a probar Bing con una versión inédita de GPT, una medida que el Consejo de Seguridad del desarrollador ChatGPT no había aprobado. (Microsoft ha negado ante los medios americanos que esto se haya hecho de esta manera).

Estas preocupaciones coinciden con las de Jan Leike, jefe del Gran alineación Fue presidente de la empresa y ocupó ese puesto junto con el científico jefe y cofundador de OpenAI, Ilya Sutskever, hasta que ambos decidieron recientemente dimitir. Este equipo se dedicó a estudiar los riesgos que la superinteligencia de inteligencia artificial podría suponer para la humanidad, pero sufrió tantas salidas en los últimos meses que finalmente se disolvió cuando sus líderes se marcharon, aunque desde entonces se ha formado un nuevo comité de seguridad.

«En años recientes, La cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantesdijo Leike en una serie de publicaciones en las redes sociales sobre su salida de la startup. «Estuve en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la empresa durante bastante tiempo hasta que finalmente llegamos a un punto de ruptura».

Estas preocupaciones crecen a medida que la empresa se acerca a la inteligencia artificial general (AGI), una tecnología con capacidades intelectuales similares, si no superiores, a las de un ser humano. Muchos expertos afirman que AGI aumenta la probabilidad de p(doom), un término deprimente utilizado en Internet para referirse a la probabilidad de que la IA destruya a la humanidad.

Para decirlo sin rodeos, como dijo el mes pasado a este medio Stuart Russell, un conocido investigador especializado en inteligencia artificial: “Incluso las personas que desarrollan la tecnología dicen que existe la posibilidad de extinción humana.. ¿Qué les dio derecho a jugar a la ruleta rusa con todos los niños?

Una actriz protagonista y acuerdos de confidencialidad

Probablemente no estaba en tus planes para 2024 leer la noticia de que Black Widow se enfrenta a un gigante de Silicon Valley, pero aquí estamos. En las últimas semanas, el desarrollador de ChatGPT se ha topado con algunos enemigos inusuales cuyas preocupaciones van más allá de la seguridad, incluida la actriz Scarlett Johansson.

El mes pasado, la actriz se puso en contacto con sus abogados y escribió una dura carta a OpenAI después de que la compañía lanzara un nuevo modelo de IA con una voz «inquietantemente similar» a la de ella.

Aunque la compañía insiste en que no tenía intención de hacer pasar GPT-4o por Johansson, las similitudes eran innegables, sobre todo teniendo en cuenta que Altman tuiteó «ella» al anunciar el producto, aparentemente en referencia a la película que Johansson protagonizó en 2013 y en la que Jugó una inteligencia artificial. (Spoiler: a esta tecnología no le va bien en la película).

«Me sentí sorprendido, enojado e incrédulo de que el Sr. Altman buscara una voz que sonara tan inquietantemente similar.“dijo Johansson, refiriéndose al nuevo modelo OpenAI, en un comunicado, y agregó que había rechazado varias ofertas de Altman para hablar en ChatGPT.

Scarlett Johansson y OpenAI.

La versión de la compañía en aquel momento era más o menos que sus directivos no se habían comunicado correctamente y habían manejado el asunto con torpeza, lo que no es muy tranquilizador teniendo en cuenta que OpenAI gestiona una de las tecnologías más potentes y peligrosas del mundo.

Las cosas empeoraron aún más cuando se publicó un informe sobre la cultura corporativa de la startup, que intentaba contener los escándalos mediante acuerdos de confidencialidad restrictivos e inusuales. Los empleados que abandonaran OpenAI sin firmar un acuerdo de confidencialidad podrían perder sus derechos sobre las acciones de la organización, lo que en algunos casos significaría una pérdida de millones de euros. Hasta ahora, un acuerdo de este tipo era prácticamente desconocido en el ámbito tecnológico.

«Esto es culpa mía y una de las pocas veces que me sentí realmente avergonzado. liderando OpenAI; «No sabía que esto estaba sucediendo y debería haberlo sabido», respondió el CEO del desarrollador de ChatGPT a estas acusaciones en un tweet.

Sin embargo, días después lo pillaron con las manos en la masa cuando se publicó otro artículo que sugería que Altman conocía estos acuerdos de confidencialidad desde el principio.

Tal como tuvo que aprender el director general: mal tiempo, buen tiempo.

Se acabó la imagen del caballero sin espada

Sin embargo, esta vez un marzo ventoso y un abril lluvioso no hicieron que mayo fuera florido y hermoso.

Como muchas otras empresas de tecnología, el rostro de OpenAI es el de su cofundador y director ejecutivo Sam Altman, quien hasta hace poco era considerado un genio benevolente con una visión de un mundo mejor.

Pero a medida que la imagen del desarrollador de ChatGPT se deteriora, también lo hace la de su director ejecutivo. A principios de este año, la firma de capital de riesgo comenzó a volverse contra Altman, y ahora los usuarios pueden estar predicando con el ejemplo.

El incidente de Scarlett Johansson lo hizo parecer un incompetentelos acuerdos de confidencialidad lo hacían parecer una víbora y los problemas de seguridad lo hacían parecer un genio malvado.

Más recientemente el Wall Street Journal informó sobre algunos tratos cuestionables por parte de Altman este lunes.

Aunque no se beneficia directamente de OpenAI (no tiene participación de propiedad en la startup y su salario de 65.000 dólares es una gota en el océano en comparación con su patrimonio neto de mil millones de dólares), existen muchos conflictos de intereses. Aparentemente tiene inversiones personales en varias empresas con las que el desarrollador de ChatGPT hace negocios.

Por ejemplo, posee acciones en Reddit, que recientemente firmó un acuerdo con OpenAI. El primer cliente de la empresa de energía nuclear Helion, en la que Altman es un importante inversor, fue Microsoft, el mayor socio del desarrollador ChatGPT. (Tanto Altman como OpenAI dicen que el CEO se ha retirado de esos acuerdos).

Ante la avalancha de malas noticias, la startup de inteligencia artificial y su líder han intentado controlar los daños: Altman anunció su compromiso de donar la mayor parte de su patrimonio y la compañía habría llegado a un importante acuerdo con Apple.

Aún así, Un poco de buenas noticias no serán suficientes para limpiar el lío que enfrenta Altman.. Es hora de coger un balde y una fregona y ponerse manos a la obra.

La trampa de luz solar alcanza una temperatura de más de 1.000 grados centígrados

Previous article

Un accidente ha provocado atascos en la A-5 cerca de Alcorcón en dirección Madrid

Next article

You may also like

Comments

Leave a reply

More in Tecnología