La demanda de Elon Musk contra OpenAI de Sam Altman no sólo ha provocado una disputa entre dos ex cofundadores de una organización sin fines de lucro ahora calificada como una «subsidiaria de facto» de Microsoft.
También ha reavivado el complejo salvador de las personalidades más importantes de Silicon Valley.
En el centro de la demanda de Musk contra OpenAI, presentada el 1 de marzo, está la opinión de que la compañía se ha desviado demasiado de su misión fundacional de crear inteligencia artificial general (AGI) para beneficio de la humanidad.
Los abogados de Musk argumentan que la nueva junta directiva de la compañía, formada en noviembre después de un intento de derrocar a Altman como CEO, recurrió no sólo al desarrollo de un AGI sino «a refinarlo para aumentar las ganancias» de sus clientes de miles de millones de dólares de Microsoft -Maximize.
Si bien algunos pueden cuestionar hasta qué punto Musk tiene razón en este caso, toda la historia ha envalentonado a los ejecutivos más duros de Silicon Valley para ofrecer lecciones morales sobre el futuro de la inteligencia artificial.
¿A dónde vas, amigo AI?
Los líderes que impulsan el desarrollo de la IA tuvieron que plantearse una pregunta importante antes de lanzar su tecnología al mundo: ¿abierta o cerrada?
La elección –uno de los puntos clave del argumento de Musk contra OpenAI– es crucial porque ofrece dos alternativas muy diferentes para liberar la IA.
La opción abierta aboga –al menos en teoría– por modelos de IA que sean transparentes en cuanto a cómo son entrenados y desarrollados en colaboración por una comunidad global de desarrolladores. Meta eligió este enfoque con Llama 2; Esto también se aplica a la startup francesa Mistral AI.
Si bien existe la preocupación de que los modelos de código abierto sean vulnerables al abuso por parte de actores maliciosos, sus defensores ven sus beneficios como una gran ventaja sobre los modelos cerrados como el GPT-4 de OpenAI, que no comparten los datos que utilizan para el entrenamiento a puerta cerrada.
Tanto es así que se vuelven moralistas al respecto.
Parte de esa actitud condenatoria salió a la luz el fin de semana pasado después de que el capitalista de riesgo Marc Andreessen decidiera responder a los desacuerdos en la batalla legal de Musk con OpenAI de Vinod Khosla, que apostó 50 millones de dólares por la compañía en 2019.
Según Khosla, el enfoque de OpenAI debe verse en el contexto de la seguridad nacional. «Estamos en una guerra económica tecnológica con China y la IA que absolutamente debemos ganar», escribió en X, antes de preguntarle a Andreessen si abriría el código fuente del Proyecto Manhattan.
Andreessen utilizó la analogía y comparó la IA actual con la producción de armas nucleares durante la Segunda Guerra Mundial.
Andreessen explicó que si la IA es una tecnología tan importante como las armas militares, no debería estar en manos de unos pocos en San Francisco para protegerla de, por ejemplo, una campaña de espionaje del Partido Comunista Chino.
“Lo que uno esperaría es un riguroso proceso de verificación e investigación que se aplique a todos, desde el CEO hasta el chef, con polígrafos mensuales y monitoreo interno constante”, escribió Andreessen en X, antes de afirmar que claramente este no era el caso de OpenAI.
Andreessen reconoció que la analogía es algo “absurda”, ya que la IA trata de matemáticas y no de armas nucleares.
Pero su intercambio verbal con Khosla en línea muestra claramente que los argumentos a favor y en contra de los modelos de código cerrado como GPT-4 resaltan los valores morales de Silicon Valley.
Tendremos que seguir de cerca la evolución del litigio. Según OpenAI, OpenAI dijo a sus empleados en un comunicado interno que «no está de acuerdo categóricamente» con la demanda. Bloombergy cree que Musk lamenta ya no estar asociado con la empresa.
Pero también debemos prestar atención a de qué lado de la batalla están el resto de los líderes de la IA de Silicon Valley. Finalmente, sus propios principios podrían ser juzgados.
Comments