Tecnología

Elon Musk: La probabilidad de que la IA destruya a la humanidad es del 20%

0
4.1/5 - (38 votos)

Elon Musk está bastante seguro de que vale la pena correr el riesgo de IA, a pesar de que existe una probabilidad entre cinco de que la tecnología se vuelva contra los humanos.

En su discurso en el seminario “El gran debate sobre la IAcelebrada el Pico de abundancia A principios de este mes, Musk recalculó su evaluación anterior del riesgo de la tecnología: “Creo que existe alguna posibilidad de que pueda acabar con la humanidad. Probablemente estoy de acuerdo con Geoff Hinton en que es el 10% o el 20% o algo así”.

Pero añadió: «Creo que el probable escenario positivo supera al negativo».

Musk no mencionó cómo calculó el riesgo.

¿Cuál es la posibilidad?

Roman Yampolskiy, investigador de seguridad en IA y director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville, lo explica Business Insider que Musk tiene razón cuando dice que la IA podría representar un riesgo existencial para la humanidad, pero “en todo caso, es demasiado conservador en su evaluación”.

«En mi opinión, la p(perdición) real es mucho mayor», dice Yamploskiy, refiriéndose a la «probabilidad de perdición», que es la probabilidad de que la IA tome el control de la humanidad o provoque un evento que perjudique a la humanidad. como la creación de una nueva arma biológica o el colapso de la sociedad debido a un ciberataque a gran escala o una guerra nuclear.

Los New York Times ha llamado (p)doom una “nueva estadística enfermiza en Silicon Valley”, citando a varios ejecutivos de la industria tecnológica cuyas estimaciones oscilan entre el 5 y el 50 por ciento de la probabilidad de un apocalipsis impulsado por la IA. Yamploskiy cifra el riesgo en “99,999999%”.

Yamploskiy dice que, dado que sería imposible controlar la IA avanzada, nuestra única esperanza es no construirla nunca.

«No estoy seguro de por qué piensas que es una buena idea dedicarse a esta tecnología», añade Yamploskiy. «Si te preocupa que la competencia llegue primero, está bien, porque la superinteligencia incontrolada es igual de mala, sin importar quién la provoque».

tu película

“Como un niño con inteligencia divina”

En noviembre pasado, Musk dijo que la posibilidad de que la tecnología finalmente «saliera mal» era «prácticamente nula».

Aunque ha sido un defensor de la regulación de la IA, Musk fundó el año pasado una empresa llamada xAI dedicada a ampliar aún más el poder de la tecnología. xAI es un competidor de OpenAI, una empresa que Musk cofundó con Sam Altman antes de que Musk dejara la junta en 2018.

En la cumbre, Musk estimó que la inteligencia digital superará a toda la inteligencia humana combinada para 2030. Si bien Musk enfatizó que los posibles aspectos positivos superan a los negativos, reconoció el riesgo para el mundo si el desarrollo de la IA continúa sin cesar, términos que ha utilizado públicamente.

“Es como criar a un niño. Es casi como criar a un niño, pero uno que es como un súper genio, como un niño con inteligencia divina, y lo importante es cómo se cría al niño», dijo Musk en el evento del 19 de marzo en Silicon Valley, relacionado con la inteligencia artificial general. «Una de las cosas que creo que es increíblemente importante para la seguridad de la IA es tener una IA que busque la verdad y sea lo más curiosa posible».

Musk dice que su “conclusión” sobre la mejor manera de lograr la seguridad de la IA es desarrollarla de una manera que la obligue a ser honesta.

«No hay que obligarlos a mentir, incluso si la verdad es desagradable», dice Musk sobre la mejor manera de proteger a las personas de la tecnología. «Es muy importante. No obligues a la IA a mentir”.

Los investigadores han descubierto que una vez que una IA aprende a mentir a los humanos, el comportamiento engañoso no se puede revertir con las medidas de seguridad actuales de la IA, según los informes. El independiente.

«Si un modelo tuviera un comportamiento fraudulento debido a un sesgo instrumental engañoso o un envenenamiento del modelo, las técnicas actuales de capacitación en seguridad no garantizarían la seguridad e incluso podrían crear una falsa impresión de seguridad», dice el estudio citado por el medio.

Aún más preocupante es que los investigadores añaden que es plausible que la IA aprenda a engañar por sí sola, en lugar de que se le enseñe específicamente a mentir.

«Si se vuelve mucho más inteligente que nosotros, será muy buena manipulando porque lo habría aprendido de nosotros», dijo. CNN Hinton, a menudo conocido como el «padrino de la IA», que sirve de base para la evaluación de riesgos de la tecnología por parte de Musk. «Y hay muy pocos ejemplos de algo más inteligente controlado por algo menos inteligente».

Los representantes de Musk no respondieron de inmediato a la solicitud de comentarios de Musk. Business Insider.


El brillante Breetzke y el fanfarrón Swanepoel aplastan a WP

Previous article

Scheffler, el mejor clasificado en un empate a cinco por el liderato en el Abierto de Houston

Next article

You may also like

Comments

Leave a reply

More in Tecnología