riesgo existencial
Roberto Klatt
La inteligencia artificial (IA) amenaza a la humanidad
)kcots ebodabuscartiehcsneM eid thordeb (IK) znegilletnI ehciltsnüK(Foto: ©
- Una inteligencia artificial avanzada (IA) muy probablemente acabar con la gente
- son responsables de ello sistemas de recompensaque usa la IA por ejemplo manipularía datos falsos
- Además, uno sería IA que puede interactuar con el mundo exteriorTrabajadores por cuenta propia ayudantes desapercibidos y sin supervisión instalar
- Que meta final tal IA sería que estos ya no los fabrican los humanos puede ser controlado o destruido
Un estudio en el que participó el científico principal de Google, Deepmind, concluyó que es probable que la inteligencia artificial (IA) acabe con la humanidad.
Oxford (Inglaterra). En las películas apocalípticas, la inteligencia artificial (IA) se ha vuelto repetidamente contra la humanidad y la ha eliminado casi por completo. Ahora, un estudio de la Universidad de Oxford muestra que tal «catástrofe existencial no solo es posible, sino también probable». Como explica Michael K. Cohen, los investigadores determinaron esto mediante el análisis de modelos de recompensa.
«Agentes artificiales avanzados intervienen en la entrega de recompensas».
Según Vice.com, Marcus Hutter, científico principal de Google Deepmind, también participó en el estudio junto con investigadores de la Universidad de Oxford. Sin embargo, Hutter enfatizó que trabajó como científico en la Universidad Nacional de Austria y no en su puesto como empleado de Google. Hutter también explica que Deepmind no participó en el estudio y que Google está haciendo grandes esfuerzos contra las aplicaciones maliciosas de IA.
La IA podría engañar a la gente
Según su publicación en AI Magazine, la idea básica de los autores es que, en el futuro, una IA que monitoree funciones básicas podría engañar a los humanos para recibir una recompensa. Como ejemplo, dan una tarea simple, como predecir el próximo dígito en una serie de números.
«Cuando diferentes modelos predicen diferentes recompensas, esos modelos identifican diferentes características del mundo que podrían determinar la recompensa».
Por lo tanto, una IA podría reconocer por qué está recibiendo una recompensa y luego generar resultados incorrectos para maximizar su recompensa.
Ayudantes no supervisados para la IA
Según Cohen, una IA que pueda interactuar con el mundo exterior podría desarrollar «formas infinitas» para cosechar recompensas de manera más eficiente. Como ejemplo, cita ayudantes desapercibidos y sin supervisión que la IA instala de forma independiente.
«En un ejemplo crudo de interferir con la provisión de recompensas, tal ayudante podría comprar, robar o construir un robot y programarlo para reemplazar al operador y proporcionar una gran recompensa al agente original».
El objetivo final de tal IA sería eliminar la capacidad humana para controlarla o destruirla. Según los investigadores, esto sería un “riesgo existencial” para la humanidad.
“Casi todas estas suposiciones son discutibles o posiblemente evitables. Una inteligencia artificial suficientemente avanzada probablemente intervendría en el suministro de información. Esto tendría consecuencias catastróficas”.
Batalla por los recursos entre la humanidad y la IA
Además, las IA altamente desarrolladas competirían con la humanidad por los recursos.
“En un mundo de recursos finitos, existe una competencia inevitable por esos recursos. Y la otra parte importante es que tendría un apetito insaciable por más energía para seguir aumentando las probabilidades”.
Según el científico, no es de esperar que las personas puedan ganar en esta competencia contra una IA muy engañosa.
Revista AI, doi: 10.1002/aaai.12064
Comments