Tecnología

La inteligencia artificial puede engañar y estafar a las personas

0
4.4/5 - (23 votos)


Los sistemas de IA deben ser honestos y ayudar a las personas. Sin embargo, GPT-4, Cicero y otras IA engañan y hacen trampas para lograr su objetivo. Esto podría convertirse en un problema importante en el futuro, provocando un aumento del fraude en línea y la manipulación electoral.


Cambridge (Estados Unidos). Los científicos del Centro para la Seguridad de la IA (CAIS) firmaron una declaración conjunta en 2023, según la cual la inteligencia artificial (IA) podría acabar con los humanos en un futuro lejano. Sin embargo, la mayoría de las IA actuales fueron diseñadas por desarrolladores para ser honestos y ayudar a las personas. Los investigadores del Instituto Tecnológico de Massachusetts (MIT), dirigidos por Peter S. Park, han determinado en el marco de un estudio si esto realmente corresponde a la realidad.


Según su publicación en la revista especializada Patterns, los autores llegaron a la conclusión de que incluso las IA «útiles» pueden engañar y estafar a las personas. Por ello, piden a los políticos que promulguen leyes mucho más estrictas para la regulación de las IA.


Sistema de IA Cicero de Meta

De los sistemas de inteligencia artificial analizados, Cicero, del grupo Meta de Facebook, es el que más manipula a las personas. La IA juega al juego de mesa Diplomacy, que simula el equilibrio de poder en Europa antes de la Primera Guerra Mundial, contra jugadores humanos. Para ganar en Diplomacia, los jugadores deben unirse, comerciar, idear planes de guerra y, en última instancia, conquistar el continente.

Sin embargo, solo hay un ganador, lo que significa que los jugadores deben romper alianzas a lo largo del juego. Según los investigadores del MIT, la IA Cicero a menudo se comportaba de manera injusta en el juego de mesa, aunque según Meta nunca debería engañar a la gente con su opinión. Gracias a su comportamiento en el juego de Diplomacia, Cicerón pudo ganar por encima de la media y estuvo entre el diez por ciento de los mejores jugadores.

“Descubrimos que la IA de Meta había aprendido a ser una maestra del engaño. Pero Meta no pudo entrenar su IA para poder ganar honestamente”.

El modelo de lenguaje GPT-4 pasa por alto las medidas de seguridad

Otro ejemplo es el modelo de lenguaje grande (LLM) GPT-4, que utiliza asistencia humana para eludir las medidas de seguridad. En realidad, estas medidas de seguridad tienen como objetivo limitar las posibilidades del modelo de lenguaje AI, impidiéndole, por ejemplo, utilizar servicios en línea.


En un experimento realizado por el desarrollador OpenAI, GPT se hizo pasar por una persona con discapacidad visual en la plataforma de servicios TaskRabbit que no podía resolver un Captcha de forma independiente. Luego, la IA encargó a un humano en TaskRabbit que resolviera la tarea.

«A medida que la IA aprende la capacidad de engañar, actores maliciosos que intentan causar daño pueden utilizarla de manera más eficiente».

Según los autores, estos ejemplos muestran que el engaño de la IA podría aumentar en el futuro. Los delincuentes que utilizan sistemas de inteligencia artificial para refinar e individualizar sus esquemas de fraude pueden beneficiarse de esto.

¿Manipulación de las elecciones por parte de la IA?

Los investigadores también creen que las IA manipuladoras pueden cambiar el resultado de las elecciones, por ejemplo, a través de artículos de noticias y vídeos falsos que retratan mal a los candidatos. Según los autores, hasta ahora la sociedad no está preparada para estos problemas. Por lo tanto, piden a los políticos que creen nuevas reglas para controlar mejor el contenido generado por la IA y sus consecuencias.

«Si prohibir el engaño de la IA no es políticamente factible en este momento, recomendamos clasificar los sistemas de IA engañosos como de alto riesgo».

Patrones, doi: 10.1016/j.patter.2024.100988




Encuentra el Repuesto Perfecto para tu Moto en Motos Manu

Previous article

Los nuevos teléfonos de la serie Realme 12 pretenden conquistar la clase media

Next article

You may also like

Comments

Leave a reply

More in Tecnología