Tecnología

Cómo detener los deepfakes pornográficos generados por IA

0
3/5 - (35 votos)

Los riesgos que trae consigo la inteligencia artificial Pueden parecer abrumadores: por cada beneficio que proporciona esta tecnología, hay daños colaterales.

Uno de los principales problemas que provoca la IA son los deepfakes: vídeos, imágenes o archivos de audio generados por inteligencia artificial puede estar diseñado para imitar a una persona real diciendo o haciendo algo que nunca sucedió. Algunos deepfakes se superponen a una secuencia de vídeo real, otros se generan completamente por ordenador.

Un estudio de 2019 titulado El estado de los deepfakes, Este fue el resultado de un estudio de la empresa tecnológica Deep Trace El 96% de los vídeos deepfake eran pornográficos.. Así lo dijo Henry Ajder, investigador especializado en deepfakes y coautor de este estudio. Business Insider que aunque la cifra ha cambiado, el problema sigue siendo grave.

A medida que los generadores de imágenes de IA como DALL·E, Stable Diffusion y Midjourney se vuelven más accesibles, es más fácil para las personas con muy pocos conocimientos técnicos generar deepfakes.

“El porcentaje general es menor ahora, pero El volumen global de contenido pornográfico deepfake se ha disparado“Ajder explicó: “Estamos hablando de millones de víctimas en todo el mundo”.

Aunque el contenido es falso, la humillación, la sensación de trauma y la intimidación de las víctimas son muy reales. Una adolescente británica se suicidó en 2021 después de que otros estudiantes de su escuela secundaria crearan deepfakes pornográficos de ella y los compartieran en un grupo de Snapchat, según una publicación. noticias de la BBC.

Los deepfakes pornográficos de la estrella del pop Taylor Swift han despertado una gran conciencia sobre este tema.
Los deepfakes pornográficos de la estrella del pop Taylor Swift han despertado una gran conciencia sobre este tema.

Axelle/Bauer-Griffin/Getty

Comenzaron a circular en línea el mes pasado. Deepfakes pornográficos de Taylor Swiftlo que llevó a Elon Musk a prohibir las búsquedas de la superestrella del pop en X.

La situación puede parecer grave, pero existen herramientas y métodos que pueden ayudarle a protegerse de la manipulación de su identidad por parte de la inteligencia artificial.

Detección de falsificaciones

El marcas de agua digitalesen el que el contenido está claramente marcado como generado por IA, ha sido visto como una solución por gobiernos como el de Joe Biden en Estados Unidos.

El propósito de estas etiquetas sería Aumentar la conciencia pública y facilitar que las plataformas eliminen los deepfakes dañino. Google y Meta han anunciado planes para comenzar a etiquetar el material creado o modificado por inteligencia artificial con una “credencial digital” que deje claro el origen del contenido.

Por su parte, el desarrollador de ChatGPT y del generador de imágenes DALL·E, OpenAI planea incluir una marca de agua visual y metadatos ocultos que revelan la procedencia de una imagen de acuerdo con los estándares de la Coalición para la autenticidad y procedencia del contenido (C2PA).

Imagen generada por IA de una mujer joven.
Imagen generada por IA de una mujer joven.

IA abierta/Business Insider

También existen plataformas dedicadas a verificar el origen del material publicado en línea. Sensity, otra empresa que ayudó a realizar el estudio de deepfakes de 2019, ha desarrollado un servicio de detección que notifica a los usuarios vía correo electrónico cuando ven contenido con marcas que indican que fue generado por inteligencia artificial.

Pero incluso si una imagen es obviamente falsa (aunque la mayoría aún no tiene marca de agua), la persona en cuestión puede sentirse atacada.

“Pastillas venenosas”

Las herramientas defensivas que protegen las imágenes de la manipulación se consideran una solución más sólida, aunque todavía se encuentran en las primeras etapas de su desarrollo.

Estas herramientas Ofrecer a los usuarios la posibilidad de procesar sus imágenes con una señal imperceptible. que, cuando se pasa a través de un sistema basado en IA, produce un resultado inútil y confuso.

Taylor Swift Grupo Universal Music Deezer

Por ejemplo, Nightshade es una herramienta desarrollada por investigadores de la Universidad de Chicago, EE.UU. Agrega píxeles a las imágenes que se corrompen cuando pasan por la inteligencia artificial.pero esto le da a la imagen una apariencia destinada a humanos.

«Se puede pensar en Nightshade como agregar una pequeña pastilla venenosa a una obra de arte y, literalmente, tratar de confundir el modelo de entrenamiento sobre lo que realmente hay en esa imagen», explicó Ben Zhao, uno de los investigadores. Responsable de esta herramienta, NPR.

Una imagen de la exposición “World of AI-magination” en Nueva York, creada con IA generativa.
Una imagen de la exposición “World of AI-magination” en Nueva York, creada con IA generativa.

Anadolu/Getty

Aunque Nightshade fue diseñado para proteger la propiedad intelectual de los artistas, puede funcionar con cualquier fotografía.

«Es una primera línea de defensa para que la gente se sienta segura al subir fotos del cumpleaños de sus amigos este fin de semana», dijo Ajder.

La regulación puede marcar la diferencia

La regulación sobre inteligencia artificial impulsada por la Unión Europea se está acercando a la realidad y, según Associated Press, al menos diez estados de Estados Unidos ya han introducido una serie de protecciones legales para las víctimas de deepfakes.

Aún así, casos recientes de alto perfil han aumentado la presión sobre los reguladores para prevenir y castigar el uso malicioso de la IA y los deepfakes.

La Comisión Federal de Comunicaciones de EE. UU. ha prohibido los contestadores automáticos generados por inteligencia artificial después de que varios delincuentes realizaran llamadas falsas utilizando una voz generada por IA que sonaba como la de Joe Biden para intentar influir en el resultado de las primarias de New Hampshire.

Una persona que participa en una videollamada.

Además, un grupo bipartidista de senadores estadounidenses presentó en enero pasado un proyecto de ley federal llamado Ley DEFIANCE. permitiría a las víctimas demandar a quienes crean y distribuyen deepfakes sexuales de ellos, convirtiéndolo en un asunto civil y no penal.

Sin embargo, un proyecto de ley presentado en mayo de 2023 por el congresista estadounidense Joe Morelle para penalizar el intercambio de deepfakes no se ha aplicado.

Y muchas de estas nuevas leyes plantean grandes desafíos para los defensores de la libertad de expresión. Según Henry Ajder, la razón es que algunos ven la creación privada de deepfakes como algo parecido a una fantasía que alguien podría tener en la cabeza sobre enamorarse. Si nadie se entera del contenido pornográfico, ¿realmente perjudica a alguien?

disuasión criminal

El problema de los deepfakes también ha afectado a la legislación del Reino Unido, donde la Ley de Seguridad en Línea ha declarado ilegal la distribución de deepfakes pornográficos, pero no su producción.

“Mi contraargumento es que Cuando creas este contenido, le das vida a algo que se puede compartir. «De una manera que la imaginación realmente no puede», argumentó Ajder. En su opinión, penalizar la pornografía deepfake, aunque difícil de procesar, sigue siendo un importante elemento disuasivo.

Algunas personas utilizan herramientas de inteligencia artificial para crear contenidos para consumo privado, afirma Ajder. Sin embargo, es importante ser conscientes de que se trata de un comportamiento delictivo para disuadir a los curiosos, añade.

Los gobiernos también pueden ejercer presión sobre los motores de búsqueda, los desarrolladores de herramientas de inteligencia artificial y las plataformas de redes sociales en las que se distribuye este contenido.

En India, un escándalo de pornografía falsa que involucró a varias actrices de Bollywood llevó al gobierno a acelerar la legislación y presionar a las grandes empresas tecnológicas para que impidieran la distribución en línea de contenidos generados por inteligencia artificial.

«No debemos hacernos la ilusión de que es posible eliminar completamente el problema.Ajder señala: «Creo que lo mejor que podemos hacer es introducir la mayor fricción posible, por lo que hay que estar increíblemente atento». [de lo que estás haciendo] cuando intentas crear este contenido.

Más de 7.000 animales son atendidos en el Hospital de Fauna Silvestre Grefa de Majadahonda

Previous article

Los materiales innovadores para una vida respetuosa con el medio ambiente van en aumento

Next article

You may also like

Comments

Leave a reply

More in Tecnología