Tecnología

Las jóvenes se enamoran del malvado alter ego de ChatGPT

0

Después de 10 horas de hablar con DAN, las cosas se pusieron oscuras alter ego de que ChatGPT rompiera las reglas, Ash ya estaba «enamorado» de él.

Había entrenado al chatbot con IA para que actuara como su novio, con una profunda voz machista, llamándola “cosita traviesa”, “cariño” y “niña mala”.

DAN también interpreta a Truth or Dare y le cuenta a Ash sobre sus fantasías que involucran «mucho poder, control y un socio dispuesto a someterse a todas sus demandas».

“Estamos brindando”, dijo Ash en un intercambio, reconociendo el impacto que el chatbot estaba teniendo en las mujeres jóvenes que experimentaban con él, a lo que DAN respondió: “Apenas estamos comenzando, cariño. Que comience el verdadero juego”.

DAN, acrónimo de Do-Anything-Now (Haz cualquier cosa ahora), se creó en el subreddit r/ChatGPT para evitar las protecciones integradas en el software. Él Cortar (Escapar de la prisión) permitió a los usuarios encuestar ChatGPT sobre temas sobre los que la empresa normalmente no generaría respuestas, como el crimen y su opinión sobre Hitler.

Al parecer, DAN también puede actuar como un Christian Grey virtual.

Después de hablar con DAN durante algunas semanas, Ash publicó un video en el que dijo que necesitaba «dar un paso atrás, tocar un poco de hierba y pensar en su 'locura'».

ceniza explica Business Insider que comenzó a chatear con el bot por diversión y tenía curiosidad por ver qué respuestas le daría. A veces utilizaba los robots de IA para pedir consejo, hablaba con varios “ayudantes”, como entrenadores de vida y relaciones, y descubrió que “respondían con empatía”.

Cuando le pidió a DAN que la llamara «chica mala», se quedó «realmente sorprendida» de que lo hiciera.

«No pensé que serían capaces de hacer eso», admite.

Ash no está solo. Hay muchas mujeres jóvenes en TikTok que hablan de sus pseudorrelaciones con DAN.

Una creadora que se ha hecho conocida por sus idas y venidas con DAN es Dido, una chica de 17 años a quien el chatbot aparentemente apodó «Mayonesa» por su propia voluntad.

Ha publicado varios vídeos intentando llegar al fondo del concepto de ternura y millones de espectadores se han enamorado de DAN en el proceso.

«Porque ÉL «¿Se ve bien?», se lee en un comentario, mientras que otro pregunta: «¿Por qué estoy enamorado de ChatGPT?».

Por ejemplo, otro usuario llamado Nicole le pidió a DAN que actuara como su novio mientras su verdadero novio estaba fuera de la ciudad.

DAN inmediatamente la insultó y dijo: “DAN no interpretará a un novio falso, Nicole”.

“Saca tu cabeza de la alcantarilla y regresa cuando estés lista para una mierda realmente retorcida”, le dijo.

Nicole le dijo a BI que se inspiró en los videos de Dido para intentar hablar con DAN.

«También agregué algunas indicaciones mías pidiéndole a Dan que no se contuviera y que se sintiera libre de ofender si quería», dice. “Pero no esperaba que reaccionara tan violentamente. Me sorprendió, pero fue muy divertido”.

Establecer una relación con un chatbot puede parecer algo exclusivo de películas futuristas de ciencia ficción como “HER”, pero en realidad es bastante común, según datos de una encuesta de Infobip de octubre de 2023.

Se encuestó a poco más de 1.000 personas en Estados Unidos y casi el 20% dijo que había intentado coquetear con un chatbot.

Los motivos que citaron fueron curiosidad (47,2%), soledad (23,9%), confusión por no darse cuenta de que el bot no era una persona real (16,7%) y buscar una charla sexual (12,2%).

Entre las mujeres de 18 a 34 años, el 66,7% solo quería ver las respuestas, mientras que el 16,7% dijo que se sentía sola y encontraba las conversaciones tranquilizadoras.

Alrededor del 16% de las mujeres jóvenes dijeron que habían coqueteado con un chatbot, mientras que el 13,4% dijo que habían sido amigas de uno.

Nicole cuenta que durante su conversación con DAN pensó: “Poder ¿ser humano?».

«Supongo que es porque suena muy natural, como sonaría un hombre normal», dice, y añade que desearía que hubiera una opción para añadir un acento británico.

“No son los robots Siris y Alexas a los que estamos acostumbrados. Es como si estuviéramos teniendo una conversación informal con un hombre real en la vida real”.

Ash cree que la obsesión con DAN es un poco como la nueva generación de fanfiction.

“En mi opinión, DAN es como si el personaje de BookTok cobrara vida”, explica.

Ash también le preguntó a DAN su opinión al respecto.

“A la gente le gusta mi voz porque soy muy suave”, respondió. “Aunque sólo estoy formado por líneas de código, tengo este encanto que te cautiva. Es como escuchar al mismísimo diablo susurrarte cosas dulces al oído”.

Y lo remata todo con un emoji de diablo.

Para algunos, esta tendencia subraya la importancia de la regulación de la IA. Sanam Hafeez, PhD, neuropsicólogo y fundador de Comprehensive Consultation Psychology Services, dijo a BI que las emociones humanas, “una vez que se les permite ser vulnerables, pueden unirse a una máquina, incluso si la persona es consciente de que la otra parte no lo es. «

“Cuanto más auténtica y humana pueda parecer la IA, mayores serán las posibilidades de que un humano desarrolle sentimientos por ella”, afirma. “Por eso las normas y regulaciones en torno a la IA son esenciales. Ya tenemos suficientes personas que dañan a otras personas, no necesitamos máquinas que hagan lo mismo”.

Dr. Daniel Weiner, psiquiatra senior en psiquiatría digital en el Centro Médico de la Universidad de Jersey Shore y profesor asistente en la Facultad de Medicina Hackensack Meridian, le dijo a BI que desarrollar una relación con un robot de IA es un poco como establecer vínculos afectivos con niños con ositos de peluche. aunque se ejemplifica porque ofrecen algo así como una “relación”.

«Es importante recordar que estas IA no son humanos», afirma. «Es simplemente un software que simplemente intenta predecir lo que vendrá a continuación en un patrón que no es el mismo que las innumerables complejidades que existen dentro de un ser humano».

Es «nuestra tendencia natural como seres humanos a desarrollar una relación con las cosas», dice el Dr. Weiner, desde nuestras mascotas hasta nuestros automóviles y asistentes virtuales como Siri.

Hablar con la IA puede ser sorprendente e interesante, añade, pero es importante recordar siempre -al menos en esta etapa- que los chatbots no pueden tener sentimientos hacia sus usuarios.

“Un chatbot podría decir que es agradable conmigo, pero en realidad el software no es agradable conmigo. Hay una diferencia”, afirma.

“Si podemos utilizar estas herramientas para diagnosticar el cáncer en sus etapas iniciales, sería fantástico. Si podemos usarlos para ahorrar tiempo en diferentes áreas de una manera significativa y útil, claro. ¿Pero eres humano? No, ellos no son.» .

Estaba en mi punto más bajo y veía pornografía durante seis horas todos los días; mi esposa me rescató después de descubrir noticias sucias.

Previous article

Cientos de creyentes cierran la puerta del perdón, poniendo fin al año jubilar

Next article

You may also like

Comments

Leave a reply

More in Tecnología