Los ciberataques se vuelven significativamente más precisos con la IA

Seguridad de la información
2 de diciembre de 2025 07:30
Dennis L.
nenoitarepook etlhazeb tlähtnE
(Imagen simbólica). Una entrada discreta en el portátil provoca en segundo plano un compromiso total del sistema. La imagen representa ciberataques altamente automatizados en los que herramientas respaldadas por IA identifican y explotan vulnerabilidades en segundos antes de que los mecanismos de protección clásicos puedan reaccionar.
)kcots ebodAnombre(Foto: ©
- La IA permite phishing en perfecto alemán sin errores de ortografía
- Modelos de lenguaje prueba automáticamente miles de contraseñas por minuto
- Realista falsificaciones profundas hacer que las estafas telefónicas parezcan llamadas de jefes reales
Los ciberataques han dependido durante mucho tiempo de la creatividad de los perpetradores individuales y de recursos limitados, pero la inteligencia artificial está cambiando fundamentalmente esta situación. Los modelos de lenguaje formulan correos electrónicos de phishing convincentes, los sistemas generativos generan voces y rostros engañosamente reales, mientras que otros algoritmos buscan en las redes objetivos vulnerables. Los estudios iniciales muestran que los ataques basados en IA apenas se diferencian de la comunicación legítima y llevan los filtros clásicos al límite. Al mismo tiempo, las mismas tecnologías abren nuevas oportunidades para detectar anomalías y hacer que los riesgos sean más cuantificables.
En la práctica, este desarrollo significa que los ciberataques se parecen cada vez menos a situaciones excepcionales y raras y cada vez más a procesos a escala industrial. Los atacantes también pueden utilizar las mismas herramientas que generan texto productivo, código de software o diseños de marketing en las empresas para generar facturas falsas, aplicaciones creíbles o mensajes de soporte falsos. Análisis estratégicos como el Global Cybersecurity Outlook enfatizan que la IA generativa actúa como un “multiplicador”, aumentando el número de intentos de engaño y mejorando su calidad lingüística sin requerir tiempo de trabajo humano adicional. Para los defensores, esto cambia el enfoque de los mensajes de advertencia individuales a la cuestión de qué flujos de datos, identidades y procesos deben protegerse sistemáticamente.
Este cambio es particularmente evidente en los ataques dirigidos a la manipulación social. En lugar de mensajes cortos y llenos de baches, que antes muchos usuarios podían reconocer rápidamente como sospechosos, ahora se crean diálogos más largos, relacionados con el contexto, que se adaptan al tono de voz, a los términos técnicos y a la ortografía típica de la persona objetivo. Un estudio reciente en Electronics describe un corpus de 865 correos electrónicos de phishing generados por IA que son gramaticalmente correctos y difieren mucho entre sí, lo que dificulta significativamente el reconocimiento de patrones clásicos. Paralelamente, los análisis de la inteligencia artificial generativa en escenarios de ingeniería social muestran que los chatbots y los generadores de imágenes se pueden utilizar en varias fases de un ataque, desde la recopilación de información hasta el establecimiento de contacto y las conversaciones en curso.
La IA como amplificador de las fases de ataque clásicas
Muchos ciberataques siguen una estructura recurrente: los atacantes primero obtienen una visión general de los objetivos y las vulnerabilidades, luego desarrollan un escenario de ataque adecuado, colocan el cebo y finalmente intentan obtener acceso permanente a los sistemas. En cada una de estas fases interviene la inteligencia artificial. Los algoritmos de búsqueda y los rastreadores analizan grandes cantidades de datos disponibles públicamente para reconstruir organigramas, estructuras de correo electrónico o patrones de comunicación típicos en las empresas. Los grandes modelos lingüísticos se encargan entonces del desarrollo de mensajes individuales que no sólo se formulan en el lenguaje correcto y en la forma educada, sino también en el tono de voz habitual de una empresa. Esto reduce el costo por ataque al tiempo que aumenta la probabilidad de éxito.
Además, los modelos de lenguaje modernos no sólo formulan, sino que también explican y optimizan. Los atacantes pueden usarlos para comprender mejor los mensajes de error, reelaborar fragmentos de código en busca de malware o crear scripts diseñados específicamente para sistemas operativos específicos. La literatura técnica sobre la “IA armada” describe cómo se utiliza el aprendizaje automático para eludir los sistemas de detección, seleccionar automáticamente rutas de ataque u ofuscar códigos maliciosos. Al mismo tiempo, trabajos recientes muestran que los mismos modelos también se pueden utilizar con fines de defensa, por ejemplo, interpretando datos de registro o señalando cambios de configuración sospechosos. Esto crea un equilibrio dinámico: el progreso por parte de los atacantes obliga a ajustes continuos por parte de los defensores, y viceversa.
Correos electrónicos de phishing y fraudes deepfake en la práctica
En la vida cotidiana de muchas empresas, los correos electrónicos de phishing siguen siendo el punto de entrada más importante para los ciberataques. Los estudios sobre campañas de phishing generadas por IA muestran que los correos electrónicos generados automáticamente parecen tan confiables en pruebas estandarizadas como los textos escritos por humanos y aún pueden personalizarse en grandes cantidades. Al mismo tiempo, los análisis de la industria indican que el daño económico es significativo: las estimaciones cifran las pérdidas anuales para la economía alemana debido al cibercrimen en más de 200 mil millones de euros, atribuibles en gran parte a casos de fraude, robo de datos y ransomware. Una evaluación de los ciberataques dirigidos a la economía alemana también muestra que los grupos organizados y los actores respaldados por el Estado representan una proporción cada vez mayor de estos incidentes.
Además del correo electrónico, la voz y el vídeo también cobran cada vez más importancia. El fraude deepfake utiliza modelos generativos para imitar las voces de ejecutivos o socios y forzar transferencias a corto plazo o la divulgación de datos confidenciales. Los primeros casos documentados describen llamadas telefónicas en las que la voz falsa de un superior fue suficiente para liberar grandes cantidades de dinero, aunque no hubiera ningún correo electrónico. La línea entre la manipulación social digital y analógica se está difuminando: una videollamada que muestra caras conocidas ya no tiene por qué ser auténtica; una conferencia telefónica puede contener deepfakes en tiempo real diseñados para tiempos de respuesta rápidos y situaciones estresantes. Esto significa que la calidad de la sensibilización de los empleados adquiere aún más importancia, porque los filtros técnicos por sí solos difícilmente pueden absorber completamente estas situaciones.
- Creación impulsada por IA de campañas de phishing personalizadas con diferentes líneas de asunto y contenido.
- Fraude deepfake por teléfono o videoconferencia que se basa en voces y rostros familiares
- Traducción y localización automatizadas de textos de ataque a muchos idiomas en una fracción de segundo
- Herramientas que comparan las credenciales robadas con los servicios en línea a escala
- Chatbots que responden a las consultas de las víctimas en tiempo real y así generan confianza
Estos ejemplos muestran que la manipulación social ya no consiste únicamente en mensajes individuales, sino cada vez más en escenarios dialógicos en los que los chatbots reaccionan dinámicamente ante objeciones, consultas o retrasos. Al mismo tiempo, el lugar del ataque está cambiando: además de las clásicas direcciones de correo electrónico de empresa, los mensajeros privados, las plataformas de colaboración y las redes sociales se están volviendo cada vez más foco de atención. Los análisis de la seguridad de TI en la oficina central muestran que los entornos de trabajo distribuidos aumentan las superficies de ataque porque los dispositivos y canales de comunicación privados y de trabajo están más estrechamente entrelazados.
Defensa con ISO 27001 y evaluación sistemática de riesgos

En vista de esta evolución, no basta con añadir medidas técnicas individuales; Lo que se requiere es un enfoque sistemático que considere la seguridad de la información como parte de todo el sistema de gestión. Un marco establecido es la norma ISO 27001, que define los requisitos para un sistema de gestión de seguridad de la información y se basa explícitamente en un enfoque basado en riesgos. En este contexto, amenazas como los ciberataques no se tratan simplemente como una posibilidad abstracta, sino que se describen en forma de escenarios concretos cuya probabilidad de ocurrencia y su impacto pueden cuantificarse. En el caso de los ataques respaldados por IA, esto significa que tanto el aspecto técnico (como las campañas de phishing automatizadas o el malware generado por IA) como los factores organizativos como la formación, los procesos de aprobación y los canales de denuncia se consideran juntos.
La implementación práctica depende en gran medida de la calidad del análisis de riesgos. Como parte de una evaluación de riesgos estructurada ISO 27001, se pueden mapear nuevas amenazas expandiendo explícitamente los escenarios de ataque para incluir componentes de IA, como el fraude profundo en las aprobaciones de pagos o el compromiso automatizado del acceso a la nube. Es fundamental que los riesgos no sólo se describan cualitativamente, sino que también se documenten con cifras clave mensurables, como tiempos de inactividad esperados, posibles demandas de rescate o daños a la reputación. Sobre esta base, las empresas pueden establecer prioridades: ¿qué sistemas requieren autenticación multifactor, dónde tienen sentido mecanismos de verificación adicionales para las instrucciones de pago y dónde vale especialmente la pena el uso de sistemas de defensa respaldados por IA?
Además, la evaluación continua de la seguridad es cada vez más importante. En lugar de actualizar los conceptos de seguridad sólo a intervalos de varios años, estudios recientes de grandes modelos lingüísticos en ciberseguridad pintan el panorama de una carrera armamentista en curso en la que nuevos métodos de ataque y técnicas de defensa se reemplazan rápidamente entre sí. Las empresas que alineen sus procesos con la norma pueden comenzar aquí evaluando periódicamente cifras clave sobre incidentes, ataques evitados y vulnerabilidades identificadas e incorporándolas en la planificación de las próximas medidas. Las auditorías internas y los escenarios de prueba en los que se simulan ataques apoyados por la IA permiten comprobar los mecanismos de control en condiciones realistas. Además, los análisis técnicos de los sistemas operativos y la protección de endpoints, como los descritos en estudios de versiones más seguras de Windows, proporcionan información sobre qué cambios de configuración aportan mayores beneficios en seguridad.
Cuestiones abiertas y límites de la defensa actual
A pesar de los numerosos avances técnicos, aún no está claro cómo se desarrollarán las relaciones sociales y legales con los ciberataques respaldados por IA. Muchos métodos de detección se basan en el reconocimiento de patrones en textos, imágenes o protocolos de red, pero los modelos generativos mejoran continuamente y pueden adaptarse específicamente a filtros conocidos. Las investigaciones muestran que los modelos lingüísticos no sólo proporcionan respuestas útiles, sino que también pueden ser engañados deliberadamente para producir resultados no deseados cuando se enfrentan a datos especialmente construidos. Al mismo tiempo, los equipos de seguridad están experimentando con el uso de los mismos modelos para analizar datos de registro, priorizar alertas o resumir automáticamente incidentes complejos, reduciendo la carga de trabajo pero creando nuevas dependencias.
Otro factor de incertidumbre es la disponibilidad de herramientas. Si bien algunas plataformas prohíben explícitamente la generación de código malicioso o contenido de phishing, existen otros servicios que implementan dichos bloqueos de manera menos estricta. El estudio antes mencionado sobre ataques de phishing basados en IA muestra que se utilizó un único servicio para generar automáticamente cientos de correos electrónicos diferentes, muchos de los cuales se parecen a correos electrónicos comerciales reales. Paralelamente, las revisiones actuales describen una amplia gama de aplicaciones potenciales de grandes modelos de lenguaje, desde el soporte en el análisis de vulnerabilidades hasta la generación automatizada de exploits. Esto deja claro que la frontera entre la investigación legítima, el uso productivo y el uso indebido a menudo sólo reside en las condiciones marco de la organización respectiva y su voluntad de adaptar continuamente los mecanismos de protección.
Revisión de Inteligencia Artificial, Engaño digital: inteligencia artificial generativa en ingeniería social y phishing; doi:10.1007/s10462-024-10973-2
IA, grandes modelos de lenguaje en ciberseguridad: un estudio de aplicaciones, vulnerabilidades y técnicas de defensa; doi:10.3390/ai6090216
Si quieres conocer otros artículos parecidos a Los ciberataques se vuelven significativamente más precisos con la IA puedes visitar la categoría Tecnología.
Deja una respuesta
Lo siento, debes estar conectado para publicar un comentario.

Otras noticias parecidas