En los últimos meses, casi no pasa una semana sin que algún titular mencione el papel de la inteligencia artificial en la ciberseguridad. En muchos de esos casos, la narrativa suele ser alentadora: herramientas más inteligentes, mayor capacidad de detección, automatización de respuestas, reducción de falsos positivos. Pero detrás de esa historia hay otra, igual de importante y menos reconfortante: los atacantes también están usando IA, y no precisamente para defenderse.

Me atrevo a decir que 2025 marca un punto de inflexión. Si antes ya se veían algunos casos de malware “asistido por IA”, ahora empezamos a ver una adopción más clara y estructurada. No es que los cibercriminales estén construyendo modelos desde cero (aunque algunos grupos avanzados podrían hacerlo), sino que están tomando modelos ya disponibles y adaptándolos a sus fines.

Un ejemplo reciente son campañas de phishing masivas generadas por IA generativa. Los correos no solo están mejor redactados, sino que se geolocalizan por país, sector y lenguaje. Incluso con un tono muy similar al de comunicaciones internas reales de las organizaciones a las que iban dirigidos. Eso no es casualidad. Es entrenamiento, refinamiento y uso de herramientas que hace apenas un par de años eran exclusivas de los investigadores.

 

Phishing sintético y deepfakes más allá del video

En varios incidentes recientes, las víctimas recibieron audio de sus propios ejecutivos solicitando transferencias, generados por clonación de voz. En Asia, durante el primer trimestre de 2025 se desarticularon al menos 87 redes de estafa usando deepfakes. En Estados Unidos, el FBI emitió una alerta en mayo señalando que están usando IA para imitar voces de funcionarios senior mediante llamadas (vishing) y mensajes (smishing), con el propósito de cultivar confianza y acceder a cuentas de alto perfil.

 

No se trata solo de correos. La ingeniería social ahora incluye voces sintéticas que replican con precisión a un CEO pidiendo una transferencia urgente. Herramientas como ElevenLabs o Resemble AI, que inicialmente nacieron con fines creativos, están siendo mal utilizadas para crear audios con una credibilidad alarmante. En varios incidentes recientes, empleados de empresas de servicios han recibido llamadas que parecían auténticas, con instrucciones internas acompañadas de correos que validaban lo dicho en la llamada.

La combinación es peligrosa: IA para redactar el correo, IA para generar la voz, IA para elegir el momento exacto del envío. ¿La víctima? Alguien con acceso operativo que no tiene por qué dudar de lo que parece una orden legítima de su superior.

 

En el plano técnico

Hay avances preocupantes en el uso de IA para automatizar escaneos de vulnerabilidades, evadir reglas de detección y encontrar patrones anómalos en la red, con el propósito de camuflarse mejor. Hay reportes de frameworks ofensivos que incorporan modelos de lenguaje para interpretar los mensajes de error de un firewall, decidir el próximo paso y lanzar un nuevo ataque sin intervención humana directa.

 

¿Te suena familiar? Porque sí, es exactamente lo que nosotros usamos del lado de la defensa. La diferencia es que del otro lado no hay límites éticos ni regulatorios. Solo resultados.

 

Lo que podemos hacer (y lo que no)

Ninguna tecnología es buena o mala por sí misma. Lo que marca la diferencia es el uso. La IA puede seguir siendo nuestra aliada, pero debemos reconocer que el escenario ha cambiado. Ya no basta con entrenar a los usuarios o tener un firewall actualizado. Se necesita una defensa que también sepa aprender. Que pueda anticipar. Que no actúe siempre igual.

Por eso, tecnologías como XDR con capacidades de análisis comportamental, protección contextual y automatización adaptativa están ganando protagonismo. Pero eso sí: no son plug-and-play. Requieren estrategia, monitoreo constante y sobre todo, gente que sepa leer entre líneas.

 

Recomendaciones Adicionales

Si bien la inteligencia artificial representa un salto evolutivo en ciberseguridad, también implica nuevos desafíos que requieren adaptación. Aquí algunas recomendaciones prácticas para abordar esta dualidad con inteligencia y estrategia:

  • Evalúa las herramientas de IA que ya están en uso en tu organización.
    No se trata solo de lo que compras, sino de cómo interactúan tus equipos con asistentes automatizados, APIs y motores de análisis. Verifica qué modelos tienen acceso a qué datos.
  • Implementa procesos de revisión humana en entornos donde la IA tenga autonomía.
    Especialmente si la IA toma decisiones que afectan usuarios, reglas o accesos. La revisión cruzada sigue siendo clave.
  • Monitorea campañas de phishing internas simuladas con enfoque en contenido IA.
    Entrena a tus equipos para reconocer mensajes que “suenan bien”, pero no encajan en contexto. Muchos de los nuevos ataques no tienen errores gramaticales ni señales obvias.
  • Revisa tus políticas de uso de herramientas generativas.
    Limita el ingreso de información sensible a chatbots o servicios externos. Asegúrate de que tu equipo tenga claro lo que puede (y no puede) compartirse.
  • Prepara simulacros de ataque asistido por IA.
    No esperes a que ocurra para saber cómo reaccionar. Ejercicios de respuesta que incluyan elementos como deepfakes, correos sintéticos o comandos generados por IA pueden hacer una gran diferencia.

 

En resumen

Decir que la inteligencia artificial está transformando la ciberseguridad no es una exageración. Pero pensar que solo la transforma del lado defensivo es ingenuo. Así como las organizaciones están probando y adoptando nuevas herramientas, los adversarios también lo están haciendo. Y lo hacen rápido.

Hoy más que nunca, debemos mirar esta tecnología como lo que realmente es: una herramienta de doble filo. Y como todo buen filo, si no se maneja con precisión… corta en la dirección equivocada.