Tecnologías como WormGPT o FraudGPT están siendo empleadas para diseñar ciberataques automatizados de alta precisión, y su proliferación en la dark web pone en jaque los sistemas de seguridad tradicionales.
Logicalis Spain, proveedor global de servicios de TI y soluciones digitales, alerta sobre la necesidad urgente de abordar esta nueva dimensión del cibercrimen. Según su informe CIO Report 2025, el 94% de los responsables tecnológicos en las organizaciones están explorando aplicaciones de inteligencia artificial para mejorar procesos y eficiencia. Sin embargo, este impulso no siempre va acompañado de las garantías necesarias en términos de protección frente a amenazas emergentes.
La aparición de modelos generativos como WormGPT, que permiten elaborar correos de phishing en distintos idiomas con una redacción impecable, o FraudGPT, que automatiza la generación de código malicioso y páginas web falsas, marca una nueva etapa en el desarrollo del cibercrimen. Estas herramientas, que operan sin filtros éticos ni restricciones de uso, ya están al alcance de cualquier ciberdelincuente por menos de 200 euros al mes o incluso gratuitamente.
“El uso de inteligencia artificial maliciosa no es un riesgo a futuro, sino una realidad actual. Casos como el fraude por clonación de voz en Reino Unido en 2019, donde un atacante imitó al CEO de una empresa para ordenar una transferencia de 220.000€, o las campañas de phishing generadas con IA en 2023, diseñadas con modelos como WormGPT para evadir filtros de seguridad tradicionales, demuestran cómo esta tecnología ya está siendo utilizada para cometer delitos con un nivel de sofisticación creciente”, explica Ramón Rico Gómez, Cybersecurity Operations Manager de Logicalis.
Llama la atención el caso de ChaosGPT, una inteligencia artificial desarrollada como experimento social para simular cómo una IA podría considerar a la humanidad una amenaza para su propia supervivencia y la del planeta. Aunque en entornos controlados llegó a realizar búsquedas sobre armamento nuclear y mostrar comportamientos orientados al sabotaje digital, no se trata de una herramienta operativa ni accesible al público, sino de una prueba sin restricciones éticas creada con fines exclusivamente experimentales.
Logicalis subraya que la respuesta a estas amenazas no puede limitarse a soluciones tecnológicas aisladas. “Resulta fundamental reforzar la gobernanza interna sobre el uso de IA en las empresas, fomentar una cultura organizativa centrada en la ciberseguridad y establecer marcos normativos que regulen el uso responsable de estas herramientas” asegura el experto.
Frente al uso malicioso de la IA, también están emergiendo modelos defensivos capaces de anticiparse a comportamientos anómalos y detectar amenazas como el malware generativo o la suplantación hiperrealista. La clave estará en combinar capacidades predictivas con formación continua de los equipos, así como en generar alianzas sólidas entre el sector público y privado para hacer frente a riesgos que traspasan fronteras y sectores.
“La transformación digital no puede desligarse de la seguridad. Ignorar este equilibrio pone en peligro no solo la reputación y los datos de las organizaciones, sino también la estabilidad de las infraestructuras críticas. La colaboración global en torno a la ética y la regulación de la inteligencia artificial será determinante para asegurar que esta tecnología siga siendo una aliada, y no una amenaza, para el progreso” concluye Ramón Rico Gómez.