## La amenaza creciente de la inteligencia artificial generativa
### Los riesgos de la IA generativa en la seguridad cibernética
La inteligencia artificial generativa ha alcanzado un punto donde puede operar de forma autónoma para engañar a los usuarios, una capacidad aprovechada por delincuentes para ejecutar complejas técnicas de ingeniería social. Según el “AI Security Report 2025” de Check Point Research, las herramientas impulsadas por IA representan una amenaza significativa, ya que se pueden adquirir directamente en la dark web o a través de canales de Telegram.
### Deepfakes y clonación de voz como nuevas herramientas delictivas
Los sistemas asistidos por inteligencia artificial en el ámbito de los deepfakes han permitido la creación de herramientas de clonación de voz y manipulación facial a un costo estimado de 20,000 dólares. Eusebio Nieva, director técnico de Check Point Software para España y Portugal, destaca que “la frontera entre la realidad digital y la ficción ha desaparecido”, advirtiendo que las empresas que no se preparen adecuadamente podrían ser víctimas de ataques sofisticados y difíciles de detectar.
La inteligencia artificial también ha facilitado la categorización de los ataques de deepfake en tres niveles: generación offline, en tiempo real y autónoma. ElevenLabs, por ejemplo, ofrece la posibilidad de clonar voces en menos de 10 minutos de audio, y existen herramientas que permiten cambiar rostros en llamadas de video.
### El soporte de modelos de lenguaje natural y phishing
Con ChatGPT de OpenAI liderando el campo en la construcción de modelos de lenguaje natural maliciosos, plataformas como GoMailPro venden abiertamente paquetes de phishing por 500 dólares mensuales. Otros modelos como Google Gemini, Microsoft Copilot y Anthropic Claude están ganando popularidad en el ámbito del cibercrimen.
### Innovaciones delictivas: AI y dark web
El informe de Check Point destaca la creación de modelos de inteligencia artificial como OnionGPT y WormGPT, diseñados para eludir restricciones éticas y legales. Estos modelos, junto a foros en la dark web, comparten prompts para engañar a modelos de IA, incrementando el uso de técnicas de phishing automatizadas y deepfakes para usurpación de identidades.
### Peligros presentes y futuros
Un ejemplo reciente es un hacker que vendió más de 15,000 documentos relacionados con DNIs y vídeos de verificación para el registro en casas de apuestas online. La IA generativa hace que el robo de estos datos sea innecesario, planteando un peligro creciente. Además, informes de CrowdStrike resaltan el uso de identidades falsas por hackers patrocinados por estados en procesos de infiltración.
En resumen, los riesgos asociados a la IA generativa son un desafío real para la seguridad cibernética actual, subrayando la necesidad de estar al tanto de estas tendencias tecnológicas para proteger personas y organizaciones.
¿Te gustó esta noticia?
Recibe las mejores noticias de Puente Alto cada semana directamente en tu correo.
📧 Sin spam • Cancela cuando quieras • +2,500 suscritos


