Google ha confirmado que los piratas informáticos patrocinados por el estado están experimentando con su asistente Gemini impulsado por inteligencia artificial para mejorar sus operaciones cibernéticas. Si bien estos grupos no utilizan Gemini para ejecutar ataques impulsados por IA, están aprovechando la herramienta para reconocimiento, secuencias de comandos y mejoras de productividad, según Threat Intelligence Group (GTIG) de Google.
Se ha detectado que grupos APT (Advanced Persistent Threat) de más de 20 países, incluidos Irán, China, Corea del Norte y Rusia, utilizan Gemini para diversas actividades cibernéticas. Los piratas informáticos iraníes han sido los más activos, empleando a Gemini para investigar vulnerabilidades, redactar campañas de phishing y recopilar inteligencia sobre organizaciones de defensa. Los grupos respaldados por China lo han utilizado para estudiar los sistemas militares y gubernamentales de Estados Unidos, aumentar privilegios y evadir la detección.
Los ciberdelincuentes norcoreanos han confiado en Gemini para crear malware, realizar reconocimientos e incluso redactar solicitudes de empleo fraudulentas como parte de sus esfuerzos por infiltrarse en empresas tecnológicas occidentales. Mientras tanto, los piratas informáticos rusos lo han utilizado principalmente para crear secuencias de comandos, traducir y modificar códigos maliciosos, aunque su participación ha sido más limitada, posiblemente debido a preocupaciones de seguridad con respecto a las plataformas occidentales de inteligencia artificial.
Google también observó a piratas informáticos que intentaban hacer jailbreak a Gemini y eludir sus restricciones de seguridad, aunque, según se informa, estos intentos fracasaron. Sin embargo, el auge de modelos de IA con protecciones de seguridad débiles es una preocupación creciente. Se ha descubierto que otros sistemas de inteligencia artificial, como DeepSeek R1 y Qwen 2.5 de Alibaba, son muy vulnerables a ataques de inyección rápida, lo que permite a actores malintencionados manipularlos con fines poco éticos.
Dado que la IA generativa se utiliza cada vez más para operaciones cibernéticas, las empresas enfrentan una presión cada vez mayor para implementar medidas de seguridad más estrictas para evitar que sus herramientas sean explotadas por actores de amenazas en todo el mundo.
Más lectura:Los piratas informáticos roban millones de números de teléfono de Authy 2FA
