Microsoft y OpenAI advierten sobre piratas informáticos estatales que aprovechan la IA para ataques cibernéticos destructivos

Microsoft y OpenAI han emitido conjuntamente una advertencia sobre la creciente amenaza de que los piratas informáticos de los estados nacionales empleen inteligencia artificial (IA) y grandes modelos de lenguaje (LLM) para mejorar sus capacidades de ciberataque. El informe identifica a actores-estado-nación vinculados a Rusia, Corea del Norte, Irán y China que experimentan activamente con tecnologías de inteligencia artificial para actividades cibernéticas maliciosas.
La colaboración entre Microsoft y OpenAI reveló que habían frustrado los esfuerzos de cinco actores afiliados al estado, interrumpiendo sus intentos de aprovechar los servicios de IA con fines destructivos al cancelar activos y cuentas. Según Microsoft, el atractivo de los grandes modelos de lenguaje radica en su soporte de lenguaje natural, lo que los hace atractivos para los actores de amenazas especializados en ingeniería social y comunicación engañosa adaptada a objetivos específicos.
Si bien hasta ahora no se han observado ataques significativos o novedosos que utilicen LLM, el informe destaca que estos actores afiliados al estado están explorando tecnologías de inteligencia artificial en varias etapas de la cadena de ciberataques. Las actividades van desde reconocimiento y asistencia en codificación hasta desarrollo de malware.
Se informa que el grupo de estado-nación ruso Forest Blizzard (APT28) ha utilizado los servicios de OpenAI para investigaciones de código abierto sobre protocolos de comunicación por satélite y tecnología de imágenes de radar, así como para tareas de secuencias de comandos. De manera similar, otros actores de amenazas como Emerald Sleet (Kimusky) de Corea del Norte, Crimson Sandstorm (Imperial Kitten) de Irán y Charcoal Typhoon (Aquatic Panda) y Salmon Typhoon (Maverick Panda) de China han utilizado LLM para tareas como identificar expertos, realizar investigaciones. , generando fragmentos de código y creando contenido para campañas de phishing.
En respuesta a la creciente amenaza, Microsoft está tomando medidas proactivas mediante la formulación de un conjunto de principios para mitigar los riesgos asociados con el uso malicioso de herramientas de inteligencia artificial y API por parte de actores estatales, amenazas persistentes avanzadas (APT) y manipuladores persistentes avanzados (APM). y sindicatos cibercriminales. Los principios incluyen identificar y tomar medidas contra actores maliciosos, notificar a otros proveedores de servicios de IA, colaborar con las partes interesadas y garantizar la transparencia al abordar estas amenazas.
Esta colaboración entre Microsoft y OpenAI subraya la necesidad de un esfuerzo colectivo para establecer barreras de seguridad y mecanismos de seguridad en torno a los modelos de IA , reforzando el compromiso con el uso responsable de la IA y la seguridad frente a las amenazas cibernéticas en evolución.