Seguridad informática El malware impulsado por IA amenaza con saturar los...

El malware impulsado por IA amenaza con saturar los sistemas de detección con la creación de 10.000 variantes

Los investigadores en ciberseguridad están alertando sobre el posible uso indebido de los modelos de lenguaje de gran tamaño (LLM) para potenciar el desarrollo de malware. Un nuevo análisis de Unit 42 de Palo Alto Networks revela que los LLM, si bien no son aptos para crear malware desde cero, pueden reescribir y ofuscar código malicioso existente a gran escala, creando variantes que evaden la detección en hasta el 88 % de los casos.

Esto plantea preocupaciones críticas sobre cómo los actores de amenazas podrían explotar la IA generativa para eludir los sistemas de detección, degradar los modelos de aprendizaje automático y desplegar un arsenal de malware en constante expansión .

La mecánica de la creación de malware potenciado por IA

Según Unit 42, los delincuentes pueden solicitar a los LLM que realicen transformaciones en código JavaScript malicioso, lo que dificulta que los sistemas de detección detecten los scripts reescritos . A diferencia de las herramientas de ofuscación tradicionales que generan resultados menos convincentes, las reescrituras impulsadas por LLM parecen más naturales y más difíciles de detectar.

Las técnicas de transformación clave incluyen:

  • Cambio de nombre de variable
  • División de cuerdas
  • Inserción de código basura
  • Eliminación de espacios en blanco
  • Reimplementación completa del código

Cada iteración genera una nueva variante de malware que mantiene la funcionalidad maliciosa original y reduce significativamente sus posibilidades de ser detectado.

La Unidad 42 demostró este enfoque utilizando LLM para crear 10.000 variantes de JavaScript a partir de muestras de malware existentes. Estas variantes engañaron con éxito a los clasificadores de malware, incluidos los modelos ampliamente utilizados como PhishingJS e Innocent Until Proven Guilty (IUPG). En muchos casos, incluso la plataforma VirusTotal no logró detectar los scripts reescritos como maliciosos.

El lado peligroso de la ofuscación de la IA

A diferencia de herramientas más antiguas como obfuscator.io, que producen patrones que se pueden detectar y rastrear con mayor facilidad, las reescrituras basadas en LLM son inherentemente más sofisticadas. Parecen más parecidas al código legítimo, lo que las hace más difíciles de identificar para los modelos de aprendizaje automático (ML) y las herramientas antivirus.

El impacto de este método es profundo:

  • Los clasificadores de malware son engañados para etiquetar los scripts maliciosos como benignos.
  • Los modelos ML sufren una degradación del rendimiento y luchan por mantenerse al día con la evolución constante de las variantes de malware.
  • Los sistemas de detección corren el riesgo de volverse obsoletos a medida que los adversarios generan continuamente malware nuevo e indetectable.

Aprovechar los LLM para cometer delitos cibernéticos de mayor alcance

Esta tendencia no se limita al desarrollo de malware. Los actores maliciosos están aprovechando herramientas fraudulentas como WormGPT, que utilizan inteligencia artificial generativa para automatizar campañas de phishing y crear ataques de ingeniería social convincentes adaptados a víctimas específicas.

Si bien los proveedores de LLM han implementado medidas de protección para limitar el abuso, como el reciente bloqueo por parte de OpenAI de 20 operaciones engañosas en octubre de 2024, los actores de amenazas encuentran constantemente formas de sortear estas restricciones.

El lado positivo: combatir el fuego con fuego

A pesar de los riesgos, las mismas técnicas impulsadas por LLM que se utilizan para ofuscar el malware también pueden ayudar a los defensores. Unit 42 sugiere utilizar estos métodos de IA para generar datos de entrenamiento que mejoren la solidez de los modelos de detección de malware. Al proporcionar a los clasificadores más ejemplos de código ofuscado, los investigadores podrían reforzar potencialmente su capacidad para detectar incluso las variantes más avanzadas.

Vulnerabilidades emergentes de la IA: ataque TPUXtract

El aumento del malware impulsado por LLM no es la única amenaza relacionada con la IA que aparece en los titulares. Investigadores de la Universidad Estatal de Carolina del Norte han revelado un ataque de canal lateral, denominado TPUXtract, capaz de robar arquitecturas de modelos de IA de las unidades de procesamiento tensor (TPU) de Google Edge.

Al capturar las señales electromagnéticas emitidas durante las inferencias de las redes neuronales, los atacantes pueden extraer detalles como tipos de capas, números de nodos, tamaños de filtros y funciones de activación con una precisión del 99,91 %. Aunque este ataque requiere acceso físico al dispositivo y un equipo costoso, plantea un grave riesgo para la propiedad intelectual y podría facilitar ciberataques posteriores.

Qué significa esto para la ciberseguridad

La rápida evolución de la IA generativa es un arma de doble filo para la ciberseguridad . Si bien abre nuevas puertas a la innovación, también brinda herramientas sin precedentes a los cibercriminales.

  • Las organizaciones deben actuar de forma proactiva , invirtiendo en sistemas de detección avanzados capaces de adaptarse a técnicas de ofuscación impulsadas por IA.
  • Los responsables de las políticas deberían establecer directrices claras para el uso ético de la IA y al mismo tiempo aplicar controles más estrictos para evitar su uso indebido.
  • Los investigadores de seguridad deben aprovechar la IA para superar a los adversarios y desarrollar sistemas resilientes que puedan contrarrestar las amenazas cambiantes.

El futuro del malware basado en inteligencia artificial

La capacidad de los LLM de crear 10.000 variantes de malware y evadir la detección en el 88% de los casos es un duro recordatorio de la creciente sofisticación de las amenazas cibernéticas. A medida que evoluciona la tecnología, también deben hacerlo nuestras defensas. Las empresas, los gobiernos y los profesionales de la ciberseguridad deben adoptar estrategias innovadoras para mantenerse a la vanguardia de los actores maliciosos y proteger el mundo digital de los ataques impulsados por la IA.

Cargando...