Seguridad informática Microsoft emprende acciones legales contra piratas...

Microsoft emprende acciones legales contra piratas informáticos que explotan la inteligencia artificial de Azure con fines maliciosos

La batalla en curso de Microsoft contra el cibercrimen ha alcanzado nuevas cotas con su última demanda dirigida a un grupo de piratas informáticos acusado de explotar los servicios de inteligencia artificial generativa de Azure. El gigante tecnológico reveló que los actores de amenazas con sede en el extranjero crearon una plataforma de piratería como servicio para eludir los protocolos de seguridad de la inteligencia artificial de Azure, lo que permitió la creación de contenido dañino y malware .

Este caso pone de relieve los riesgos cada vez mayores que plantean los ciberdelincuentes que aprovechan las plataformas de IA con fines maliciosos, lo que plantea importantes desafíos de ciberseguridad para las organizaciones de todo el mundo.

Cómo los hackers explotaron la inteligencia artificial de Azure de Microsoft

La Unidad de Delitos Digitales (DCU) de Microsoft descubrió la operación en julio de 2024. El grupo utilizó credenciales de clientes robadas, extraídas de fuentes públicas, para violar los sistemas de Azure y alterar modelos de IA como DALL-E de OpenAI.

Los detalles clave incluyen:

  • Robo de credenciales : se utilizaron claves de API de Azure y datos de autenticación de Entra ID robados para acceder a los servicios de Azure OpenAI.
  • Creación de contenido dañino : el grupo monetizó su acceso creando herramientas para generar imágenes ofensivas y eludir los filtros de contenido de IA.
  • Hacking como servicio : el grupo vendió el acceso a sus herramientas a través de sitios web como aitism[.]net y compartió instrucciones de uso con otros ciberdelincuentes.

Estas actividades llevaron a la generación ilegal de miles de imágenes dañinas y a la facilitación de otros abusos ilícitos de IA, todo ello mientras los perpetradores intentaban borrar sus huellas digitales.

La conexión del malware

El abuso de los servicios de inteligencia artificial generativa tiene implicaciones más amplias para el desarrollo de malware . Los actores de amenazas pueden potencialmente:

  • Generar señuelos de phishing o sitios web falsos diseñados para imitar plataformas confiables.
  • Utilice herramientas de inteligencia artificial para automatizar la codificación de malware, haciéndolo más sofisticado y más difícil de detectar.
  • Evite los filtros de seguridad aprovechando herramientas diseñadas para usos legítimos, como la traducción de idiomas y la síntesis de datos.
  • Esta explotación destaca cómo los grupos de piratas informáticos están evolucionando sus tácticas, combinando credenciales robadas y capacidades avanzadas de inteligencia artificial para llevar a cabo ciberataques a escala.

    Explotación de proxy inverso y LLMjacking

    Un aspecto destacable del caso es el uso de servidores proxy inversos, como la herramienta de3u. Estos servidores proxy redirigían las comunicaciones desde los dispositivos de los usuarios a través de un túnel de Cloudflare hacia los servicios de Azure OpenAI, imitando llamadas API legítimas.

    Esta técnica refleja las tácticas identificadas en los ataques LLMjacking, en los que se utilizan credenciales de la nube robadas para acceder a servicios de modelos de lenguaje de gran tamaño (LLM) como Anthropic, AWS Bedrock y Google Vertex AI. Estos esquemas permiten a los actores de amenazas secuestrar herramientas de inteligencia artificial basadas en la nube y, a menudo, monetizar el acceso vendiéndolo a otros delincuentes.

    Contramedidas de Microsoft y sus implicaciones más amplias

    En respuesta a esta operación, Microsoft:

    • Acceso revocado : se deshabilitó las credenciales robadas del grupo y se cerró su infraestructura de servicio.
    • Dominios confiscados : Se obtuvo una orden judicial para cerrar aitism[.]net .
    • Defensas reforzadas : se implementaron salvaguardas adicionales para prevenir abusos similares en el futuro.

    Sin embargo, Microsoft también descubrió evidencia de que el grupo atacaba a otros proveedores de servicios de IA, lo que sugiere una tendencia más amplia de abuso de IA en el panorama de la ciberseguridad.

    Herramientas de IA: un arma de doble filo

    Si bien las herramientas de inteligencia artificial generativa como ChatGPT y DALL-E ofrecen inmensos beneficios, su uso indebido por parte de los ciberdelincuentes resalta la necesidad urgente de protocolos de seguridad mejorados:

    1. Seguridad de API : las organizaciones deben garantizar una protección sólida de las claves de API para evitar el acceso no autorizado.
    2. Monitoreo de amenazas : el monitoreo continuo del uso del servicio de IA puede ayudar a detectar y bloquear comportamientos anómalos.
  • Colaboración : los proveedores de la nube, las empresas de ciberseguridad y las fuerzas del orden deben trabajar juntos para desmantelar dichas operaciones.
  • La demanda de Microsoft arroja luz sobre la peligrosa intersección entre la IA y el cibercrimen. A medida que los actores de amenazas explotan cada vez más los servicios de IA para generar contenido dañino y desarrollar malware, las organizaciones deben priorizar la protección de su infraestructura de IA.

    El caso sirve como un duro recordatorio: si bien la IA representa el futuro de la tecnología, sus vulnerabilidades pueden convertirse en armas, lo que hace que las medidas de ciberseguridad sólidas sean una necesidad absoluta en la lucha contra las amenazas digitales.

    Cargando...