Computer Security ¡Tener cuidado! La inteligencia artificial podría hacer...

¡Tener cuidado! La inteligencia artificial podría hacer que las estafas parezcan legítimas y difundir amenazas de malware como el ransomware

El Centro Nacional de Seguridad Cibernética (NCSC), parte de la agencia de espionaje GCHQ del Reino Unido, ha emitido una advertencia sobre la creciente amenaza de ciberataques facilitados por la inteligencia artificial (IA). Según la evaluación del NCSC, las herramientas de inteligencia artificial generativa, que pueden producir texto, voz e imágenes convincentes a partir de indicaciones simples, dificultan la diferenciación entre correos electrónicos genuinos y aquellos enviados por estafadores y actores maliciosos.

La agencia predice que la IA, en particular la IA generativa y los grandes modelos de lenguaje que impulsan los chatbots, contribuirán significativamente al aumento de las amenazas cibernéticas en los próximos dos años. Una de las principales preocupaciones es la dificultad para identificar varios tipos de ataques, como phishing, suplantación de identidad e ingeniería social.

Se espera que la sofisticación de la tecnología de inteligencia artificial dificulte que las personas, independientemente de su nivel de comprensión de la ciberseguridad, evalúen la legitimidad de los correos electrónicos o las solicitudes de restablecimiento de contraseñas.

La IA podría ayudar a aumentar los objetivos de ransomware

También se prevé que aumenten los ataques de ransomware , que se han dirigido a instituciones como la Biblioteca Británica y el Royal Mail durante el año pasado. El NCSC advierte que la sofisticación de la IA reduce la barrera para que los ciberdelincuentes aficionados accedan a los sistemas, recopilen información sobre objetivos y ejecuten ataques que pueden paralizar sistemas informáticos, extraer datos confidenciales y exigir rescates en criptomonedas.

Ya se están utilizando herramientas de IA generativa para crear "documentos señuelo" falsos que parecen convincentes al evitar errores comunes que se encuentran en los ataques de phishing. Si bien es posible que la IA generativa no mejore la eficacia del código de ransomware, sí puede ayudar a identificar y seleccionar objetivos. El NCSC sugiere que los actores estatales probablemente sean los más expertos en aprovechar la IA en operaciones cibernéticas avanzadas.

Lo bueno y lo malo de la IA

En respuesta a la creciente amenaza, el NCSC enfatiza que la IA también puede servir como herramienta defensiva, permitiendo la detección de ataques y el diseño de sistemas más seguros. El informe coincide con la introducción por parte del gobierno del Reino Unido de nuevas directrices, el "Código de prácticas de gobernanza cibernética", que alientan a las empresas a mejorar su preparación para recuperarse de los ataques de ransomware. Sin embargo, algunos expertos en ciberseguridad, incluido Ciaran Martin, exdirector del NCSC, abogan por medidas más contundentes y sugieren una reevaluación fundamental de los enfoques ante las amenazas de ransomware. Martin enfatiza la necesidad de reglas más estrictas en torno al pago de rescates y advierte contra estrategias poco realistas, como tomar represalias contra criminales en naciones hostiles.

Cargando...