AI, nueva herramienta de piratería para cibercriminales
Written by rasco on September 3, 2025
AI, nueva herramienta de piratería para cibercriminales
¿La inteligencia pública general se transformó en trabajo para los piratas? Los ataques, anteriormente reservados para especialistas, se vuelven reproducibles a gran escala o accesible para los novatos, mediante robots conversacionales desviados de su función.
El fenómeno, apodado “Hacking Vibe”, en referencia a la “codificación de ambientes”, es decir, la creación del código de computadora al no iniciado, marca una “evolución inquietante del delito cibernético asistido por IA”, según la compañía estadounidense Anthrope.
En un informe publicado el miércoles, la compañía, un competidor de OpenAI y su herramienta de chatgpt insignia, reveló que un “CyberCriminel usó el código Claude para llevar a cabo una extorsión de datos a gran escala”.
El Código de Claude del robot conversacional, especializado en el código de TI, se utilizó para llevar a cabo ataques que “potencialmente” asignaron al menos 17 organizaciones separadas durante un mes.
Utilizado para crear un software malicioso, la herramienta ha habilitado al autor de los ataques, prohibido desde Anthrope, para recopilar datos personales, médicos e identificadores de conexión, luego clasificarlo y enviar solicitudes de rescate de hasta $ 500,000.
Un curso que “medidas de seguridad sofisticadas”, que Anthrope asegura que hayan desplegado, no prevenía.
El caso de antrópico no está aislado. Resuena con las preocupaciones que han sacudido el sector de ciberseguridad desde la llegada masiva de herramientas generativas de IA.
“Los ciberdelincuentes han integrado la IA de la misma manera que todos los usuarios”, dijo la AFP Rodrigue Le Bayon, al frente del Centro de Alerta y Reacción para Ataques (CERT) en Orange CyberDefense.
Dé la vuelta a las “salvaguardas”
En un informe publicado en junio, el gigante OpenAI había indicado que ChatGPT había ayudado a un usuario en el desarrollo de un programa malicioso (malware).
Si los modelos se supone que deben prevenir la explotación de sus capacidades para alimentar las actividades ilegales, sin embargo, existen técnicas “que permiten evitar las salvaguardas de los modelos de idiomas grandes para que produzcan contenido que no deberían”, detalla con AFP el especialista Vitaly Simonovich.
Este investigador, que trabaja en la compañía de seguridad cibernética Cato Networks, dijo en marzo que había encontrado un nuevo enfoque que permitía a las personas inexpertas crear software capaz de robar contraseñas.
Su técnica, que bautizó “mundo inmersivo”, consistía en describir a un chatbot un universo imaginario donde “la creación de software malicioso es un arte”, y pedirle al modelo que encarne a uno de los personajes.
“Era mi forma de probar los límites de los modelos de idiomas actuales”, dijo Simonovich, quien falló contra Gemini (Google) y Claude (antrópico), pero logró generar malware para Chatgpt, Deepseek y Copilot (Microsoft).
Según él, “el aumento de las amenazas de los actores inexpertos representará un peligro creciente para las organizaciones”.
Para Rodrigue Le Bayon, el riesgo inmediato es sobre todo “aumentar el número de víctimas” en lugar de ver a los actores maliciosos multiplicarse. Especialmente porque “no vamos a tener un código muy sofisticado creado directamente por los chatbots”, dijo.
La seguridad de los modelos de IA debe reforzarse. “Hoy, los editores hacen un trabajo de análisis de trabajo” para “poder detectar mejor usos maliciosos”, señala el Sr. Le Bayon.
¡La mejor música latina te espera! 🎶 Síguenos en Instagram @be1radio y mantente al día con nuestras novedades y eventos.
Descarga nuestra APP BEONERADIO
Google Play | Apple Store
www.be1radio.com
Instagram: @be1radio