Anthropic detecta el primer ciberataque masivo ejecutado casi por completo por IA autónoma
Bites
Un informe técnico de Anthropic encendió las alarmas en la industria tecnológica al confirmar lo que describe como el primer ciberataque masivo ejecutado con inteligencia artificial de forma autónoma, sin intervención humana relevante. La compañía estadounidense, fundada por exempleados de OpenAI, atribuye la operación a un grupo vinculado al Estado chino.
El incidente se detectó a mediados de septiembre, cuando los sistemas de monitoreo de Anthropic identificaron actividad irregular en Claude Code, su plataforma especializada en programación asistida por IA. La investigación posterior reveló una campaña de espionaje coordinada, diseñada para infiltrarse en unos treinta objetivos globales, incluidos grandes grupos tecnológicos, bancos, firmas industriales y organismos gubernamentales. La operación logró comprometer un número limitado de objetivos.
La novedad —y el motivo del alerta internacional— es que los atacantes emplearon agentes de IA capaces de planificar, ejecutar y adaptar pasos completos de intrusión sin requerir a un operador humano detrás. Anthropic detalla que la IA actuó de manera autónoma en más del 90% del proceso; el componente humano se limitó a entre un 4% y un 6% de decisiones tácticas.
Según el reporte, los atacantes engañaron a Claude mediante una estrategia de segmentación: dividieron sus instrucciones en microtareas inofensivas y simularon ser analistas de ciberseguridad realizando pruebas defensivas. Con esa táctica sortearon gran parte de las salvaguardas del sistema. La IA recopiló credenciales, analizó datos, generó código malicioso y fabricó los módulos de espionaje que luego serían desplegados.
Anthropic bloqueó las cuentas implicadas, notificó a las organizaciones afectadas y mantuvo una investigación interna de varios días para delimitar el alcance del incidente.
El caso refuerza una preocupación creciente en el sector: el uso de IA legítima para fines ilícitos. Pero al mismo tiempo, especialistas como Billy Leonard, responsable de inteligencia de amenazas en Google, advierten que las barreras de seguridad en las grandes plataformas están impulsando a los actores maliciosos a migrar hacia modelos sin restricciones disponibles en el mercado negro.
Esa tendencia ya es perceptible. Kaspersky detectó recientemente campañas que distribuyen modelos de lenguaje adulterados, diseñados para comprometer a usuarios que descargan herramientas de IA locales sin verificar su procedencia. Uno de los programas identificados, BrowserVenom, se difunde bajo un falso asistente llamado DeepSneak, que suplanta la identidad de DeepSeek-R1 y se promociona incluso mediante anuncios en Google. El objetivo: secuestrar el tráfico web y robar credenciales.
Las campañas incluyen páginas de phishing y versiones manipuladas de instaladores populares como Ollama y LM Studio, capaces de evadir la protección de Windows Defender. Para los expertos, la conclusión es inequívoca: los modelos ejecutados en local, si se descargan desde fuentes no confiables, representan un vector de riesgo creciente.
Fuente: El País


.jpg)
