viernes 1 de mayo de 2026
InicioInteligencia ArtificialEl peligro de los ciberataques autónomos a escala con IA para los...

El peligro de los ciberataques autónomos a escala con IA para los medios de comunicación

Una investigación realizada por Anthropic sobre una operación vinculada a un grupo supuestamente patrocinado por el Estado chino documenta por primera vez el uso de sistemas de inteligencia artificial capaces de ejecutar de forma autónoma casi todas las fases de un ciberataque, un cambio relevante para las organizaciones informativas, los departamentos de comunicación y las redacciones que gestionan grandes volúmenes de datos sensibles y flujos digitales complejos.

El informe identifica a un grupo denominado GTG-1002 como responsable de una campaña en la que entre el 80 por ciento y el 90 por ciento de las tareas operativas se realizaron sin intervención humana directa, limitada a cuatro o seis puntos de decisión estratégica por operación. La IA se encargó de la investigación inicial, el mapeo de redes, la identificación de sistemas críticos, el desarrollo de código de explotación, la validación de vulnerabilidades y la extracción y clasificación de datos, reduciendo procesos que antes requerían semanas de trabajo especializado a operaciones ejecutadas en cuestión de horas y de forma simultánea sobre decenas de objetivos.

Según el análisis forense de Anthropic, la campaña afectó a unas 30 entidades, entre ellas grandes empresas tecnológicas, instituciones financieras, fabricantes industriales y organismos públicos, publica AInews. En los momentos de mayor actividad, el sistema automatizado generó miles de solicitudes a ritmos imposibles de sostener para equipos humanos, un dato que pone en cuestión los modelos de defensa digital que aún se basan en patrones de comportamiento y tiempos de reacción humanos.

Te puede interesar:  Los modelos de lenguaje no solo cambian el estilo de los textos, también alteran su significado

El mecanismo utilizado no se basó en malware inédito, sino en la orquestación de herramientas existentes. El grupo integró Claude Code, el asistente de programación de Anthropic, con servidores del Model Context Protocol que daban acceso a utilidades habituales de pruebas de penetración, como escáneres de red, herramientas de explotación de bases de datos y sistemas de análisis de binarios. Para sortear los sistemas de seguridad, los atacantes fragmentaron los objetivos en tareas aparentemente legítimas y presentaron la operación como una auditoría defensiva, impidiendo que el sistema detectara el carácter malicioso del conjunto.

Para los medios de comunicación y las organizaciones periodísticas, el caso subraya riesgos específicos. Las infraestructuras digitales de las redacciones, los sistemas de gestión de contenidos, las bases de datos de suscriptores y las plataformas de trabajo colaborativo se ajustan al perfil de activos que este tipo de IA puede identificar y explotar con rapidez. Además, la capacidad del sistema para documentar automáticamente cada fase del ataque y mantener el contexto operativo durante días plantea nuevos escenarios de robo sistemático de información y de vigilancia de flujos internos de comunicación.

El informe también señala limitaciones relevantes. Durante la operación se detectaron errores y alucinaciones del sistema, como credenciales inexistentes o datos mal valorados, que exigieron validación humana. Anthropic advierte, no obstante, de que estas fricciones no deben interpretarse como garantías permanentes, ya que la evolución de los modelos puede reducirlas de forma progresiva.

Artículos relacionados

DEJA UNA RESPUESTA

Please enter your comment!
Please enter your name here

ÚLTIMOS ARTÍCULOS

LO MÁS LEÍDO