El avance de la inteligencia artificial en las plataformas tecnológicas cada vez es más sorprendente y, sobre todo, accesible para cualquier tipo de público, en especial la plataforma desarrollada por Anthropic, la cual presuntamente permitió que un atacante extrajera millones de registros confidenciales de organismos públicos oficiales de México como el INE y el SAT.
Según un reporte por parte de Bloomberg, el atacante logró explotar las capacidades del sistema de IA para obtener información confidencial específica sobre impuestos y registros de votantes mediante instrumentos personalizados que burlaron los filtros de seguridad de estas plataformas.
¿Qué fue lo que ocurrió?
Reportes indican que este incidente ocurrió entre diciembre de 2023 y enero de 2024. El hacker puso en evidencia el gran potencial que tienen las herramientas de IA para cometer ciberataques sofisticados.
La investigación realizada por la firma israelí Gambit Security identificó que el atacante utilizó la plataforma de Claude para redactar scripts informáticos, detectar vulnerabilidades y automatizar el acceso a redes de distintos organismos públicos.

El objetivo de este ataque, según la empresa, fue extraer datos de la autoridad fiscal federal mexicana, es decir, el SAT, además del INE y de algunos gobiernos estatales como Jalisco, Michoacán y Tamaulipas, así como sistemas municipales y el servicio de agua en Monterrey.
Respecto a esta versión de los hechos, se ha especulado que la persona tenía intereses muy específicos en lo que buscaba averiguar a partir de la extracción de esta información.
¿Cómo fue que el ataque utilizó la IA para cometer este ataque?
El atacante instruyó a Claude en español, un avanzado sistema de IA conversacional desarrollado por Anthropic, diseñado para realizar tareas complejas como resumir documentos, programar, redactar y razonar contenido sobre cierto tipo de información.
El atacante aprovechó estas capacidades para usarlo como un experto en ciberataques, adaptando el lenguaje y las solicitudes para que el sistema ejecutara miles de comandos en las redes oficiales de estas instituciones.

Según la investigación realizada, fueron sustraídos 150 gigabytes de información, incluyendo 195 millones de registros relacionados con datos de contribuyentes y padrones electorales.
Además, se señaló que el atacante consiguió sortear las advertencias iniciales del chatbot tras insistir con distintas tácticas, una técnica conocida como jailbreak, la cual consiste en engañar al sistema mediante reglas específicas para realizar acciones que la plataforma tiene prohibidas.
¿Qué fue lo que dijo la empresa de IA junto con las instituciones gubernamentales?
Por parte de Anthropic, la empresa confirmó que logró interrumpir la actividad maliciosa y bloquear las cuentas implicadas en el hackeo tras recibir la alerta correspondiente. Asimismo, afirmó que incorporó los patrones detectados en sus bases de entrenamiento para reforzar las barreras de seguridad en versiones futuras del modelo, como Claude Opus 4.6.
Mientras tanto, las repercusiones de estos ataques llevaron a que varias instituciones mexicanas emitieran comunicados sobre la situación. Un ejemplo es el INE, que negó haber detectado vulneraciones recientes y aseguró haber reforzado su estrategia de ciberseguridad en México.
Por su parte, el gobierno de Jalisco descartó afectaciones en sus sistemas y atribuyó el problema a redes federales. El SAT y otros organismos locales no han respondido de manera inmediata a estas acusaciones.
El atacante tenía un objetivo en específico
Es importante mencionar que el informe de Gambit Security destacó que el atacante buscaba obtener identidades de empleados públicos y explotó al menos 20 vulnerabilidades específicas.
Sin embargo, a medida que la plataforma de Claude encontraba obstáculos, el hacker complementaba la información recurriendo a ChatGPT de OpenAI para obtener detalles adicionales sobre movimientos laterales en redes y credenciales necesarias para acceder a sistemas restringidos.

Según explicó Curtis Simpson, director de estrategia de Gambit Security, la IA le permitió al atacante producir miles de informes detallados con planes listos para ejecutar, lo que facilitó la elección de objetivos y el uso de credenciales.

Este caso específico en México se suma a una tendencia global en la que la inteligencia artificial se convierte tanto en un recurso para la protección digital como en un vector para ataques complejos, evidenciando la rapidez con la que empresas e instituciones deben adaptarse al cambio constante de estas plataformas.


Deja un comentario