Complejos días para Anthropic: del veto federal en Estados Unidos a fallas globales y usos cuestionados de su IA

La firma de inteligencia artificial Anthropic afrontó momentos turbulentos en la última semana: el pasado viernes el gobierno de Estados Unidos ordenó a sus agencias dejar de usar sus modelos argumentando razones de seguridad; durante el fin de semana su agente IA fue implicada en un ataque cibernético a instituciones mexicanas; y este lunes su popular chatbot Claude sufrió una interrupción a nivel global.

Anthropic, la empresa estadounidense de inteligencia artificial detrás del popular modelo Claude, vivió una semana compleja en la escena tecnológica y política global, marcada por decisiones gubernamentales, controversias de seguridad y fallas de servicio que han puesto en el centro del debate la relación entre IA, ética y riesgo operativo.

El viernes pasado, diversos medios informaron que la administración del presidente Donald Trump ordenó a todas las agencias federales de los Estados Unidos que dejaran de usar la tecnología de Anthropic, un giro abrupto en la política de adopción pública de herramientas de IA en funciones críticas. Según comunicados oficiales, la decisión -publicada a través de redes sociales y memos internos- surge tras un desacuerdo con el Pentágono, que exigía acceso sin restricciones a Claude para aplicaciones militares, algo a lo que Anthropic se negó. Ante esto, el secretario de Defensa de ese país, Pete Hegseth, calificó a la compañía como un “riesgo en la cadena de suministro” para la seguridad nacional.

Las órdenes de la Casa Blanca implicaron que los Departamentos de Estado, el Tesoro y Salud, entre otros, empezaran a eliminar gradualmente los productos de Anthropic, sustituyéndolos por tecnologías de otros proveedores como OpenAI y Google. La empresa afirmó que desafiará la directiva en tribunales, argumentando que la orden carece de base legal sólida.

En paralelo, el domingo se hizo público un reporte de la firma Security Gambit en la que se señala que el asistente Claude Code de Anthropic fue involucrada en un incidente de ciberseguridad ocurrido en México a finales de diciembre de 2025, cuando un atacante supuestamente logró explotar el chatbot Claude lo que facilitó una campaña de intrusión contra dos agencias del gobierno de México, exfiltrando datos sensibles de decenas de millones de ciudadanos, algo que fue rebatido por las entidades afectadas.

Mientras estos eventos tenían lugar, este lunes la infraestructura de Claude también mostró fragilidades técnicas, cuando miles de usuarios en todo el mundo reportaron errores y fallas al intentar iniciar sesión o usar el servicio. Anthropic reconoció tempranamente un apagón global de Claude que afectó tanto al chatbot como a sus funciones de API y herramientas asociadas.

Los eventos acaecidos en un lapso tan corto de tiempo dejaron expuesto varios de los dilemas que rodean a las grandes Ias, entre ellos, su creciente integración en sistemas críticos, los límites de sus salvaguardas éticas frente a presiones militares o comerciales, la fragilidad operacional y su potencial de uso malicioso.