La administración de Donald Trump decidió excluir a la empresa tecnológica Anthropic de los contratos federales, luego de que la firma con sede en San Francisco se negara a permitir el uso irrestricto de su modelo de inteligencia artificial Claude en sistemas de armas autónomas. La medida, anunciada por el Poder Ejecutivo, la catalogó como un “riesgo para la cadena de suministro” y la dejó fuera de cualquier licitación vinculada a infraestructura crítica del Estado.
El Departamento de Defensa buscaba integrar las capacidades de procesamiento de lenguaje natural y razonamiento lógico de Claude en centros de mando que coordinan operaciones en Medio Oriente. Sin embargo, los directivos de la compañía impusieron límites éticos al uso de sus modelos en escenarios bélicos, lo que fue interpretado por la Casa Blanca como una “obstrucción operativa” para la defensa nacional.
El conflicto con el Pentágono
La tensión escaló cuando el Pentágono exigió acceso al código fuente y a las capas de seguridad de Claude para su implementación en el programa Project Maven, destinado a identificar objetivos militares mediante imágenes satelitales y datos en zonas de conflicto. Los técnicos de Anthropic se negaron a eliminar los filtros que bloquean respuestas relacionadas con la planificación de ataques físicos, lo que el Departamento de Defensa consideró una “falta de cooperación”.
La administración republicana sostiene que la prioridad es alcanzar la “superioridad algorítmica” en el campo de batalla, especialmente frente al avance de sistemas similares desarrollados en China. En ese marco, la negativa de Anthropic fue vista como una vulnerabilidad estratégica.
Impacto en el desarrollo de la IA
El veto implica que las agencias federales no podrán renovar licencias de software con la firma californiana. Aunque la sanción podría ralentizar el entrenamiento de futuros modelos de la serie Claude, la empresa mantiene su base de clientes en el sector privado, principalmente en servicios financieros y de salud.
Expertos en seguridad nacional señalaron que la medida marca una frontera entre la IA civil y la militar. Mientras la Casa Blanca busca que cualquier desarrollo tecnológico sea “militarizable”, Anthropic defiende que sus protocolos de seguridad garantizan que la tecnología no supere los límites de seguridad humana ni sea utilizada para fines letales.
Un debate ético y estratégico
La situación en Medio Oriente aceleró la urgencia del Gobierno estadounidense por adquirir herramientas de análisis predictivo que funcionen sin restricciones de seguridad. El objetivo es que la inteligencia artificial pueda proponer cursos de acción letales de manera autónoma, reduciendo los tiempos de reacción humana.
Por su parte, Anthropic inició un proceso de revisión legal para apelar la designación, argumentando que sus salvaguardas éticas son precisamente las que protegen a la tecnología de ser robada o utilizada de manera indebida. “Nuestro compromiso es con la seguridad del usuario”, reiteraron desde la compañía.
