x
Síguenos
Denuncias aquí (809) 762-5555

Peligro cambios IA en Pentágono

De Anthropic a OpenAI: el giro estratégico que expone los nuevos límites y riesgos del poder militar, redefine el alcance moral de la guerra.

Pavel De Camps Vargas
Pavel De Camps Vargas
4 marzo, 2026 - 10:44 AM
5 minutos de lectura
Imagen ilustrativa.
Peligro
Escuchar el artículo
Detener el artículo

En Washington no cambió un proveedor. Cambió una señal estratégica y los dominicanos no se dan cuenta del peligro.

El United States Department of Defense decidió sustituir a Anthropic por OpenAI en un acuerdo millonario que trasciende lo tecnológico. No es una actualización de software. Es una redefinición del margen operativo del poder.

El punto de ruptura fue una frase contractual: “Para cualquier propósito lícito.” Una redacción que, en apariencia técnica, abre un debate político profundo. El contrato como frontera invisible.
El Pentágono buscaba un marco amplio. Mientras el uso fuera legal, el modelo podía emplearse.


Anthropic exigió algo más específico:
Prohibiciones explícitas sobre vigilancia masiva doméstica. Prohibiciones explícitas sobre armas plenamente autónomas. Límites técnicos que se mantuvieran incluso si el uso era formalmente legal.

No era un desacuerdo comercial. Era una diferencia de visión sobre hasta dónde puede llegar la inteligencia artificial cuando se integra al aparato militar y poder disparar de forma autónoma sin consulta a un ser humano.

Levantar salvaguardas: qué implica realmente
En IA avanzada, las salvaguardas son estructura, no discurso:

  • Filtros algorítmicos.
  • Clasificadores de riesgo.
  • Restricciones de integración.
  • Sistemas de auditoría.
  • Bloqueos automáticos.


Levantarlas significa permitir que el modelo opere sin esas restricciones o que el cliente pueda modificarlas.
En términos simples: pasar de una IA con límites a una IA adaptable a cualquier arquitectura estratégica.


Vigilancia masiva: la dimensión silenciosa
Cuando se habla de vigilancia masiva doméstica, no se trata de investigaciones puntuales con orden judicial.
Se trata de:

  • Analizar grandes volúmenes de datos ciudadanos.
  • Cruzar información pública, privada y adquirida.
  • Inferir perfiles conductuales, ideológicos o sociales.
  • Automatizar alertas sin sospecha individual previa.


La IA actual puede reconstruir redes sociales reales, detectar patrones invisibles y anticipar comportamientos.
Algo puede ser legal porque los datos son públicos.
Pero cuando la escala es algorítmica, la naturaleza cambia.
La vigilancia deja de ser episódica y se vuelve estructural.


Armas plenamente autónomas: el umbral moral
Una

Más Vistas