En las últimas dos semanas, el enfrentamiento entre Dario Amodei, CEO de Anthropic, y el Secretario de Defensa Pete Hegseth ha destacado las tensiones sobre el uso militar de la inteligencia artificial (IA). Anthropic se opone firmemente a que sus modelos de IA sean utilizados para vigilancia masiva de ciudadanos estadounidenses o para la creación de armas autónomas que operen sin intervención humana. En contraposición, Hegseth argumenta que el Departamento de Defensa (DoD) debería poder usar esta tecnología en cualquier uso que considere legal, desafiando así las políticas de la empresa. Este conflicto no solo abarca cuestiones éticas, sino que también plantea preocupaciones sobre quién debe tener control sobre las potentes IA: si las empresas desarrolladoras o el gobierno que desea implementarlas.
¿Qué le preocupa a Anthropic?
Anthropic no desea que sus modelos de IA sean utilizados para actividades que puedan poner en riesgo a los ciudadanos, como la vigilancia masiva o la operación de armas autónomas sin supervisión humana. La empresa sostiene desde sus inicios que la tecnología de IA presenta riesgos únicos que requieren salvaguardias especiales. Desde su perspectiva, la cuestión crucial es cómo garantizar estas protecciones cuando el entorno de uso es militar.
El ejército de los EE. UU. ya se apoya en sistemas altamente automatizados, algunos de los cuales son letales. Tradicionalmente, la decisión de usar fuerza letal se ha reservado para la intervención humana, pero la normativa legal en torno al uso militar de armas autónomas es limitada. Según una directiva del DoD de 2023, los sistemas de IA pueden seleccionar y atacar objetivos sin intervención humana, siempre que cumplan con ciertos estándares y sean revisados por funcionarios de defensa superiores.
Anthropic se siente inquieta por este hecho. Debido a la naturaleza secreta de la tecnología militar, si el ejército de EE. UU. comenzara a automatizar la toma de decisiones letales, la información podría no revelarse hasta que el sistema estuviera en funcionamiento. Si dicho sistema utilizara los modelos de Anthropic, podría considerarse como un “uso legal”.
¿Qué quiere el Pentágono?
El argumento del Pentágono se centra en que debería poder emplear la tecnología de Anthropic para cualquier uso que considere legal, sin estar limitado por las políticas internas de la compañía respecto a las armas autónomas o la vigilancia. Hegseth ha defendido que el DoD no debe estar restringido por las normas de un proveedor, argumentando que su objetivo es realizar un «uso legal» de la tecnología.
El portavoz del Pentágono, Sean Parnell, expresó a través de un post en X (anteriormente Twitter) que el departamento no tiene interés en llevar a cabo vigilancia masiva a nivel nacional o en implementar armas autónomas. Hegseth ha dejado claro que la solicitud es simple: permitir que el Pentágono use el modelo de Anthropic para todos los fines legales necesarios y no permitir que ninguna empresa legisle sobre los términos de cómo se llevan a cabo las decisiones operativas. Ha dado a Anthropic un plazo hasta el viernes a las 5:01 PM ET para responder, advirtiendo que de lo contrario, terminarían su asociación y clasificarían a la empresa como un riesgo para la cadena de suministro.
Hegseth también ha expresado preocupaciones culturales en sus discursos, refiriéndose a la IA como «woke» y subrayando que el desarrollo de IA militar no debería ser igual que el de una simple charla en un salón académico.
¿Y ahora qué?
El Pentágono ha amenazado con declarar a Anthropic un “riesgo para la cadena de suministro”, lo cual podría bloquear a la empresa de hacer negocios con el gobierno, o invocar la Ley de Producción de Defensa (DPA) para obligar a la empresa a adecuar su modelo a las necesidades militares. Con la fecha límite acercándose, es incierto si el Pentágono cumplirá con su amenaza.
Este enfrentamiento es crítico para ambas partes. Si Anthropic es excluida del DoD, podría convertirse en un problema de seguridad nacional, dado que tardarían entre seis a doce meses en encontrar una alternativa que pudiera equipararse a su tecnología.
Consejos para emprendedores y negocios relacionados
-
Evalúa el impacto ético: Si tu empresa desarrolla tecnología que puede ser utilizada en contextos sensibles, considera establecer estándares éticos claros desde el principio.
-
Mantén transparencia: Fomenta la comunicación abierta con tus clientes y socios sobre cómo planeas utilizar tu tecnología.
-
Desarrolla alianzas estratégicas: Formar alianzas con organizaciones que comparten tus principios éticos puede fortalecer tu posición en negociaciones futuras.
-
Prepara un plan de contingencia: Al igual que Anthropic, ten en cuenta las posibles repercusiones de las decisiones gubernamentales y elabora planes de respuesta y adaptación.
- Innova constantemente: Mantente al día con los cambios en la tecnología y en la ética para que tu empresa sea adaptativa y capaz de cumplir con las normativas emergentes.
Conclusiones
El conflicto entre Anthropic y el Pentágono refleja las profundas tensiones que existen entre la innovación en IA y la regulación gubernamental. Ambas partes tienen preocupaciones válidas que deben ser abordadas, ya que la posibilidad de utilizar sistemas de IA en contextos bélicos plantea cuestiones éticas. Es fundamental que las organizaciones se preparen para navegar estas discusiones en un entorno en constante cambio y considerar cómo sus decisiones afectarán no solo a su negocio, sino también a la sociedad en su conjunto.