Dario Amodei, cofundador de Anthropic, anunció el jueves que la empresa va a impugnar judicialmente la decisión del Departamento de Defensa de catalogarla como un riesgo para la cadena de suministro, una clasificación que él considera «legalmente insensata». Esta designación puede prohibir a la compañía trabajar con el Pentágono y sus contratistas, acentuando la tensión entre las empresas de inteligencia artificial y el control militar sobre estas tecnologías.
Descripción de la Controversia
La decisión del Departamento de Defensa de etiquetar a Anthropic como un riesgo para la cadena de suministro se produjo después de semanas de disputa sobre el control que debe tener el ejército sobre los sistemas de IA. Amodei ha dejado claro que la tecnología de Anthropic no debe ser utilizada para la vigilancia masiva de ciudadanos estadounidenses ni para armas totalmente autónomas. Sin embargo, el Pentágono sostiene que debería tener acceso sin restricciones a estas tecnologías para «todos los fines legales».
A pesar de esta designación, Amodei asegura que la gran mayoría de los clientes de Anthropic no se verán afectados. Esta etiqueta afecta únicamente el uso de Claude (el modelo de IA de Anthropic) para contratos directos con el Departamento de Defensa.
Argumentos Legales de Anthropic
Amodei argumentó que la carta del Departamento que clasifica a la empresa como un riesgo para la cadena de suministro es estrecha en su alcance y se utiliza principalmente para proteger al gobierno. Insistió en que la ley requiere que el Secretario de Defensa use los «medios menos restrictivos necesarios» para proteger la cadena de suministro. Así, la designación no debería limitar el uso de Claude ni las relaciones comerciales de Anthropic que no se relacionen con contratos específicos del Departamento de Defensa.
Conversaciones Previas y Filtraciones
Amodei subrayó que, en los días previos a esta designación, hubo conversaciones productivas con el Departamento de Defensa. Sin embargo, estas discusiones podrían haberse visto afectadas por la filtración de un memo interno que criticaba las acciones de OpenAI respecto al Departamento de Defensa. Esta situación ha hecho que surgieran tensiones, y el personal de OpenAI ha expresado su descontento por el nuevo acuerdo entre OpenAI y el Pentágono.
Disculpas y Reflexión
Amodei se disculpó por la filtración del memo, afirmando que la empresa no tuvo la intención de compartirlo y considera que no es útil escalar la situación. Reconoció que el tono del documento era inapropiado y que no reflejaba sus opiniones más consideradas.
Apoyo a los Operativos en el Terreno
A pesar de la controversia legal, Amodei reafirmó que la prioridad de Anthropic es garantizar que los soldados estadounidenses y los expertos en seguridad nacional mantengan acceso a herramientas importantes en medio de las operaciones en curso. Actualmente, la empresa está apoyando algunas de las operaciones de EE.UU. en Irán y ofrecerá sus modelos al Departamento de Defensa a un costo nominal durante el tiempo que sea necesario.
Posibilidades de Litigio
Anthropic tiene la opción de impugnar la designación en un tribunal federal, posiblemente en Washington, aunque la ley detrás de esta decisión complica el proceso dado que limita las formas habituales en que las empresas pueden desafiar las decisiones de contratación gubernamentales. Esto proporciona amplia discreción al Pentágono en asuntos de seguridad nacional. Como comenta Dean Ball, antiguo asesor de la Casa Blanca en temas de IA, los tribunales tienden a ser reticentes a cuestionar lo que el gobierno considera un asunto de seguridad nacional.
Consejos para Emprendedores y Negocios
-
Mantener la Transparencia Interna: Las filtraciones pueden tener consecuencias negativas. Es esencial mantener una comunicación clara y controlada dentro de la empresa.
-
Prepararse para Imprevistos: Las decisiones regulatorias pueden surgir inesperadamente. Asegúrate de tener un plan de contingencia para enfrentar desafíos legales y regulatorios.
-
Establecer Relaciones Estrategicas: Fomentar relaciones sólidas con organismos gubernamentales puede ayudar a suavizar futuros conflictos y garantizar un acceso continuado a contratos.
- Definir Éticas de Uso: Sea clara sobre el uso de tecnologías emergentes en tu negocio, estableciendo límites éticos sobre cómo y dónde se pueden utilizar.
Conclusiones
La situación entre Anthropic y el Departamento de Defensa pone de relieve la tensión creciente entre la innovación tecnológica en IA y el control gubernamental. Las acciones legales que la empresa planea emprender podrían sentar un precedente importante en la intersección entre la tecnología y la legislación. La forma en que las empresas de IA naveguen estas aguas podría definir el futuro del sector, así como las normas éticas y legales que las rodean. Mantener un enfoque claro y ético podría ser determinante para el éxito en este espacio cada vez más complicado.