X

Noticias IA

Los empleados de Google y OpenAI apoyan la postura de Anthropic ante el Pentágono en una carta abierta.

Anthropic se encuentra en una encrucijada con el Departamento de Guerra de los Estados Unidos respecto a la solicitud de acceso irrestricto a su tecnología de inteligencia artificial. A medida que se acerca la fecha límite impuesta por el Pentágono, más de 300 empleados de Google y más de 60 empleados de OpenAI han firmado una carta abierta instando a los líderes de sus respectivas empresas a apoyar a Anthropic y rechazar el uso unilateral de su tecnología. La controversia gira en torno al uso de la IA para la vigilancia masiva y la artillería autónoma, temas que han sido rechazados por Anthropic.

La posición de Anthropic frente a la presión del Pentágono

Anthropic ha manifestado su desacuerdo con la utilización de IA para vigilancia masiva o en la creación de armas autónomas. La carta firmada por empleados de Google y OpenAI busca unificar las posturas contra la presión del Departamento de Guerra, quien ha amenazado con declarar a Anthropic como un «riesgo para la cadena de suministro» o amenazar con invocar la Ley de Producción de Defensa (DPA) para forzar el cumplimiento de sus demandas.

La carta abierta y sus implicaciones

La carta destaca que la estrategia del Departamento de Guerra se basa en crear divisiones entre las empresas a través del miedo. Los firmantes expresan su deseo de que sus líderes abandonen diferencias y trabajen juntos para defender las líneas rojas establecidas por Anthropic contra estos usos de la tecnología.

Respuesta de OpenAI y Google

Aunque los líderes de Google y OpenAI no han respondido formalmente a la carta, varias declaraciones informales sugieren que ambas compañías podrían ser simpatizantes de la posición de Anthropic. El director ejecutivo de OpenAI, Sam Altman, ha declarado en entrevistas que no cree que el Pentágono debería amenazar a las empresas involucradas en la tecnología de inteligencia artificial. Algunos portavoces de OpenAI han confirmado que comparten la negativa de Anthropic a la vigilancia masiva y las armas autónomas.

Opiniones de expertos en IA

El científico jefe de Google DeepMind, Jeff Dean, también ha expresado la necesidad de estar en contra de la vigilancia gubernamental, señalando que esta violaría la Cuarta Enmienda de la Constitución y tendría un efecto paralizante en la libertad de expresión.

Contexto actual del uso militar de la IA

El Departamento de Defensa ya utiliza tecnologías como Grok de X, Gemini de Google y ChatGPT de OpenAI para tareas no clasificadas, mientras que se encuentra en negociaciones para utilizar estas herramientas en trabajos clasificados. A pesar de su asociación existente con el Pentágono, Anthropic continúa insistiendo en que su tecnología no se debe utilizar para vigilancia masiva ni para armas autónomas.

La presión del Departamento de Defensa

El Secretario de Defensa Pete Hegseth ha indicado a Anthropic que si no cede, podrían calificar a la compañía de riesgo de seguridad o utilizar la DPA para obligar a Anthropic a cumplir con las exigencias militares. La respuesta de Anthropic reafirma que, no obstante las amenazas, su posición no cambiará.

Consejos para emprendedores y negocios

  1. Definir límites claros: Al igual que Anthropic, es crucial establecer desde el principio las líneas rojas en cuanto al uso de tus productos o servicios.

  2. Fomentar la colaboración entre compañeros: La firma de la carta abierta es un excelente ejemplo de cómo los empleados pueden unirse para lograr un objetivo común. Fomentar un ambiente colaborativo puede ayudar a fortalecer posturas ante presiones externas.

  3. Comunicar la misión y visión empresarial: Hacer que todos los empleados conozcan y comprendan la misión de la empresa puede ser esencial para alinearlos en situaciones críticas.

  4. Anticipar posibles colaboraciones y sus repercusiones: Antes de asociarte con instituciones, considera las implicaciones de esa alianza, especialmente si se relaciona con sectores sensibles como la defensa.

Conclusiones

La situación de Anthropic ilustra la complejidad del uso de la inteligencia artificial en contextos militares y la necesidad de establecer principios éticos firmes en el desarrollo de tecnología. Las empresas tecnológicas deben ser proactivas al definir sus límites y plantear sus posiciones ante situaciones de presión, priorizando su integridad y principios en el proceso. La unificación de voces dentro de las empresas puede ser un poderoso recurso en la defensa de estas posiciones.

Compartir noticia

Publicado

en

por

Newsletter Negocios con IA

¿Quieres Mejorar tu Negocio?