Una carta abierta con firmas de cientos de los nombres más importantes en la tecnología, incluyendo a Elon Musk, ha instado a los principales laboratorios de inteligencia artificial del mundo a detener el entrenamiento de nuevos sistemas súper poderosos durante seis meses, diciendo que los recientes avances en la IA presentan «riesgos profundos para la sociedad y la humanidad».
La carta se publica apenas dos semanas después del lanzamiento público del GPT-4 de OpenAI, el sistema de IA más poderoso jamás lanzado, lo que ha llevado a los investigadores a reducir sus expectativas sobre cuándo llegará la inteligencia artificial general (AGI) o la inteligencia artificial general que supere la capacidad cognitiva humana. Muchos expertos temen que, a medida que se intensifica la carrera armamentística de la IA, la humanidad esté caminando dormida hacia la catástrofe.
«La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería ser planeada y gestionada con el cuidado y los recursos correspondientes», dice la carta. «Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, aunque los últimos meses han visto a los laboratorios de IA en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable».
La lista de firmantes incluye los nombres de más de 1.000 personas junto con el de Musk, incluyendo al cofundador de Apple Steve Wozniak, el autor de Sapiens Yuval Noah Harari y algunos de los académicos más distinguidos de la IA responsables de varios avances en el aprendizaje automático. Hasta el martes, ningún empleado de OpenAI había firmado la carta, aunque el nombre del CEO Sam Altman apareció brevemente en la lista de firmantes y luego desapareció, al menos cuatro empleados de Google, incluidos tres de su filial AI DeepMind, Emad Mostaque, CEO de Stability AI, y Tristan Harris, director ejecutivo del Centro para la Tecnología Humana, también aparecieron en la lista.
OpenAI, la empresa detrás de ChatGPT, ha lanzado recientemente GPT-4, una tecnología de última generación que ha impresionado a los observadores por su capacidad para realizar tareas como responder preguntas sobre objetos en imágenes. La carta, del Instituto Future of Life y firmada por las personalidades mencionadas, quiere que se detenga temporalmente el desarrollo de sistemas de IA de esa capacidad, advirtiendo en su carta de los riesgos que podrían plantear sistemas futuros y más avanzados.
El Sr. Musk, propietario de Twitter y CEO de la compañía de automóviles Tesla, está listado como asesor externo de la organización. La carta indica que se deben desarrollar AIs avanzadas con cuidado, pero en cambio, «en los últimos meses hemos visto a los laboratorios de IA involucrados en una carrera desenfrenada por desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable». La carta advierte que las AIs podrían inundar los canales de información con información errónea y reemplazar trabajos con automatización. ¿Está el mundo preparado para la próxima tormenta de IA? La carta sigue a un informe reciente del banco de inversión Goldman Sachs que indicó que, si bien la IA probablemente aumentaría la productividad, millones de empleos podrían ser automatizados. Sin embargo, otros expertos le dijeron a la BBC que el efecto de la IA en el mercado laboral era muy difícil de predecir.
Eludidos y obsoletos
De manera más especulativa, la carta pregunta: «¿Deberíamos desarrollar mentes no humanas que eventualmente superen en número, inteligencia, obsolescencia y nos reemplacen?»
Stuart Russell, profesor de informática de la Universidad de California, Berkeley, y signatario de la carta, le dijo a BBC News: «Los sistemas de IA plantean riesgos significativos para la democracia a través de la desinformación armada, para el empleo a través del reemplazo de habilidades humanas y para la educación a través del plagio y la desmotivación».
En el futuro, las AI avanzadas pueden representar una «amenaza más general para el control humano sobre nuestra civilización».
«A largo plazo, tomar precauciones sensatas es un precio pequeño a pagar para mitigar estos riesgos», agregó el Prof. Russell.
Pero el profesor de informática de Princeton, Arvind Narayanan, acusó a la carta de centrarse en «riesgos especulativos y futuristas, ignorando la versión del problema que ya está dañando a las personas».
Detenerse
En una publicación de blog reciente citada en la carta, OpenAI advirtió sobre los riesgos si se desarrollara una inteligencia artificial general (AGI) de manera imprudente: «Una AGI superinteligente mal alineada podría causar un gran daño al mundo; un régimen autocrático con una ventaja decisiva en la superinteligencia también podría hacerlo.
«La coordinación entre los esfuerzos de AGI para ralentizar en momentos críticos probablemente será importante», escribió la empresa.
OpenAI no ha comentado públicamente sobre la carta. La BBC ha preguntado a la empresa si respalda el llamado.
El Sr. Musk fue cofundador de OpenAI, aunque renunció al consejo de la organización hace algunos años y ha publicado críticas sobre su dirección actual. Las funciones de conducción autónoma hechas por su compañía de automóviles Tesla, como la mayoría de los sistemas similares, utilizan tecnología de IA. La carta pide a los laboratorios de AI «detener inmediatamente durante al menos seis meses el entrenamiento de sistemas de AI más poderosos que GPT-4».
Si tal retraso no se puede aplicar rápidamente, los gobiernos deberían intervenir e instituir una moratoria, dice. «También se necesitarían nuevas y capaces autoridades reguladoras dedicadas a la IA».