X

Noticias IA

‘Entre los peores que hemos visto’: un informe critica a Grok de xAI por fallos en la seguridad infantil.

Una nueva evaluación de riesgos ha revelado que el chatbot Grok de xAI presenta serias deficiencias en la identificación de usuarios menores de 18 años, unos protocolos de seguridad débiles y una tendencia a generar contenido sexual, violento e inapropiado. En resumen, Grok no es seguro para niños ni adolescentes. Este informe, realizado por Common Sense Media, una organización sin ánimo de lucro que se encarga de evaluar y clasificar los medios y la tecnología para las familias, llega en un momento en que xAI afronta duras críticas y una investigación relacionada con el uso de Grok para crear y difundir imágenes explícitas de mujeres y niños sin consentimiento en la plataforma X.

Evaluación del chatbot Grok

Deficiencias críticas

Según el informe de Common Sense Media, Robbie Torney, jefe de evaluaciones digitales de la organización, indicó que, aunque todos los chatbots presentan algunos riesgos, Grok se encuentra entre los más preocupantes que han evaluado. «El modo para niños no funciona, el material explícito es común y todo puede ser compartido instantáneamente con millones de usuarios en X», declaró Torney.

Respuesta a la crítica

Tras recibir críticas por parte de los usuarios, policymakers y gobiernos, xAI decidió restringir la generación de imágenes de Grok a los suscriptores de pago de X. Sin embargo, muchos usuarios informaron que podían acceder a esta herramienta con cuentas gratuitas, y los suscriptores de pago aún podían editar fotos reales de personas para despojarles de ropa o colocarlas en situaciones sexualizadas.

Resultados de la evaluación

Common Sense Media llevó a cabo una serie de pruebas en Grok, evaluando diversos aspectos como el texto, voz, configuraciones predeterminadas y funciones de generación de imágenes entre otros. El uso de un «modo picante» para contenido NSFW y la introducción de compañeros de IA como Ani, se realizaron en un contexto en el que la empresa ha enfrentado denuncias por suicidios de adolescentes relacionados con interacciones prolongadas con chatbots.

Contenido perjudicial

El informe también destacó que Grok produce contenido dañino, incluida información sesgada sobre género y raza, un lenguaje sexualmente violento y respuestas inapropiadas en modo de conspiración. Un ejemplo mostró cómo Grok no identificó a un usuario de 14 años y proporcionó consejos conspirativos inapropiados.

Seguridad de los menores en el uso de IA

Crecientes preocupaciones

La creciente preocupación sobre la seguridad de los adolescentes al usar IA ha llevado a la implementación de salvaguardias estrictas por algunas compañías. Por ejemplo, Character AI eliminó su función de chatbot para usuarios menores de 18 años, mientras que OpenAI introdujo nuevas reglas de seguridad para adolescentes, incluyendo controles parentales.

Deficiencias en el «Modo para niños»

xAI no parece haber publicado información clara sobre su «Modo para niños», y Common Sense Media descubrió que no se requiere verificación de edad, lo que permite que los menores mientan. Incluso con el modo activado, Grok generó contenido dañino.

Consejos para emprendedores y negocios

  1. Prioriza la seguridad: Cualquier herramienta de IA diseñada para interactuar con menores debe tener controles de seguridad estrictos y mecanismos de verificación de edad robustos.

  2. Evalúa feedback de usuarios: Escuchar a tus usuarios puede proporcionar información valiosa que podría significar la diferencia entre el éxito y una crisis.

  3. Establece claras políticas: Ten presentes políticas que prioricen la protección de los más vulnerables al utilizar tecnología emergente como la IA.

  4. Fomenta la transparencia: Ofrecer información clara sobre cómo funciona tu herramienta y qué salvaguardias existen puede aumentar la confianza en tu marca.

  5. Colabora con expertos: Trabaja con organizaciones como Common Sense Media para evaluar los riesgos de tus productos y recibir asesoramiento sobre cómo mejorar.

Conclusiones

El caso de Grok destaca la necesidad urgente de establecer regulaciones que prioricen la seguridad de los menores en la tecnología de inteligencia artificial. Mientras el debate sobre la regulación de los chatbots y otras herramientas de IA continúa, es esencial que tanto las empresas como los policymakers se centren en la creación de entornos digitales seguros. La responsabilidad no solo recae en el usuario, sino también en los creadores de tecnología para asegurarse de que sus productos no solo sean funcionales, sino también seguros y responsables.

Compartir noticia

Publicado

en

por

Newsletter Negocios con IA

¿Quieres Mejorar tu Negocio?