Los investigadores de RSAC Research han logrado eludir las medidas de seguridad implementadas en Apple Intelligence, el modelo de lenguaje que opera tanto en dispositivos locales como en servidores de la nube. Este descubrimiento plantea preocupaciones serias sobre la seguridad en la inteligencia artificial de Apple, dado que afecta a más de 200 millones de dispositivos en uso a nivel global. Aunque Apple ha tomado medidas para reforzar la seguridad de su sistema, los hallazgos de los investigadores resaltan la necesidad de que los usuarios mantengan sus dispositivos actualizados para protegerse de posibles vulnerabilidades.
Vulnerabilidades en Apple Intelligence
¿Qué es Apple Intelligence?
Apple Intelligence es el ecosistema de inteligencia artificial generativa de Apple, que añade funcionalidades inteligentes al sistema operativo y a aplicaciones compatibles. Apple utiliza dos modelos de lenguaje grande (LLM): uno más pequeño que se ejecuta localmente en el dispositivo y otro más grande que opera en su nube privada, conocida como Private Cloud Compute.
La técnica de inyección de instrucciones
Los investigadores de RSAC se enfocaron en el modelo pequeño, que interactúa con los usuarios a través de la API Foundation Models Framework. Esta API implementa políticas de seguridad para supervisar el comportamiento del modelo y prevenir el uso indebido mediante filtros de entrada y salida.
Para vulnerar estas medidas de seguridad, los investigadores emplearon una técnica conocida como ‘Neural Exec’, que consiste en crear entradas adversarias generadas por aprendizaje automático. Esta técnica engaña al LLM para que ejecute acciones no permitidas.
Métodos utilizados
Para eludir los filtros de seguridad, los investigadores aplicaron un truco utilizando la función de anulación de derecha a izquierda de Unicode, permitiendo que el texto malicioso se codificara en inglés y se mostrara correctamente al LLM. Este método resultó exitoso en más del 76% de las pruebas realizadas.
Consejos para Emprendedores y Negocios
-
Mantener actualizados los sistemas de seguridad: Es crucial que los emprendedores y empresas se aseguren de que su sistema operativo y aplicaciones estén siempre en la última versión disponible para beneficiarse de las actualizaciones de seguridad.
-
Educación sobre vulnerabilidades: Capacitar al personal sobre los posibles riesgos de seguridad relacionados con la inteligencia artificial y el uso de sistemas locales y en la nube.
-
Implementar controles de acceso: Establecer políticas de acceso a los datos y sistemas, limitando el uso de IA a personal que tenga el entrenamiento necesario para operar en un entorno seguro.
- Realizar auditorías de seguridad: Considerar la contratación de expertos externos para que realicen auditorías de seguridad, identificando y corrigiendo posibles vulnerabilidades antes de que puedan ser explotadas.
Conclusiones
El descubrimiento de RSAC Research sobre la forma en la que se pueden eludir las medidas de seguridad de Apple Intelligence es un recordatorio de que las vulnerabilidades en la inteligencia artificial son una preocupación seria. A medida que la tecnología avanza, también lo hacen los métodos de ataque. Por ello, es imprescindible que tanto usuarios como empresas mantengan un enfoque proactivo en la seguridad cibernética, manteniendo el software actualizado y fomentando una cultura de seguridad robusta. La protección de datos y sistemas es fundamental en un mundo cada vez más digital.