En la WWDC del lunes, Apple reveló Apple Intelligence, una suite de características que trae herramientas de IA generativa como reescribir borradores de correos electrónicos, resumir notificaciones y crear emojis personalizados a los iPhone, iPad y Mac. Apple dedicó una parte significativa de su presentación a explicar cuán útiles serán estas herramientas y una porción casi igual de tiempo a asegurar a los clientes cuán privada mantendrá su información el nuevo sistema de IA.
Privacidad en el enfoque dual de la IA generativa
La privacidad es posible gracias a un enfoque dual en la IA generativa que Apple comenzó a explicar en su keynote y ofreció más detalles en documentos y presentaciones posteriores. Apple Intelligence se construye con una filosofía en el dispositivo que puede realizar las tareas comunes de IA que los usuarios desean rápidamente, como transcribir llamadas y organizar sus horarios. Sin embargo, Apple Intelligence también puede conectarse a servidores en la nube para solicitudes de IA más complejas que incluyen el envío de datos de contexto personal, y asegurar que ambos tipos de procesos entreguen buenos resultados mientras mantienen la privacidad de tus datos es donde Apple enfocó sus esfuerzos.
Modelos de IA caseros para mayor seguridad
La gran noticia es que Apple está utilizando sus propios modelos de IA caseros para Apple Intelligence. Apple señala que no entrena sus modelos con datos privados o interacciones de usuarios, lo cual es único en comparación con otras compañías. En su lugar, Apple usa materiales licenciados y datos disponibles públicamente en línea que son recopilados por el rastreador web Applebot de la compañía. Los editores deben optar por no participar si no desean que sus datos sean recopilados por Apple, lo cual suena similar a las políticas de Google y OpenAI. Apple también dice que omite la alimentación de números de seguro social y tarjetas de crédito que flotan en línea, e ignora «profanidades y otros contenidos de baja calidad».
Integración y optimización de modelos
Un gran punto de venta para Apple Intelligence es su profunda integración en los sistemas operativos y aplicaciones de Apple, así como cómo la compañía optimiza sus modelos para eficiencia energética y tamaño para encajar en los iPhones. Mantener las solicitudes de IA locales es clave para calmar muchas preocupaciones sobre privacidad, pero la compensación es usar modelos más pequeños y menos capaces en el dispositivo.
Para hacer útiles esos modelos locales, Apple emplea ajustes finos, que entrenan a los modelos para mejorar en tareas específicas como corregir pruebas o resumir textos. Las habilidades se colocan en forma de «adaptadores», que pueden superponerse al modelo base y cambiarse según la tarea en cuestión, similar a aplicar atributos de mejora para tu personaje en un juego de rol. De manera similar, el modelo de difusión de Apple para Image Playground y Genmoji también usa adaptadores para obtener diferentes estilos de arte, como ilustración o animación (lo que hace que personas y mascotas se vean como personajes de Pixar de bajo presupuesto).
Apple dice que ha optimizado sus modelos para acelerar el tiempo entre el envío de una solicitud y la entrega de una respuesta, y utiliza técnicas como «decodificación especulativa», «poda de contexto» y «atención de consulta grupal» para aprovechar el motor neuronal de Apple Silicon. Los fabricantes de chips solo recientemente han comenzado a agregar núcleos neuronales (NPU) a los circuitos, lo que ayuda a aliviar el ancho de banda de la CPU y la GPU al procesar algoritmos de aprendizaje automático y IA. Es parte de la razón por la cual solo los Mac y iPad con chips de la serie M y solo el iPhone 15 Pro y Pro Max admiten Apple Intelligence.
Comparación con la competencia
El enfoque es similar a lo que estamos viendo en el mundo de Windows: Intel lanzó su arquitectura Meteor Lake de 14ª generación con un chip con NPU, y los nuevos chips Snapdragon X de Qualcomm, construidos para los PCs Copilot Plus de Microsoft, también los tienen. Como resultado, muchas características de IA en Windows están limitadas a nuevos dispositivos que pueden realizar trabajos localmente en estos chips.
Resultados de Apple Intelligence
Según la investigación de Apple, de 750 respuestas probadas para resumen de texto, la IA en el dispositivo de Apple (con el adaptador adecuado) tuvo resultados más atractivos para los humanos que el modelo Phi-3-mini de Microsoft. Parece un gran logro, pero la mayoría de los servicios de chatbots de hoy en día usan modelos mucho más grandes en la nube para lograr mejores resultados, y ahí es donde Apple está tratando de caminar una línea cuidadosa sobre la privacidad. Para que Apple pueda competir con modelos más grandes, está elaborando un proceso fluido que envía solicitudes complejas a servidores en la nube mientras intenta demostrar a los usuarios que sus datos siguen siendo privados.
Computación en la Nube Privada (PCC)
Si una solicitud de usuario necesita un modelo de IA más capaz, Apple envía la solicitud a sus servidores de Computación en la Nube Privada (PCC). PCC funciona en su propio sistema operativo basado en «fundamentos de iOS», y tiene su propio stack de aprendizaje automático que impulsa Apple Intelligence. Según Apple, PCC tiene su propio arranque seguro y Enclave Seguro para mantener claves de cifrado que solo funcionan con el dispositivo solicitante, y el Monitor de Ejecución Confiable asegura que solo el código firmado y verificado se ejecute.
Apple dice que el dispositivo del usuario crea una conexión cifrada de extremo a extremo con un clúster de PCC antes de enviar la solicitud. Apple dice que no puede acceder a los datos en el PCC ya que está despojado de herramientas de gestión de servidores, por lo que no hay acceso remoto. Apple tampoco da al PCC ningún almacenamiento persistente, por lo que las solicitudes y posibles datos de contexto personal extraídos del Índice Semántico de Apple Intelligence aparentemente se eliminan en la nube posteriormente.
Preguntas abiertas sobre la privacidad
Una de las grandes preguntas abiertas es exactamente qué tipos de solicitudes irán a la nube. Al procesar una solicitud, Apple Intelligence tiene un paso llamado Orquestación, donde decide si proceder en el dispositivo o usar PCC. Aún no sabemos qué constituye exactamente una solicitud lo suficientemente compleja como para desencadenar un proceso en la nube, y probablemente no lo sabremos hasta que Apple Intelligence esté disponible en otoño.
Hay otra forma en la que Apple está lidiando con las preocupaciones de privacidad: haciendo que sea problema de alguien más. El renovado Siri de Apple puede enviar algunas consultas a ChatGPT en la nube, pero solo con permiso después de que hagas algunas preguntas realmente difíciles. Ese proceso transfiere la cuestión de la privacidad a las manos de OpenAI, que tiene sus propias políticas, y al usuario, que debe aceptar externalizar su consulta. En una entrevista con Marques Brownlee, el CEO de Apple, Tim Cook, dijo que ChatGPT sería llamado para solicitudes que involucren «conocimiento del mundo» que están «fuera del dominio del contexto personal».
Compromiso con la privacidad
El enfoque dividido de Apple entre lo local y la nube para Apple Intelligence no es totalmente novedoso. Google tiene un modelo Gemini Nano que puede trabajar localmente en dispositivos Android junto con sus modelos Pro y Flash que procesan en la nube. Mientras tanto, los PCs Microsoft Copilot Plus pueden procesar solicitudes de IA localmente mientras la compañía sigue apoyándose en su acuerdo con OpenAI y también construye su propio modelo interno MAI-1. Sin embargo, ninguno de los rivales de Apple ha enfatizado tanto sus compromisos de privacidad en comparación.
Por supuesto, todo esto se ve genial en demostraciones escenificadas y documentos editados. Sin embargo, la prueba real será a finales de este año cuando veamos Apple Intelligence en acción. Tendremos que ver si Apple puede lograr ese equilibrio de experiencias de IA de calidad y privacidad, y continuar desarrollándolo en los próximos años.