Aunque la mayoría de mejoras que aportará Apple Intelligence no estarán disponibles para la inmensa mayoría de usuarios de iPhone actuales, los que tengan un iPhone 15 Pro tampoco las van a disfrutar pronto. Apple planea un lanzamiento escalonado y muy lento, como suele ocurrir con casi todo lo que hacen, de cada una de las IAs que aporta Apple Intelligence en iOS 18.
Mark Gurman nos cuenta en su newsletter de este fin de semana que estas funcionalidades llegarán ya entrados en el año 2025;
- Indexación semántica de emails, mensajes, webs que visitemos, Apps que usemos etc. Es lo que permite a los modelos grandes de lenguaje a aprender de ti y lo que haces en el iPhone, de manera que cuando luego le preguntes, tenga el contexto necesario para aportarte una respuesta inteligente.
- Saber lo que ocurre en pantalla. Siri podrá literalmente ver lo que hay en pantalla, de manera que si le pedimos que añada un nuevo contacto de la persona que acaba de enviar un mensaje, sepa a qué mensaje nos estamos refiriendo, porque ha podido verlo en pantalla.
- Contexto personal. Siri podrá acceder a los resultados de esa indexación automática que hemos comentado antes, para estar al tanto de todo lo que haces, información que recibes etc y que pueda utilizarla cuando haces alguna petición.
- Control de Apps. Siri podrá utilizar Apps, accediendo, editando o moviendo su contenido según sea necesario, cuando se lo pidamos. Pero lo hará en el 2025.
Está claro que todo este despliegue requiere de mucho tiempo. Uno se siente como si en Apple hubieran empezado demasiado tarde con todo esto, pero probablemente se deba a que no debe ser nada fácil conseguir que todo esto funcione como es debido, y eso es muy importante en este caso. Siri nunca debe dar respuestas de echarle pegamento a las pizzas o comer piedras como ya ha hecho la IA Gemini de Google, por ejemplo. Es hora, ahora sí, de que Siri sea realmente útil y no como hasta ahora.