Google no tiene todas las GPUs que hacen falta para que Gemini funcione en el iPhone

Desde hace varios días el mundo de la tecnología está bastante revuelto con la noticia de que Apple podría llegar a un acuerdo con Google para implementar su IA Gemini en iOS 18. Eso fue una bomba, y varios medios lo han corroborado, así que parece que hay algo de cierto en toda esta historia. Conseguir una IA del nivel de la nueva ChatGPT-4, por ejemplo, es muy difícil. Ahora que hay tantas noticias sobre IAs la gente no es consciente de lo increíblemente complicado que es conseguir que estos sistemas funcionen bien, porque al haber ahora tantas posibilidades de tantas empresas, parece que es algo relativamente fácil de conseguir. Pero no lo es, y probablemente en Apple lo saben bien, mientras desarrollan también sus propias IAs generativas y otras funcionalidades basadas en esta tecnología. Por eso, quizás es mejor utilizar una IA de una empresa rival con la que asociarse, que intentar integrar una propia que no vaya a llegar al mismo nivel.

Logo de Gemini

Aún no sabemos si algo de todo esta supuesta negociciación es cierta porque obviamente ni Apple ni Google han dicho una sola palabra públicamente, pero supongamos que así es, que Apple integra Gemini en iOS 18. ¿Qué ocurriría entonces? – la respuesta podría sorprendente.

Gemini, el rival de ChatGPT-4

Gemini es un modelo de lenguaje grande multimodal desarrollado por Google DeepMind, y básicamente rivaliza con ChatGPT-4 de OpenAI. Fue presentado en diciembre del 2023 y Google planea una serie de escalones de utilización con diferentes precios, para los usuarios que deseen acceder a este sistema para investigar, hacer preguntas, conseguir resúmenes, consejos, crear imágenes y mucho más. Es la tendencia actual. OpenAI, Microsoft, Meta y Google, son las principales contendientes con sus respectivas IAs generativas, sintetizadores de texto, imágenes o vídeos.

Actualmente, cuando un usuario pregunta algo en uno de estos chats, se envía la petición a un conjunto de servidores que hacen una serie de cálculos en unas redes neuronales que funcionan aceleradas por chips especializados en estas tareas, las GPUs, mucho mejores que las CPUs de uso más general. Esta es la razón por la que empresas como Nvidia especializadas en GPUs están muy ocupadas preparándose para suministrar un número nunca visto antes de este tipo de chips para alimentar la enorme demanda que hay ahora de estas utilidades basadas en modelos masivos de aprendizaje que funcionan mejor en estas GPUs. Estamos hablando de vender muchos de estos chips para alimentar enormes centros de datos con servidores llenos de GPUs funcionando en paralelo.

Nvidia ha presentado recientemente su nueva generación de chips Blackwell B200, su primera GPU con dos chiplets. En su web lo dejan bien claro; Impulsamos la lA generativa a escala de billones de parámetros. Se refieren a esos modelo masivos de lenguaje o aprendizaje en el que se utilizan cantidades ingentes de datos que hay que mover y digerir en cuestión de segundos.

Nvidia en su web: Impulsamos la lA generativa a escala de billones de parámetros
Nvidia en su web: Impulsamos la lA generativa a escala de billones de parámetros.

Todo este despliegue tecnológico, tan rápido y eficiente, está haciendo subir a Nvidia como la espuma por encima de muchas compañías tecnológicas, y están hoy en día a la cabeza de este nuevo boom de las IAs.

Gemini dependerá precisamente de este despliegue. Cuantos más centros de datos prepare Google con estos chips de Nvidia, más capacidad tendrá para contestar a la demanda de las nuevas IAs generativas.

El volumen de la potencial demanda de IAs generativas que supondría el iPhone

Lo más interesante de ese rumor que indica que Apple podría utilizar Gemini en iOS 18, es el enorme volumen de demanda que supondría para Google. Cuando Apple fabrica un nuevo modelo de iPhone con nuevos componentes, siempre se encuentra el mismo problema. No es fácil conseguir un nuevo componente al volumen de producción que requiere un iPhone. Por ejemplo, no es nada sencillo para una pequeña empresa en Taiwán, China o Japón fabricar 200 millones de un componente al año. Por ejemplo, un módulo de cámara para el iPhone supone una inversión para su fabricante, Sony, de muchísimo dinero en fábricas y personal para ese componente exclusivamente. No vale con 100.000, medio millón o incluso diez millones, sino que hay que fabricar cientos de millones de algo que es nuevo, y luego casar todas esas demandas con literalmente cientos de componentes diferentes, que deben estar todos en el mismo lugar, al mismo tiempo, para que empresas como Foxconn o Pegatron los ensamblen en un nuevo iPhone.

Centro de datos de Apple lleno de servidores, en Reno
Centro de datos de Apple lleno de servidores, en Reno.

Para poder hacer frente a una demanda de varios cientos de millones de personas, muchas de las cuales podrían estar haciendo una petición a Gemini de manera simultánea, hacen falta más servidores con esas GPUs de Nvidia de las que Google tiene ahora mismo. En este momento, nos preguntamos si poner Gemini en el iPhone directamente con una actualización de iOS 18 podría ser técnicamente posible. Esta dificultad podría ser, de hecho, una de las principales razones que podrían estar empujando a Apple a negociar con Google la integración de sus IAs generativas en iOS 18 en lugar de desarrollar exclusivamente las propias, o al menos, haciéndolo en paralelo.

Conclusión

Será interesante ver cómo se une Apple a la fiesta de la IAs generativas, con sus propias soluciones o en conjunción con Gemini por parte de Google, y cómo se escala el desarrollo de estas nuevas tecnologías basadas en técnicas de inteligencia artificial para poder soportar la enorme demanda que supone hacer cualquier cosa en un iPhone.

Tim Cook en la presentación del iPhone 13, delante del logo de Apple en el Steve Jobs Theater
Tim Cook en la presentación del iPhone 13, delante del logo de Apple en el Steve Jobs Theater.

Nos esperan meses con noticias bastante espectaculares en el mundo de la tecnología.

Newsletter