Apple ha anunciado un nuevo proyecto de colaboración con Nvidia que llama mucho la atención porque se trata de una innovación tecnológica para modelos LLM que no está basada en GPUs en los chips de Apple, ni en su Neural Engine, sino en GPUs de Nvidia… sí, GPUs que Apple no utiliza en ninguno de sus productos desde hace muchos años.

Apple utulizaba GPUs de Nvidia en sus Macs en el pasado, pero una serie de problemas de rendimiento y sobre todo de calor generado dieron como resultado una ruptura que se ha mantenido hasta hoy. Apple se pasó a GPUs de AMD y no volvió a utilizar ninguna de Nvidia.
Por eso, la noticia es que Apple y Nvidia trabajan juntos de nuevo después de ese desencuentro en el pasado, y además lo hacen con un software de Apple que es open-source, abierto y libre, y que permite acelerar enormemente la velocidad de generación de tokens, es decir, la velocidad a la que ves aparecer el texto de un resultado de un prompt o petición a un modelo LLM o, si prefieres llamarla así, inteligencia artificial.

Es por esta razón que esta nota en la web sobre investigación de machine learning de Apple llama tanto la atención.