Apple publica un método para tener LLMs eficientes capaces de funcionar en un smartphone

El desarrollo de las LLMs en los últimos años, ha sido exponencial. Si no sabes qué es una LLM, se trata de la abreviatura de Large Language Model o modelo grande de aprendizaje, y es la tecnología de machine learning sobre la que funcionan ChatGPT o cualquiera de las mal llamadas IAs generativas de imagen. Su nombre, large o grande, no obstante, denota su principal debilidad; Hace falta un dispositivo bastante potente y con mucha capacidad sobre todo de RAM para almacenar varios gigabytes de parámetros. Justo lo que uno no se encuentra en un smartphone.

ChatGPT

Por esa razón, y sobre todo en el caso de Apple, con smartphones que en la mayoría de casos vienen equipados con menos RAM que otros smartphones co-generacionales del mundo Android, es importante conseguir desarrollar LLMs que funcionen directamente en un smartphone, sin necesidad de utilizar servidores remotos que hagan todo el proceso y entreguen una respuesta, que es lo que hemos venido utilizando hasta ahora.

Las ventajas de hacerlo localmente, en la máquina en donde se ejecuta o hace la pregunta, es que se pueden utilizar estas IAs sin necesidad de tener conexión a Internet (por ejemplo, en un lugar remoto o en un Avión). Además está la cuestión principal, que es la privacidad. Si utilizamos una LLM directamente en un iPhone, nuestra pregunta o solicitud no se envía a ningún servidor. No queda registrada en ningún lugar. Sólo queda en nuestro propio iPhone, y siempre cifradamente, bajo nuestra contraseña, Face ID o Touch ID. Ni Apple ni nadie más que nosotros puede acceder a esos datos.

Varios programadores de Apple (concretamente Sachin Mehta, Mohammad Hossein Sekhavat, Qingqing Cao, Maxwell Horton, Yanzi Jin, Chenfan Sun, Iman Mirzadeh, Mahyar Najibi, Dmitry Belenko, Peter Zatloukal, y Mohammad Rastegari) han publicado en Hugging Face lo que llaman OpenELM; Open de Open Source (están entregando y contribuyendo con código que cualquiera puede ver y modificar), y ELM de Efficient Language Model, es decir, modelos de lenguaje que en lugar de ser grandes son eficientes, lo que significa que pueden funcionar en un iPhone, localmente, sin necesidad de utilizar un servidor remoto. Esto es una demostración más de lo que Apple está preparando en iOS 18, con este tipo de tecnologías ya integradas de serie.

La transparencia con este tipo de cosas es vital si se quiere conseguir la máxima confianza y que nadie piense que sea mentira que se tratan todos estos procesos localmente en un iPhone, razón por la que hacen todo este trabajo abiertamente, y lo aportan como código libre para que cualquiera pueda utilizarlo si quiere.

Newsletter