ChatGPT, esa mal llamada inteligencia artificial que no para de salir en las noticias desde hace unos meses, ha sido prohibida entre los empleados de Apple por miedo a que pueda ser una vía de escape de secretos empresariales.
ChatGPT, que en sus versiones gratuitas sólo tiene datos hasta septiembre del año 2021 porque hasta esa fecha llegaron los datos acumulados con los que se entrenó, registra cada una de las preguntas que se le hacen y en esas preguntas puede haber datos de futuros planes de Apple o de algún producto que aún no hayan presentado. Por esa razón, en Apple han decidido prohibir el uso de esta herramienta. En cualquier caso, lo que mucha gente no entiende es que ChatGPT es más bien un modelo de lenguaje predictivo, y lo que hace realmente bien es adivinar qué palabra va después de la anterior de manera que puede construir frases y explicar cosas de una manera espectacularmente correcta y estructurada. Lo que no es correcto muy a menudo, no obstante, son los datos que da, en muchas ocasiones erróneos. A la hora de programar, eso sí, puede ser muy útil porque un programa funciona o no funciona, no es necesario tener en cuenta la veracidad de esos datos.
Apple no es la única que ha implantado esta prohibición, que ya era efectiva en muchas otras empresas. En el Wall Street Journal nos cuentan que además de ChatGPT Apple ha prohibido también el uso de Copilot, la herramieta de GitHub que permite recibir ayuda a la hora de picar código. Esta segunda prohibición probablemente moleste mucho más a los ingenieros programadores de Apple que la de ChatGPT, porque es sin duda muy utilizada por muchos programadores para perfeccionar su código o simplemente para ahorrar tiempo.
La razón es la misma que con ChatGPT; Parte de ese código que están programado podría quedar registrado deliberadamente o no en GitHub, y por lo tanto, podría ser una vía de escape de secretos empresariales. Parece que, por ahora, los programadores de Apple deberían escribir su código completamente, sin estas ayudas modernas.