¿Y qué planes tiene Apple con la inteligencia artificial?

Cargando reproductor

En septiembre pasado el sitio de noticias tecnológicas La información reveló que Apple estaba invirtiendo “millones de dólares al día” en inteligencia artificial con el objetivo de acelerar el desarrollo de chatbots (como ChatGPT) y otras herramientas para generar (o editar) imágenes y vídeos. Apple ha creado una división interna específica que incluye a dieciséis personas, entre ellas varios ex empleados de Google, liderada por John Giannandrea, también ex de Google, que en 2018 fue contratado por Apple para mejorar Siri, el asistente de voz de la compañía.

Inversiones aparte, sin embargo, Apple no parece haber adoptado una estrategia precisa en materia de IA, mientras que la mayoría de las grandes empresas tecnológicas llevan algún tiempo avanzando: Microsoft tiene una estrecha alianza con OpenAI; Meta está insertando servicios de IA en muchos de sus productos; Amazon está invirtiendo “profundamente en el sector”, según su director ejecutivo, Andy Jassy; y Google ha sido considerada durante mucho tiempo la empresa más puntera del sector (a pesar de estar sorprendida por el éxito de ChatGPT).

En marzo Bloomberg reveló que Apple tendría “negociaciones abiertas” para utilizar Gemini -la inteligencia artificial de Google- en los próximos iPhone, y también consideraría utilizar ChatGPT. Una decisión similar sería nueva para Apple, que siempre ha preferido desarrollar su propio software y construir entornos cerrados y bien protegidos. En este sentido, la empresa está desarrollando su propio modelo de lenguaje grande (Large Language Model o LLM), denominado Ajax GPT. Ajax fue creado para uso interno en Apple y aún está en desarrollo: siempre en segundo lugar Bloomberges más poderoso que GPT-3.5, el modelo de lenguaje en el que se basó la versión inicial de ChatGPT (desde entonces, OpenAI lanzó GPT-4, considerado un avance importante sobre GPT-3.5).

La estrategia de IA de Apple probablemente se aclarará durante la WWDC, su conferencia anual de desarrolladores el próximo junio. El propio Tim Cook, director general de la compañía, dijo recientemente que considera la IA generativa “una oportunidad fundamental para nuestros productos” y aseguró que Apple anunciará más “en las próximas semanas”.

– Lea también: El entusiasmo por la inteligencia artificial está disminuyendo un poco

El retraso percibido de Apple en la adopción de la IA está relacionado en parte con el énfasis de la compañía en proteger los datos de sus usuarios, particularmente en contraste con Android, al que Apple ha llamado “un enorme dispositivo de seguimiento”. Apple incluso ha prohibido a sus empleados utilizar ChatGPT (y el servicio Copilot de Microsoft) y una decisión similar también han tomado Verizon, Samsung, Bank of America, Deutsche Bank y Goldman Sachs, entre otros, porque las condiciones de uso de ChatGPT lo dicen claramente. Esas indicaciones, es decir, las solicitudes de los usuarios, se pueden utilizar para “entrenar” los modelos lingüísticos de OpenAI (a menos que el usuario rechace este punto al optar por no participar). El riesgo es que los empleados de estas empresas discutan cuestiones laborales con el chatbot, revelando secretos de la empresa a OpenAI.

La atención a la privacidad tan apreciada por Apple, sin embargo, no va bien con el funcionamiento de la inteligencia artificial generativa, que, al menos en este punto de su desarrollo tecnológico, requiere que cada solicitud se procese de forma remota, en un servidor de alguna empresa, y no dentro del dispositivo de arranque. Esto implica transferir muchos datos personales del usuario desde el dispositivo a un servidor externo, probablemente operado por una empresa distinta de Apple, y aumenta el riesgo para la privacidad del usuario, un punto en el que Apple ha insistido durante años.

De hecho, todas las IA generativas mencionadas hasta ahora se basan en grandes modelos lingüísticos que, como sugiere su nombre, son muy “pesados” y requieren una infraestructura considerable para funcionar. De hecho, el desarrollo de la IA generativa ha puesto de relieve la importancia de las infraestructuras tecnológicas en la producción de chatbots y servicios similares. Esto es especialmente cierto para las GPU (unidades de procesamiento de gráficos), un tipo de procesador ampliamente utilizado en el entrenamiento de modelos de lenguaje; entre todas las GPU producidas por Nvidia, que en el último año se ha convertido en una de las empresas más comentadas del mundo.

– Lea también: El formidable éxito bursátil de Nvidia

Según muchos analistas, Apple quiere centrarse en modelos de lenguaje más pequeños, capaces de funcionar completamente dentro de un dispositivo. En este sentido, el pasado mes de marzo adquirió Darwin AI, una startup canadiense que desarrolla tecnologías para hacer que la IA sea “más pequeña y más rápida”. En abril presentó OpenELM (“Modelos de lenguaje eficientes de código abierto”), un grupo de ocho pequeños modelos de lenguaje de código abierto, diseñados para funcionar completamente dentro de un dispositivo. Son modelos experimentales que Apple utiliza principalmente para comprender si el concepto detrás de estos modelos es viable y de qué manera. A la luz de estas iniciativas, las negociaciones con OpenAI y Google parecen ser remedios temporales, a la espera de que los modelos pequeños sean lo suficientemente potentes y fiables.

Para lograrlo, Apple está invirtiendo mucho en investigación, como lo demuestran las numerosas patentes registradas por la empresa, que el sitio El borde analizado. En uno de ellos se intenta solucionar el problema utilizando memorias SSD en lugar de RAM para contener la información relativa a un modelo lingüístico: de esta forma, los modelos funcionan más rápido y más eficientemente, porque «utilizan el espacio de almacenamiento más barato y disponible en el dispositivo.” Los investigadores de Apple también crearon un sistema, llamado EELBERT, que puede comprimir un modelo de lenguaje grande en un espacio mucho más pequeño sin pérdidas excesivas de rendimiento. El modelo de lenguaje BERT de Google, por ejemplo, se ha reducido 15 veces con una reducción cualitativa del 4% (pero con algunos problemas de latencia, término utilizado para indicar el tiempo que tardan los datos en transferirse a través de una red y, por tanto, el retraso en la comunicación). .

Sin embargo, no toda la IA está hecha para conversar. En los últimos años, modelos de smartphones como el Samsung Galaxy S20 o los Pixel 8 y 8 Pro han destacado por su capacidad para modificar fotografías incluso de forma radical, recortando o eliminando elementos o cambiando colores. Uno de los productos desarrollados por Apple funciona como un generador de imágenes (similar a DALL-E o Midjourney) donde los usuarios pueden editar el contenido producido sin necesidad de escribir ningún otro mensaje. Uno de los artículos elaborados por la empresa también describe la posibilidad de utilizar indicaciones escritas para modificar las fotografías tomadas por los usuarios, pidiendo a la IA que “cambie el color del cielo” o “haga que mi cara sea menos extraña”, por ejemplo. Apple también parece decidida a aplicar la IA a la aplicación Salud – para analizar los numerosos datos biométricos de los usuarios que tiene disponibles, también gracias al Apple Watch – y a Apple Music, desarrollando un sistema para separar las distintas pistas que componen una canción.

– Lea también: ¿Es esta foto una foto real?

Sin embargo, el centro de las actividades de IA de Apple sigue siendo Siri, gracias también a innovaciones como STEER (Semantic Turn Extension-Expansion Recognition), un sistema que ayuda al asistente de voz a gestionar una serie de preguntas, reconociendo cuando el usuario pide una aclaración sobre una pregunta. ya solicitado o al solicitar uno nuevo. Hablando de Siri, Apple fue la primera gran empresa en lanzar un asistente de voz, en febrero de 2010, aunque las expectativas iniciales no se han cumplido desde entonces. Siri fue uno de los últimos proyectos gestionados por Steve Jobs, cofundador y director ejecutivo de Apple hasta 2011, poco antes de su muerte ese mismo año, pero su avance fue inmediatamente decepcionante. Ya en 2012, unos dos años después del lanzamiento de Siri, algunos empleados de Apple se quejaron del estado del producto, alegando que Jobs “se habría vuelto loco” si hubiera visto los limitados avances del asistente de voz.

Esta podría ser, por tanto, la oportunidad perfecta para perfeccionar y mejorar el servicio, dotándolo de modelos lingüísticos capaces de generar respuestas mucho más completas y sofisticadas. Después de todo, Siri nació como una startup y fue adquirida por Apple en 2010, a instancias de Jobs. En una entrevista de aquella época, el periodista Walt Mossberg le preguntó a Jobs sobre Siri, que describió como un servicio de búsqueda web. “No, no está en el sector de la investigación”, lo corrigió Jobs, “está en el campo de la inteligencia artificial”.

PREV Recién llegará en 2025, pero esta KTM que promete revolucionar el sector ya es una realidad
NEXT Una nueva investigación ha revelado cómo el cerebro reconoce las emociones