banner
Centro de Noticias
Amplios conocimientos en ventas y producción.

Apple evita la exageración de la "IA" en el discurso de apertura de la WWDC al incorporar ML en los productos

Jun 13, 2023

Ver la versión sin AMP en arstechnica.com

En medio de nuevos productos impresionantes como Apple Silicon Mac Pro y Apple Vision Pro revelados en el evento principal de la WWDC 2023 del lunes, los presentadores de Apple nunca mencionaron el término "IA", una omisión notable dado que sus competidores como Microsoft y Google se han centrado mucho en IA generativa en este momento. Aún así, la IA fue parte de la presentación de Apple, solo que con otros nombres.

Si bien "IA" es un término muy ambiguo en estos días, rodeado de avances asombrosos y exageraciones extremas, Apple optó por evitar esa asociación y, en cambio, se centró en términos como "aprendizaje automático" y "ML". Por ejemplo, durante la demostración de iOS 17, el vicepresidente sénior de ingeniería de software, Craig Federighi, habló sobre las mejoras en la autocorrección y el dictado:

Autocorrección funciona con aprendizaje automático en el dispositivo y, a lo largo de los años, hemos seguido mejorando estos modelos. El teclado ahora aprovecha un modelo de lenguaje transformador, que es lo último en predicción de palabras, lo que hace que la autocorrección sea más precisa que nunca. Y con el poder de Apple Silicon, el iPhone puede ejecutar este modelo cada vez que presiona una tecla.

En particular, Apple mencionó el término "transformador" de IA en un discurso de apertura de Apple. La compañía habló específicamente sobre un "modelo de lenguaje de transformador", lo que significa que su modelo de IA utiliza la arquitectura de transformador que ha estado impulsando muchas innovaciones generativas de IA recientes, como el generador de imágenes DALL-E y el chatbot ChatGPT.

Un modelo de transformador (un concepto introducido por primera vez en 2017) es un tipo de arquitectura de red neuronal utilizada en el procesamiento del lenguaje natural (NLP) que emplea un mecanismo de autoatención, lo que le permite priorizar diferentes palabras o elementos en una secuencia. Su capacidad para procesar entradas en paralelo ha llevado a mejoras significativas en la eficiencia y ha impulsado avances en tareas de NLP como traducción, resumen y respuesta a preguntas.

Aparentemente, el nuevo modelo de transformador de Apple en iOS 17 permite autocorrecciones a nivel de oración que pueden terminar una palabra o una oración completa cuando presiona la barra espaciadora. También aprende de su estilo de escritura, lo que guía sus sugerencias.

Todo este procesamiento de IA en el dispositivo es bastante fácil para Apple debido a una parte especial de los chips Apple Silicon (y chips anteriores de Apple, comenzando con el A11 en 2017) llamado Neural Engine, que está diseñado para acelerar las aplicaciones de aprendizaje automático. Apple también dijo que el dictado "obtiene un nuevo modelo de reconocimiento de voz basado en transformadores que aprovecha el Neural Engine para hacer que el dictado sea aún más preciso".

Durante el discurso de apertura, Apple también mencionó el "aprendizaje automático" varias otras veces: mientras describía una nueva función de pantalla de bloqueo del iPad ("Cuando selecciona una foto en vivo, usamos un modelo de aprendizaje automático avanzado para sintetizar fotogramas adicionales"); Funciones PDF de iPadOS ("Gracias a los nuevos modelos de aprendizaje automático, iPadOS puede identificar los campos en un PDF para que pueda usar Autocompletar para completarlos rápidamente con información como nombres, direcciones y correos electrónicos de sus contactos"). una función de audio adaptativo de AirPods ("Con Volumen personalizado, usamos el aprendizaje automático para comprender sus preferencias de escucha a lo largo del tiempo"); y una función de widget de Apple Watch llamada Smart Stack ("Smart Stack utiliza el aprendizaje automático para mostrarle información relevante justo cuando la necesita").

Apple también presentó una nueva aplicación llamada Diario que permite el registro personal de texto e imágenes (algo así como un diario interactivo), bloqueado y encriptado en su iPhone. Apple dijo que la IA juega un papel, pero no usó el término "IA".

“Usando el aprendizaje automático en el dispositivo, su iPhone puede crear sugerencias personalizadas de momentos para inspirar su escritura”, dijo Apple. "Las sugerencias se seleccionarán de forma inteligente a partir de la información de tu iPhone, como tus fotos, ubicación, música, entrenamientos y más. Y tú controlas qué incluir cuando habilitas las Sugerencias y cuáles guardar en tu Diario".

Finalmente, durante la demostración del nuevo Apple Vision Pro, la compañía reveló que la imagen en movimiento de los ojos de un usuario en la parte frontal de las gafas proviene de un avatar 3D especial creado al escanear su rostro, y lo adivinó, aprendizaje automático.

“Usando nuestras técnicas de aprendizaje automático más avanzadas, creamos una solución novedosa”, dijo Apple. "Después de un rápido proceso de inscripción utilizando los sensores frontales de Vision Pro, el sistema utiliza una red neuronal codificadora-descodificadora avanzada para crear su Persona digital".

Una red neuronal de codificador-decodificador es un tipo de red neuronal que primero comprime una entrada en una forma numérica comprimida llamada "representación de espacio latente" (el codificador) y luego reconstruye los datos a partir de la representación (el decodificador). Estamos especulando, pero la parte del codificador podría analizar y comprimir los datos faciales capturados durante el proceso de escaneo en una representación latente más manejable y de menor dimensión. Luego, la parte del decodificador podría usar esa información condensada para generar su modelo 3D de la cara.

Durante el discurso de apertura de la WWDC, Apple presentó su chip Apple Silicon más potente hasta el momento, el M2 Ultra, que cuenta con hasta 24 núcleos de CPU, 76 núcleos de GPU y un Neural Engine de 32 núcleos que, según se informa, ofrece 31,6 billones de operaciones por segundo, según Apple. representa un rendimiento 40 por ciento más rápido que el M1 Ultra.

Curiosamente, Apple dijo directamente que este poder podría ser útil para entrenar "modelos de transformadores grandes", que, según nuestro conocimiento, es la mención más destacada de la IA en una nota clave de Apple (aunque solo de pasada):

Y M2 Ultra puede admitir una enorme memoria unificada de 192 GB, que es un 50 % más que M1 Ultra, lo que le permite hacer cosas que otros chips simplemente no pueden hacer. Por ejemplo, en un solo sistema, puede entrenar cargas de trabajo de ML masivas, como modelos de transformadores grandes que la GPU discreta más poderosa ni siquiera puede procesar porque se queda sin memoria.

Este desarrollo tiene entusiasmados a algunos expertos en IA. En Twitter, el experto en IA Perry E. Metzger escribió: "Ya sea por accidente o intencionalmente, la arquitectura de memoria unificada de Apple Silicon significa que las Mac de gama alta ahora son máquinas realmente increíbles para ejecutar grandes modelos de IA y hacer investigación de IA. Realmente no hay muchos otros sistemas a este precio que ofrecen 192 GB de RAM accesible por GPU".

Aquí, una RAM más grande significa que los modelos de IA más grandes y aparentemente más capaces pueden caber en la memoria. Los sistemas son el nuevo Mac Studio (a partir de $ 1999) y el nuevo Mac Pro (a partir de $ 6999), que potencialmente podrían poner la capacitación en inteligencia artificial al alcance de muchas personas nuevas, y en forma de máquinas de escritorio y de tamaño de torre.

Solo evaluaciones rigurosas dirán cómo se comparará el rendimiento de estas nuevas máquinas M2 Ultra con las GPU Nvidia sintonizadas con IA como la H100. Por ahora, parece que Apple se ha lanzado abiertamente al ring de hardware de entrenamiento generativo de IA.

Ver comentarios del artículo