iPhone 15

Apple podría dar un «impulso de IA» a futuros iPhones y iPads, así es como

Publicado por
Comparte en redes sociales


Apple podría superar a sus rivales en la integración de IA en dispositivos con la infusión de una nueva propuesta avatar animado 3D Y Modelo de aprendizaje de idiomas con IA tecnología en dispositivos con recursos limitados en un futuro cercano. Estos bien podrían ser los futuros iPhone y iPad. El gigante tecnológico con sede en Cupertino publicó recientemente dos nuevos artículos centrados en las mismas tecnologías.

Echemos un vistazo a lo que pasa por la mente de los ingenieros y expertos en tecnología de Apple con las tecnologías propuestas.

Utilice HUGS para crear modelos 3D animados más precisos

En el primer trabajo de investigaciónA Apple se le ocurrió una nueva tecnología llamada MIMOS para crear avatares animados en 3D. ABRAZOS significa Símbolos gaussianos humanos y utiliza una técnica llamada Salpicaduras gaussianas modelo 3dque se utiliza para renderizar modelos 3D en tiempo real utilizando datos reales colocados en un espacio 3D.

El foco de Apple estará en «desenredar» una escena estática capturada en un «Vídeo monocular con un número reducido de fotogramas (50-100)» en una «Avatar humano totalmente animable en 30 minutos».

El fabricante del iPhone afirma en el resumen del artículo de investigación que utilizará el modelo de cuerpo SMPL para inicializar gaussianos humanos. Una desventaja de la tecnología SMPL es que no puede representar detalles más nítidos, como la ropa y el cabello, y aquí es donde entran en juego los gaussianos 3D.

El gigante tecnológico dice que planea usar HUGS para hacer que los gaussianos 3D «se desvíen del modelo del cuerpo humano», capturando detalles como el cabello y la ropa y renderizando modelos animados en 3D. Este enfoque debería dar como resultado avatares animados 3D más realistas y precisos.

Leer también  Analyze Your Data Using Natural Language

“Proponemos optimizar conjuntamente los pesos de la combinación lineal para coordinar los movimientos de los gaussianos individuales durante la animación. Nuestro enfoque permite una síntesis de nuevas poses del humano y una nueva síntesis de visiones del humano y la escena. Nos damos cuenta
«Calidad de renderizado líder en la industria con una velocidad de renderizado de 60 FPS y un entrenamiento aproximadamente 100 veces más rápido en comparación con trabajos anteriores», explica Apple en el resumen.

Reduzca la carga de datos y mejore la eficiencia del uso de la memoria en dispositivos con recursos limitados

En el segundo trabajo de investigación, Apple destacó el desafío de ejecutar modelos de lenguaje grande (LLM) como GPT-3, OPT y PaLM en dispositivos con poca memoria. El gigante tecnológico tiene como objetivo fabricar dispositivos con poca memoria capaces de ejecutar modelos avanzados de aprendizaje de idiomas con IA.

Dice que dado que los LLM «pueden contener cientos de miles de millones, si no miles de millones, de parámetros», es
difícil de cargar y ejecutar en “dispositivos con recursos limitados”. Todo el modelo debe cargarse en DRAM para realizar inferencias, lo que «limita significativamente el tamaño máximo del modelo que se puede ejecutar».

Necesitaría una mayor capacidad de DRAM para simplemente cargar el modelo, lo que no es posible con dispositivos con recursos limitados.

Para remediar esto, Apple ofrece “para almacenar los parámetros del modelo en la memoria flash, que es
al menos un orden de magnitud mayor que la DRAM.
“Los parámetros requeridos luego se pueden cargar desde la memoria flash durante la inferencia, evitando la idea de ajustar todo el modelo a la DRAM.

Leer también  SpaceX de Elon Musk lanza satélites Starlink capaces de dar servicio de telefonía móvil

El gigante tecnológico describió el uso de dos técnicas para reducir la carga de datos en los dispositivos y también para hacer que el uso de la memoria sea más eficiente. Estos son ventanas Y Agrupar filas y columnas.

Apple afirma en el trabajo de investigación que tiene «demostró la capacidad de ejecutar LLM de hasta el doble del tamaño de la DRAM disponiblelogrando un aumento de 4 a 5 veces en la velocidad de inferencia con respecto a los métodos de carga tradicionales en la CPU y un aumento de 20 a 25 veces en la GPU.

El gigante tecnológico cree que este es un paso crucial hacia “implementar LLM avanzados en entornos con recursos limitados, ampliando su aplicabilidad y accesibilidad”.



Source link

Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.

Direcciones de Billetera:

- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS 

- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe 

- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f

- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx 

También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:

-Twitter

- Telegram

Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *