Apple podría superar a sus rivales en la integración de IA en dispositivos con la infusión de una nueva propuesta avatar animado 3D Y Modelo de aprendizaje de idiomas con IA tecnología en Dispositivos con recursos limitados. Estos bien podrían ser los futuros iPhone y iPad. El gigante tecnológico con sede en Cupertino publicó recientemente dos nuevos artículos sobre las mismas tecnologías.
Echemos un vistazo a lo que pasa por la mente de los ingenieros y expertos en tecnología de Apple con las tecnologías propuestas.
Utilice HUGS para crear modelos 3D animados más precisos
En el primer trabajo de investigaciónA Apple se le ocurrió una nueva tecnología llamada MIMOS para crear avatares animados en 3D. ABRAZOS significa Símbolos gaussianos humanos y utiliza una técnica llamada Salpicaduras gaussianas modelo 3dque se utiliza para renderizar modelos 3D en tiempo real a partir de datos reales en un espacio 3D.
El foco de Apple estará en hacer que la tecnología aprenda a «desenredar» una escena estática capturada en un «Vídeo monocular con un número reducido de fotogramas (50-100)» en una «Avatar humano totalmente animable en 30 minutos».
Apple afirma en el resumen del artículo de investigación que utilizará el modelo corporal SMPL para inicializar los gaussianos humanos. La tecnología SMPL no puede modelar detalles más nítidos como la ropa y el cabello y aquí es donde entran los gaussianos 3D. El gigante tecnológico dice que planea usar HUGS para hacer que los gaussianos 3D «se desvíen del modelo del cuerpo humano», capturando detalles como el cabello y el cabello. tela y renderizar modelos animados en 3D. Este enfoque debería dar como resultado avatares animados 3D más realistas y precisos.
“Proponemos optimizar conjuntamente los pesos de la combinación lineal para coordinar los movimientos de los gaussianos individuales durante la animación. Nuestro enfoque permite una síntesis de nuevas poses del humano y una nueva síntesis de visiones del humano y la escena. Nos damos cuenta
Calidad de renderizado líder en la industria con una velocidad de renderizado de 60 FPS y un entrenamiento aproximadamente 100 veces más rápido en comparación con trabajos anteriores. «, dijo Apple en el resumen del trabajo de investigación.
Reduzca la carga de datos y mejore la eficiencia del uso de la memoria en dispositivos con recursos limitados
En el segundo trabajo de investigación, Apple destacó el desafío de ejecutar modelos de lenguaje grande (LLM) como GPT-3, OPT y PaLM en dispositivos con poca memoria. El gigante tecnológico tiene como objetivo hacer que los dispositivos con poca memoria sean más capaces de utilizar modelos avanzados de lenguaje de IA.
Dice que dado que los LLM «pueden contener cientos de miles de millones, incluso miles de millones de parámetros», es
difícil de cargar y ejecutar en “dispositivos con recursos limitados”. Todo el modelo debe cargarse en DRAM para realizar inferencias, lo que «limita significativamente el tamaño máximo del modelo que se puede ejecutar». Necesitaría una mayor capacidad de DRAM para simplemente cargar el modelo, lo que no es posible con dispositivos con recursos limitados.
Para remediar esto, Apple ofrece “para almacenar los parámetros del modelo en la memoria flash, que es
al menos un orden de magnitud mayor que la DRAM. Luego, durante la inferencia, cargamos directa e inteligentemente los parámetros requeridos desde la memoria flash, evitando la necesidad de colocar todo el modelo en la DRAM.
El gigante tecnológico propone el uso de dos técnicas:ventanas Y Agrupar filas y columnas– reducir la carga de datos en los dispositivos y también hacer que el uso de la memoria sea más eficiente.
Apple afirma en el trabajo de investigación que tiene «demostró la capacidad de ejecutar LLM de hasta el doble del tamaño de la DRAM disponiblelogrando un aumento de 4 a 5 veces en la velocidad de inferencia con respecto a los métodos de carga tradicionales en la CPU y un aumento de 20 a 25 veces en la GPU.
El gigante tecnológico cree que este es un paso crucial hacia “implementar LLM avanzados en entornos con recursos limitados, ampliando su aplicabilidad y accesibilidad”.
Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.
Direcciones de Billetera:
- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS
- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe
- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f
- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx
También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:
- Telegram
Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones