Declining Chatbot Performance: Data Challenges Threaten the Future of Generative AI

¿Los datos de baja calidad están degradando el rendimiento del chatbot?

Publicado por
Comparte en redes sociales


Los chatbots modernos están en constante aprendizaje y su comportamiento siempre está cambiando. Pero su rendimiento puede disminuir o mejorar.

Estudios recientes socavan la suposición de que aprender siempre significa mejorar. Esto tiene implicaciones para el futuro de ChatGPT y sus pares. Para garantizar que los chatbots sigan funcionando, los desarrolladores de inteligencia artificial (IA) deben abordar los desafíos de datos emergentes.

ChatGPT se vuelve más tonto con el tiempo

Un estudio publicado recientemente mostró que los chatbots pueden volverse menos capaces de realizar ciertas tareas con el tiempo.

Para llegar a esta conclusión, los investigadores compararon los resultados de Large Language Models (LLM) GPT-3.5 y GPT-4 en marzo y junio de 2023. En solo tres meses, observaron cambios significativos en los modelos subyacentes a ChatGPT.

Por ejemplo, en marzo, GPT-4 pudo identificar números primos con una precisión del 97,6 %. En junio, su precisión se había desplomado a solo un 2,4 %.

cryptoshitcompra.com/wp-content/uploads/2023/07/¿Los-datos-de-baja-calidad-estan-degradando-el-rendimiento-del.png» alt=»ChatGPT GPT-4 GPT-3.5 Degradación del rendimiento» class=»lazy wp-image-355664″/>
Respuestas GPT-4 (izquierda) y GPT-3.5 (derecha) a la misma pregunta en marzo y junio (fuente: arXiv)

El experimento también evaluó qué tan rápido los modelos podían responder preguntas sensibles, qué tan bien podían generar código y su capacidad de razonamiento visual. Entre todas las habilidades que probaron, el equipo observó instancias en las que la calidad de salida de la IA se deterioró con el tiempo.

El desafío de los datos de entrenamiento en tiempo real

Machine Learning (ML) se basa en un proceso de entrenamiento mediante el cual los modelos de IA pueden emular la inteligencia humana mediante el procesamiento de grandes cantidades de información.

Por ejemplo, los LLM que impulsan los chatbots modernos se desarrollaron debido a la disponibilidad de repositorios masivos en línea. Éstas incluyen conjuntos de datos compilados de los artículos de Wikipedia, lo que permite que los chatbots aprendan al digerir el mayor cuerpo de conocimiento humano jamás creado.

Pero ahora, los gustos de ChatGPT se han lanzado a la naturaleza. Y los desarrolladores tienen mucho menos control sobre sus datos de entrenamiento en constante cambio.

El problema es que tales modelos también pueden «aprender» a dar respuestas incorrectas. Si la calidad de sus datos de entrenamiento se deteriora, también lo hacen sus resultados. Esto plantea un desafío para los chatbots dinámicos que se alimentan con una dieta constante de contenido descargado de la web.

Leer también  ¿Alcista o bajista en abril?

El envenenamiento de datos podría conducir a la degradación del rendimiento del chatbot

Debido a que tienden a depender del contenido extraído de la web, los chatbots son especialmente propensos a un tipo de manipulación conocido como envenenamiento de datos.

Esto es exactamente lo que le sucedió al bot de Twitter Tay de Microsoft en 2016. Menos de 24 horas después de su lanzamiento, el predecesor de ChatGPT comenzó a publicar tweets incendiarios y ofensivos. Los desarrolladores de Microsoft rápidamente pusieron eso en espera y volvieron a la mesa de dibujo.

Resulta que los trolls en línea han estado enviando spam al bot desde el principio, manipulando su capacidad para aprender de las interacciones con la audiencia. Después de ser bombardeado con insultos por un ejército de 4channers, no es de extrañar que Tay comenzara a repetir su odiosa retórica.

Al igual que Tay, los chatbots contemporáneos son productos de su entorno y son vulnerables a ataques similares. Wikipedia, que ha sido tan importante en el desarrollo de los LLM, también podría utilizarse veneno Datos de entrenamiento de AA.

Sin embargo, los datos corrompidos intencionalmente no son la única fuente de información errónea de la que los desarrolladores de chatbots deben tener cuidado.

Model Collapse: ¿una bomba de tiempo para los chatbots?

A medida que las herramientas de IA crecen en popularidad, el contenido generado por IA prolifera. Pero, ¿qué sucede con los LLM capacitados en conjuntos de datos descargados de la web si un porcentaje cada vez mayor de ese contenido es creado por aprendizaje automático?

uno reciente investigación en los efectos de la recursividad en los modelos ML exploró esta misma pregunta. Y la respuesta que encontró tiene implicaciones importantes para el futuro de la IA generativa.

Los investigadores han descubierto que cuando los materiales generados por IA se utilizan como datos de entrenamiento, los modelos de ML comienzan a olvidar las cosas que aprendieron anteriormente.

Leer también  Predicción del precio de XRP: el análisis sugiere una caída del 40% para septiembre

Al acuñar el término «colapso del modelo», notaron que las diferentes familias de IA tienden a degenerar cuando se exponen a contenido creado artificialmente.

El equipo creó un circuito de retroalimentación entre un modelo ML generador de imágenes y su resultado en un experimento.

Después de la observación, descubrieron que después de cada iteración, el modelo amplificó sus errores y comenzó a olvidar los datos generados por humanos con los que comenzó. Después de 20 ciclos, la salida apenas se parecía al conjunto de datos original.

png» alt=»El aprendizaje automático recursivo genera el colapso del modelo» class=»lazy wp-image-355665″/>
Salida de un modelo ML que genera imágenes (fuente: arXiv

Los investigadores observaron la misma tendencia a escalar cuando jugaron un escenario similar con un LLM. Y con cada iteración, los errores como oraciones repetidas y discurso entrecortado ocurrieron con mayor frecuencia.

A partir de esto, el estudio especula que las generaciones futuras de ChatGPT pueden estar en riesgo de colapso del modelo. A medida que la IA genera cada vez más contenido en línea, el rendimiento de los chatbots y otros modelos generativos de aprendizaje automático podría degradarse.

Se necesita contenido confiable para evitar la degradación del rendimiento del chatbot

En el futuro, las fuentes de contenido confiables serán cada vez más importantes para proteger contra los efectos degenerativos de los datos de baja calidad. Y aquellas empresas que controlan el acceso al contenido necesario para entrenar modelos ML tienen las claves para una mayor innovación.

Después de todo, no es coincidencia que los gigantes tecnológicos con millones de usuarios sean algunos de los nombres más importantes de la IA.

Solo en la última semana, Meta ha revelado la última versión de su LLM Llama 2, Google ha lanzado nuevas funciones para Bard y han estado circulando informes de que Apple también se está preparando para entrar en la refriega.

Ya sea por el envenenamiento de datos, los primeros signos de colapso del modelo o algún otro factor, los desarrolladores de chatbots no pueden ignorar la amenaza de un rendimiento degradado.

Leer también  ABO Digital compromete $ 25 millones para la empresa Extended Reality Metaverse Spheroid Universe

Descargo de responsabilidad

Siguiendo las pautas del Trust Project, este artículo presenta opiniones y perspectivas de expertos de la industria o individuos. BeInCrypto se dedica a la transparencia de los informes, pero las opiniones expresadas en este artículo no reflejan necesariamente las de BeInCrypto o su personal. Los lectores deben verificar la información de forma independiente y consultar a un profesional antes de tomar decisiones basadas en este contenido.



Source link

Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.

Direcciones de Billetera:

- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS 

- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe 

- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f

- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx 

También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:

-Twitter

- Telegram

Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *