What Are the Threats of an AI Digital God? The Dark Side of Artificial Intelligence

Las herramientas de seguimiento de IA son inútiles, revela un nuevo estudio

Publicado por
Comparte en redes sociales


Los avances sofisticados en inteligencia artificial han dado lugar a Modelos de Lenguaje Grande (LLM) como ChatGPT y Bard de Google. Estas entidades pueden generar contenido tan humano como para desafiar la concepción de autenticidad.

A medida que los educadores y los creadores de contenido se unen para resaltar el potencial de mal uso de los LLM, desde hacer trampa hasta engañar, el software de detección de IA afirma que tiene el antídoto. Pero, ¿qué tan confiables son estas soluciones de software?

Software de detección de IA poco fiable

Para muchos, las herramientas de detección de IA ofrecen un rayo de esperanza contra la erosión de la verdad. Prometen identificar el artificio, preservando la santidad de la creatividad humana.

Sin embargo, los informáticos de la Universidad de Maryland han declarado esto queja a prueba en su búsqueda de la veracidad. ¿Los resultados? Una sobria llamada de atención para el sector.

Soheil Feizi, profesor asistente en la UMD, reveló las vulnerabilidades de estos detectores de IA, afirmando que no son confiables en escenarios prácticos. Simplemente parafrasear el contenido generado por LLM a menudo puede engañar a las técnicas de detección utilizadas por Check For AI, Compilatio, Content at Scale, Crossplag, DetectGPT, Go Winston y GPT Zero, por nombrar algunas.

“La precisión incluso del mejor detector que tenemos cae del 100 % a la aleatoriedad de un lanzamiento de moneda. Si simplemente parafraseamos algo que fue generado por un LLM, a menudo podemos burlar una serie de técnicas de detección”, dijo Feizi.

cryptoshitcompra.com/wp-content/uploads/2023/07/Las-herramientas-de-seguimiento-de-IA-son-inutiles-revela-un.png» alt=»Problemas relacionados con la IA» class=»lazy wp-image-355480″/>
Problemas relacionados con la IA. Fuente: Estadista

Esta realización, argumenta Feizi, subraya la dicotomía poco confiable de los errores de Tipo I, en los que el texto humano se marca erróneamente como generado por IA, y los errores de Tipo II, cuando el contenido de IA logra pasar a través de la red sin ser detectado.

Un caso notable apareció en los titulares cuando el software de detección de IA se equivocó clasificado la Constitución de los Estados Unidos generada por inteligencia artificial. Los errores de esta magnitud no son solo fallas técnicas, sino que pueden dañar la reputación, lo que lleva a graves implicaciones socioéticas.

Leer también  Los reguladores del Reino Unido y Love Island Star advierten contra las estafas de criptomonedas

Leer más: Informe de las Naciones Unidas destaca los peligros de la desinformación política causada por el auge de la inteligencia artificial

Feizi ilumina aún más la situación, sugiriendo que la distinción entre contenido humano y contenido generado por IA pronto puede ser difícil debido a la evolución de los LLM.

“Teóricamente, nunca se puede decir de manera confiable que esta oración fue escrita por un ser humano o algún tipo de inteligencia artificial porque la distribución entre los dos tipos de contenido es muy cercana. Eso es especialmente cierto cuando se piensa en lo sofisticados que se están volviendo los LLM y los atacantes de LLM como parafrasistas o falsificadores”, dijo Feizi.

Identificar elementos humanos únicos.

Sin embargo, como ocurre con cualquier discurso científico, existe una contranarrativa. El profesor asistente de Ciencias de la Computación de la UMD, Furong Huang, tiene una perspectiva más soleada.

Ella postulados que con amplios datos que apuntan a lo que constituye el contenido humano, la diferenciación entre los dos aún puede ser alcanzable. Si bien los LLM perfeccionan su imitación alimentándose de vastos archivos de texto, Huang cree que las herramientas de detección pueden evolucionar si se les da acceso a muestras de aprendizaje más grandes.

El equipo de Huang también se enfoca en un elemento humano único que podría ser la gracia salvadora. La diversidad innata dentro del comportamiento humano, que incluye peculiaridades gramaticales únicas y elecciones de palabras, puede ser la clave.

“Será como una carrera armamentista constante entre la IA generativa y la reveladora. Pero esperamos que esta relación dinámica realmente mejore la forma en que abordamos la creación de LLM generativos y sus detectores en primer lugar”, dijo Huang.

El debate sobre la efectividad de la detección de IA es solo una faceta del debate más amplio de IA. Feizi y Huang están de acuerdo en que la prohibición total de herramientas como ChatGPT no es la solución. Estos LLM tienen un inmenso potencial para sectores como la educación.

Leer también  S&P Global encuentra vínculos entre las criptomonedas y los cambios macroeconómicos en el último informe

Leer más: Un nuevo estudio revela que ChatGPT se está volviendo más tonto

En lugar de luchar por un sistema improbable y 100% infalible, el énfasis debe estar en fortalecer los sistemas existentes contra las vulnerabilidades conocidas.

La creciente necesidad de regulación de la IA

Es posible que las salvaguardas futuras no se basen únicamente en el análisis textual. Feizi sugiere integrar herramientas de verificación secundarias, como la autenticación de números de teléfono vinculada al envío de contenido o el análisis de patrones de comportamiento.

Estas capas adicionales podrían mejorar las defensas contra la detección falsa de IA y el sesgo intrínseco.

Si bien la IA puede estar cubierta de incertidumbres, Feizi y Huang enfatizan la necesidad de un diálogo abierto sobre el uso ético de los LLM. Existe un consenso colectivo de que estas herramientas, si se usan de manera responsable, podrían traer beneficios significativos a la sociedad, particularmente en la educación y en la lucha contra la desinformación.

Leer más: Estos tres multimillonarios son optimistas sobre la IA, bajistas sobre las criptomonedas

png» alt=»Confíe en Big Tech para el gobierno de IA.» class=»lazy wp-image-355479″/>
Confíe en Big Tech para el gobierno de IA. Fuente: Estadista

Sin embargo, el viaje por delante no está exento de desafíos. Huang destaca la importancia de establecer reglas básicas fundamentales a través de discusiones con los responsables políticos.

Un enfoque de arriba hacia abajo, argumenta Huang, es fundamental para garantizar un marco coherente que rija los LLM, ya que la comunidad de investigación busca sin descanso mejores detectores y marcas de agua para frenar el mal uso de la IA.

Descargo de responsabilidad

Siguiendo las pautas del Trust Project, este artículo presenta opiniones y perspectivas de expertos de la industria o individuos. BeInCrypto se dedica a la transparencia de los informes, pero las opiniones expresadas en este artículo no reflejan necesariamente las de BeInCrypto o su personal. Los lectores deben verificar la información de forma independiente y consultar a un profesional antes de tomar decisiones basadas en este contenido.

Leer también  Galois Capital cerró oficialmente después de quedar atrapado en FTX – Cryptoshitcompra



Source link

Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.

Direcciones de Billetera:

- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS 

- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe 

- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f

- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx 

También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:

-Twitter

- Telegram

Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *