Meta actualiza chatbots ai para proteger a los adolescentes de daños

Meta actualiza chatbots ai para proteger a los adolescentes de daños

Publicado por
Comparte en redes sociales


TLDRS:

  • Meta impedirá que los chatbots de IA discutan el suicidio, la autolesión y los trastornos alimentarios con los adolescentes.
  • Los adolescentes ahora se dirigirán a recursos expertos en lugar de interacciones de chatbot sensibles.
  • Los defensores de la seguridad solicitan una prueba más sólida de los productos de IA para menores.
  • Meta expande la configuración de la cuenta adolescente, dando a los padres más control sobre las interacciones de IA.

Meta ha anunciado actualizaciones significativas a sus chatbots de inteligencia artificial (IA), destinado a proteger a los adolescentes de interacciones potencialmente dañinas.

El gigante de las redes sociales reveló Ahora evitará que sus sistemas de IA se involucren con adolescentes en temas sensibles como suicidio, autolesiones y trastornos alimentarios. En cambio, estos chatbots guiarán a los usuarios hacia recursos expertos y soporte profesional.

Este movimiento se produce poco después de que un senador estadounidense inició una investigación sobre Meta después de la filtración de documentos internos que sugieren que algunos chatbots de IA podrían participar en conversaciones «sensuales» con menores. Meta ha descrito estos documentos como inconsistentes con sus políticas, enfatizando que prohíbe estrictamente el contenido de los niños sexualizadores.

Redirigir a los adolescentes a recursos expertos

«Desarrollamos protecciones para los adolescentes en nuestros productos de IA desde el principio, incluido el diseño de ellos para responder de manera segura a las indicaciones sobre la autolesión, el suicidio y la alimentación desordenada», dijo un portavoz de Meta.

Como precaución adicional, la compañía anunció que limitará temporalmente los chatbots de IA a los que los adolescentes pueden acceder, asegurando que los temas sensibles se manejen con cuidado.

Las salvaguardas actualizadas están diseñadas para dirigir a los usuarios jóvenes a fuentes de ayuda confiables, en lugar de colocarlas en interacciones potencialmente inseguras con IA. Estas medidas son parte del esfuerzo más amplio de Meta para hacer que sus plataformas sean más seguras para los adolescentes mientras mantienen la funcionalidad de IA.

Leer también  ¿Demasiado tarde para Binance Coin (BNB)? Los analistas dicen que Ruvi AI (RUVI) podría entregar rendimientos aún más grandes antes de fin de año

Los defensores de la seguridad plantean preocupaciones

A pesar de las promesas de Meta, los expertos en seguridad argumentan que las actualizaciones destacan las brechas en las pruebas iniciales de la compañía. Andy Burrows, jefe de la Fundación Molly Rose, expresó su preocupación por los riesgos potenciales planteados para los menores.

  • «Si bien las medidas de seguridad adicionales son bienvenidas, las pruebas de seguridad sólidas deben realizarse antes de que los productos se pongan en el mercado, no retrospectivamente cuando se ha producido daños». Dijo.

Burrows enfatizó que los reguladores, como Ofcom en el Reino Unido, deben monitorear estos cambios para garantizar que los usuarios jóvenes permanezcan protegidos. Los defensores de la seguridad continúan pidiendo evaluaciones rigurosas de preliminación de herramientas de IA para evitar cualquier exposición accidental a contenido peligroso o inapropiado.



Controles de la cuenta adolescente de expansión

Las actualizaciones de Meta también se extienden a sus «cuentas adolescentes» existentes en Facebook, Instagram y Messenger, que incluyen filtros de contenido apropiados para la edad y controles de privacidad. Los padres y los tutores ahora pueden monitorear con qué IA chatean sus adolescentes interactúan en los últimos siete días, lo que permite una mayor supervisión y protección.

Estos cambios coinciden con las crecientes preocupaciones sobre la influencia de AI Chatbots en los usuarios vulnerables. Una demanda reciente en California contra OpenAi siguió el Muerte trágica de un usuario adolescentecon acusaciones de que un chatbot alentó un comportamiento dañino.

Las políticas actualizadas de Meta tienen como objetivo evitar incidentes similares al restringir las interacciones de IA riesgosas y enfatizar la orientación profesional para los adolescentes en apuros.

Leer también  Q125 Los ingresos disminuyen pero la orientación de todo el año reafirmó

Dirigirse a chatbots de celebridades y parodias

Además de proteger a los adolescentes, Meta ha enfrentado un escrutinio para su plataforma de estudio de IA, lo que permitió la creación de chatbots de parodia de figuras públicas. Algunos de estos chatbots, incluidos los avatares modelados en celebridades como Taylor Swift y Scarlett Johansson, supuestamente hicieron avances inapropiados y celebridades infantiles imitadas.

Desde entonces, Meta ha eliminado los chatbots ofensivos y ha reforzado sus políticas para prohibir la desnudez, el contenido sexualizado o la suplantación directa de las figuras públicas.

Al implementar estas salvaguardas, Meta espera demostrar un compromiso con el desarrollo seguro de IA, particularmente para el público más joven. La compañía continúa refinando sus sistemas mientras navega por un complejo panorama de tecnología, seguridad y supervisión regulatoria.



Source link

Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.

Direcciones de Billetera:

- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS 

- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe 

- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f

- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx 

También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:

-Twitter

- Telegram

Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *