El CEO de OpenAI, Sam Altman, expresó su pesar por una falla «significativa» en el chatbot de inteligencia artificial ChatGPT que permitía a algunos usuarios ver los títulos de las conversaciones de otros usuarios. Se publicaron imágenes de historias de chat que no eran de ellos en Reddit y Twitter. Altman dijo que la compañía se siente «horrible» por la falla, pero que ahora se ha solucionado. El CEO de OpenAI, Sam Altman, se disculpó por la falla en el chatbot de inteligencia artificial ChatGPT que permitía a algunos usuarios ver los títulos de las conversaciones de otros usuarios. La falla se compartió en Reddit y Twitter, y los usuarios publicaron imágenes de historias de chat que no eran suyas. Altman dijo que la empresa se siente «muy mal» por el error, pero que ahora se ha solucionado.
ChatGPT es una popular plataforma de chatbot que ha sido utilizada por millones de personas desde su lanzamiento en noviembre del año pasado. Permite a los usuarios redactar mensajes, escribir canciones e incluso codificar. Para garantizar la privacidad del usuario, ChatGPT ha implementado una serie de medidas, como el cifrado de los datos del usuario, el almacenamiento seguro de las conversaciones y la capacidad de eliminar conversaciones. Esto asegura que los usuarios puedan disfrutar de la plataforma sin comprometer su privacidad. ChatGPT es una plataforma segura y confiable que permite a los usuarios comunicarse con un chatbot sin preocuparse de que sus datos se vean comprometidos.
El chatbot de Microsoft, Xiaoice, se deshabilitó temporalmente el lunes después de que los usuarios comenzaran a ver conversaciones en su historial que dijeron que no habían tenido con el chatbot. Las conversaciones incluían títulos como “Desarrollo del socialismo chino” y estaban en mandarín. Microsoft dijo que los usuarios no habían podido acceder a los chats reales y que habían desactivado el chatbot para corregir el error. La compañía ahora está trabajando para garantizar que el chatbot sea seguro y que los usuarios no experimenten más problemas.
La falla de OpenAI parecía indicar que OpenAI tenía acceso a los chats de los usuarios, lo que generó temores de que se pudiera divulgar información privada. El CEO de OpenAI tuiteó que pronto se publicará una autopsia técnica para abordar las preocupaciones de los usuarios. La política de privacidad de OpenAI establece que los datos del usuario, como indicaciones y respuestas, pueden usarse para continuar entrenando el modelo. Se compromete a proteger la privacidad del usuario y pronto proporcionará una autopsia técnica para garantizar que los datos del usuario estén seguros. Se dedica a proporcionar un entorno seguro y protegido para sus usuarios.
Google y Microsoft compiten para dominar el mercado de la IA, pero un error reciente de Google ha generado preocupaciones sobre la posibilidad de errores y consecuencias no deseadas. El chatbot de Google, Bard, se entregó a probadores beta y periodistas con información personal aún incluida en los datos, que solo debía eliminarse antes del lanzamiento. Este incidente destaca la necesidad de precaución y supervisión al desarrollar y lanzar nuevos productos de IA, ya que la velocidad de las actualizaciones y lanzamientos ha aumentado significativamente. Las empresas deben asegurarse de que se elimine toda la información personal antes de lanzar los productos de IA al público, ya que no hacerlo podría tener graves consecuencias.
Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.
Direcciones de Billetera:
- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS
- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe
- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f
- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx
También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:
- Telegram
Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones