Elon Musk, Steve Wozniak y Andrew Yang firmaron una carta abierta del Future of Life Institute, en la que piden a los laboratorios de IA que detengan el desarrollo de sistemas que puedan competir con la inteligencia a nivel humano. La carta insta a los laboratorios a dejar de entrenar modelos más potentes que GPT-4, la última versión del software de modelo de lenguaje grande desarrollado por la empresa estadounidense OpenAI. La carta es un llamado a la acción para que la comunidad de IA dé un paso atrás y considere las implicaciones de crear sistemas de IA que puedan igualar o superar la inteligencia humana. Los firmantes creen que esta pausa es necesaria para garantizar que la IA se desarrolle de manera responsable y ética, y que su potencial se maximice en beneficio de la humanidad.
El rápido desarrollo de la Inteligencia Artificial (IA) ha planteado preguntas importantes sobre su impacto potencial en nuestras vidas. ¿Deberíamos permitir que las máquinas difundan información falsa y eliminen puestos de trabajo? ¿Deberíamos crear mentes no humanas que eventualmente podrían superarnos en número y reemplazarnos? Todas estas son preguntas que deben abordarse a medida que avanza la tecnología de IA, ya que podrían conducir a una pérdida de control sobre nuestra civilización. Debemos considerar las implicaciones de la IA y tomar medidas para garantizar que se use de manera responsable y ética.
El Future of Life Institute (FLI), una organización sin fines de lucro con sede en Cambridge, Massachusetts, hace campaña por el desarrollo responsable y ético de la inteligencia artificial (IA). Fundada por el cosmólogo del MIT Max Tegmark y el cofundador de Skype Jaan Tallinn, FLI se ha asegurado las promesas de líderes tecnológicos como Elon Musk y el laboratorio de inteligencia artificial DeepMind, propiedad de Google, de nunca desarrollar sistemas letales de armas autónomas. En una carta reciente, FLI instó a los líderes mundiales a asumir la responsabilidad de las decisiones relacionadas con la IA, ya que tales decisiones no deben delegarse en líderes tecnológicos no elegidos. FLI se compromete a garantizar que la IA se desarrolle de una manera beneficiosa para la humanidad y el planeta.
El Institute for Ethical AI & Machine Learning ha pedido una pausa de 6 meses en la capacitación de sistemas de IA más potentes que GPT-4, la última tecnología de IA lanzada a principios de este mes. Si esta pausa no se puede promulgar rápidamente, el instituto ha pedido a los gobiernos que intervengan e instituyan una moratoria. Esta llamada se produce después de que el chatbot viral de IA ChatGPT sorprendiera a los investigadores con su capacidad para producir respuestas similares a las humanas a las indicaciones de los usuarios. El instituto cree que es necesaria una pausa para garantizar que la tecnología de IA se desarrolle de manera responsable y ética, y que se minimicen sus riesgos potenciales.
ChatGPT, la aplicación para consumidores de más rápido crecimiento en el mundo, ha logrado 100 millones de usuarios activos mensuales en solo dos meses desde su lanzamiento. Con tecnología de inteligencia artificial (IA), ChatGPT se entrena con grandes cantidades de datos de Internet y puede generar poesía, opiniones legales y más. Si bien la tecnología ha sido elogiada por su potencial, los especialistas en ética de la IA han expresado su preocupación por el posible uso indebido, como el plagio y la difusión de información errónea. Para garantizar el uso responsable de ChatGPT, es importante considerar las implicaciones éticas de la IA y tomar medidas para evitar el uso indebido.
Los líderes tecnológicos y académicos han advertido sobre los riesgos potenciales que plantean los sistemas de IA con inteligencias competitivas humanas. Han pedido que la investigación y el desarrollo de IA se vuelvan a centrar en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales. Se contactó a OpenAI para hacer comentarios, pero no estuvo disponible de inmediato. Esta carta del Future of Life Institute sirve como un recordatorio de la importancia de garantizar que los sistemas de IA se desarrollen de manera responsable y teniendo en cuenta la seguridad de la sociedad y la humanidad.
OpenAI, una empresa respaldada por Microsoft, recibió una inversión de $ 10 mil millones del gigante tecnológico. Microsoft ha integrado la tecnología de procesamiento de lenguaje natural GPT de OpenAI en su motor de búsqueda Bing para que sea más conversacional. Google ha respondido con su propio producto de inteligencia artificial conversacional, Google Bard. Elon Musk ha expresado su preocupación por los riesgos potenciales de la IA para la civilización. La inversión de Microsoft en OpenAI es una señal de la creciente importancia de la tecnología de IA en la industria tecnológica.
Elon Musk, director ejecutivo de Tesla y SpaceX, cofundó OpenAI en 2015 con Sam Altman y otros. Sin embargo, dejó el directorio en 2018 y ya no tiene participación en la empresa. Recientemente, criticó a OpenAI por desviarse de su propósito original. En respuesta, el gobierno del Reino Unido ha publicado un libro blanco sobre IA, que pide a diferentes reguladores que supervisen el uso de herramientas de IA en sus respectivos sectores mediante la aplicación de las leyes existentes. Este es un esfuerzo por mantenerse al día con el rápido avance de la tecnología de IA.
Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.
Direcciones de Billetera:
- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS
- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe
- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f
- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx
También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:
- Telegram
Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones