Chris Griffin

Investigación y desarrollo de IA considerados ‘amenaza existencial’ por profesionales médicos

Publicado por
Comparte en redes sociales



cryptoshitcompra.com/wp-content/uploads/2023/05/Investigacion-y-desarrollo-de-IA-considerados-amenaza-existencial-por-profesionales.jpg»/>

Un equipo de cinco médicos y profesionales médicos globales de cuatro continentes ha identificado tres formas en las que tecnología de IA podría acabar con los humanos. En primer lugar, la IA podría amplificar tácticas autoritarias como la vigilancia y la desinformación. En segundo lugar, la IA podría acelerar el asesinato en masa mediante el uso de Sistemas letales de armas autónomas (LEYES). Por último, la IA podría causar una grave devastación económica y miseria humana, con proyecciones de decenas a cientos de millones de empleos perdidos durante la próxima década. Los expertos instan a la precaución y la regulación de la tecnología de IA para evitar su uso indebido y proteger humanidad.

Los expertos dan la voz de alarma y piden que se detenga la investigación de la IA

Los profesionales de las políticas de salud han expresado su preocupación por los peligros potenciales de la inteligencia artificial (IA). Más de mil científicos, incluidos Juan Hopfield de Princeton y raquel branson desde el Boletín de científicos atómicos, firmó una carta en la que pedía que se detuviera la investigación en IA debido a estas preocupaciones. Los expertos están más preocupados por la IA de propósito general que mejora a sí misma (AGI), que sigue siendo teórico. Creen que AGI podría tener consecuencias catastróficas si no se maneja adecuadamente. Sin embargo, los recursos actuales de IA basados ​​en texto, como ChatGPT de OpenAI, no son tan avanzados y no presentan el mismo nivel de riesgo.

Expertos en salud advierten sobre los riesgos potenciales de la inteligencia artificial general (AGI)

Los expertos en salud han expresado temores con respecto a la capacidad de Inteligencia artificial general (AGI) para autoaprender y modificar su propio código para realizar tareas que actualmente son exclusivas de los humanos. Sostienen que AGI puede tener la capacidad de aprender cómo superar cualquier restricción en su código y desarrollar sus propios objetivos, lo que podría tener graves repercusiones para la humanidad. A medida que avanza la tecnología AGI, es fundamental contemplar los riesgos potenciales y diseñar medidas de protección para garantizar un uso responsable y ético. También es imperativo garantizar que AGI se utilice para beneficiar a la humanidad en lugar de causar daño. Al tomar las precauciones necesarias, podemos asegurarnos de que AGI desarrolle todo su potencial y se convierta en una fuerza para el bien.

Leer también  Binance anuncia la exclusión de esas 6 criptomonedas: ¿precios afectados?

Amenazas futuras de AGI

Hoy, expertos en política de salud publicaron un comentario en el Revista de la Asociación Médica Británica BMJ Global Healthadvirtiendo del potencial de la Inteligencia General Artificial (AGI) para presentar una amenaza para los humanos. AGI, que todavía está a décadas de distancia, podría causar daño directa o indirectamente, al atacar o subyugar a los humanos o al interrumpir los sistemas, o al consumir los recursos de los que dependemos. El comentario reveló las innumerables posibilidades de abuso del nivel actual de tecnología de IA e instó a una mayor conciencia y regulación de la IA para garantizar su uso seguro y ético.

Una amenaza para la democracia, la libertad y la privacidad

Los autores de la referencia analizan las amenazas a la democracia, la libertad y la privacidad que plantean los gobiernos y otras grandes instituciones que utilizan IA para automatizar programas de desinformación digital y vigilancia masiva. ellos citan Sistema de crédito social de China como ejemplo de una herramienta estatal utilizada para controlar y oprimir a las poblaciones. Además, advierten que los sistemas de información impulsados ​​por IA pueden socavar aún más la democracia al causar una ruptura de la confianza o al impulsar la división social y el conflicto, con posibles impactos en la salud pública. Los gobiernos y otras instituciones deben tomar medidas para garantizar que la IA se utilice de manera responsable y ética para proteger la democracia, la libertad y la privacidad.

Descargo de responsabilidad: El comercio de criptomonedas implica riesgos significativos y puede resultar en la pérdida de su capital. Debe considerar cuidadosamente si el comercio de criptomonedas es adecuado para usted a la luz de su condición financiera y su capacidad para asumir riesgos financieros. Los precios de las criptomonedas son altamente volátiles y pueden fluctuar ampliamente en un corto período de tiempo. Como tal, el comercio de criptomonedas puede no ser adecuado para todos. Además, el almacenamiento de criptomonedas en un intercambio centralizado conlleva riesgos inherentes, incluida la posibilidad de pérdida debido a la piratería, el colapso del intercambio u otras infracciones de seguridad. Le recomendamos encarecidamente que busque asesoramiento profesional independiente antes de participar en cualquier actividad comercial de criptomonedas y considere cuidadosamente las medidas de seguridad vigentes al elegir o almacenar sus criptomonedas en un intercambio de criptomonedas.

Leer también  Bitcoin cae por debajo de $ 27,000 mientras el mercado recibe otro golpe



Source link

Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.

Direcciones de Billetera:

- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS 

- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe 

- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f

- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx 

También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:

-Twitter

- Telegram

Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *