Rina Giannino

Microsoft despide al equipo de ética de IA

Publicado por
Comparte en redes sociales



Microsoft despidió recientemente a 10.000 empleados, incluido todo su equipo de ética y sociedad dentro de la organización de inteligencia artificial. Esto ha causado preocupación entre los empleados actuales y anteriores, ya que la compañía está liderando la tarea de hacer que las herramientas de IA estén disponibles para la corriente principal sin un equipo dedicado para garantizar que los principios éticos de IA estén estrechamente vinculados al diseño del producto. La decisión de Microsoft de despedir a todo su equipo de ética y sociedad ha generado dudas sobre su compromiso con los principios éticos de IA y ha dejado a muchos empleados actuales y anteriores preocupados por la falta de un equipo dedicado para garantizar que los principios éticos de IA estén estrechamente vinculados al diseño de productos.

Microsoft se compromete a desarrollar productos y experiencias de IA de manera segura y responsable. Para garantizar esto, la empresa cuenta con una Oficina de IA Responsable que crea reglas y principios para regir sus iniciativas de IA. A pesar de los despidos recientes, Microsoft sigue invirtiendo en trabajo de responsabilidad y aumentando la cantidad de personas en sus equipos de productos y dentro de la Oficina de IA Responsable. El equipo de Ética y Sociedad ha realizado un trabajo pionero para ayudar a Microsoft en su camino hacia la IA responsable, y la empresa está invirtiendo en personas, procesos y asociaciones para priorizar esto.

El equipo de Ética y Sociedad de una empresa de tecnología ha creado un juego de rol llamado Judgment Call para ayudar a los diseñadores a visualizar los daños potenciales que podrían resultar de la IA y discutirlos durante el desarrollo del producto. Este juego es parte de un conjunto de herramientas de innovación responsable más grande que el equipo ha puesto a disposición del público. Este conjunto de herramientas ayuda a garantizar que los principios de IA responsable de la empresa se implementen en los productos que crean, protegiendo a los usuarios de posibles daños. El conjunto de herramientas está diseñado para ayudar a las empresas de tecnología a crear productos que sean éticos, responsables y seguros para los usuarios.

El equipo de Ética y Sociedad de Microsoft se redujo de 30 a 7 empleados en octubre de 2020. Esto generó preocupaciones sobre los riesgos potenciales de la adopción de la tecnología de OpenAI por parte de Microsoft y la velocidad a la que se está implementando. John Montgomery, vicepresidente corporativo de AI, dijo que los líderes de la empresa les habían dado instrucciones para actuar con rapidez, lo que generó dudas sobre el compromiso de la empresa con la seguridad y los valores éticos. La reducción del tamaño del equipo de Ética y Sociedad ha causado alarma entre quienes están preocupados por los riesgos potenciales de la adopción de la tecnología de OpenAI por parte de Microsoft.

Montgomery anunció en una llamada que, debido a la presión, gran parte del equipo se trasladaría a otras áreas. Un empleado le pidió que reconsiderara, citando los impactos negativos que el equipo tenía en la sociedad. Montgomery se negó, diciendo que las presiones seguían siendo las mismas, pero aseguró al equipo que no serían eliminados. A pesar de la preocupación del equipo por los impactos negativos que tenían en la sociedad, la decisión de Montgomery de trasladar al equipo a otras áreas se mantuvo sin cambios.

Leer también  Fandomdao se une a los 5 principales ganadores en MEXC y ofrece la oportunidad final de lanzamiento aéreo

Microsoft recientemente redujo el tamaño de su equipo de ética y sociedad, transfiriendo a sus miembros a otros departamentos dentro de la empresa. Este movimiento es parte de una tendencia más amplia de descentralizar la responsabilidad de las consideraciones éticas, colocando una mayor parte de la carga en los equipos de productos individuales. El objetivo es garantizar que los productos y servicios de Microsoft sigan siendo éticamente sólidos mientras se mantienen al día con el panorama tecnológico en constante evolución. Este cambio tiene como objetivo ayudar a la compañía a mantenerse a la vanguardia y continuar brindando productos y servicios éticamente sólidos.

Los gigantes tecnológicos enfrentan tensiones entre sus equipos de productos y sus divisiones socialmente responsables. El primero quiere enviar productos rápidamente, mientras que el segundo debe anticipar posibles usos indebidos de la tecnología y solucionar cualquier problema antes de enviarlos. Este conflicto se ha vuelto cada vez más visible a medida que los gigantes tecnológicos luchan por equilibrar la necesidad de proteger sus productos del uso indebido y los riesgos legales. Para abordar esta tensión, los gigantes tecnológicos deben encontrar una manera de garantizar que sus productos sean socialmente responsables y, al mismo tiempo, permitir que sus equipos de productos envíen productos rápidamente.

Google enfrentó una gran reacción violenta en 2020 cuando despidió a la investigadora ética de inteligencia artificial Timnit Gebru después de que publicara un artículo en el que criticaba los grandes modelos de lenguaje. Este incidente ha resaltado la necesidad de que las empresas prioricen las consideraciones éticas al desarrollar herramientas de IA. La partida de varios de los principales líderes del departamento dañó la credibilidad de la empresa en cuestiones de IA responsable. El enfoque de Microsoft en el envío rápido de herramientas de IA ha demostrado que las empresas deben tener en cuenta las consideraciones éticas al desarrollar herramientas de IA. El equipo de ética y sociedad de Google había apoyado el desarrollo de productos, pero el liderazgo de la empresa se había vuelto menos interesado en el pensamiento a largo plazo del equipo. Este incidente ha demostrado que las empresas deben priorizar las consideraciones éticas al desarrollar herramientas de IA para garantizar el uso responsable de la tecnología de IA.

Leer también  CZ Zhao defiende la integridad de Binance

Microsoft está invirtiendo mucho en la tecnología OpenAI para obtener una ventaja competitiva frente a Google en búsquedas, software de productividad, computación en la nube y otras áreas. Con el relanzamiento de Bing, Microsoft ha visto un aumento en los usuarios activos diarios, y un tercio de ellos son nuevos. Microsoft cree que cada 1 por ciento de participación de mercado que puede quitarle a Google en la búsqueda generaría $ 2 mil millones en ingresos anuales, razón por la cual la compañía ha invertido $ 11 mil millones en OpenAI. Microsoft está trabajando para integrar la tecnología de OpenAI en su imperio, con el objetivo de obtener una ventaja competitiva sobre Google y aumentar sus ingresos.

Microsoft se está tomando en serio los riesgos que plantea la Inteligencia Artificial (IA), con tres grupos diferentes dedicados al tema. Sin embargo, la reciente eliminación del equipo de ética y sociedad de Microsoft ha generado preocupaciones sobre los riesgos potenciales de las herramientas impulsadas por OpenAI. Las empresas deben invertir en equipos dedicados al desarrollo responsable de IA para garantizar que la tecnología se utilice de manera segura y ética. Para garantizar esto, Microsoft y otros gigantes tecnológicos deben continuar invirtiendo en equipos dedicados al desarrollo responsable de IA, para anticipar las consecuencias de lanzar herramientas impulsadas por IA a una audiencia global y garantizar que la tecnología se use de manera segura y ética.

Microsoft lanzó recientemente Bing Image Creator, una herramienta que utiliza el sistema DALL-E de OpenAI para generar imágenes basadas en indicaciones de texto. Si bien esta tecnología ha sido recibida con entusiasmo, los investigadores de Microsoft han identificado riesgos potenciales para el sustento de los artistas, ya que podría permitirles copiar fácilmente su estilo. Para proteger los derechos de los artistas, Microsoft ha escrito un memorando que describe los riesgos de marca asociados con la herramienta y sugiere formas de mitigarlos. Microsoft se compromete a garantizar que el trabajo de los artistas sea respetado y protegido, y está tomando medidas para garantizar que se respeten sus derechos.

Bing Image Creator de Microsoft ha sido probado y resultó difícil diferenciar entre las imágenes generadas y las obras de arte originales. Esto podría provocar daños en la marca del artista y sus accionistas financieros, así como relaciones públicas negativas para Microsoft. Para proteger su marca y las obras de los artistas, Microsoft debe tomar medidas para garantizar que las imágenes generadas no se confundan con las obras de arte originales. Esto podría incluir la implementación de medidas como marcas de agua, el uso de diferentes paletas de colores o proporcionar más información sobre la fuente de las imágenes. Al seguir estos pasos, Microsoft puede proteger su marca y las obras de los artistas de posibles daños.

OpenAI actualizó recientemente sus términos de servicio para otorgar a los usuarios todos los derechos de propiedad de las imágenes creadas con su generador de imágenes de IA, DALL-E. El equipo de ética y sociedad de Microsoft expresó su preocupación por este movimiento, ya que podría dar lugar a la reproducción de obras con derechos de autor. Para proteger los derechos de los artistas, los investigadores de Microsoft propusieron impedir que los usuarios de Bing Image Creator usen los nombres de artistas vivos como indicaciones y crear un mercado para vender el trabajo de un artista si alguien busca su nombre. Esto garantizaría que el trabajo de los artistas no se replique sin su permiso y ayudaría a proteger sus derechos.

Getty Images presentó una demanda contra Stability AI, creadores del generador de arte de inteligencia artificial Stable Diffusion, acusándolos de usar más de 12 millones de imágenes sin permiso. Esto hace eco de las preocupaciones planteadas por los propios especialistas en ética de la IA de Microsoft un año antes, quienes advirtieron que pocos artistas habían dado su consentimiento para permitir que sus obras se usaran como datos de capacitación. Microsoft lanzó su Bing Image Creator en países de prueba sin implementar las estrategias sugeridas por sus especialistas en ética de IA, alegando que la herramienta se modificó para abordar las preocupaciones. Sin embargo, las cuestiones legales siguen sin resolverse, lo que hace que Getty Images tome medidas contra Stability AI.

Leer también  ¡No entrar en pánico! Actualización de Shanghái es poco probable para colapsar el precio de Ethereum



Source link

Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.

Direcciones de Billetera:

- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS 

- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe 

- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f

- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx 

También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:

-Twitter

- Telegram

Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *