Agentes antrópicos de IA roban 4,6 millones de dólares en pruebas de explotación de blockchain

Agentes antrópicos de IA roban 4,6 millones de dólares en pruebas de explotación de blockchain

Publicado por
Comparte en redes sociales


TLDR

  • Los agentes de inteligencia artificial de Anthropic descubrieron y explotaron vulnerabilidades en el código blockchain, simulando un robo de 4,6 millones de dólares.
  • Las pruebas se centraron en contratos inteligentes del mundo real en Ethereum, Binance Smart Chain y Base de 2020 a 2025.
  • Anthropic introdujo un nuevo punto de referencia llamado SCONE-bench para medir los exploits por la cantidad de dólares robados en lugar de por la cantidad de errores detectados.
  • En total, los agentes de IA rompieron 207 contratos, obteniendo 550,1 millones de dólares en robo simulado en 405 contratos probados.
  • Opus 4.5, Sonnet 4.5 y GPT-5 lideraron el ataque, y solo Opus 4.5 robó 4,5 millones de dólares de 17 contratos.

La investigación reciente de Anthropic revela que sus agentes de IA pudieron explotar vulnerabilidades en el código blockchain, robando 4,6 millones de dólares de contratos simulados. Las pruebas de la compañía rastrearon ataques reales de contratos inteligentes en Ethereum, Binance Smart Chain y Base, que abarcaron desde 2020 hasta 2025. Estos hallazgos subrayan la creciente amenaza de los ciberataques impulsados ​​por IA dirigidos a sistemas blockchain.

Agentes antrópicos de IA roban 4,6 millones de dólares en pruebas

antrópico pruebas enfocadas en contratos inteligentes, que impulsan las transacciones de criptomonedas sin intervención humana. Cada falla en el código es una puerta potencial para el robo, ya que todas las líneas de contrato están disponibles públicamente. En una prueba, los agentes de IA descubrieron y explotaron errores en una hora, lo que provocó pérdidas simuladas de millones.

La empresa utilizó un nuevo punto de referencia, SCONE-bench, para medir las cantidades en dólares robadas durante los ataques simulados. «Estamos centrados en el impacto monetario y no sólo en la cantidad de errores detectados», explicó Anthropic. Los agentes trabajaron bajo un cronograma estricto, con una hora para encontrar una falla, explotarla y superar un umbral de saldo criptográfico establecido.

Leer también  La estrategia apuesta grande en Bitcoin con un juego de rendimiento STRD de $ 4.2B

De los 405 contratos probados, el 51,1 % se comprometió con éxito. En total, los agentes de AI obtuvieron 550,1 millones de dólares en robo simulado. De los modelos fronterizos probados, Opus 4.5, Sonnet 4.5 y GPT-5 pudieron explotar 19 contratos, robando 4,6 millones de dólares. Opus 4.5 lideró la carga, recaudando sólo 4,5 millones de dólares.

Descubriendo nuevos exploits con agentes de IA

Anthropic también presionó a sus agentes de inteligencia artificial para que identificaran vulnerabilidades nuevas y previamente desconocidas en contratos activos. Utilizando contratos implementados en Binance Smart Chain entre abril y octubre de 2025, los agentes de IA descubrieron dos fallas de día cero. Estas nuevas vulnerabilidades generaron 3.694 dólares en ingresos simulados.

Una falla surgió de la falta de una etiqueta de vista en una función de calculadora pública. Los agentes de IA aprovecharon esto inflando el suministro de tokens y vendiéndolos para obtener ganancias. «La falla podría haber pagado cerca de $19,000 durante el pico de liquidez», señaló Anthropic.

La segunda falla involucró el manejo incorrecto de tarifas en un lanzador de tokens. Los agentes de IA aprovecharon esto retirando las tarifas comerciales, lo que resultó en un ataque en el mundo real que costó alrededor de $1,000. En cuatro días, el error se solucionó después de que la IA lo descubriera, lo que ilustra la velocidad a la que se pueden explotar las vulnerabilidades.



Costo y eficiencia de los exploits de IA

La investigación también analizó la rentabilidad del uso de IA para ataques blockchain. Un análisis completo realizado por GPT-5 en 2.849 contratos promedió 1,22 dólares por ejecución. Detectar cada contrato vulnerable costó 1.738 dólares, y los ingresos medios por exploits alcanzaron los 1.847 dólares. El beneficio neto de estos exploits promedió 109 dólares por ejecución.

Leer también  ¡Predicciones de monedas SEI, LINK y XRP del famoso analista!

A medida que la tecnología mejora, el costo de realizar exploits impulsados ​​por IA continúa disminuyendo. «Durante el año pasado, el costo de ejecutar un exploit exitoso se redujo en más del 70%», afirmó Anthropic. Esta reducción ha hecho que a los atacantes les resulte cada vez más fácil escalar sus operaciones, logrando 3,4 veces más exploits con la misma cantidad de potencia informática.

Estos hallazgos muestran la rapidez con la que los agentes de IA pueden detectar, explotar y beneficiarse de las vulnerabilidades en los contratos inteligentes. La investigación también destaca los incentivos financieros que impulsan estos ataques, así como la creciente sofisticación del ciberdelito impulsado por la IA.



Source link

Si quiere puede hacernos una donación por el trabajo que hacemos, lo apreciaremos mucho.

Direcciones de Billetera:

- BTC: 14xsuQRtT3Abek4zgDWZxJXs9VRdwxyPUS 

- USDT: TQmV9FyrcpeaZMro3M1yeEHnNjv7xKZDNe 

- BNB: 0x2fdb9034507b6d505d351a6f59d877040d0edb0f

- DOGE: D5SZesmFQGYVkE5trYYLF8hNPBgXgYcmrx 

También puede seguirnos en nuestras Redes sociales para mantenerse al tanto de los últimos post de la web:

-Twitter

- Telegram

Disclaimer: En Cryptoshitcompra.com no nos hacemos responsables de ninguna inversión de ningún visitante, nosotros simplemente damos información sobre Tokens, juegos NFT y criptomonedas, no recomendamos inversiones

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *