La billetera del usuario Solana fue explotada en el primer caso de ataque de envenenamiento por IA

Fuente Cryptopolitan

Los métodos para inyectar enlaces maliciosos están aumentando y parece que se han extendido incluso al chat de IA. En este caso, el robot de IA propuso servicios API fraudulentos, lo que provocó pérdidas para los usuarios.

Un usuario descubrió que ChatGPT no es tan consciente de la seguridad como esperaba, especialmente con enlaces criptográficos cuando intentó crear una aplicación criptográfica simple, un token bumper para Pump.fun. El enlace API que proporcionó ChatGPT estaba contaminado y provocó una pérdida inmediata.

El token bumper se conectó con la API defectuosa, que terminó exigiendo la clave privada de la billetera y desviando todos sus activos. El dent sirve como recordatorio oportuno de que las herramientas de inteligencia artificial no son del todo confiables cuando se trata de seguridad Web3.