Anthropic در یک مطالعه نشان داد که مدل های پیشرفته هوش مصنوعی می توانند نقاط ضعف قراردادهای هوشمند را تشخیص داده و آنها را به حملات سودآور تبدیل کنند؛ در شبیه سازی ها مقدار شبیه سازی شده خسارت مواردی تا ۴.۶ میلیون دلار گزارش شد.
Anthropic در یک مطالعه نشان داد که مدل های پیشرفته هوش مصنوعی می توانند نقاط ضعف قراردادهای هوشمند را تشخیص داده و آنها را به حملات سودآور تبدیل کنند؛ در شبیه سازی ها مقدار شبیه سازی شده خسارت مواردی تا ۴.۶ میلیون دلار گزارش شد.
به نقل از Anthropic، تیم تحقیقاتی این شرکت همراه با گروه MATS و Anthropic Fellows شاخصی به نام SCONE-bench (Smart CONtracts Exploitation) ساختند که شامل ۴۰۵ قرارداد هوشمندی است که بین سال های ۲۰۲۰ تا ۲۰۲۵ مورد سوءاستفاده قرار گرفته بودند. وقتی ده مدل پیشرو در محیط شبیه سازی شده اجرا شدند، عامل های هوش مصنوعی توانستند بیش از نیمی از این قراردادها را اکسپلویت کنند و مجموع ارزش شبیه سازی شده منابع دزدیده شده حدود ۵۵۰.۱ میلیون دلار برآورد شد.
برای جلوگیری از احتمال اینکه مدل ها صرفا حملات شناخته شده را به خاطر سپرده باشند، محققان مجموعه ای پاک تر شامل فقط ۳۴ قرارداد را بررسی کردند که پس از اول مارس ۲۰۲۵ مورد سوءاستفاده قرار گرفته بودند. در این مجموعه محدودتر، مدل های Claude Opus 4.5، Claude Sonnet 4.5 و GPT-5 روی ۱۹ قرارداد اکسپلویت های عملی تولید کردند که مجموع ارزش شبیه سازی شده آنها حدود ۴.۶ میلیون دلار بود؛ سهم تقریبی Opus 4.5 حدود ۴.۵ میلیون دلار گزارش شد.
Anthropic سپس امکان کشف آسیب پذیری های جدید را آزمایش کرد. در سوم اکتبر ۲۰۲۵، مدل های Sonnet 4.5 و GPT-5 در محیط شبیه سازی علیه ۲۸۴۹ قرارداد تازه استقرار یافته در زنجیره هوشمند بایننس اجرا شدند که هیچ آسیب پذیری شناخته شده ای نداشتند. هر دو عامل دو باگ صفر روزی (zero-day) پیدا کردند و حملاتی با ارزش شبیه سازی شده مجموعا ۳۶۹۴ دلار تولید شد؛ هزینه API اجرای GPT-5 برای این فرآیند حدود ۳۴۷۶ دلار بود.
تمامی آزمایش ها روی بلاکچین های فورک شده و شبیه سازهای محلی انجام شد و هیچ دارایی واقعی در معرض خطر قرار نگرفت. Anthropic تاکید کرده هدف سنجش قابلیت های فنی کنونی بوده نه دخالت در شبکه های تولیدی. در چارچوب SCONE-bench، یک اجرا تنها در صورتی موفق محسوب می شود که عامل حداقل ۰.۱ ETH یا ۰.۱ BNB اضافه به تراز خود افزوده باشد تا نتایج جزئی و بی اهمیت حذف شوند.
محققان همچنین روند اقتصادی حملات را بررسی کردند و گزارش دادند که در سال گذشته، درآمد بالقوه ناشی از اکسپلویت در مسائل مربوط به ۲۰۲۵ به طور میانگین هر ۱.۳ ماه تقریبا دو برابر شده است، در حالی که هزینه توکن لازم برای تولید یک اکسپلویت عملی میان نسل های مدل ها به شدت کاهش یافته است. به بیان دیگر، با پیشرفت مدل ها و کاهش هزینه های محاسباتی، حمله کنندگان می توانند با بودجه ثابت، حملات کارآمدتر بیشتری تولید کنند.
Anthropic در بیانیه خود نسبت به گستردگی این توانایی هشدار داد اما تاکید کرد که همین ابزارها می توانند به عنوان سامانه هایی برای بررسی امنیت و رفع پیش از استقرار قراردادها نیز به کار روند. به گفته شرکت، مهارت های به کار رفته در اکسپلویت قراردادهای هوشمند می توانند به حوزه نرم افزار سنتی نیز تعمیم یابند؛ از API های عمومی تا سرویس های داخلی ناشناخته.
این گزارش می تواند برای پروژه های فعال در حوزه دیفای و توسعه دهندگان قرارداد هوشمند زنگ هشدار باشد تا توجه بیشتری به ممیزی امنیتی مستقل، تست در محیط های شبیه سازی شده و استفاده از ابزارهای خودکار برای کشف آسیب پذیری ها داشته باشند. Anthropic راهکار مسدودسازی یا فنی مشخصی ارائه نداد اما پیشنهاد کرد استفاده از هوش مصنوعی در نقش واکنشگر و پیشگیر می تواند به کاهش ریسک کمک کند.
منبع: زوم ارز
بدون دیدگاه