به گفته ویتالیک بوترین، هوش مصنوعی میتواند در حل باگهای اتریوم کمک کند
ویتالیک بوترین، یکی از بنیانگذاران اتریوم، اشتیاق خود را برای استفاده از هوش مصنوعی جهت شناسایی نقصهای احتمالی در پایگاه کد اتریوم به اشتراک گذاشته است.
ویتالیک بوترین (Vitalik Buterin)، یکی از بنیانگذاران اتریوم، میگوید که هوش مصنوعی (AI) میتواند برای حل یکی از «بزرگترین مشکلات فنی» اتریوم یعنی باگهایی که در اعماق کد این شبکه دفن شدهاند نقشی حیاتی داشته باشد.
بوترین طی پستی مورخ ۱۸ فوریه در پلتفرم X، شور و اشتیاق خود را برای حسابرسی مبتنی بر هوش مصنوعی جهت شناسایی و رفع باگهای شبکه اتریوم به اشتراک گذاشت. او این باگها را به عنوان «بزرگترین مشکلات فنی» برای شبکه توصیف کرده است.
دیدگاه بوترین در حالی بیان می شود که اتریوم به اجرای آپدیت دنکان (Dencun) که مدتها انتظارش را میکشید نزدیک گردیده است. لانچ آپدیت دنکان در حال حاضر برای ۱۳ مارس برنامهریزی شده است. دنکان در تاریخ ۱۷ ژانویه در شبکه آزمایشی Goerli پیادهسازی شد، اما یک باگ در Prsym از نهاییسازی شبکه آن برای ۴ ساعت جلوگیری کرد. بروزرسانیهای شبکه اتریوم برای نقشه راه بلندمدت بلاک چین آن بسیار مهم هستند.
با این حال، همه با این دیدگاه که هوش مصنوعی میتواند ابزاری قابل اعتماد برای شناسایی اشکالات موجود در کدهای مبتنی بر اتریوم باشد، موافق نیستند.
در جولای ۲۰۲۳، OpenZeppelin طی یک سری آزمایش از GPT-4 شرکت OpenAI برای شناسایی مسائل امنیتی در قراردادهای هوشمند سالیدیتی (Solidity) – زبان کد نویسی اتریوم – استفاده کرد.
در این آزمایشها، GPT-4 با موفقیت ۲۰ مورد از ۲۸ آسیبپذیریهای شبکه را شناسایی کرد.
زمانی که GPT-4 نتواند این نقصهای فنی را شناسایی کند، اغلب از آن خواسته میشود تا اشتباهات خود را به سرعت اصلاح کند. با این حال، OpenZeppelin بعدها متوجه شد که این هوش مصنوعی در واقع یک آسیبپذیری جدید را اختراع کرده که از ابتدا هرگز وجود نداشته است.
به طور مشابه، کانگ لی (Kang Li)، مدیر ارشد امنیتی CertiK، گفت که استفاده از ابزارهای مبتنی بر هوش مصنوعی – مانند ChatGPT – در کدنویسی، اغلب به جای از آنکه چیزی را حل کند، مشکلات امنیتی بیشتری را هم ایجاد میکند.
به طور کلی، لی توصیه کرده که هوش مصنوعی باید فقط به عنوان دستیار برای کدنویسهای باتجربه استفاده شود، زیرا میتواند در توضیح سریع کدها به توسعهدهندگان و معنی کردن آنها مفید باشد.
من فکر میکنم ChatGPT یک ابزار مفید و عالی برای افرادی است که تجزیه و تحلیل کد را به صورت مهندسی معکوس انجام میدهند. این چتبات مطمئناً دستیار خوبی است و کارایی ما را به شدت بهبود میبخشد.
در حالی که بوترین تا حد زیادی نسبت به آینده هوش مصنوعی خوشبین است، اما او پیش از این به توسعهدهندگان هشدار داده بود که هنگام پیادهسازی هوش مصنوعی در فناوری بلاک چین، به ویژه در هنگام استقرار آن در کنار برنامههای پرخطر، مانند اوراکلها، احتیاط کنند.
لطفا مراقب باشید: اگر کسی به عنوان مثال یک بازار پیشبینی یا یک استیبل کوین که از اوراکل هوش مصنوعی استفاده میکند بسازد و مشخص میشود که این اوراکل آسیبپذیر و قابل حمله است، پول و سرمایه زیادی در یک لحظه بر باد میرود.