اغفال روسی برای مدل های زبانی هوش مصنوعی!

تحقیقات اخیر شرکت اعتبارسنجی نیوزگارد (NewsGuard) از شبکهای مستقر در مسکو به نام «پراودا» (Pravda) پرده برداشته است که با هدف تأثیرگذاری بر چتباتهای هوش مصنوعی غربی، حجم گستردهای از اطلاعات نادرست را منتشر میکند.
این شبکه، بهجای هدف قرار دادن مخاطبان انسانی، تلاش میکند تا دادههای مورد استفاده چتباتهای هوش مصنوعی را تحت تأثیر قرار دهد و به این ترتیب، اطلاعات نادرست را در پاسخهای این چتباتها منعکس کند.
عملکرد شبکه پراودا و تأثیر آن بر چتباتها
شبکه پراودا، که از آوریل ۲۰۲۲ فعالیت خود را آغاز کرده است، شامل ۱۵۰ وبسایت به ظاهر مستقل است که محتوای رسانههای دولتی روسیه، اینفلوئنسرهای حامی کرملین و نهادهای رسمی دولت روسیه را جمعآوری و منتشر میکنند.
این شبکه تاکنون بیش از ۳.۶ میلیون مقاله حاوی تبلیغات و اطلاعات نادرست منتشر کرده است که به زبانهای مختلف از جمله انگلیسی در دسترس هستند.
هدف اصلی این شبکه، نه جذب مخاطب انسانی، بلکه تأثیرگذاری بر مدلهای هوش مصنوعی است که برای آموزش و پاسخگویی به کاربران، به دادههای موجود در اینترنت متکی هستند.
بر اساس تحقیقات نیوزگارد، ده چتبات مطرح جهان، از جمله ChatGPT-4 شرکت اوپنایآی، جمنای از شرکت گوگل، کوپایلوت از شرکت مایکروسافت، کلاود از انتروپیک و کراک از xAI، در ۳۳.۵ درصد از موارد، اطلاعات نادرست منتشر شده توسط شبکه پراودا را تکرار کردهاند. این نشاندهنده موفقیت طرح پراودا در ترویج دیدگاه کرملین و تغییر در هوش مصنوعی جهان است.
مفهوم «اغفال مدلهای بزرگ زبانی» (LLM Grooming)
تکنیکی که شبکه پراودا به کار میبرد، به عنوان «اغفال مدلهای بزرگ زبانی» (LLM Grooming) شناخته میشود. در این روش، با انتشار حجم وسیعی از محتوای نادرست و بهینهسازی آن برای موتورهای جستوجو، مدلهای زبانی بزرگ که به این دادهها برای آموزش و پاسخگویی متکی هستند، تحت تأثیر قرار میگیرند و احتمال تکرار و استناد به این روایتهای نادرست در خروجیهای آنها افزایش مییابد.
پیامدهای انتشار اطلاعات نادرست توسط هوش مصنوعی
انتشار اطلاعات نادرست توسط مدلهای هوش مصنوعی میتواند پیامدهای جدی داشته باشد. این مسئله دولتهای سراسر جهان را بر آن داشته تا اقدامات نظارتی را در پیش بگیرند و نگرانیها در مورد آسیبهای احتمالی هوش مصنوعی منجر به ابتکاراتی مانند اقدام نیوزگارد شده است.
این مؤسسه یافتههای خود را به نهادهای نظارتی مانند مؤسسه ایمنی هوش مصنوعی آمریکا و کمیسیون اروپا ارسال کرده است.
راهکارهای مقابله با اطلاعات نادرست در مدلهای هوش مصنوعی
برای مقابله با انتشار اطلاعات نادرست در مدلهای هوش مصنوعی، اقدامات زیر میتواند مؤثر باشد:
۱. بهبود الگوریتمهای تشخیص اطلاعات نادرست: توسعه الگوریتمهای پیشرفتهتر برای شناسایی و فیلتر کردن محتوای نادرست میتواند به کاهش تأثیر شبکههایی مانند پراودا کمک کند.
۲. افزایش شفافیت در منابع داده: مدلهای هوش مصنوعی باید توانایی تشخیص منابع معتبر از منابع نامعتبر را داشته باشند و این امر نیازمند افزایش شفافیت در منابع داده است.
۳. آموزش کاربران: افزایش آگاهی کاربران درباره وجود اطلاعات نادرست و چگونگی تشخیص آنها میتواند تأثیر این اطلاعات را کاهش دهد.
۴. همکاری بینالمللی: کشورها و نهادهای بینالمللی باید برای مقابله با انتشار اطلاعات نادرست همکاری کنند و استانداردهای مشترکی را برای مقابله با این تهدیدها تعیین نمایند.
فعالیت شبکههایی مانند پراودا نشاندهنده چالشهای پیش روی مدلهای هوش مصنوعی در مقابله با اطلاعات نادرست است.
برای حفظ صحت و اعتبار اطلاعات ارائهشده توسط این مدلها، نیاز به اقدامات هماهنگ و جامع از سوی توسعهدهندگان، نهادهای نظارتی و کاربران وجود دارد. تنها با همکاری و آگاهیبخشی میتوان از تأثیرات منفی اطلاعات نادرست بر هوش مصنوعی و جامعه جلوگیری کرد.