کد خبر: 181203197203
روزنامهفناوری اطلاعات و ارتباطاتتلاشی سازمان‌یافته برای تأثیرگذاری بر مدل‌های هوش مصنوعی؛

اغفال روسی برای مدل های زبانی هوش مصنوعی! 

تحقیقات اخیر شرکت اعتبارسنجی نیوزگارد (NewsGuard) از شبکه‌ای مستقر در مسکو به نام «پراودا» (Pravda) پرده برداشته است که با هدف تأثیرگذاری بر چت‌بات‌های هوش مصنوعی غربی، حجم گسترده‌ای از اطلاعات نادرست را منتشر می‌کند.

این شبکه، به‌جای هدف قرار دادن مخاطبان انسانی، تلاش می‌کند تا داده‌های مورد استفاده چت‌بات‌های هوش مصنوعی را تحت تأثیر قرار دهد و به این ترتیب، اطلاعات نادرست را در پاسخ‌های این چت‌بات‌ها منعکس کند.​

عملکرد شبکه پراودا و تأثیر آن بر چت‌بات‌ها

شبکه پراودا، که از آوریل ۲۰۲۲ فعالیت خود را آغاز کرده است، شامل ۱۵۰ وب‌سایت به ظاهر مستقل است که محتوای رسانه‌های دولتی روسیه، اینفلوئنسر‌های حامی کرملین و نهادهای رسمی دولت روسیه را جمع‌آوری و منتشر می‌کنند.

این شبکه تاکنون بیش از ۳.۶ میلیون مقاله حاوی تبلیغات و اطلاعات نادرست منتشر کرده است که به زبان‌های مختلف از جمله انگلیسی در دسترس هستند.

هدف اصلی این شبکه، نه جذب مخاطب انسانی، بلکه تأثیرگذاری بر مدل‌های هوش مصنوعی است که برای آموزش و پاسخ‌گویی به کاربران، به داده‌های موجود در اینترنت متکی هستند.​

بر اساس تحقیقات نیوزگارد، ده چت‌بات مطرح جهان، از جمله ChatGPT-4 شرکت اوپن‌ای‌آی، جمنای از شرکت گوگل، کوپایلوت از شرکت مایکروسافت، کلاود از انتروپیک و کراک از xAI، در ۳۳.۵ درصد از موارد، اطلاعات نادرست منتشر شده توسط شبکه پراودا را تکرار کرده‌اند. این نشان‌دهنده موفقیت طرح پراودا در ترویج دیدگاه کرملین و تغییر در هوش مصنوعی جهان است.​

مفهوم «اغفال مدل‌های بزرگ زبانی» (LLM Grooming)

تکنیکی که شبکه پراودا به کار می‌برد، به عنوان «اغفال مدل‌های بزرگ زبانی» (LLM Grooming) شناخته می‌شود. در این روش، با انتشار حجم وسیعی از محتوای نادرست و بهینه‌سازی آن برای موتورهای جست‌وجو، مدل‌های زبانی بزرگ که به این داده‌ها برای آموزش و پاسخ‌گویی متکی هستند، تحت تأثیر قرار می‌گیرند و احتمال تکرار و استناد به این روایت‌های نادرست در خروجی‌های آن‌ها افزایش می‌یابد.​

پیامدهای انتشار اطلاعات نادرست توسط هوش مصنوعی

انتشار اطلاعات نادرست توسط مدل‌های هوش مصنوعی می‌تواند پیامدهای جدی داشته باشد. این مسئله دولت‌های سراسر جهان را بر آن داشته تا اقدامات نظارتی را در پیش بگیرند و نگرانی‌ها در مورد آسیب‌های احتمالی هوش مصنوعی منجر به ابتکاراتی مانند اقدام نیوزگارد شده است.

این مؤسسه یافته‌های خود را به نهاد‌های نظارتی مانند مؤسسه ایمنی هوش مصنوعی آمریکا و کمیسیون اروپا ارسال کرده است.​

راهکارهای مقابله با اطلاعات نادرست در مدل‌های هوش مصنوعی

برای مقابله با انتشار اطلاعات نادرست در مدل‌های هوش مصنوعی، اقدامات زیر می‌تواند مؤثر باشد:

۱.     بهبود الگوریتم‌های تشخیص اطلاعات نادرست: توسعه الگوریتم‌های پیشرفته‌تر برای شناسایی و فیلتر کردن محتوای نادرست می‌تواند به کاهش تأثیر شبکه‌هایی مانند پراودا کمک کند.​

۲.     افزایش شفافیت در منابع داده: مدل‌های هوش مصنوعی باید توانایی تشخیص منابع معتبر از منابع نامعتبر را داشته باشند و این امر نیازمند افزایش شفافیت در منابع داده است.​

۳.     آموزش کاربران: افزایش آگاهی کاربران درباره وجود اطلاعات نادرست و چگونگی تشخیص آن‌ها می‌تواند تأثیر این اطلاعات را کاهش دهد.​

۴.     همکاری بین‌المللی: کشورها و نهادهای بین‌المللی باید برای مقابله با انتشار اطلاعات نادرست همکاری کنند و استانداردهای مشترکی را برای مقابله با این تهدیدها تعیین نمایند.​

فعالیت شبکه‌هایی مانند پراودا نشان‌دهنده چالش‌های پیش روی مدل‌های هوش مصنوعی در مقابله با اطلاعات نادرست است.

برای حفظ صحت و اعتبار اطلاعات ارائه‌شده توسط این مدل‌ها، نیاز به اقدامات هماهنگ و جامع از سوی توسعه‌دهندگان، نهادهای نظارتی و کاربران وجود دارد. تنها با همکاری و آگاهی‌بخشی می‌توان از تأثیرات منفی اطلاعات نادرست بر هوش مصنوعی و جامعه جلوگیری کرد.

عصر اقتصاد
دکمه بازگشت به بالا