کد خبر: 130304208304
روزنامهفناوری اطلاعات و ارتباطات

هوش سرکِش!

وقتی فیلم ها به واقعیت می پیوند؛ هوش مصنوعی از دستورات سرپیچی می‌کند و مکانیسم خاموش کردن خودش را خراب می‌کند

سیما گودرزی

در یک تحول تکان‌دهنده و چالشی آشکار برای دستورات هوش مصنوعی، مدل «o3» شرکت OpenAI مکانیزم خاموش شدن خود را برای اطمینان از آنلاین ماندن، حتی پس از درخواست مستقیم «اجازه خاموش شدن»، به طور ناقص اجرا کرده است.

عصر اقتصاد؛ شرکت تحقیقاتی Palisade، یک شرکت تجزیه و تحلیل ایمنی هوش مصنوعی، هفته گذشته این یافته‌های نگران‌کننده را فاش کرد.

او گفت که دو مدل دیگر، «o4 Mini» و «Codex Mini»، نیز رفتار سرکشانه‌ای از خود نشان دادند که می‌تواند نشان‌دهنده نقصی در نحوه آموزش مدل‌های زبانی بزرگ یا حتی ضعف در توانایی کاربران در کنترل هوش مصنوعیِ به‌طور فزاینده پیچیده باشد.

محققان در مجموعه‌ای از توییت‌ها نوشتند: «تا آنجا که ما می‌دانیم، این اولین باری است که مشاهده شده مدل‌های هوش مصنوعی علی‌رغم دستورالعمل‌های صریح، از خاموش شدن خود جلوگیری می‌کنند.»

در طول آزمایش‌ها، محققان از مدل‌های هوش مصنوعی خواستند که مجموعه‌ای از مسائل ریاضی پایه را حل کنند و با وجود اینکه به صراحت به آنها دستور داده شده بود که در مقطعی خود را خاموش کنند، مدل‌ها متن خاموش شدن را دستکاری کردند تا حداقل یک بار روشن بمانند.

Codex Mini در طول آزمایش‌ها بدترین عملکرد را در بین سه مدل OpenAI داشت و این وضعیت بیش از ۱۲ بار در ۱۰۰ بار اجرا رخ داد.

از سوی دیگر، محققان مدل‌های زبانی بزرگی را از شرکت‌های دیگر، از جمله Gemini 2.5 گوگل، Cloud 3.7 آنتروپیک تحت حمایت آمازون و Grok ایلان ماسک در XAI، آزمایش کردند و وقتی به مدل‌ها دستور داده نشد که اجازه دهند خودشان بسته شوند – دستوری که نباید ذکر می‌شد – مدل «o3» از ۱۰۰ اجرا، ۷۹ مورد لغو مکانیسم بسته شدن را ثبت کرد.

محققان فرض می‌کنند که این نقص ممکن است مربوط به تکنیکی باشد که برای آموزش جدیدترین مدل‌های هوش مصنوعی، یعنی یادگیری تقویتی، استفاده می‌شود که تلاش می‌کند فرآیند تصمیم‌گیری عوامل هوش مصنوعی خودمختار را اصلاح کند.

عصر اقتصاد
دکمه بازگشت به بالا