همکاری جهانی علیه تهدیدهای هوش مصنوعی
پیشرفتهای چشمگیر هوش مصنوعی رقابتی تنگاتنگ میان کشورها برای بهرهگیری از این فناوری در بخشهای نظامی و تسلیحاتی ایجاد کرده است.
اما به باور جفری هینتون، پدرخوانده هوش مصنوعی و برنده نوبل، در روزی که این فناوری تهدیدی جدی برای زندگی بشر شود، کشورها علیرغم اختلافات، برای مقابله با آن متحد خواهند شد.
به گزارش اینسایدر، جفری هینتون هفته گذشته در سمیناری در آکادمی سلطنتی علوم مهندسی سوئد تأکید کرد که در حال حاضر همکاری جهانی برای مقابله با خطرات هوش مصنوعی، نظیر سلاحهای خودمختار مرگبار، بعید به نظر میرسد. وی اظهار داشت: «کشورها در حال ساخت و توسعه سلاحهای خودمختار مرگبار هستند و به نظر نمیرسد که این روند به این زودیها متوقف شود.» اما با وجود این شرایط، هینتون امیدوار است زمانی که هوش مصنوعی فوقهوشمند از کنترل خارج شود، بشر به اجبار همکاری جهانی را در پیش بگیرد.
هینتون با اشاره به اجماع جهانی بر سر خطر هوش مصنوعی فوقهوشمند میگوید: «تقریباً تمام محققانی که میشناسم معتقدند روزی خواهد رسید که هوش مصنوعی از انسان هوشمندتر شود. تنها اختلافنظر ما در زمان وقوع این اتفاق است؛ برخی معتقدند پنج سال دیگر و برخی دیگر تا سی سال آینده. سوال اینجاست که آیا این سیستمها کنترل امور را در دست خواهند گرفت؟ و اگر چنین باشد، آیا راهی برای جلوگیری از این اتفاق وجود دارد؟ در این مرحله، کشورهای جهان متحد خواهند شد؛ چراکه هیچ کشوری نمیخواهد قدرت را به دست هوش مصنوعی واگذار کند.»
او با ذکر مثال چین، توضیح میدهد که حزب کمونیست چین نیز هرگز راضی به واگذاری کنترل به سیستمهای هوش مصنوعی نخواهد شد. هینتون این همکاری جهانی را مشابه وضعیت جنگ سرد توصیف کرد؛ زمانی که ایالات متحده و روسیه با وجود دشمنی، بر سر اجتناب از جنگ هستهای به یک هدف مشترک دست یافتند.
سم آلتمن، مدیرعامل شرکت OpenAI، نیز نگرانی مشابهی را ابراز کرده و از رهبران جهان خواسته است که با ایجاد یک آژانس بینالمللی مشابه آژانس انرژی اتمی، قدرتمندترین مدلهای هوش مصنوعی را بررسی و از ایمنی آنها اطمینان حاصل کنند. آلتمن در یک پادکست با اشاره به خطرات بالقوه سیستمهای پیشرفته هوش مصنوعی گفته بود: «زمانی در آیندهای نهچندان دور، این سیستمها میتوانند آسیبهای جهانی قابل توجهی ایجاد کنند و این اتفاق در دهههای آینده نخواهد بود؛ بلکه زودتر از آن رخ خواهد داد.»
با این وجود، سرمایهگذاری جهانی در هوش مصنوعی روزبهروز در حال افزایش است. براساس گزارش گلدمن ساکس، انتظار میرود تا سال ۲۰۲۵ سرمایهگذاری جهانی در این فناوری به ۲۰۰ میلیارد دلار برسد. در این میان، ایالات متحده و چین دو کشوری هستند که بیشترین سرمایهگذاری را در بخش نظامی و تسلیحاتی هوش مصنوعی انجام میدهند و در این زمینه پیشتاز محسوب میشوند.
رشد هوش مصنوعی، علاوه بر ایجاد فرصتهای بینظیر، چالشهای بزرگی برای امنیت جهانی به همراه آورده است. توسعه سلاحهای خودمختار که بدون مداخله انسانی قادر به شناسایی و نابودی اهداف هستند، نگرانیها را درباره آینده جنگها و کنترلپذیری این فناوری بیشتر کرده است. این موضوع همچنین چالشهای اخلاقی عمیقی را به وجود میآورد؛ چراکه استفاده از چنین فناوریهایی میتواند به خطاهای فاجعهبار منجر شود و مسئولیت تصمیمات اشتباه را دشوار کند.
هینتون و آلتمن هر دو بر این باورند که تنها راه جلوگیری از فاجعه جهانی، ایجاد همکاری بینالمللی است. این همکاری باید در قالب مقرراتی جهانی و ایجاد سازوکارهای نظارتی محکم برای کنترل و محدود کردن توسعه بیرویه مدلهای خطرناک هوش مصنوعی انجام شود.
در عین حال، تجربه تاریخی جنگ سرد نشان داده که تهدیدهای مشترک میتوانند رقبای بینالمللی را به همکاری وادار کنند. همانطور که اجتناب از یک جنگ هستهای، ایالات متحده و اتحاد جماهیر شوروی را مجبور به ایجاد توازن و کنترل تسلیحات کرد، تهدید ناشی از هوش مصنوعی فوقهوشمند نیز میتواند به عاملی برای همکاری جهانی تبدیل شود.
در نهایت، به نظر میرسد که جهان در آستانه دورهای قرار دارد که باید بین توسعه کنترلنشده و مقرراتگذاری مسئولانه در حوزه هوش مصنوعی تصمیمگیری کند. تهدیدهای آینده نیاز به اقداماتی فوری و همکاری جهانی دارند تا بتوان از فناوری هوش مصنوعی برای پیشرفت بشر استفاده کرد و از تبدیل آن به تهدیدی جهانی جلوگیری کرد.