کد خبر: 270903184951
اقتصادروزنامهصنعت و معدنفناوری اطلاعات و ارتباطات

همکاری جهانی علیه تهدیدهای هوش مصنوعی

پیشرفت‌های چشمگیر هوش مصنوعی رقابتی تنگاتنگ میان کشورها برای بهره‌گیری از این فناوری در بخش‌های نظامی و تسلیحاتی ایجاد کرده است.

اما به باور جفری هینتون، پدرخوانده هوش مصنوعی و برنده نوبل، در روزی که این فناوری تهدیدی جدی برای زندگی بشر شود، کشورها علی‌رغم اختلافات، برای مقابله با آن متحد خواهند شد.

به گزارش اینسایدر، جفری هینتون هفته گذشته در سمیناری در آکادمی سلطنتی علوم مهندسی سوئد تأکید کرد که در حال حاضر همکاری جهانی برای مقابله با خطرات هوش مصنوعی، نظیر سلاح‌های خودمختار مرگبار، بعید به نظر می‌رسد. وی اظهار داشت: «کشورها در حال ساخت و توسعه سلاح‌های خودمختار مرگبار هستند و به نظر نمی‌رسد که این روند به این زودی‌ها متوقف شود.» اما با وجود این شرایط، هینتون امیدوار است زمانی که هوش مصنوعی فوق‌هوشمند از کنترل خارج شود، بشر به اجبار همکاری جهانی را در پیش بگیرد.

هینتون با اشاره به اجماع جهانی بر سر خطر هوش مصنوعی فوق‌هوشمند می‌گوید: «تقریباً تمام محققانی که می‌شناسم معتقدند روزی خواهد رسید که هوش مصنوعی از انسان هوشمندتر شود. تنها اختلاف‌نظر ما در زمان وقوع این اتفاق است؛ برخی معتقدند پنج سال دیگر و برخی دیگر تا سی سال آینده. سوال اینجاست که آیا این سیستم‌ها کنترل امور را در دست خواهند گرفت؟ و اگر چنین باشد، آیا راهی برای جلوگیری از این اتفاق وجود دارد؟ در این مرحله، کشورهای جهان متحد خواهند شد؛ چراکه هیچ کشوری نمی‌خواهد قدرت را به دست هوش مصنوعی واگذار کند.»

او با ذکر مثال چین، توضیح می‌دهد که حزب کمونیست چین نیز هرگز راضی به واگذاری کنترل به سیستم‌های هوش مصنوعی نخواهد شد. هینتون این همکاری جهانی را مشابه وضعیت جنگ سرد توصیف کرد؛ زمانی که ایالات متحده و روسیه با وجود دشمنی، بر سر اجتناب از جنگ هسته‌ای به یک هدف مشترک دست یافتند.

سم آلتمن، مدیرعامل شرکت OpenAI، نیز نگرانی مشابهی را ابراز کرده و از رهبران جهان خواسته است که با ایجاد یک آژانس بین‌المللی مشابه آژانس انرژی اتمی، قدرتمندترین مدل‌های هوش مصنوعی را بررسی و از ایمنی آن‌ها اطمینان حاصل کنند. آلتمن در یک پادکست با اشاره به خطرات بالقوه سیستم‌های پیشرفته هوش مصنوعی گفته بود: «زمانی در آینده‌ای نه‌چندان دور، این سیستم‌ها می‌توانند آسیب‌های جهانی قابل توجهی ایجاد کنند و این اتفاق در دهه‌های آینده نخواهد بود؛ بلکه زودتر از آن رخ خواهد داد.»

با این وجود، سرمایه‌گذاری جهانی در هوش مصنوعی روزبه‌روز در حال افزایش است. براساس گزارش گلدمن ساکس، انتظار می‌رود تا سال ۲۰۲۵ سرمایه‌گذاری جهانی در این فناوری به ۲۰۰ میلیارد دلار برسد. در این میان، ایالات متحده و چین دو کشوری هستند که بیشترین سرمایه‌گذاری را در بخش نظامی و تسلیحاتی هوش مصنوعی انجام می‌دهند و در این زمینه پیشتاز محسوب می‌شوند.

رشد هوش مصنوعی، علاوه بر ایجاد فرصت‌های بی‌نظیر، چالش‌های بزرگی برای امنیت جهانی به همراه آورده است. توسعه سلاح‌های خودمختار که بدون مداخله انسانی قادر به شناسایی و نابودی اهداف هستند، نگرانی‌ها را درباره آینده جنگ‌ها و کنترل‌پذیری این فناوری بیشتر کرده است. این موضوع همچنین چالش‌های اخلاقی عمیقی را به وجود می‌آورد؛ چراکه استفاده از چنین فناوری‌هایی می‌تواند به خطاهای فاجعه‌بار منجر شود و مسئولیت تصمیمات اشتباه را دشوار کند.

هینتون و آلتمن هر دو بر این باورند که تنها راه جلوگیری از فاجعه جهانی، ایجاد همکاری بین‌المللی است. این همکاری باید در قالب مقرراتی جهانی و ایجاد سازوکارهای نظارتی محکم برای کنترل و محدود کردن توسعه بی‌رویه مدل‌های خطرناک هوش مصنوعی انجام شود.

در عین حال، تجربه تاریخی جنگ سرد نشان داده که تهدیدهای مشترک می‌توانند رقبای بین‌المللی را به همکاری وادار کنند. همان‌طور که اجتناب از یک جنگ هسته‌ای، ایالات متحده و اتحاد جماهیر شوروی را مجبور به ایجاد توازن و کنترل تسلیحات کرد، تهدید ناشی از هوش مصنوعی فوق‌هوشمند نیز می‌تواند به عاملی برای همکاری جهانی تبدیل شود.

در نهایت، به نظر می‌رسد که جهان در آستانه دوره‌ای قرار دارد که باید بین توسعه کنترل‌نشده و مقررات‌گذاری مسئولانه در حوزه هوش مصنوعی تصمیم‌گیری کند. تهدیدهای آینده نیاز به اقداماتی فوری و همکاری جهانی دارند تا بتوان از فناوری هوش مصنوعی برای پیشرفت بشر استفاده کرد و از تبدیل آن به تهدیدی جهانی جلوگیری کرد.

بیشتر بخوانید
عصر اقتصاد
دکمه بازگشت به بالا