کد خبر: 180304208964
روزنامهفناوری اطلاعات و ارتباطات

چرا جهان بر سر قانون‌گذاری هوش مصنوعی به توافق نمی‌رسد

مهرین نظری

هوش مصنوعی دیگر صرفاً یک فناوری نوآورانه نیست؛ به میدان جدال سیاست، اقتصاد و امنیت ملی تبدیل شده است. اتحادیهٔ اروپا با رویکردی سخت‌گیرانه، ایالات متحده با سیاستی دوگانه میان تشویق نوآوری و بیم از خطر، و چین با تأکید بر کنترل محتوا می‌کوشند قواعد بازی را به نفع خود بنویسند.

در این چشم‌انداز چندقطبی، سوال این است که مرز میان حفاظت از شهروندان و تسریع رقابت فناورانه کجاست؟

زمینهٔ جهانی

از زمانی که اصول راهنمای OECD در سال ۲۰۱۹ نخستین استاندارد بین‌دولتی دربارهٔ «هوش مصنوعی قابل اعتماد» را تعریف کرد، بحث تنظیم‌گری از حاشیه به متن سیاست جهانی نقل مکان کرد. سیر تحولات در سال‌های ۲۰۲۴ و ۲۰۲۵ نشان می‌دهد رقابت ژئوپلیتیک میان واشنگتن، بروکسل و پکن به همان اندازه که دربارهٔ ارزش‌هاست، نبردی برای تعیین قواعد بازار آینده نیز هست.

در همین راستا، سازمان ملل با برگزاری «اجلاس آینده» در سپتامبر ۲۰۲۴ کوشید گفتمان واحدی دربارهٔ حکمرانی جهانی هوش مصنوعی شکل دهد، هرچند هنوز قطعنامهٔ الزام‌آوری صادر نشده است.

رویکرد خطرمحور اروپا

اتحادیهٔ اروپا در اوت ۲۰۲۴ «قانون هوش مصنوعی» را تصویب کرد؛ نخستین رژیم جامع مخاطره‌محور که سامانه‌های AI را بر اساس سطح ریسک در چهار طبقه از «غیرقابل‌قبول» تا «کم‌خطر» می‌سنجد. این قانون از دوم فوریهٔ ۲۰۲۵ برخی ممنوعیت‌های فوری (نظیر شناسایی زیستی بی‌اجازه) را اجرایی کرده و تعهدات مدل‌های بزرگ‌منظوره را از اوت ۲۰۲۵ الزامی می‌کند.

مدافعان، این چارچوب را ضامن حقوق بشر می‌دانند؛ منتقدان اما هشدار می‌دهند هزینهٔ انطباق، نوآوری استارتاپ‌ها را خفه می‌کند و سرمایه را به بیرون از مرزهای اتحادیه می‌راند. افزون بر آن، فقدان نهادهای ملی آماده برای اجرای استانداردهای فنی می‌تواند اجرا را تا سال ۲۰۲۷ به تعویق اندازد.

آمریکا، میان تعجیل و چندصدایی

ایالات متحده پس از انتشار «دستور اجرایی ۱۴۱۱۰» توسط بایدن در اکتبر ۲۰۲۳، بحث «ایمنی، امنیت و اعتماد» را به سطح فدرال برد. این دستور، فرآیندهای ارزیابی مدل‌های قدرتمند و الزام افشای نتایج آزمون‌های قرمز را پیش‌بینی کرد و به آژانس ملی استانداردها مأموریت داد چارچوب مدیریت ریسک را تدوین کند.

اما خلأ قانون‌گذاری کنگره باعث شده ایالت‌ها پیش‌قدم شوند؛ طرح کالیفرنیای SB-1047 دربارهٔ «نوآوری ایمن» نمونه‌ای از واکنش محلی به خطر مدل‌های مرزی است.

همین «کولاژ مقررات» بهانه‌ای شد تا جمهوری‌خواهان سنای آمریکا در بستهٔ بودجه‌ای جدید، تعلیق ده‌سالهٔ مقررات ایالتی را پیشنهاد دهند؛ طرحی که از سوی جامعهٔ مدنی «هدیه‌ای به غول‌های فناوری» توصیف شد. در مقابل، «نقشه‌راه دوجناحی سنا» که مه ۲۰۲۵ منتشر شد، می‌کوشد اجماعی برای چارچوب ملی فراهم آورد، ولی هنوز به متن قانونی تبدیل نشده است.

تنظیم‌گری برای کنترل محتوا در چین

پکن با «اقدامات موقتی خدمات هوش مصنوعی مولد» در اوت ۲۰۲۳ مسیر متفاوتی پیمود، محور مقررات نه صرفاً ایمنی فنی، بلکه «اصول حاکمیتی» و عدم تضعیف نظام سیاسی است. استانداردهای مکمل تا نوامبر ۲۰۲۵ لازم‌الاجرا می‌شوند و از پلتفرم‌ها می‌خواهند الگوریتم‌ها را برای بازبینی در اختیار دولت بگذارند.

این نگاه، اگرچه از بروز محتواهای نامطلوب برای حزب حاکم جلوگیری می‌کند، هزینهٔ شفافیت الگوریتمی و آزادی بیان را بالا برده و صادرات فناوری چینی را با چالش «استاندارد دوگانه» مواجه کرده است.

دیگر کشورها و تلاش‌های چندجانبه

بریتانیا سال ۲۰۲۳ با «اعلامیهٔ بلچلی» میزبان نخستین نشست ایمنی هوش مصنوعی شد تا فاصلهٔ سخت‌گیری اروپا و انعطاف آمریکا را پر کند؛ اما هنوز قانون الزام‌آوری ارائه نکرده است. کانادا نیز لایحهٔ C-27 را در دست بررسی دارد که «قانون هوش مصنوعی و داده» را در کنار مقررات حریم خصوصی قرار می‌دهد و هم‌اکنون در مرحلهٔ سوم قرائت پارلمان است.

در سطح بین‌المللی، پیمان‌های داوطلبانه و ابتکار «آژانس جهانی ایمنی AI» که در اجلاس بلچلی طرح شد، کوششی برای همگرایی ارزش‌هاست، اما ضمانت اجرایی محدودی دارد.

فاصلهٔ رقابت و محافظت، نقد و تحلیل

تنوع مدل‌های حکمرانی نشان می‌دهد هیچ نسخهٔ واحدی برای تنظیم‌گری هوش مصنوعی وجود ندارد. اتحادیهٔ اروپا با تمرکز بر «ریسک» به‌دنبال حفاظت از شهروند است، اما می‌تواند فرصت استقرار مدل‌های متن‌باز را کاهش دهد و شرکت‌های کوچک را ناچار به مهاجرت کند.

در مقابل، ایالات متحده که تاکنون قانون فدرالی تصویب نکرده، در خطر ایجاد خلأ حاکمیتی است؛ خلائی که لابی غول‌های فناوری می‌کوشد از آن به سود خود بهره ببرد. رویکرد چین، هرچند به‌ظاهر بر ایمنی تأکید دارد، در عمل «حفظ ثبات ایدئولوژیک» را در اولویت می‌گذارد و به همین دلیل از دید نهادهای حقوق بشری، مدل بسته‌ای از اینترنت را بازتولید می‌کند.

این چندپارگی نه‌تنها برای شرکت‌های چندملیتی دردسر حقوقی می‌آفریند، بلکه می‌تواند مسابقه‌ای برای «سطح پایین‌تر استانداردها» به وجود آورد؛ جایی که کسب‌وکارها بین حوزه‌های قضایی برای کمترین بار مقرراتی رقابت می‌کنند.

از سوی دیگر، تأخیر ایالات متحده در تصویب قانون جامع، دست بروکسل را برای تعریف استاندارد طلایی باز می‌گذارد؛ همان اتفاقی که قبلاً در حوزهٔ حریم خصوصی با GDPR رخ داد. اما اگر اتحادیهٔ اروپا نتواند اجرای روان قانون را تضمین کند، ریسک انزوای نوآوری و خروج سرمایه را به جان می‌خرد.

تجربهٔ کانادا و بریتانیا نشان می‌دهد مدل‌های میانه نیز با چالش‌های مختلفی روبه‌رو هستند. از یک‌سو دغدغه‌های حقوق بشری اروپایی را در نظر می‌گیرند، از سوی دیگر می‌کوشند سرمایهٔ مخاطره‌پذیر را فراری ندهند—اما نبود ظرفیت نظارتی، خطر تبدیل‌شدن این کشورها به «مناطق خاکستری» را بالا می‌برد.

به همین اعتبار، طرح‌های داوطلبانه‌ای چون «چارچوب ریسک NIST» تنها در صورتی مؤثرند که به قراردادهای دولتی و مراکز دادهٔ حساس گره بخورند.

جمع‌بندی

جهان به دو اردوگاه ساده «رقابت» و «محافظت» تقسیم نمی‌شود؛ بلکه در نوعی طیف سیال قرار دارد که هر بازیگر (با وزن اقتصادی و دغدغهٔ فرهنگی خود) می‌کوشد نقطهٔ تعادلش را پیدا کند. چالش اصلی برای همهٔ کشورها، ایجاد سامانه‌ای است که شفافیت، پاسخ‌گویی و نوآوری را همزمان پیش ببرد و در عین حال، از «مهاجرت مقرراتی» شرکت‌ها جلوگیری کند.

تا زمانی که این همگرایی رخ ندهد، هوش مصنوعی بیش از آنکه به‌عنوان ابزار توانمندساز بشر عمل کند، صحنهٔ نبردی خواهد بود که در آن قواعد بازی مدام تغییر می‌کند و شهروندان در سایهٔ عدم قطعیت، قربانیان اصلی خواهند بود.

عصر اقتصاد
دکمه بازگشت به بالا