چرا جهان بر سر قانونگذاری هوش مصنوعی به توافق نمیرسد

مهرین نظری
هوش مصنوعی دیگر صرفاً یک فناوری نوآورانه نیست؛ به میدان جدال سیاست، اقتصاد و امنیت ملی تبدیل شده است. اتحادیهٔ اروپا با رویکردی سختگیرانه، ایالات متحده با سیاستی دوگانه میان تشویق نوآوری و بیم از خطر، و چین با تأکید بر کنترل محتوا میکوشند قواعد بازی را به نفع خود بنویسند.
در این چشمانداز چندقطبی، سوال این است که مرز میان حفاظت از شهروندان و تسریع رقابت فناورانه کجاست؟
زمینهٔ جهانی
از زمانی که اصول راهنمای OECD در سال ۲۰۱۹ نخستین استاندارد بیندولتی دربارهٔ «هوش مصنوعی قابل اعتماد» را تعریف کرد، بحث تنظیمگری از حاشیه به متن سیاست جهانی نقل مکان کرد. سیر تحولات در سالهای ۲۰۲۴ و ۲۰۲۵ نشان میدهد رقابت ژئوپلیتیک میان واشنگتن، بروکسل و پکن به همان اندازه که دربارهٔ ارزشهاست، نبردی برای تعیین قواعد بازار آینده نیز هست.
در همین راستا، سازمان ملل با برگزاری «اجلاس آینده» در سپتامبر ۲۰۲۴ کوشید گفتمان واحدی دربارهٔ حکمرانی جهانی هوش مصنوعی شکل دهد، هرچند هنوز قطعنامهٔ الزامآوری صادر نشده است.
رویکرد خطرمحور اروپا
اتحادیهٔ اروپا در اوت ۲۰۲۴ «قانون هوش مصنوعی» را تصویب کرد؛ نخستین رژیم جامع مخاطرهمحور که سامانههای AI را بر اساس سطح ریسک در چهار طبقه از «غیرقابلقبول» تا «کمخطر» میسنجد. این قانون از دوم فوریهٔ ۲۰۲۵ برخی ممنوعیتهای فوری (نظیر شناسایی زیستی بیاجازه) را اجرایی کرده و تعهدات مدلهای بزرگمنظوره را از اوت ۲۰۲۵ الزامی میکند.
مدافعان، این چارچوب را ضامن حقوق بشر میدانند؛ منتقدان اما هشدار میدهند هزینهٔ انطباق، نوآوری استارتاپها را خفه میکند و سرمایه را به بیرون از مرزهای اتحادیه میراند. افزون بر آن، فقدان نهادهای ملی آماده برای اجرای استانداردهای فنی میتواند اجرا را تا سال ۲۰۲۷ به تعویق اندازد.
آمریکا، میان تعجیل و چندصدایی
ایالات متحده پس از انتشار «دستور اجرایی ۱۴۱۱۰» توسط بایدن در اکتبر ۲۰۲۳، بحث «ایمنی، امنیت و اعتماد» را به سطح فدرال برد. این دستور، فرآیندهای ارزیابی مدلهای قدرتمند و الزام افشای نتایج آزمونهای قرمز را پیشبینی کرد و به آژانس ملی استانداردها مأموریت داد چارچوب مدیریت ریسک را تدوین کند.
اما خلأ قانونگذاری کنگره باعث شده ایالتها پیشقدم شوند؛ طرح کالیفرنیای SB-1047 دربارهٔ «نوآوری ایمن» نمونهای از واکنش محلی به خطر مدلهای مرزی است.
همین «کولاژ مقررات» بهانهای شد تا جمهوریخواهان سنای آمریکا در بستهٔ بودجهای جدید، تعلیق دهسالهٔ مقررات ایالتی را پیشنهاد دهند؛ طرحی که از سوی جامعهٔ مدنی «هدیهای به غولهای فناوری» توصیف شد. در مقابل، «نقشهراه دوجناحی سنا» که مه ۲۰۲۵ منتشر شد، میکوشد اجماعی برای چارچوب ملی فراهم آورد، ولی هنوز به متن قانونی تبدیل نشده است.
تنظیمگری برای کنترل محتوا در چین
پکن با «اقدامات موقتی خدمات هوش مصنوعی مولد» در اوت ۲۰۲۳ مسیر متفاوتی پیمود، محور مقررات نه صرفاً ایمنی فنی، بلکه «اصول حاکمیتی» و عدم تضعیف نظام سیاسی است. استانداردهای مکمل تا نوامبر ۲۰۲۵ لازمالاجرا میشوند و از پلتفرمها میخواهند الگوریتمها را برای بازبینی در اختیار دولت بگذارند.
این نگاه، اگرچه از بروز محتواهای نامطلوب برای حزب حاکم جلوگیری میکند، هزینهٔ شفافیت الگوریتمی و آزادی بیان را بالا برده و صادرات فناوری چینی را با چالش «استاندارد دوگانه» مواجه کرده است.
دیگر کشورها و تلاشهای چندجانبه
بریتانیا سال ۲۰۲۳ با «اعلامیهٔ بلچلی» میزبان نخستین نشست ایمنی هوش مصنوعی شد تا فاصلهٔ سختگیری اروپا و انعطاف آمریکا را پر کند؛ اما هنوز قانون الزامآوری ارائه نکرده است. کانادا نیز لایحهٔ C-27 را در دست بررسی دارد که «قانون هوش مصنوعی و داده» را در کنار مقررات حریم خصوصی قرار میدهد و هماکنون در مرحلهٔ سوم قرائت پارلمان است.
در سطح بینالمللی، پیمانهای داوطلبانه و ابتکار «آژانس جهانی ایمنی AI» که در اجلاس بلچلی طرح شد، کوششی برای همگرایی ارزشهاست، اما ضمانت اجرایی محدودی دارد.
فاصلهٔ رقابت و محافظت، نقد و تحلیل
تنوع مدلهای حکمرانی نشان میدهد هیچ نسخهٔ واحدی برای تنظیمگری هوش مصنوعی وجود ندارد. اتحادیهٔ اروپا با تمرکز بر «ریسک» بهدنبال حفاظت از شهروند است، اما میتواند فرصت استقرار مدلهای متنباز را کاهش دهد و شرکتهای کوچک را ناچار به مهاجرت کند.
در مقابل، ایالات متحده که تاکنون قانون فدرالی تصویب نکرده، در خطر ایجاد خلأ حاکمیتی است؛ خلائی که لابی غولهای فناوری میکوشد از آن به سود خود بهره ببرد. رویکرد چین، هرچند بهظاهر بر ایمنی تأکید دارد، در عمل «حفظ ثبات ایدئولوژیک» را در اولویت میگذارد و به همین دلیل از دید نهادهای حقوق بشری، مدل بستهای از اینترنت را بازتولید میکند.
این چندپارگی نهتنها برای شرکتهای چندملیتی دردسر حقوقی میآفریند، بلکه میتواند مسابقهای برای «سطح پایینتر استانداردها» به وجود آورد؛ جایی که کسبوکارها بین حوزههای قضایی برای کمترین بار مقرراتی رقابت میکنند.
از سوی دیگر، تأخیر ایالات متحده در تصویب قانون جامع، دست بروکسل را برای تعریف استاندارد طلایی باز میگذارد؛ همان اتفاقی که قبلاً در حوزهٔ حریم خصوصی با GDPR رخ داد. اما اگر اتحادیهٔ اروپا نتواند اجرای روان قانون را تضمین کند، ریسک انزوای نوآوری و خروج سرمایه را به جان میخرد.
تجربهٔ کانادا و بریتانیا نشان میدهد مدلهای میانه نیز با چالشهای مختلفی روبهرو هستند. از یکسو دغدغههای حقوق بشری اروپایی را در نظر میگیرند، از سوی دیگر میکوشند سرمایهٔ مخاطرهپذیر را فراری ندهند—اما نبود ظرفیت نظارتی، خطر تبدیلشدن این کشورها به «مناطق خاکستری» را بالا میبرد.
به همین اعتبار، طرحهای داوطلبانهای چون «چارچوب ریسک NIST» تنها در صورتی مؤثرند که به قراردادهای دولتی و مراکز دادهٔ حساس گره بخورند.
جمعبندی
جهان به دو اردوگاه ساده «رقابت» و «محافظت» تقسیم نمیشود؛ بلکه در نوعی طیف سیال قرار دارد که هر بازیگر (با وزن اقتصادی و دغدغهٔ فرهنگی خود) میکوشد نقطهٔ تعادلش را پیدا کند. چالش اصلی برای همهٔ کشورها، ایجاد سامانهای است که شفافیت، پاسخگویی و نوآوری را همزمان پیش ببرد و در عین حال، از «مهاجرت مقرراتی» شرکتها جلوگیری کند.
تا زمانی که این همگرایی رخ ندهد، هوش مصنوعی بیش از آنکه بهعنوان ابزار توانمندساز بشر عمل کند، صحنهٔ نبردی خواهد بود که در آن قواعد بازی مدام تغییر میکند و شهروندان در سایهٔ عدم قطعیت، قربانیان اصلی خواهند بود.