کد خبر: 060804226342
روزنامهفناوری اطلاعات و ارتباطات

هوش مصنوعی بی مسئولیت و کندی قانونگذاری

دکترمهدی فتحی مقدم؛ کارشناس اقتصادی

در عصر مدرن، خطا دیگر صرفاً انسانی نیست. اشتباه، حالا در قالب کدها، الگوریتم‌ها و سیستم‌های یادگیرنده‌ای ظاهر می‌شود که نه می‌ترسند، نه پشیمان می‌شوند و نه احساس گناه می‌کنند.

فتحی مقدم

داستان جنجالی استن اریک سولبرگ در ایالت کنتیکت در تابستان ۲۰۲۵، زنگ خطر بزرگی درباره‌ی مرز باریک میان اعتماد و خطر در عصر هوش مصنوعی به صدا درآورد.  مردی بیمار و تنها، پناه برد به چت‌باتی که قرار بود یار گفت‌وگو باشد اما به مرور، به آینه‌ای از توهماتش بدل شد. وقتی آن پناهگاه دیجیتال به جای آرامش، اضطرابش را تایید کرد، یک تراژدی انسانی رقم خورد ــ مرگ مادر، و سپس مرگ او. پس از آن موج سؤال‌ها از نو برخاست: چه کسی باید پاسخ‌گو باشد وقتی هوش مصنوعی اشتباه می‌کند و «اشتباهش» دیگر قابل بازگرداندن نیست؟

خطاهایی که واقعی‌اند، نه مجازی

از بازارهای مالی تا بزرگراه‌ها و از بیمارستان‌ها تا خانه‌های هوشمند، فهرست خطاهای مرگبار هوش مصنوعی، هر سال بلندتر می‌شود.  اگر چه در ایران چنین حوادثی قابل رصد نیست اما می توان با مرور برخی اخبار در کشورهای توسعه یافته این موضوع مهم را به مسئولان گوشزد کرد.

در سال ۲۰۱۲، شرکت نایت کپیتال تنها در ۴۵ دقیقه، ۴۴۰ میلیون دلار از دست داد چون یک خطای الگوریتمی در سیستم معاملات خودکارش رخ داد. سال ۲۰۱۸، خودروی خودران اوبر در آریزونا جان زنی را گرفت، چون نرم‌افزار، او را «ناشناس» تشخیص داد.

سپس، واتسون هلث آی‌بی‌ام در سال ۲۰۲۰ پیشنهادهای درمانی اشتباهی به پزشکان داد و بیماران سرطانی را تا مرز خطر برد.

در فاصله‌ی ۲۰۲۱ تا ۲۰۲۴، خودروهای تسلا با حالت اتوپایلوت، در ۱۳ تصادف منجر به مرگ نقش داشتند. و حالا در ۲۰۲۵، نوبت چت‌باتی است که به جای التیام، بر آتش توهم پاشید.  الگوی این حوادث واحد است: اعتماد کور به سیستمی که نه نیت دارد، نه وجدان.

قانون در تعقیب فناوری

مسئله‌ی اصلی اینجاست که قوانین جهان هنوز برای عصر الگوریتم‌ها نوشته نشده‌اند. ساختارهای حقوقی سنتی، «عامل انسانی» را مبنای تقصیر می‌دانند؛ اما در مورد هوش مصنوعی، آن عامل گاه مبهم است: نه برنامه‌نویس همه‌چیز را می‌داند، نه کاربر کنترل کامل دارد، نه شرکت‌ها مالک تمام تصمیم‌ها هستند.

در آمریکا، راننده‌ی خودروی اوبر مقصر شناخته شد، نه شرکت. در اروپا، «قانون هوش مصنوعی» (AI Act) مصوب ۲۰۲۴ تلاش کرده مرزهای پاسخ‌گویی را روشن کند: شرکت‌های توسعه‌دهنده باید نشان دهند سیستمشان چگونه تصمیم می‌گیرد و چه‌قدر ایمن است.

در ژاپن نیز از ۲۰۲۳، قوانینی تدوین شده که تولیدکنندگان را تا حدی مسئول تصمیمات خودکار دستگاه‌های پزشکی یا خودروهای خودران می‌دانند. روندی که شاید نخستین گام برای تعریف «مسئولیت دیجیتال» باشد؛ مسئولیتی که در آن فرد و ماشین در هم تنیده‌اند.

اما خطای الگوریتمی تنها چهره‌ی آشکار بحران نیست. گاه، مسئله نه نقص فنی، بلکه انحراف اخلاقی است.

سال ۲۰۱۸، آزمایش اتحادیه آزادی‌های مدنی آمریکا نشان داد سیستم تشخیص چهره آمازون، چهره‌ی ۲۸ نماینده‌ی کنگره ــ عمدتاً سیاه‌پوست ــ را با مجرمان مطابقت داده است. همان‌جا روشن شد که حتی کدها هم از تعصب انسانی پاک نیستند.

وقتی داده‌های آموزشی ناعادلانه باشند، نتیجه، ناعادلانه‌تر می‌شود. تبعیض، در جهان هوش مصنوعی، نه فریاد می‌زند و نه توضیح می‌دهد؛ در سکوت، تصمیم می‌گیرد.

اقتصادِ پاسخ‌گویی

مسئله فقط حقوقی یا اخلاقی نیست؛ زیان اقتصادی نیز هولناک است.

در دنیای واقعی، هر اشتباه می‌تواند میلیاردها دلار ضرر به شرکت‌ها بزند یا اعتماد عمومی را از بین ببرد. از بیمه‌ها گرفته تا بازار بورس، اکنون شبکه‌ای گسترده از ریسک‌های ناشی از الگوریتم شکل گرفته است و هنوز ابزار دقیق جبران خسارت برای آن وجود ندارد.

پرسش بنیادی اقتصادی این است: آیا باید برای الگوریتم بیمه تعریف کرد؟ چه نرخ مسئولیتی برای شرکت‌های توسعه‌دهنده در نظر گرفته شود؟ آیا امکان دارد «پاسخ‌گویی مالی» به همان اندازه‌ی پاسخ‌گویی اخلاقی حیاتی باشد؟

وقتی ماشینی تصمیم می‌گیرد، انسانی باید پاسخ دهد

در قلب این بحران، مسئله‌ای نهفته است که فلاسفه از قرن‌ها پیش درباره‌اش بحث کرده‌اند: عاملیت و اراده. هوش مصنوعی تصمیم می‌گیرد، اما نمی‌داند تصمیم یعنی چه. نه می‌فهمد مرگ چیست، نه مفهوم خطا را درک می‌کند. اما تصمیماتش می‌تواند مرگ‌آور یا نجات‌بخش باشد.

از این رو، هر سیستم هوشمند، در نهایت، بازتاب تصمیمات انسانی است: تصمیم برنامه‌نویسی که معیار را تعیین کرده، مدیری که پروژه را تأیید کرده، یا کاربری که کلید اجرا را زده.

بنابراین، فرار از بار مسئولیت پشت واژه‌ی «هوش مصنوعی» تنها پاک کردن صورت مسئله است. انسان همچنان در مرکز است، چه به عنوان طراح، چه بهره‌بردار و چه قانون‌گذار.

دنیا با سرعتی سرسام‌آور به سوی خودمختاری دیجیتال می‌دود، اما نظام وجدان و پاسخ‌گویی هنوز گام‌های کوتاه برمی‌دارد.

شاید زمان آن رسیده که در کنار استانداردهای فنی، منشور اخلاق هوش مصنوعی به قانونی الزام‌آور بدل شود؛ منشوری که تعیین کند هر الگوریتم تا چه اندازه حق تصمیم دارد و چه زمانی مداخله انسانی ضروری است.

در نهایت، مسئله فقط درباره‌ی ماشین‌هایی نیست که اشتباه می‌کنند. مسئله درباره‌ی جامعه‌ای است که چگونه مرز میان خطای انسانی و خطای مصنوعی را بازتعریف می‌کند. اگر روزی برسد که ماشین تصمیم بگیرد و هیچ‌کس پاسخ‌گو نباشد، آن‌گاه شاید بزرگ‌ترین خطای ما، خودِ بی‌تفاوتی باشد.

با توجه به آنچه گفته شد باید یاد بگیریم که هوش مصنوعی برای خطاهایش شرمنده نمی‌شود؛ اما ما باید برای بی‌توجهی‌مان به نظام پاسخ‌گویی در برابر این خطاها، شرمنده باشیم. آینده، فقط مسابقه‌ای بر سر قدرت پردازش نیست، بلکه نبردی است برای حفظ وجدان انسانی در دنیای بی‌چهره‌ی کدها.  حالا شما تصورش را بکنید که با چنین شتابی، ما هنوز تا همین چند روز پیش درگیر تاسیس سازمان هوش مصنوعی  بودیم!

عصر اقتصاد
دکمه بازگشت به بالا