هوش مصنوعی بی مسئولیت و کندی قانونگذاری
دکترمهدی فتحی مقدم؛ کارشناس اقتصادی
در عصر مدرن، خطا دیگر صرفاً انسانی نیست. اشتباه، حالا در قالب کدها، الگوریتمها و سیستمهای یادگیرندهای ظاهر میشود که نه میترسند، نه پشیمان میشوند و نه احساس گناه میکنند.

داستان جنجالی استن اریک سولبرگ در ایالت کنتیکت در تابستان ۲۰۲۵، زنگ خطر بزرگی دربارهی مرز باریک میان اعتماد و خطر در عصر هوش مصنوعی به صدا درآورد. مردی بیمار و تنها، پناه برد به چتباتی که قرار بود یار گفتوگو باشد اما به مرور، به آینهای از توهماتش بدل شد. وقتی آن پناهگاه دیجیتال به جای آرامش، اضطرابش را تایید کرد، یک تراژدی انسانی رقم خورد ــ مرگ مادر، و سپس مرگ او. پس از آن موج سؤالها از نو برخاست: چه کسی باید پاسخگو باشد وقتی هوش مصنوعی اشتباه میکند و «اشتباهش» دیگر قابل بازگرداندن نیست؟
خطاهایی که واقعیاند، نه مجازی
از بازارهای مالی تا بزرگراهها و از بیمارستانها تا خانههای هوشمند، فهرست خطاهای مرگبار هوش مصنوعی، هر سال بلندتر میشود. اگر چه در ایران چنین حوادثی قابل رصد نیست اما می توان با مرور برخی اخبار در کشورهای توسعه یافته این موضوع مهم را به مسئولان گوشزد کرد.
در سال ۲۰۱۲، شرکت نایت کپیتال تنها در ۴۵ دقیقه، ۴۴۰ میلیون دلار از دست داد چون یک خطای الگوریتمی در سیستم معاملات خودکارش رخ داد. سال ۲۰۱۸، خودروی خودران اوبر در آریزونا جان زنی را گرفت، چون نرمافزار، او را «ناشناس» تشخیص داد.
سپس، واتسون هلث آیبیام در سال ۲۰۲۰ پیشنهادهای درمانی اشتباهی به پزشکان داد و بیماران سرطانی را تا مرز خطر برد.
در فاصلهی ۲۰۲۱ تا ۲۰۲۴، خودروهای تسلا با حالت اتوپایلوت، در ۱۳ تصادف منجر به مرگ نقش داشتند. و حالا در ۲۰۲۵، نوبت چتباتی است که به جای التیام، بر آتش توهم پاشید. الگوی این حوادث واحد است: اعتماد کور به سیستمی که نه نیت دارد، نه وجدان.
قانون در تعقیب فناوری
مسئلهی اصلی اینجاست که قوانین جهان هنوز برای عصر الگوریتمها نوشته نشدهاند. ساختارهای حقوقی سنتی، «عامل انسانی» را مبنای تقصیر میدانند؛ اما در مورد هوش مصنوعی، آن عامل گاه مبهم است: نه برنامهنویس همهچیز را میداند، نه کاربر کنترل کامل دارد، نه شرکتها مالک تمام تصمیمها هستند.
در آمریکا، رانندهی خودروی اوبر مقصر شناخته شد، نه شرکت. در اروپا، «قانون هوش مصنوعی» (AI Act) مصوب ۲۰۲۴ تلاش کرده مرزهای پاسخگویی را روشن کند: شرکتهای توسعهدهنده باید نشان دهند سیستمشان چگونه تصمیم میگیرد و چهقدر ایمن است.
در ژاپن نیز از ۲۰۲۳، قوانینی تدوین شده که تولیدکنندگان را تا حدی مسئول تصمیمات خودکار دستگاههای پزشکی یا خودروهای خودران میدانند. روندی که شاید نخستین گام برای تعریف «مسئولیت دیجیتال» باشد؛ مسئولیتی که در آن فرد و ماشین در هم تنیدهاند.
اما خطای الگوریتمی تنها چهرهی آشکار بحران نیست. گاه، مسئله نه نقص فنی، بلکه انحراف اخلاقی است.
سال ۲۰۱۸، آزمایش اتحادیه آزادیهای مدنی آمریکا نشان داد سیستم تشخیص چهره آمازون، چهرهی ۲۸ نمایندهی کنگره ــ عمدتاً سیاهپوست ــ را با مجرمان مطابقت داده است. همانجا روشن شد که حتی کدها هم از تعصب انسانی پاک نیستند.
وقتی دادههای آموزشی ناعادلانه باشند، نتیجه، ناعادلانهتر میشود. تبعیض، در جهان هوش مصنوعی، نه فریاد میزند و نه توضیح میدهد؛ در سکوت، تصمیم میگیرد.
اقتصادِ پاسخگویی
مسئله فقط حقوقی یا اخلاقی نیست؛ زیان اقتصادی نیز هولناک است.
در دنیای واقعی، هر اشتباه میتواند میلیاردها دلار ضرر به شرکتها بزند یا اعتماد عمومی را از بین ببرد. از بیمهها گرفته تا بازار بورس، اکنون شبکهای گسترده از ریسکهای ناشی از الگوریتم شکل گرفته است و هنوز ابزار دقیق جبران خسارت برای آن وجود ندارد.
پرسش بنیادی اقتصادی این است: آیا باید برای الگوریتم بیمه تعریف کرد؟ چه نرخ مسئولیتی برای شرکتهای توسعهدهنده در نظر گرفته شود؟ آیا امکان دارد «پاسخگویی مالی» به همان اندازهی پاسخگویی اخلاقی حیاتی باشد؟
وقتی ماشینی تصمیم میگیرد، انسانی باید پاسخ دهد
در قلب این بحران، مسئلهای نهفته است که فلاسفه از قرنها پیش دربارهاش بحث کردهاند: عاملیت و اراده. هوش مصنوعی تصمیم میگیرد، اما نمیداند تصمیم یعنی چه. نه میفهمد مرگ چیست، نه مفهوم خطا را درک میکند. اما تصمیماتش میتواند مرگآور یا نجاتبخش باشد.
از این رو، هر سیستم هوشمند، در نهایت، بازتاب تصمیمات انسانی است: تصمیم برنامهنویسی که معیار را تعیین کرده، مدیری که پروژه را تأیید کرده، یا کاربری که کلید اجرا را زده.
بنابراین، فرار از بار مسئولیت پشت واژهی «هوش مصنوعی» تنها پاک کردن صورت مسئله است. انسان همچنان در مرکز است، چه به عنوان طراح، چه بهرهبردار و چه قانونگذار.
دنیا با سرعتی سرسامآور به سوی خودمختاری دیجیتال میدود، اما نظام وجدان و پاسخگویی هنوز گامهای کوتاه برمیدارد.
شاید زمان آن رسیده که در کنار استانداردهای فنی، منشور اخلاق هوش مصنوعی به قانونی الزامآور بدل شود؛ منشوری که تعیین کند هر الگوریتم تا چه اندازه حق تصمیم دارد و چه زمانی مداخله انسانی ضروری است.
در نهایت، مسئله فقط دربارهی ماشینهایی نیست که اشتباه میکنند. مسئله دربارهی جامعهای است که چگونه مرز میان خطای انسانی و خطای مصنوعی را بازتعریف میکند. اگر روزی برسد که ماشین تصمیم بگیرد و هیچکس پاسخگو نباشد، آنگاه شاید بزرگترین خطای ما، خودِ بیتفاوتی باشد.
با توجه به آنچه گفته شد باید یاد بگیریم که هوش مصنوعی برای خطاهایش شرمنده نمیشود؛ اما ما باید برای بیتوجهیمان به نظام پاسخگویی در برابر این خطاها، شرمنده باشیم. آینده، فقط مسابقهای بر سر قدرت پردازش نیست، بلکه نبردی است برای حفظ وجدان انسانی در دنیای بیچهرهی کدها. حالا شما تصورش را بکنید که با چنین شتابی، ما هنوز تا همین چند روز پیش درگیر تاسیس سازمان هوش مصنوعی بودیم!







