کد خبر: 020404210402
روزنامهفناوری اطلاعات و ارتباطات

ربات‌های جنگی و اخلاق میدان نبرد: چه کسی ماشه را می‌کشد؟

در کمتر از یک دهه، ماشین‌هایی که زمانی فقط در رمان‌های علمی، تخیلی وجود داشتند، به خط مقدم نبردهای واقعی رسیده‌اند.

پهپادهای رهیاب اوکراین، پادگان‌ها را از کیلومترها دورتر شناسایی و منهدم می‌کنند؛ سکوهای «هارپی» اسرائیل خودمختار بر رادار دشمن شیرجه می‌روند؛ و مسلسل خودکار SGR-A1 در مرز دو کره نگهبانی می‌دهد. اما واقعا «چه کسی ماشه را می‌کشد؟» این‌بار نه با اشاره به فرمانده‌ای پشت بی‌سیم، بلکه با نگاهی به الگوریتمی درون جعبهٔ سیلیکونی.

از کنترل از راه دور تا خودمختاری کامل

اولین گام‌ها در خودمختاری رزمی، حدود دو دهه پیش با پهپادهای «درون» آغاز شد؛ ولی نقطهٔ عطف، ورود «مهمات سرگردان» بود که هم هدف را می‌یابند و هم خود را فدا می‌کنند. جدیدترین نسل «هارپی NG» می‌تواند نه ساعت بالای منطقه بماند و سپس بدون فرمان تازه، رادار دشمن را نابود کند.

در نبرد روسیه–اوکراین، پهپادهای Switchblade و Altius آمریکایی که توان «جست‌وجو–سقوط» دارند، بخش مهمی از دفاع اوکراین و طرح‌های احتمالی تایوان برای مهار چین شده‌اند. هم‌زمان، استارتاپ‌های غربی مثل Anduril به‌دنبال ساخت «دوزخ رباتیک» با هزاران وسیلهٔ سطحی و زیردریایی بی‌سرنشین‌اند. سرعت این تحول چنان است که الکس کاربرگ، تحلیلگر امنیتی، آن را «انقلاب سوم در هنر رزمی» می‌نامد.

خلأهای حقوقی در ژنو

چارچوب حقوق بین‌الملل بشردوستانه بر دو اصل «تمایز» و «تناسب» بنا شده؛ یعنی سلاح باید بین رزمنده و غیرنظامی فرق بگذارد و از خشونت بیش از حد بپرهیزد. اما گروه کارشناسان «کنوانسیون سلاح‌های متعارف» تا کنون فقط بر سر تعریفی مشترک از «معنادار بودن کنترل انسانی» توافق کرده‌اند و نه بر ممنوعیت کامل.

دبیرکل سازمان ملل در نشست مه ۲۰۲۵ هشدار داد که «ماشین‌های قاتل از نظر سیاسی غیرقابل قبول و از نظر اخلاقی مشمئزکننده»اند، ولی تصمیم الزام‌آور همچنان معلق مانده است. در مقابل، آمریکا در به‌روزرسانی دستور ۳۰۰۰.۰۹ پنتاگون تصریح کرد که هر سلاح خودمختار باید سطحی از نظارت انسانی را حفظ کند، هرچند این نظارت می‌تواند «در حلقه» یا «بر فراز حلقه» باشد.

«معنادار بودن»؛ گره کلیدی اخلاق

کمیتهٔ بین‌المللی صلیب سرخ تأکید می‌کند که بدون دخالت انسانی در تصمیم مرگ و زندگی، اصول اخلاقی فرو می‌ریزد؛ اما در یادداشت تحلیلی سال ۲۰۲۴، هشدار داده که گفت‌وگوهای بین‌دولتی هنوز نقش اخلاق را به اندازهٔ کافی درک نکرده‌اند. سازمان «Stop Killer Robots» هم در بیانیهٔ مارس ۲۰۲۵ خواستار ممنوعیت جهانی سلاح‌های تمام‌خودمختار شد و معافیت‌های آمریکا و روسیه را «معادل سپردن جان غیرنظامیان به کدهای ناشناخته» دانست.

بحث از آنجا پیچیده می‌شود که مدافعان خودمختاری می‌گویند هوش مصنوعی می‌تواند اشتباهات احساسی سربازان را کاهش دهد و تلفات غیرنظامی را کم کند؛ استدلالی که بی‌طرفی کاذبِ الگوریتم را نادیده می‌گیرد.

اوکراین، قفقاز و شبه‌جزیره کره

در خط مقدم اوکراین، پهپادهای رهیاب و سامانه‌های ضد پهپاد هوش‌محور هر روز داده تولید می‌کنند؛ مقامات کی‌یف می‌گویند همین سامانه‌ها ۸۲ درصد پهپادهای شاهد روسیه را منهدم کرده‌اند. یک گزارش آسوشیتدپرس حتی مدعی شد که در لیبی ۲۰۲۰، پهپاد Kargu-2 ترکیه به‌صورت تمام خودکار چند نفر را هدف قرار داده است.

سامسونگ SGR-A1 در منطقهٔ غیرنظامی کره هم به نماد بحث «انسان در حلقه» بدل شده؛ شرکت سازنده مدعی است تیراندازی همچنان نیاز به تأیید اپراتور دارد، اما نهادهای حقوق بشری باور دیگری دارند. در جنگ ۲۰۲۳ قره‌باغ نیز، پهپادهای هارپ اسرائیلی به‌علت قابلیت «آتش و فراموشی» نقطهٔ جدل جدی بودند؛ کارشناسان ارمنی می‌گویند این فناوری سطح تصمیم‌گیری انسانی را به ثانیه‌ها کاهش داد.

Guardrails آمریکایی، مهار اروپایی

پس از فشار کنگره، ۳۱ کشور به رهبری ایالات متحده در ۲۰۲۳ بیانیه‌ای داوطلبانه دربارهٔ «خطوط قرمز برای هوش مصنوعی نظامی» امضا کردند؛ اما سند غیرالزام‌آور است و چین و روسیه غایب بودند. اروپا مسیر محتاطانه‌تری در پیش گرفته: «قانون هوش مصنوعی» اتحادیه در ۲۰۲۵ سازوکارهای شفافیت و ارزیابی ریسک را برای سامانه‌های «با خطر غیرقابل قبول» اعمال کرد، هرچند لابی تسلیحاتی موفق شد بند ممنوعیت کامل سلاح‌های خودمختار را حذف کند.

در نتیجه، شکاف مقرراتی میان دو سوی آتلانتیک باقی است؛ سرمایه به سیلیکون‌ولی و تل‌آویو سرازیر می‌شود و اروپا بر استانداردهای اخلاقی تأکید می‌کند.

سیلیکون‌ولی و سرمایه‌گذاران جنگ نو

استارتاپ‌های دفاعی نظیر Anduril، Helsing و Shield AI با سرمایه‌گذاری خطرپذیر میلیاردی وارد بازار شده‌اند. پالمر لاکی، بنیان‌گذار Anduril، گفته است که «ساخت سلاح دست‌کم به اندازهٔ واقعیت مجازی هیجان‌انگیز نیست، اما ضروری است».

هلسینگ، شرکت آلمانی، در آگهی‌های استخدامش ادعا می‌کند «ارزش‌های دموکراتیک را محافظت می‌کند» و از مهندسان می‌خواهد «اخلاق جنگ عادلانه» را جدی بگیرند. منتقدان این شعارها را «اخلاق شوی سرمایه» می‌دانند و یادآور می‌شوند که نبود نظارت سختگیرانه، رقابت تسلیحاتی را داغ می‌کند.

آخرین سد پیش از خودکار شدن مرگ

عفو بین‌الملل، هیومن‌رایتس‌واچ و ائتلاف دانشگاهی «حافظهٔ جنگ سایبری» خواستار توقف تحقیق و توسعه تا تصویب معاهده الزام‌آورند. آن‌ها به آمار حملات DDoS و جنگ اطلاعاتی اشاره می‌کنند و می‌گویند «فعالیت ربات‌ها پیش از ورود به میدان، دنیای دیجیتال را به‌هم ریخته است؛ می‌توان تصور کرد در فیزیک چه خواهد کرد».

در سان‌فرانسیسکو حتی طرح استفادهٔ پلیس از ربات‌های مرگبار پس از اعتراض عمومی لغو شد. فعالان امیدوارند همان‌گونه که مین‌های زمینی با پیوست میثاق اُتاوا محدود شد، سلاح‌های خودمختار نیز مسیری مشابه بپیماید.

مسئولیت؛ از برنامه‌نویس تا فرمانده

چنانچه الگوریتم خطا کند، چه کسی در دادگاه پاسخ‌گو است؟ کنوانسیون ژنو دست‌کم نیازمند «عامل انسانی عامدانه» برای اثبات جنایت جنگی است، درحالی‌که کد نرم‌افزاری نمی‌تواند در جایگاه متهم بنشیند.

حقوقدانان پیشنهاد داده‌اند مفهومی به نام «مسئولیت مشترک زنجیرهٔ فرمان» تعریف شود؛ یعنی طراح، تولیدکننده، فرمانده و حتی اپراتور بالقوه، همگی سهمی در مسئولیت داشته باشند. صلیب سرخ تأکید می‌کند بدون چنین ضمانتنامه‌ای، قربانیان راهی برای دادخواهی ندارند.

پیش‌روی سایه‌ها، فردای میدان نبرد

مذاکرات ۲۰۲۵ ژنو ادامه خواهد داشت، اما سرعت آزمایش میدانی جلوتر می‌دود. ارتش آمریکا برنامهٔ «Replicator» را برای استقرار هزاران پهپاد هوشمند ظرف دو سال آینده کلید زده است، با این هدف که «حریف را با عدد درهم بشکند»؛ مقام‌های پنتاگون می‌گویند درس‌های اوکراین این تصمیم را تسریع کرده است.

در همین حال، دورنمای ادغام هوش مصنوعی مولد با سامانه‌های شبیه‌سازی بلادرنگ، امکان آموزش سریع ربات‌های جنگی را فراهم می‌کند؛ منتقدان هشدار می‌دهند ممکن است جعل ویدیوهای نبرد برای فریب افکار عمومی به اندازهٔ شلیک گلوله مرگبار باشد.

مرز باریک میان کد و گلوله

روبات‌های جنگی نه آیندهٔ دور، که اکنوندر میدان نبردند. از قوانین نیمه‌کاره تا بیانیه‌های داوطلبانه، باید توضیح دهند که مرگِ بدون وجدان را چگونه مهار کنیم؟ اگر روبات ماشه را بکشد و انسان تنها ناظر باشد، مفهوم مسئولیت و اخلاق جنگ دگرگون خواهد شد.

شاید همان‌گونه که هواپیما زمانی پرواز انسان را بازتعریف کرد، هوش مصنوعی نیز قواعد نبرد را بازنویسی کند؛ اما این بار، هزینهٔ اشتباه نه سقوط یک ماشین که سقوط معیارهای بشری است. جنگِ آینده، نبردی خواهد بود که در آن نه فقط سرزمین، که مرز میان انسان و ماشین نیز در آتش تصمیمی بی‌نام می‌سوزد.

عصر اقتصاد
دکمه بازگشت به بالا