رباتهای جنگی و اخلاق میدان نبرد: چه کسی ماشه را میکشد؟

در کمتر از یک دهه، ماشینهایی که زمانی فقط در رمانهای علمی، تخیلی وجود داشتند، به خط مقدم نبردهای واقعی رسیدهاند.
پهپادهای رهیاب اوکراین، پادگانها را از کیلومترها دورتر شناسایی و منهدم میکنند؛ سکوهای «هارپی» اسرائیل خودمختار بر رادار دشمن شیرجه میروند؛ و مسلسل خودکار SGR-A1 در مرز دو کره نگهبانی میدهد. اما واقعا «چه کسی ماشه را میکشد؟» اینبار نه با اشاره به فرماندهای پشت بیسیم، بلکه با نگاهی به الگوریتمی درون جعبهٔ سیلیکونی.
از کنترل از راه دور تا خودمختاری کامل
اولین گامها در خودمختاری رزمی، حدود دو دهه پیش با پهپادهای «درون» آغاز شد؛ ولی نقطهٔ عطف، ورود «مهمات سرگردان» بود که هم هدف را مییابند و هم خود را فدا میکنند. جدیدترین نسل «هارپی NG» میتواند نه ساعت بالای منطقه بماند و سپس بدون فرمان تازه، رادار دشمن را نابود کند.
در نبرد روسیه–اوکراین، پهپادهای Switchblade و Altius آمریکایی که توان «جستوجو–سقوط» دارند، بخش مهمی از دفاع اوکراین و طرحهای احتمالی تایوان برای مهار چین شدهاند. همزمان، استارتاپهای غربی مثل Anduril بهدنبال ساخت «دوزخ رباتیک» با هزاران وسیلهٔ سطحی و زیردریایی بیسرنشیناند. سرعت این تحول چنان است که الکس کاربرگ، تحلیلگر امنیتی، آن را «انقلاب سوم در هنر رزمی» مینامد.
خلأهای حقوقی در ژنو
چارچوب حقوق بینالملل بشردوستانه بر دو اصل «تمایز» و «تناسب» بنا شده؛ یعنی سلاح باید بین رزمنده و غیرنظامی فرق بگذارد و از خشونت بیش از حد بپرهیزد. اما گروه کارشناسان «کنوانسیون سلاحهای متعارف» تا کنون فقط بر سر تعریفی مشترک از «معنادار بودن کنترل انسانی» توافق کردهاند و نه بر ممنوعیت کامل.
دبیرکل سازمان ملل در نشست مه ۲۰۲۵ هشدار داد که «ماشینهای قاتل از نظر سیاسی غیرقابل قبول و از نظر اخلاقی مشمئزکننده»اند، ولی تصمیم الزامآور همچنان معلق مانده است. در مقابل، آمریکا در بهروزرسانی دستور ۳۰۰۰.۰۹ پنتاگون تصریح کرد که هر سلاح خودمختار باید سطحی از نظارت انسانی را حفظ کند، هرچند این نظارت میتواند «در حلقه» یا «بر فراز حلقه» باشد.
«معنادار بودن»؛ گره کلیدی اخلاق
کمیتهٔ بینالمللی صلیب سرخ تأکید میکند که بدون دخالت انسانی در تصمیم مرگ و زندگی، اصول اخلاقی فرو میریزد؛ اما در یادداشت تحلیلی سال ۲۰۲۴، هشدار داده که گفتوگوهای بیندولتی هنوز نقش اخلاق را به اندازهٔ کافی درک نکردهاند. سازمان «Stop Killer Robots» هم در بیانیهٔ مارس ۲۰۲۵ خواستار ممنوعیت جهانی سلاحهای تمامخودمختار شد و معافیتهای آمریکا و روسیه را «معادل سپردن جان غیرنظامیان به کدهای ناشناخته» دانست.
بحث از آنجا پیچیده میشود که مدافعان خودمختاری میگویند هوش مصنوعی میتواند اشتباهات احساسی سربازان را کاهش دهد و تلفات غیرنظامی را کم کند؛ استدلالی که بیطرفی کاذبِ الگوریتم را نادیده میگیرد.
اوکراین، قفقاز و شبهجزیره کره
در خط مقدم اوکراین، پهپادهای رهیاب و سامانههای ضد پهپاد هوشمحور هر روز داده تولید میکنند؛ مقامات کییف میگویند همین سامانهها ۸۲ درصد پهپادهای شاهد روسیه را منهدم کردهاند. یک گزارش آسوشیتدپرس حتی مدعی شد که در لیبی ۲۰۲۰، پهپاد Kargu-2 ترکیه بهصورت تمام خودکار چند نفر را هدف قرار داده است.
سامسونگ SGR-A1 در منطقهٔ غیرنظامی کره هم به نماد بحث «انسان در حلقه» بدل شده؛ شرکت سازنده مدعی است تیراندازی همچنان نیاز به تأیید اپراتور دارد، اما نهادهای حقوق بشری باور دیگری دارند. در جنگ ۲۰۲۳ قرهباغ نیز، پهپادهای هارپ اسرائیلی بهعلت قابلیت «آتش و فراموشی» نقطهٔ جدل جدی بودند؛ کارشناسان ارمنی میگویند این فناوری سطح تصمیمگیری انسانی را به ثانیهها کاهش داد.
Guardrails آمریکایی، مهار اروپایی
پس از فشار کنگره، ۳۱ کشور به رهبری ایالات متحده در ۲۰۲۳ بیانیهای داوطلبانه دربارهٔ «خطوط قرمز برای هوش مصنوعی نظامی» امضا کردند؛ اما سند غیرالزامآور است و چین و روسیه غایب بودند. اروپا مسیر محتاطانهتری در پیش گرفته: «قانون هوش مصنوعی» اتحادیه در ۲۰۲۵ سازوکارهای شفافیت و ارزیابی ریسک را برای سامانههای «با خطر غیرقابل قبول» اعمال کرد، هرچند لابی تسلیحاتی موفق شد بند ممنوعیت کامل سلاحهای خودمختار را حذف کند.
در نتیجه، شکاف مقرراتی میان دو سوی آتلانتیک باقی است؛ سرمایه به سیلیکونولی و تلآویو سرازیر میشود و اروپا بر استانداردهای اخلاقی تأکید میکند.
سیلیکونولی و سرمایهگذاران جنگ نو
استارتاپهای دفاعی نظیر Anduril، Helsing و Shield AI با سرمایهگذاری خطرپذیر میلیاردی وارد بازار شدهاند. پالمر لاکی، بنیانگذار Anduril، گفته است که «ساخت سلاح دستکم به اندازهٔ واقعیت مجازی هیجانانگیز نیست، اما ضروری است».
هلسینگ، شرکت آلمانی، در آگهیهای استخدامش ادعا میکند «ارزشهای دموکراتیک را محافظت میکند» و از مهندسان میخواهد «اخلاق جنگ عادلانه» را جدی بگیرند. منتقدان این شعارها را «اخلاق شوی سرمایه» میدانند و یادآور میشوند که نبود نظارت سختگیرانه، رقابت تسلیحاتی را داغ میکند.
آخرین سد پیش از خودکار شدن مرگ
عفو بینالملل، هیومنرایتسواچ و ائتلاف دانشگاهی «حافظهٔ جنگ سایبری» خواستار توقف تحقیق و توسعه تا تصویب معاهده الزامآورند. آنها به آمار حملات DDoS و جنگ اطلاعاتی اشاره میکنند و میگویند «فعالیت رباتها پیش از ورود به میدان، دنیای دیجیتال را بههم ریخته است؛ میتوان تصور کرد در فیزیک چه خواهد کرد».
در سانفرانسیسکو حتی طرح استفادهٔ پلیس از رباتهای مرگبار پس از اعتراض عمومی لغو شد. فعالان امیدوارند همانگونه که مینهای زمینی با پیوست میثاق اُتاوا محدود شد، سلاحهای خودمختار نیز مسیری مشابه بپیماید.
مسئولیت؛ از برنامهنویس تا فرمانده
چنانچه الگوریتم خطا کند، چه کسی در دادگاه پاسخگو است؟ کنوانسیون ژنو دستکم نیازمند «عامل انسانی عامدانه» برای اثبات جنایت جنگی است، درحالیکه کد نرمافزاری نمیتواند در جایگاه متهم بنشیند.
حقوقدانان پیشنهاد دادهاند مفهومی به نام «مسئولیت مشترک زنجیرهٔ فرمان» تعریف شود؛ یعنی طراح، تولیدکننده، فرمانده و حتی اپراتور بالقوه، همگی سهمی در مسئولیت داشته باشند. صلیب سرخ تأکید میکند بدون چنین ضمانتنامهای، قربانیان راهی برای دادخواهی ندارند.
پیشروی سایهها، فردای میدان نبرد
مذاکرات ۲۰۲۵ ژنو ادامه خواهد داشت، اما سرعت آزمایش میدانی جلوتر میدود. ارتش آمریکا برنامهٔ «Replicator» را برای استقرار هزاران پهپاد هوشمند ظرف دو سال آینده کلید زده است، با این هدف که «حریف را با عدد درهم بشکند»؛ مقامهای پنتاگون میگویند درسهای اوکراین این تصمیم را تسریع کرده است.
در همین حال، دورنمای ادغام هوش مصنوعی مولد با سامانههای شبیهسازی بلادرنگ، امکان آموزش سریع رباتهای جنگی را فراهم میکند؛ منتقدان هشدار میدهند ممکن است جعل ویدیوهای نبرد برای فریب افکار عمومی به اندازهٔ شلیک گلوله مرگبار باشد.
مرز باریک میان کد و گلوله
روباتهای جنگی نه آیندهٔ دور، که اکنوندر میدان نبردند. از قوانین نیمهکاره تا بیانیههای داوطلبانه، باید توضیح دهند که مرگِ بدون وجدان را چگونه مهار کنیم؟ اگر روبات ماشه را بکشد و انسان تنها ناظر باشد، مفهوم مسئولیت و اخلاق جنگ دگرگون خواهد شد.
شاید همانگونه که هواپیما زمانی پرواز انسان را بازتعریف کرد، هوش مصنوعی نیز قواعد نبرد را بازنویسی کند؛ اما این بار، هزینهٔ اشتباه نه سقوط یک ماشین که سقوط معیارهای بشری است. جنگِ آینده، نبردی خواهد بود که در آن نه فقط سرزمین، که مرز میان انسان و ماشین نیز در آتش تصمیمی بینام میسوزد.