قرارهای بازداشت نتانیاهو و گالانت صادره توسط دیوان کیفری بینالمللی:
مقابله با جنگهای مدرن و مسئولیت کیفری برای جنایات جنگی مبتنی بر هوش مصنوعی[۱]
Marta Bo
مترجم: دکتر مهدی اشتری
پژوهشگر حقوق بینالملل
ویراستار علمی: دکتر رضوان باقرزاده
عضو هیئت علمی دانشگاه بوعلی سینا
در سالهای اخیر، قابلیت انتساب در استفاده از هوش مصنوعی(AI) در جنگها، به ¬ویژه در چارچوب حقوق بین¬الملل کیفری، به طور فزایندهای به موضوعی حیاتی در طرح¬های ابتکاری حکمرانی (SIPRI، اصول راهنمای GGE و طرح اقدام REAIM)[2] و نیز بحثهای علمی و جامعه مدنی بدل شده است (Matthias, Sparrow, HRW, and more recently Heller, Bo here and here). در ابتدا، بحثها عمدتا بر اقدامات پیشگیرانه، رعایت حقوق بشر و حقوق بین¬الملل بشردوستانه(IHL) و (به تازگی) توسعه و استفاده مسئولانه از هوش مصنوعی متمرکز بود و این مسئله به عنوان یک دغدغه آتی مطرح میشد. اما با گسترش استفاده از تکنولوژیهای هوش مصنوعی به ویژه سیستمهای تصمیم¬یار مبتنی بر هوش مصنوعی(AI-DSS) که به طور گستردهای در درگیریهای کنونی استفاده میشوند (برای مثال، نک. Palantir’s Artificial Intelligence Platform (AIP) Defense, Lavender, and here Gospel)، تنها مسئله گذر زمان بود که استفاده از این سیستمها در هدفگیری و مسئولیت کیفری مرتبط با آنها، زیر ذرهبین دیوان کیفری بینالمللی قرار گیرد.
با در نظر گرفتن بسیاری از «اگرها» مانند قابلیت اجرا، چالشهای احتمالی در صلاحیت و پذیرش و مسئولیت¬های آینده، قرارهای بازداشت دیوان کیفری بینالمللی علیه بنیامین نتانیاهو و یوآو گالانت میتواند فرصت مهمی برای دیوان باشد تا جنگهای مدرن و جنایات جنگی مرتبط با سیستمهای هوش مصنوعی را بررسی کند. قرارهای بازداشت اخیر دیوان مسئولیت کیفری آقایان نتانیاهو و گالانت را به عنوان مقامات غیرنظامی برای جنایت جنگی از طریق هدایت عمدی حملات علیه جمعیت غیرنظامی در یک درگیری مسلحانه بینالمللی طبق ماده (i)(b)(2)8 اساسنامه رم مطرح کرده است.
برای تعیین مسئولیت مافوق(فرماندهی) در این جنایت، نیاز به این ارزیابی است که آیا برخی حملات، همانطور که در قرارهای بازداشت ذکر شده، اصل تفکیک را نقض کردهاند یا خیر. این ارزیابی ممکن است شامل بررسی استفاده از سیستمهای تصمیم¬یار هدف¬گیری مبتنی بر هوش مصنوعی باشد که در آنها تصمیمگیری در مورد هدفگیری و انجام خودکار حملات با دخالت تکنولوژی صورت میگیرد. ابتدا این مسئله بررسی میشود، سپس نقضهای ادعایی حقوق بین¬الملل بشردوستانه که مبنای جنایات جنگی هستند و در نهایت برخی مسائلی که ممکن است در اثبات مسئولیت فرماندهی در این موارد پیش آید را بررسی خواهیم کرد.
فرصتی برای دیوان کیفری بین¬المللی جهت بررسی استفاده از سیستمهای تصمیمیار مبتنی بر هوش مصنوعی در هدایت مخاصمات
اگرچه تا زمانی که اتهامات بهصورت عمومی اعلام نشده و احتمالاً اتهامات جدیدی مطرح نشود، این موضوع در حد حدس و گمان باقی میماند، اما دخالت دیوان کیفری بینالمللی در پرونده نتانیاهو و گالانت میتواند نخستین باری باشد که طی آن، دیوان با جنایات جنگی مرتبط با استفاده از هوش مصنوعی در درگیریهای نظامی مواجه میشود. اسرائیل از ابزارهای تصمیمیار مبتنی بر هوش مصنوعی(AI-DSS) در عملیات نظامی خود در غزه برای کمک به تصمیمگیریهای نظامی استفاده کرده است. سیستمهای هدفگیری هوش مصنوعی دادههای مختلفی را تحلیل و با سرعت پردازش میکنند. در این مورد، «کمک» ارائه شده توسط این سیستمها شامل شناسایی و پیشنهاد اهداف با سرعت و مقیاسی بیسابقه بوده است.
اطلاعات منتشره درباره سیستمهای Gospel وLavender، به همراه تحقیقات مرتبط با ابزارهای تصمیمیار مبتنی بر هوش مصنوعی(نک. Stewart and Hinds, Klonowska here and here, Woodcock, Nadibaidze et al and Greipl et al)، برخی نکات را درباره نحوه عملکرد این سیستمها، نحوه استفاده از آنها و ریسکهای مرتبط آشکار می¬سازد.
به طور خلاصه، گفته شده است که سیستم Gospel دادههایی مانند تصاویر پهپادی، تصاویر ماهوارهای، اطلاعات انسانی و گزارشهای عملیات پیشین را پردازش کرده و پیشنهادهایی برای اهداف نظامی بالقوه ارائه میدهد(به عنوان مثال «اقامتگاههای خصوصی که احتمال حضور اعضای حماس یا جهاد اسلامی در آنها وجود دارد»). سیستم Lavender که بر پایه پردازش یادگیری ماشینی عمل میکند، توصیههایی درباره اهداف انسانی ارائه میدهد؛ یعنی «احتمال این که هر فرد خاص در شاخه نظامی حماس یا جهاد اسلامی فعال باشد» را در مقیاس ۱ تا ۱۰۰ مطرح میکند.
تحقیقات انجامشده توسط ۹۷۲+ نشان می¬دهد که در دو هفته ابتدایی جنگ ۲۰۲۳، پرسنل اطلاعاتی نیروهای دفاعی اسرائیل(IDF)، اهداف شناساییشده توسط سیستم Lavender را به صورت دستی [و بدون استفاده از هوش مصنوعی] مورد بررسیهای نمونهای قرار دادند. این بررسیها صحت نود درصدی شناسایی اهداف توسط این سیستم را تایید کرد. پس از این، فهرستهای اهداف ارائهشده توسط سیستم Lavender به عنوان دستورات عملیاتی در نظر گرفته شد و دیگر نیازی به تایید مجدد توسط پرسنل نظامی نبود. پیش از این تغییر، سربازان حدود ۲۰ ثانیه برای هر هدف صرف میکردند تا جزئیات اولیه مانند تایید جنسیت هدف به عنوان مرد را بررسی کنند.
اگرچه اطلاعات موجود درباره نحوه عملکرد و استفاده از این سیستمها، چه در شناسایی اهداف و چه در تایید آنها محدود است و جزئیات در دسترس باید با احتیاط ملاحظه شود، ممکن است دیوان نیاز داشته باشد برخی ویژگیهای کلیدی سیستمهای تصمیمیار مبتنی بر هوش مصنوعی و نحوه استفاده از آنها را مورد بررسی قرار دهد. این ویژگیها مشتمل است بر جنبههای فنی مانند نرخ صحت، قابلیت فهم کاربران از خروجیها و پیشنهادهای ارائهشده برای هدفگیری و همچنین سایر ویژگیهای تعامل انسان و ماشین که نحوه استفاده از این سیستمها در تصمیمگیریهای هدفگیری را شکل داده است و از آن جمله است سوگیری به نفع خودکارسازی و نیز سوگیری به نفع اقدام.
در کنار دیگر مولفه¬ها مانند انتخاب نوع تسلیحات، دیوان کیفری بین¬المللی باید بررسی کند که آیا حملات ناشی از تصمیمات هدفگیری سیستمهای تصمیمیار مبتنی بر هوش مصنوعی، نقض حقوق بینالملل بشردوستانه در نبردها به شمار میروند یا خیر؛ قواعدی که مبنای مسئولیت کیفری مورد ادعا برای جنایات جنگی هستند.
نقض اصل تفکیک به عنوان مبنای جنایات جنگی مورد ادعا
دیوان ممکن است مجبور شود بررسی کند که آیا برخی حملات که احتمالا شامل استفاده از سیستمهایGospel وLavender میشوند، نقض حقوق بینالملل بشردوستانه به شمار میآیند یا خیر. دیوان تصمیم گرفته است تمرکز خود را بر نقض اصل تفکیک و اتهام حملات عمدی به غیرنظامیان قرار دهد؛ گامی که از آن استقبال شده است.
در حالی که بسیاری از تحلیلها درباره حملات اسرائیل بر نقض اصل تناسب متمرکز بوده است (Manea, Abraham)، همانگونه که Danieleاشاره کرده است «بسیاری از تحلیلها تا کنون به شکلی نامناسب تناسب را وارد حوزه تفکیک کردهاند و این امر به شکست فعلی بسیاری از محدودیتهای حقوق بینالملل بشردوستانه و حقوق بین¬الملل کیفری منجر شده است». با توجه به کشتار گسترده غیرنظامیان و احتمالا به دلیل پیچیدگیهای شناختهشده در اثبات مسئولیت کیفری برای حمله نامتناسب عمدی به ¬عنوان جنایت جنگی (طبق ماده (iv)(b)(2)8) دیوان به درستی تمرکز را بر نقض اصل تفکیک قرار داده است.
این مسئله نیازمند بررسی نقض اصول تفکیک و تبعیض است. اصل تفکیک طرفهای درگیر در یک منازعه مسلحانه را ملزم میکند که همواره بین جمعیت غیرنظامی و نظامیان و نیز بین اموال غیرنظامی و اهداف نظامی تفکیک قائل شوند و عملیات خود را صرفا علیه اهداف نظامی هدایت کنند(ماده ۴۸ پروتکل الحاقی اول). اصل تبعیض [یا منع حملات کورکورانه] حملاتی را ممنوع میکند که به سمت یک هدف نظامی مشخص هدایت نشدهاند یا از آن روشها یا ابزارهای جنگی استفاده میکنند که قابلیت هدایت به یک هدف مشخص را ندارند و یا از روشها یا ابزارهایی بهره میگیرند که اثرات آنها قابل تحدید مطابق با الزامات پروتکل الحاقی اول نیست و در هر مورد به حکم طبیعت خود، بدون تفکیک به اهداف نظامی، غیرنظامیان یا اموال غیرنظامی اصابت می¬کنند(ماده (۴)۵۱ پروتکل الحاقی اول).
نقض اصل تفکیک به طور صریح در ماده (iv)(b)(2)8 اساسنامه رم جرمانگاری شده است. اما حملات کورکورانه (به عنوان نقض اصل تبعیض) به طور مستقیم در اساسنامه رم جرمانگاری نشدهاند. با این حال، دیوان این خلا را با تفسیر حملات کورکورانه تحت عنوان جنایت جنگیِ هدایت حملات علیه غیرنظامیان پر کرده است(نک. پروندههای کاتانگا پاراگراف ۸۰۲ و نتاگاندا پاراگراف ۹۲۱).
این نوع حملات به عدم تفکیک بین اهداف مشروع و غیرمشروع برمی¬گردند و/یا شامل استفاده از ابزارها یا روشهایی میشوند که به حکم طبیعتشان کورکورانه هستند. نمونههایی از این حملات عبارتاند از حملاتی که به یک هدف نظامی مشخص هدایت نشدهاند؛ حملاتی که از تسلیحات فاقد قابلیت تفکیک استفاده میکنند (یعنی تسلیحاتی که توانایی تفکیک بین اهداف غیرنظامی و نظامی را ندارند)؛ و حملاتی که بدون احتیاط لازم برای حفاظت از غیرنظامیان به ویژه بدون کسب اطلاعات دقیق درباره اهداف مورد نظر صورت میگیرند.
گرچه نقض¬های فوق به هم مرتبط هستند، اما تفاوتهایی نیز دارند. ممنوعیت حمله به غیرنظامیان یا اموال غیرنظامی بر هویت هدف حمله متمرکز است؛ این که آیا هدف، یک فرد یا مال غیرنظامی است یا خیر. اما اصل تبعیض به مشخص بودن هدف و اثرات حمله توجه دارد و در مواردی که هدف مشخص وجود ندارد یا اثرات حمله قابل محدودسازی به هدف نیست، نقض میشود. به بیان دیگر، به تعبیر صریح Daniele، این اصل «به حقوق¬دانان یادآوری می¬کند که تفکیک نه تنها حملات مستقیم و عمدی به غیرنظامیان و اموال غیرنظامی را ممنوع میکند بلکه حملاتی را که تمایز میان این اهداف و اهداف مشروع را نادیده می¬گیرد نیز منع میکند».
در نهایت، باید اشاره داشت که علاوه بر رکن مادی(actus reus)، رکن معنوی(mens rea) نیز ممکن است متفاوت باشد. حملات مستقیم به غیرنظامیان نوعا بیش از همه، نیازمند رکن روانی در شکلdolus directus (عمد مستقیم) در درجات اول و دوم هستند. در مقابل، حملات کورکورانه عمدتا با حالات روانی مبتنی بر علم کمتر یا ریسک¬پذیری همراه هستند.
اثبات مسئولیت مقامات مافوق در تصمیمگیریهای مرتبط با هدفگیری با استفاده از سیستمهای تصمیمیار مبتنی بر هوش مصنوعی
آقایان نتانیاهو و گالانت طبق ماده (۲)۲۸ اساسنامه رم به عنوان مسئولان غیرنظامی متهم به مسئولیت کیفری هستند. مسئولیت مافوق اصلی شناختهشده در حقوق بین¬الملل کیفری است که رهبران نظامی و غیرنظامی را در قبال جنایات ارتکابی توسط زیردستانشان مسئول میداند؛ [البته] در صورتی که کنترل موثری بر آنها داشته و در پیشگیری یا مجازات آنها کوتاهی کرده باشند. مسئولیت رهبران غیرنظامی زمانی اعمال میشود که آنها «میدانستند یا آگاهانه اطلاعاتی را نادیده گرفته¬اند که آشکارا نشان می-دهد» جنایات توسط زیردستانشان ارتکاب یافته یا در شرف وقوع «در حوزه مسئولیت و کنترل موثر مافوق» بوده است.
در اینجا بر جنایات ارتکابی متمرکز می¬شویم. قابلیت احراز مسئولیت مافوق در ادبیات تخصصی به طور گسترده در مورد به کارگیری سیستمهای تسلیحاتی خودفرمان(AWS) مورد بحث قرار گرفته (Spadaro, SIPRI, Buchan and Tsagourias, Heller, Kraska) و به ¬عنوان مسیری کارآمد برای پاسخگویی در قبال جنایات جنگی به¬شمار آمده است. اما در اینجا موضوع متفاوت است. دیوان کیفری بین¬المللی ممکن است مجبور باشد درباره مسئولیت مافوق برای جنایات ارتکابی با استفاده از سیستمهای تصمیمیار مبتنی بر هوش مصنوعی و نه سیستمهای تسلیحاتی خودفرمان، تصمیمگیری کند. بر خلاف بحث بر سر این که آیا مسئولیت مافوق برای جنایات ارتکابی توسط سیستمهای تسلیحاتی خودفرمان که به طور بالقوه به ¬عنوان مادون تلقی می¬شوند، اعمال میشود یا خیر، در اینجا شرط کلیدی برای احراز مسئولیت مافوق توسط دیوان کیفری بینالمللی این است که افراد مادون انسانی باید جنایت مورد نظر را مرتکب شده باشند. در واقع، «مسئولیت مافوق از ماهیت اشتقاقی برخوردار است؛ به این معنا که تنها در صورتی اعمال میشود که افراد مادون¬ جنایتی را مرتکب شده باشند»(Spadaro). برای اثبات مسئولیت مافوق، افراد مادون باید جنایتی مشخص را با تمام عناصر تشکیلدهنده آن مرتکب شوند(Mettraux, 131). ارتکاب یک عمل کیفری جرم¬انگاریشده توسط افراد مادون شرط لازم برای اعمال این دکترین و شرط آغاز صلاحیت دیوان کیفری بین¬المللی یا هر دادگاه کیفری دیگری است که چنین اتهاماتی را بررسی میکند(Mettraux, 131). بنابراین لازم است ارکان مادی و معنوی جنایات ارتکابی با سیستمهای تصمیمیار مبتنی بر هوش مصنوعی مشخص شوند.
در این راستا، برخی پرسش¬های کلیدی به ¬ویژه در مورد رکن معنوی مطرح می¬شود:
– آیا دیوان کیفری بین¬المللی تنها سوء¬ نیت مستقیم در درجات اول و دوم را در نظر خواهد گرفت یا علم و پذیرش ریسکهای (با احتمال بالای) حمله به غیرنظامیان (سوء ¬نیت احتمالی یا dolus eventualis) را نیز به ¬عنوان سوء نیت کافی برای جنایات مورد نظر خواهد پذیرفت؟ آیا نرخ خطای ده درصدی ذاتا دلالت بر علم به خطر حمله به غیرنظامیان و پذیرش آن ریسک دارد؟
– قصور در اتخاذ اقدامات احتیاطی معقول در حمله (برای مثال صرف تنها چند ثانیه برای تایید اهداف، سرعت تولید اهداف و انتخاب سلاحها)، تا چه حد میتواند سوء نیت و/یا علم را ثابت کند؟
– آیا نرخ پیشبینیناپذیری یا صحت سیستمهای هوش مصنوعی باید در تعیین مسئولیت کیفری به ¬ویژه با توجه به علم قبلی درباره نادرستی برخی از پیشبینیها، در نظر گرفته شود و آیا این میتواند به عنوان اثبات سوء نیت و/یا علم تلقی شود؟
– آیا علم قبلی کاربران سیستمهای تصمیمیار مبتنی بر هوش مصنوعی درباره نرخ خطای ده درصدی، ادله¬ای برای سوء نیت به شمار خواهد آمد؟
– آیا این نرخ خطا برای رهبران غیرنظامی شناخته شده و آیا میتواند به ¬عنوان ادله¬ای برای علم آنها بر ارتکاب جنایات جنگی تلقی شود؟
– آیا علم قبلی در مورد نرخ خطای سیستمهای تصمیمیار مبتنی بر هوش مصنوعی، دفاع اشتباه در واقعیت که زایل¬کننده قصد است را منتفی می¬سازد؟ اشتباه در واقعیت به معنای «تصور نادرست یا اشتباه درباره یک واقعیت است که در نتیجه آن، فرد به اشتباه تصور میکند که رفتار او قانونی است». با توجه به نرخ خطای ده درصدی، بعید به نظر میرسد که متهم بتواند به طور موثر ادعای ناآگاهی از وضعیت غیرنظامی برخی اهداف را مطرح کند.
– پرسش¬های دیگری از این قبیل نیز مطرح است: آیا از هدایت یا تشویق برای حداکثرسازی اهداف و ایجاد محیطی با فشار بالا که بر تولید سریعتر اهداف متمرکز است، میتوان چنین برداشت کرد که مقامات عالیرتبه شرایطی را ایجاد کردهاند که استفاده از سیستمهای تصمیمیار مبتنی بر هوش مصنوعی، نقض حقوق بین¬الملل بشردوستانه را تسهیل کرده است؟ و آیا هدایت آنها در سطوح نظامی و سیاسی که به طور بالقوه می¬تواند علت ارتکاب این جنایات به شمار آید، اشکال دیگر مسئولیت کیفری ناشی از قصور ذیل ماده ۲۵ اساسنامه رم محسوب می¬شود؟
اینها برخی پرسش¬هایی هستند که دیوان کیفری بین¬المللی باید در جریان بررسی پیچیدگیهای مسئولیت فرماندهان برای جنایات ارتکابی توسط زیردستان که از فناوریهای هوش مصنوعی برای هدفگیری استفاده کردهاند، به آنها پاسخ دهد.
فرصت کلیدی دیوان کیفری بین¬المللی برای ورود به موضوع هوش مصنوعی در جنگ
قرارهای بازداشت برای نتانیاهو و گالانت میتواند فرصتی برای دیوان کیفری بین¬المللی فراهم کند تا با ابعاد جنگهای مدرن درگیر شود؛ هر چند این موضوع همچنان تا زمانی که اتهامات به صورت عمومی اعلام شوند و احتمالا موارد بیشتری به پرونده افزوده شود، نظری باقی می¬ماند. این که آیا اساسا دیوان کیفری بینالمللی به ویژگیهای فناورانه سیستمهای هدفگیری مبتنی بر هوش مصنوعی می¬پردازد و [در صورت پاسخ مثبت] چگونه مسئله¬ای همچنان مفتوح است. آیا به جنبههای فنی مربوط توجه خواهد شد و چگونه دیوان تخصص لازم برای فهم این فناوریها را کسب خواهد کرد؟
این ورود دیوان میتواند چگونگی انتساب مسئولیت در جنایات جنگی مرتبط با فناوریهای هدفگیری مبتنی بر هوش مصنوعی را شفاف ساخته و مشخص کند که چارچوب حقوقی موجود چگونه با چالشهایی که در سطح فنی (مانند ابهام و نرخ خطا) و در تعامل انسان و ماشین (از جمله سرعت در هدفگیری و سوگیری برای خودکارسازی) ایجاد میشود، منطبق است.
دادگاههای کیفری بین¬المللی همواره نقش کلیدی در تعریف برخی از مفاهیم و قواعد حقوق بینالملل بشردوستانه داشتهاند و اکنون زمان آن فرا رسیده است که دیوان کیفری بین¬المللی به بررسی جنگهای مدرن و موارد نقض حقوق بین¬الملل بشردوستانه در هدایت نبردها با استفاده از سیستمهای تصمیمیار مبتنی بر هوش مصنوعی بپردازد. در نهایت، برخی ملاحظات دیوان میتوانند کاربردهایی فراتر از این موضوع خاص داشته باشند.
اگرچه حقوق بین¬الملل کیفری(ICL) برای تنظیم هوش مصنوعی در جنگ چارچوب اولیه نیست، بررسیهای پسینی در خصوص قابلیت انتساب و پاسخگویی (و حتی احتمال عدم امکان ارزیابی به دلیل مختصات فنی و اَشکال تعامل انسان و ماشین که ممکن است مانع انتساب مسئولیت برای حوادث زیانبار شود)، همچنان از اهمیت بالایی برخوردار است؛ کما این که بررسیهای مذکور میتوانند درباره این که «چه چیزی مجاز است و چه چیزی نباید مجاز باشد»، روشن¬گر باشند و در نهایت بر مسیر توسعه فناوری در جنگ تاثیر بگذارند؛ مسیری که صنعت، سیاستگذاران و ما به عنوان جامعه باید برای پذیرش آن تصمیمگیری کنیم (Acquaviva, Boulanin and Bo).[4]
[1] https://opiniojuris.org/2024/12/06/netanyahu-and-gallant-icc-arrest-warrants-tackling-modern-warfare-and-criminal-responsibility-for-ai-enabled-war-crimes/
[2] عبارت “SIPRI, GGE’s Guiding Principles, REAIM Blue Print for Action” به سه چارچوب یا منبع اصلی اشاره دارد که در زمینه حاکمیت و نظارت بر استفاده از هوش مصنوعی در جنگها و درگیریهای مسلحانه مطرح است:
۱) SIPRI (موسسه بینالمللی پژوهشهای صلح استکهلم): موسسهای که به تحقیق در مورد مسائل مربوط به صلح، امنیت بینالمللی و کاهش تسلیحات میپردازد و همچنین به استفاده از فناوریهای نوظهور از جمله هوش مصنوعی در جنگها و تاثیرات آن بر مقررات بینالمللی و حقوق بشر توجه دارد؛
۲)GGE’s Guiding Principles (اصول راهنمای گروه کارشناسان دولتی): این اصول توسط گروه کارشناسان دولتی سازمان ملل متحد (Group of Governmental Experts – GGE) در زمینه سیستمهای تسلیحاتی خودمختار (AWS) تدوین شدهاند. هدف این اصول، ارائه چارچوبی برای استفاده مسئولانه از هوش مصنوعی و فناوریهای خودمختار در تسلیحات است که با مقررات بشردوستانه بینالمللی منطبق باشد؛
۳) REAIM Blue Print for Action (طرح اقدامREAIM): این طرح نقشهای برای اقدام در راستای توسعه و استفاده اخلاقی از هوش مصنوعی در عملیات نظامی است که هدف آن تضمین شفافیت، مسئولیتپذیری و انطباق با مقررات بینالمللی بشردوستانه است. REAIMمخفف ابتکاری برای ساماندهی هوش مصنوعی مسئول در زمینه نظامی است (Responsible AI in the Military Domain) .
این سه چارچوب نشاندهنده تلاشهای بینالمللی برای حاکمیت و ساماندهی استفاده از هوش مصنوعی در جنگها و کاهش خطرات ناشی از آن هستند. / مترجم
[۳] آندریاس ماتیاس(Andreas Matthias) برای مفهوم «شکاف مسئولیت»(Responsibility Gap) در استفاده از سیستمهای خودفرمان و هوش مصنوعی شناخته شده است. او به چالشهایی که این فناوریها در زمینه مسئولیتپذیری اخلاقی و قانونی ایجاد میکنند، پرداخته است؛ راب اسپارو(Rob Sparrow) فیلسوف و پژوهشگری است که در زمینه اخلاق فناوریهای خودفرمان، به ویژه در جنگ و نظامیگری فعالیت دارد. او از پیشگامان بحث در مورد مسائل اخلاقی مرتبط با رباتهای قاتل و سیستمهای هوش مصنوعی نظامی است؛ دیدهبان حقوق بشر(HRW (Human Rights Watch)) در زمینه مخالفت با استفاده از رباتهای قاتل(Killer Robots) فعالیت میکند. این سازمان از پیشگامان کمپینهای جهانی برای ممنوعیت یا ساماندهی استفاده از چنین فناوریهایی است؛ کوین جان هلر(Kevin Jon Heller) درباره مسئولیت کیفری و مسائل حقوقی مرتبط با استفاده از فناوریهای نوظهور در جنگ پژوهشهایی ارائه داده است؛ مارتا بو(Marta Bo)، پژوهشگر ارشد موسسه T.M.C. Asser و موسسه بینالمللی تحقیقات صلح استکهلم (SIPRI) است که درباره حقوق بینالملل، هوش مصنوعی و مسئولیتهای کیفری مرتبط با آن پژوهش مینماید. / مترجم
[۴] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)