قرارهای بازداشت نتانیاهو و گالانت صادره توسط دیوان کیفری بین‌المللی:مقابله با جنگ‌های مدرن و مسئولیت کیفری برای جنایات جنگی مبتنی بر هوش مصنوعی[۱]

قرارهای بازداشت نتانیاهو و گالانت صادره توسط دیوان کیفری بین‌المللی:

مقابله با جنگ‌های مدرن و مسئولیت کیفری برای جنایات جنگی مبتنی بر هوش مصنوعی[۱]

Marta Bo

مترجم: دکتر مهدی اشتری

پژوهشگر حقوق بین‌الملل

ویراستار علمی: دکتر رضوان باقرزاده

عضو هیئت علمی دانشگاه بوعلی سینا

در سال‌های اخیر، قابلیت انتساب در استفاده از هوش مصنوعی(AI) در جنگ‌ها، به ¬ویژه در چارچوب حقوق بین¬الملل کیفری، به ‌طور فزاینده‌ای به موضوعی حیاتی در طرح¬های ابتکاری حکمرانی (SIPRI، اصول راهنمای GGE و طرح اقدام REAIM)[2] و نیز بحث‌های علمی و جامعه مدنی بدل شده است (Matthias, Sparrow, HRW, and more recently Heller, Bo here and here). در ابتدا، بحث‌ها عمدتا بر اقدامات پیشگیرانه، رعایت حقوق بشر و حقوق بین¬الملل بشردوستانه(IHL) و (به ‌تازگی) توسعه و استفاده مسئولانه از هوش مصنوعی متمرکز بود و این مسئله به ‌عنوان یک دغدغه آتی مطرح می‌شد. اما با گسترش استفاده از تکنولوژی‌های هوش مصنوعی به ‌ویژه سیستم‌های تصمیم¬یار مبتنی بر هوش مصنوعی(AI-DSS) که به ‌طور گسترده‌ای در درگیری‌های کنونی استفاده می‌شوند (برای مثال، نک. Palantir’s Artificial Intelligence Platform (AIP) Defense, Lavender, and here Gospel)، تنها مسئله گذر زمان بود که استفاده از این سیستم‌ها در هدف‌گیری و مسئولیت کیفری مرتبط با آن‌ها، زیر ذره‌بین دیوان کیفری بین‌المللی قرار گیرد.

با در نظر گرفتن بسیاری از «اگرها» مانند قابلیت اجرا، چالش‌های احتمالی در صلاحیت و پذیرش و مسئولیت¬های آینده، قرارهای بازداشت دیوان کیفری بین‌المللی علیه بنیامین نتانیاهو و یوآو گالانت می‌تواند فرصت مهمی برای دیوان باشد تا جنگ‌های مدرن و جنایات جنگی مرتبط با سیستم‌های هوش مصنوعی را بررسی کند. قرارهای بازداشت اخیر دیوان مسئولیت کیفری آقایان نتانیاهو و گالانت را به ‌عنوان مقامات غیرنظامی برای جنایت جنگی از طریق هدایت عمدی حملات علیه جمعیت غیرنظامی در یک درگیری مسلحانه بین‌المللی طبق ماده (i)(b)(2)8 اساسنامه رم مطرح کرده است.

برای تعیین مسئولیت مافوق(فرماندهی) در این جنایت، نیاز به این ارزیابی است که آیا برخی حملات، همان‌طور که در قرارهای بازداشت ذکر شده، اصل تفکیک را نقض کرده‌اند یا خیر. این ارزیابی‌ ممکن است شامل بررسی استفاده از سیستم‌های تصمیم¬یار هدف¬گیری مبتنی بر هوش مصنوعی باشد که در آن‌ها تصمیم‌گیری در مورد هدف‌گیری و انجام خودکار حملات با دخالت تکنولوژی صورت می‌گیرد. ابتدا این مسئله بررسی می‌شود، سپس نقض‌های ادعایی حقوق بین¬الملل بشردوستانه که مبنای جنایات جنگی هستند و در نهایت برخی مسائلی که ممکن است در اثبات مسئولیت فرماندهی در این موارد پیش آید را بررسی خواهیم کرد.

فرصتی برای دیوان کیفری بین¬المللی جهت بررسی استفاده از سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی در هدایت مخاصمات

اگرچه تا زمانی که اتهامات به‌صورت عمومی اعلام نشده و احتمالاً اتهامات جدیدی مطرح نشود، این موضوع در حد حدس و گمان باقی می‌ماند، اما دخالت دیوان کیفری بین‌المللی در پرونده نتانیاهو و گالانت می‌تواند نخستین باری باشد که طی آن، دیوان با جنایات جنگی مرتبط با استفاده از هوش مصنوعی در درگیری‌های نظامی مواجه می‌شود. اسرائیل از ابزارهای تصمیم‌یار مبتنی بر هوش مصنوعی(AI-DSS) در عملیات نظامی خود در غزه برای کمک به تصمیم‌گیری‌های نظامی استفاده کرده است. سیستم‌های هدف‌گیری هوش مصنوعی داده‌های مختلفی را تحلیل و با سرعت پردازش می‌کنند. در این مورد، «کمک» ارائه شده توسط این سیستم‌ها شامل شناسایی و پیشنهاد اهداف با سرعت و مقیاسی بی‌سابقه بوده است.

اطلاعات منتشره درباره سیستم‌های Gospel وLavender، به همراه تحقیقات مرتبط با ابزارهای تصمیم‌یار مبتنی بر هوش مصنوعی(نک. Stewart and Hinds, Klonowska here and here, Woodcock, Nadibaidze et al and Greipl et al)، برخی نکات را درباره نحوه عملکرد این سیستم‌ها، نحوه استفاده از آن‌ها و ریسک‌های مرتبط آشکار می¬سازد.

به ‌طور خلاصه، گفته شده است که سیستم Gospel داده‌هایی مانند تصاویر پهپادی، تصاویر ماهواره‌ای، اطلاعات انسانی و گزارش‌های عملیات پیشین را پردازش کرده و پیشنهادهایی برای اهداف نظامی بالقوه ارائه می‌دهد(به ‌عنوان‌ مثال «اقامتگاه‌های خصوصی که احتمال حضور اعضای حماس یا جهاد اسلامی در آن‌ها وجود دارد»). سیستم Lavender که بر پایه پردازش یادگیری ماشینی عمل می‌کند، توصیه‌هایی درباره اهداف انسانی ارائه می‌دهد؛ یعنی «احتمال این که هر فرد خاص در شاخه نظامی حماس یا جهاد اسلامی فعال باشد» را در مقیاس ۱ تا ۱۰۰ مطرح می‌کند.

تحقیقات انجام‌شده توسط ۹۷۲+ نشان می¬دهد که در دو هفته ابتدایی جنگ ۲۰۲۳، پرسنل اطلاعاتی نیروهای دفاعی اسرائیل(IDF)، اهداف شناسایی‌شده توسط سیستم Lavender را به صورت دستی [و بدون استفاده از هوش مصنوعی] مورد بررسی‌های نمونه‌ای قرار دادند. این بررسی‌ها صحت نود درصدی شناسایی اهداف توسط این سیستم را تایید کرد. پس از این، فهرست‌های اهداف ارائه‌شده توسط سیستم Lavender به ‌عنوان دستورات عملیاتی در نظر گرفته شد و دیگر نیازی به تایید مجدد توسط پرسنل نظامی نبود. پیش از این تغییر، سربازان حدود ۲۰ ثانیه برای هر هدف صرف می‌کردند تا جزئیات اولیه مانند تایید جنسیت هدف به‌ عنوان مرد را بررسی کنند.

اگرچه اطلاعات موجود درباره نحوه عملکرد و استفاده از این سیستم‌ها، چه در شناسایی اهداف و چه در تایید آن‌ها محدود است و جزئیات در دسترس باید با احتیاط ملاحظه شود، ممکن است دیوان نیاز داشته باشد برخی ویژگی‌های کلیدی سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی و نحوه استفاده از آن‌ها را مورد بررسی قرار دهد. این ویژگی‌ها مشتمل است بر جنبه‌های فنی مانند نرخ صحت، قابلیت فهم کاربران از خروجی‌ها و پیشنهادهای ارائه‌شده برای هدف‌گیری و همچنین سایر ویژگی‌های تعامل انسان و ماشین که نحوه استفاده از این سیستم‌ها در تصمیم‌گیری‌های هدف‌گیری را شکل داده است و از آن جمله است سوگیری به نفع خودکارسازی و نیز سوگیری به نفع اقدام.

در کنار دیگر مولفه¬ها مانند انتخاب نوع تسلیحات، دیوان کیفری بین¬المللی باید بررسی کند که آیا حملات ناشی از تصمیمات هدف‌گیری سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی، نقض حقوق بین‌الملل بشردوستانه در نبردها به‌ شمار می‌روند یا خیر؛ قواعدی که مبنای مسئولیت کیفری مورد ادعا برای جنایات جنگی هستند.

نقض اصل تفکیک به ‌عنوان مبنای جنایات جنگی مورد ادعا

دیوان ممکن است مجبور شود بررسی کند که آیا برخی حملات که احتمالا شامل استفاده از سیستم‌هایGospel وLavender می‌شوند، نقض حقوق بین‌الملل بشردوستانه به شمار می‌آیند یا خیر. دیوان تصمیم گرفته است تمرکز خود را بر نقض اصل تفکیک و اتهام حملات عمدی به غیرنظامیان قرار دهد؛ گامی که از آن استقبال شده است.

در حالی ‌که بسیاری از تحلیل‌ها درباره حملات اسرائیل بر نقض اصل تناسب متمرکز بوده است (Manea, Abraham)، همان‌گونه که Danieleاشاره کرده است «بسیاری از تحلیل‌ها تا کنون به ‌شکلی نامناسب تناسب را وارد حوزه تفکیک کرده‌اند و این امر به شکست فعلی بسیاری از محدودیت‌های حقوق بین‌الملل بشردوستانه و حقوق بین¬الملل کیفری منجر شده است». با توجه به کشتار گسترده غیرنظامیان و احتمالا به دلیل پیچیدگی‌های شناخته‌شده در اثبات مسئولیت کیفری برای حمله نامتناسب عمدی به ¬عنوان جنایت جنگی (طبق ماده (iv)(b)(2)8) دیوان به‌ درستی تمرکز را بر نقض اصل تفکیک قرار داده است.

این مسئله نیازمند بررسی نقض اصول تفکیک و تبعیض است. اصل تفکیک طرف‌های درگیر در یک منازعه مسلحانه را ملزم می‌کند که همواره بین جمعیت غیرنظامی و نظامیان و نیز بین اموال غیرنظامی و اهداف نظامی تفکیک قائل شوند و عملیات خود را صرفا علیه اهداف نظامی هدایت کنند(ماده ۴۸ پروتکل الحاقی اول). اصل تبعیض [یا منع حملات کورکورانه] حملاتی را ممنوع می‌کند که به سمت یک هدف نظامی مشخص هدایت نشده‌اند یا از آن روش‌ها یا ابزارهای جنگی استفاده می‌کنند که قابلیت هدایت به یک هدف مشخص را ندارند و یا از روش‌ها یا ابزارهایی بهره می‌گیرند که اثرات آن‌ها قابل تحدید مطابق با الزامات پروتکل الحاقی اول نیست و در هر مورد به حکم طبیعت خود، بدون تفکیک به اهداف نظامی، غیرنظامیان یا اموال غیرنظامی اصابت می¬کنند(ماده (۴)۵۱ پروتکل الحاقی اول).

نقض اصل تفکیک به ‌طور صریح در ماده (iv)(b)(2)8 اساسنامه رم جرم‌انگاری شده است. اما حملات کورکورانه (به‌ عنوان نقض اصل تبعیض) به ‌طور مستقیم در اساسنامه رم جرم‌انگاری نشده‌اند. با این حال، دیوان این خلا را با تفسیر حملات کورکورانه تحت عنوان جنایت جنگیِ هدایت حملات علیه غیرنظامیان پر کرده است(نک. پرونده‌های کاتانگا پاراگراف ۸۰۲ و نتاگاندا پاراگراف ۹۲۱).

این نوع حملات به عدم تفکیک بین اهداف مشروع و غیرمشروع برمی¬گردند و/یا شامل استفاده از ابزارها یا روش‌هایی می‌شوند که به حکم طبیعتشان کورکورانه هستند. نمونه‌هایی از این حملات عبارت‌اند از حملاتی که به یک هدف نظامی مشخص هدایت نشده‌اند؛ حملاتی که از تسلیحات فاقد قابلیت تفکیک استفاده می‌کنند (یعنی تسلیحاتی که توانایی تفکیک بین اهداف غیرنظامی و نظامی را ندارند)؛ و حملاتی که بدون احتیاط لازم برای حفاظت از غیرنظامیان به ‌ویژه بدون کسب اطلاعات دقیق درباره اهداف مورد نظر صورت می‌گیرند.

گرچه نقض¬های فوق به هم مرتبط هستند، اما تفاوت‌هایی نیز دارند. ممنوعیت حمله به غیرنظامیان یا اموال غیرنظامی بر هویت هدف حمله متمرکز است؛ این که آیا هدف، یک فرد یا مال غیرنظامی است یا خیر. اما اصل تبعیض به مشخص بودن هدف و اثرات حمله توجه دارد و در مواردی که هدف مشخص وجود ندارد یا اثرات حمله قابل محدودسازی به هدف نیست، نقض می‌شود. به بیان دیگر، به تعبیر صریح Daniele، این اصل «به حقوق¬دانان یادآوری می¬کند که تفکیک نه ‌تنها حملات مستقیم و عمدی به غیرنظامیان و اموال غیرنظامی را ممنوع می‌کند بلکه حملاتی را که تمایز میان این اهداف و اهداف مشروع را نادیده می¬گیرد نیز منع می‌کند».

در نهایت، باید اشاره داشت که علاوه بر رکن مادی(actus reus)، رکن معنوی(mens rea) نیز ممکن است متفاوت باشد. حملات مستقیم به غیرنظامیان نوعا بیش از همه، نیازمند رکن روانی در شکلdolus directus (عمد مستقیم) در درجات اول و دوم هستند. در مقابل، حملات کورکورانه عمدتا با حالات روانی مبتنی بر علم کمتر یا ریسک¬پذیری همراه هستند.

اثبات مسئولیت مقامات مافوق در تصمیم‌گیری‌های مرتبط با هدف‌گیری با استفاده از سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی

آقایان نتانیاهو و گالانت طبق ماده (۲)۲۸ اساسنامه رم به عنوان مسئولان غیرنظامی متهم به مسئولیت کیفری هستند. مسئولیت مافوق اصلی شناخته‌شده در حقوق بین¬الملل کیفری است که رهبران نظامی و غیرنظامی را در قبال جنایات ارتکابی توسط زیردستانشان مسئول می‌داند؛ [البته] در صورتی که کنترل موثری بر آن‌ها داشته و در پیشگیری یا مجازات آن‌ها کوتاهی کرده باشند. مسئولیت رهبران غیرنظامی زمانی اعمال می‌شود که آن‌ها «می‌دانستند یا آگاهانه اطلاعاتی را نادیده گرفته¬اند که آشکارا نشان می-دهد» جنایات توسط زیردستانشان ارتکاب یافته یا در شرف وقوع «در حوزه مسئولیت و کنترل موثر مافوق» بوده است.

در این‌جا بر جنایات ارتکابی متمرکز می¬شویم. قابلیت احراز مسئولیت مافوق در ادبیات تخصصی به طور گسترده در مورد به کارگیری سیستم‌های تسلیحاتی خودفرمان(AWS) مورد بحث قرار گرفته (Spadaro, SIPRI, Buchan and Tsagourias, Heller, Kraska) و به ¬عنوان مسیری کارآمد برای پاسخگویی در قبال جنایات جنگی به¬شمار آمده است. اما در این‌جا موضوع متفاوت است. دیوان کیفری بین¬المللی ممکن است مجبور باشد درباره مسئولیت مافوق برای جنایات ارتکابی با استفاده از سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی و نه سیستم‌های تسلیحاتی خودفرمان، تصمیم‌گیری کند. بر خلاف بحث بر سر این که آیا مسئولیت مافوق برای جنایات ارتکابی توسط سیستم‌های تسلیحاتی خودفرمان که به طور بالقوه به‌ ¬عنوان مادون تلقی می¬شوند، اعمال می‌شود یا خیر، در این‌جا شرط کلیدی برای احراز مسئولیت مافوق توسط دیوان کیفری بین‌المللی این است که افراد مادون انسانی باید جنایت مورد نظر را مرتکب شده باشند. در واقع، «مسئولیت مافوق از ماهیت اشتقاقی برخوردار است؛ به این معنا که تنها در صورتی اعمال می‌شود که افراد مادون¬ جنایتی را مرتکب شده باشند»(Spadaro). برای اثبات مسئولیت مافوق، افراد مادون باید جنایتی مشخص را با تمام عناصر تشکیل‌دهنده آن مرتکب شوند(Mettraux, 131). ارتکاب یک عمل کیفری جرم¬انگاری‌شده توسط افراد مادون شرط لازم برای اعمال این دکترین و شرط آغاز صلاحیت دیوان کیفری بین¬المللی یا هر دادگاه کیفری دیگری است که چنین اتهاماتی را بررسی می‌کند(Mettraux, 131). بنابراین لازم است ارکان مادی و معنوی جنایات ارتکابی با سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی مشخص شوند.

در این راستا، برخی پرسش¬های کلیدی به ¬ویژه در مورد رکن معنوی مطرح می¬شود:

– آیا دیوان کیفری بین¬المللی تنها سوء¬ نیت مستقیم در درجات اول و دوم را در نظر خواهد گرفت یا علم و پذیرش ریسک‌های (با احتمال بالای) حمله به غیرنظامیان (سوء ¬نیت احتمالی یا dolus eventualis) را نیز به ¬عنوان سوء نیت کافی برای جنایات مورد نظر خواهد پذیرفت؟ آیا نرخ خطای ده درصدی ذاتا دلالت بر علم به خطر حمله به غیرنظامیان و پذیرش آن ریسک دارد؟

– قصور در اتخاذ اقدامات احتیاطی معقول در حمله (برای مثال صرف تنها چند ثانیه برای تایید اهداف، سرعت تولید اهداف و انتخاب سلاح‌ها)، تا چه حد می‌تواند سوء نیت و/یا علم را ثابت کند؟

– آیا نرخ پیش‌بینی‌ناپذیری یا صحت سیستم‌های هوش مصنوعی باید در تعیین مسئولیت کیفری به ¬ویژه با توجه به علم قبلی درباره نادرستی برخی از پیش‌بینی‌ها، در نظر گرفته شود و آیا این می‌تواند به عنوان اثبات سوء نیت و/یا علم تلقی شود؟

– آیا علم قبلی کاربران سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی درباره نرخ خطای ده درصدی، ادله¬ای برای سوء نیت به شمار خواهد آمد؟

– آیا این نرخ خطا برای رهبران غیرنظامی شناخته شده و آیا می‌تواند به ¬عنوان ادله¬ای برای علم آن‌ها بر ارتکاب جنایات جنگی تلقی شود؟

– آیا علم قبلی در مورد نرخ خطای سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی، دفاع اشتباه در واقعیت که زایل¬کننده قصد است را منتفی می¬سازد؟ اشتباه در واقعیت به معنای «تصور نادرست یا اشتباه درباره یک واقعیت است که در نتیجه آن، فرد به اشتباه تصور می‌کند که رفتار او قانونی است». با توجه به نرخ خطای ده درصدی، بعید به نظر می‌رسد که متهم بتواند به طور موثر ادعای ناآگاهی از وضعیت غیرنظامی برخی اهداف را مطرح کند.

– پرسش¬های دیگری از این قبیل نیز مطرح است: آیا از هدایت یا تشویق برای حداکثرسازی اهداف و ایجاد محیطی با فشار بالا که بر تولید سریع‌تر اهداف متمرکز است، می‌توان چنین برداشت کرد که مقامات عالی‌رتبه شرایطی را ایجاد کرده‌اند که استفاده از سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی، نقض حقوق بین¬الملل بشردوستانه را تسهیل کرده است؟ و آیا هدایت آن‌ها در سطوح نظامی و سیاسی که به طور بالقوه می¬تواند علت ارتکاب این جنایات به شمار آید، اشکال دیگر مسئولیت کیفری ناشی از قصور ذیل ماده ۲۵ اساسنامه رم محسوب می¬شود؟

این‌ها برخی پرسش¬هایی هستند که دیوان کیفری بین¬المللی باید در جریان بررسی پیچیدگی‌های مسئولیت فرماندهان برای جنایات ارتکابی توسط زیردستان که از فناوری‌های هوش مصنوعی برای هدف‌گیری استفاده کرده‌اند، به آن‌ها پاسخ دهد.

فرصت کلیدی دیوان کیفری بین¬المللی برای ورود به موضوع هوش مصنوعی در جنگ

قرارهای بازداشت برای نتانیاهو و گالانت می‌تواند فرصتی برای دیوان کیفری بین¬المللی فراهم کند تا با ابعاد جنگ‌های مدرن درگیر شود؛ هر چند این موضوع همچنان تا زمانی که اتهامات به صورت عمومی اعلام شوند و احتمالا موارد بیشتری به پرونده افزوده شود، نظری باقی می¬ماند. این که آیا اساسا دیوان کیفری بین‌المللی به ویژگی‌های فناورانه سیستم‌های هدف‌گیری مبتنی بر هوش مصنوعی می¬پردازد و [در صورت پاسخ مثبت] چگونه مسئله¬ای همچنان مفتوح است. آیا به جنبه‌های فنی مربوط توجه خواهد شد و چگونه دیوان تخصص لازم برای فهم این فناوری‌ها را کسب خواهد کرد؟

این ورود دیوان می‌تواند چگونگی انتساب مسئولیت در جنایات جنگی مرتبط با فناوری‌های هدف‌گیری مبتنی بر هوش مصنوعی را شفاف ساخته و مشخص کند که چارچوب حقوقی موجود چگونه با چالش‌هایی که در سطح فنی (مانند ابهام و نرخ خطا) و در تعامل انسان و ماشین (از جمله سرعت در هدف‌گیری و سوگیری برای خودکارسازی) ایجاد می‌شود، منطبق است.

دادگاه‌های کیفری بین¬المللی همواره نقش کلیدی در تعریف برخی از مفاهیم و قواعد حقوق بین‌الملل بشردوستانه داشته‌اند و اکنون زمان آن فرا رسیده است که دیوان کیفری بین¬المللی به بررسی جنگ‌های مدرن و موارد نقض حقوق بین¬الملل بشردوستانه در هدایت نبردها با استفاده از سیستم‌های تصمیم‌یار مبتنی بر هوش مصنوعی بپردازد. در نهایت، برخی ملاحظات دیوان می‌توانند کاربردهایی فراتر از این موضوع خاص داشته باشند.

اگرچه حقوق بین¬الملل کیفری(ICL) برای تنظیم هوش مصنوعی در جنگ چارچوب اولیه‌ نیست، بررسی‌های پسینی در خصوص قابلیت انتساب و پاسخگویی (و حتی احتمال عدم امکان ارزیابی به دلیل مختصات فنی و اَشکال تعامل انسان و ماشین که ممکن است مانع انتساب مسئولیت برای حوادث زیان‌بار شود)، همچنان از اهمیت بالایی برخوردار است؛ کما این که بررسی‌های مذکور می‌توانند درباره این که «چه چیزی مجاز است و چه چیزی نباید مجاز باشد»، روشن¬گر باشند و در نهایت بر مسیر توسعه فناوری در جنگ تاثیر بگذارند؛ مسیری که صنعت، سیاست‌گذاران و ما به عنوان جامعه باید برای پذیرش آن تصمیم‌گیری کنیم (Acquaviva, Boulanin and Bo).[4]

[1] https://opiniojuris.org/2024/12/06/netanyahu-and-gallant-icc-arrest-warrants-tackling-modern-warfare-and-criminal-responsibility-for-ai-enabled-war-crimes/

[2] عبارت “SIPRI, GGE’s Guiding Principles, REAIM Blue Print for Action” به سه چارچوب یا منبع اصلی اشاره دارد که در زمینه حاکمیت و نظارت بر استفاده از هوش مصنوعی در جنگ‌ها و درگیری‌های مسلحانه مطرح است:

۱) SIPRI (موسسه بین‌المللی پژوهش‌های صلح استکهلم): موسسه‌ای که به تحقیق در مورد مسائل مربوط به صلح، امنیت بین‌المللی و کاهش تسلیحات می‌پردازد و همچنین به استفاده از فناوری‌های نوظهور از جمله هوش مصنوعی در جنگ‌ها و تاثیرات آن بر مقررات بین‌المللی و حقوق بشر توجه دارد؛

۲)GGE’s Guiding Principles (اصول راهنمای گروه کارشناسان دولتی): این اصول توسط گروه کارشناسان دولتی سازمان ملل متحد (Group of Governmental Experts – GGE) در زمینه سیستم‌های تسلیحاتی خودمختار (AWS) تدوین شده‌اند. هدف این اصول، ارائه چارچوبی برای استفاده مسئولانه از هوش مصنوعی و فناوری‌های خودمختار در تسلیحات است که با مقررات بشردوستانه بین‌المللی منطبق باشد؛

۳) REAIM Blue Print for Action (طرح اقدامREAIM): این طرح نقشه‌ای برای اقدام در راستای توسعه و استفاده اخلاقی از هوش مصنوعی در عملیات نظامی است که هدف آن تضمین شفافیت، مسئولیت‌پذیری و انطباق با مقررات بین‌المللی بشردوستانه است. REAIMمخفف ابتکاری برای ساماندهی هوش مصنوعی مسئول در زمینه نظامی است (Responsible AI in the Military Domain) .

این سه چارچوب نشان‌دهنده تلاش‌های بین‌المللی برای حاکمیت و ساماندهی استفاده از هوش مصنوعی در جنگ‌ها و کاهش خطرات ناشی از آن هستند. / مترجم

[۳] آندریاس ماتیاس(Andreas Matthias) برای مفهوم «شکاف مسئولیت»(Responsibility Gap) در استفاده از سیستم‌های خودفرمان و هوش مصنوعی شناخته شده است. او به چالش‌هایی که این فناوری‌ها در زمینه مسئولیت‌پذیری اخلاقی و قانونی ایجاد می‌کنند، پرداخته است؛ راب اسپارو(Rob Sparrow) فیلسوف و پژوهشگری است که در زمینه اخلاق فناوری‌های خودفرمان، به ویژه در جنگ و نظامی‌گری فعالیت دارد. او از پیشگامان بحث در مورد مسائل اخلاقی مرتبط با ربات‌های قاتل و سیستم‌های هوش مصنوعی نظامی است؛ دیده‌بان حقوق بشر(HRW (Human Rights Watch)) در زمینه مخالفت با استفاده از ربات‌های قاتل(Killer Robots) فعالیت می‌کند. این سازمان از پیشگامان کمپین‌های جهانی برای ممنوعیت یا ساماندهی استفاده از چنین فناوری‌هایی است؛ کوین جان هلر(Kevin Jon Heller) درباره مسئولیت کیفری و مسائل حقوقی مرتبط با استفاده از فناوری‌های نوظهور در جنگ پژوهش‌هایی ارائه داده است؛ مارتا بو(Marta Bo)، پژوهشگر ارشد موسسه T.M.C. Asser و موسسه بین‌المللی تحقیقات صلح استکهلم (SIPRI) است که درباره حقوق بین‌الملل، هوش مصنوعی و مسئولیت‌های کیفری مرتبط با آن پژوهش می‌نماید. / مترجم

[۴] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)

 

 

 

 

 

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *