۱۱ نوامبر ۲۰۲۱، لورا برون دستیار تحقیقاتی مؤسسه تحقیقاتی بین المللی صلح استکهلم
ترجمه: دکتر سوده شاملو
عضو هیئت علمی دانشگاه آزاد اسلامی واحد تهران مرکز
ویراستار علمی: دکتر مژگان رامیننیا
عضو هیئت علمی دانشگاه پیامنور
مباحثات بینالدولی در مورد مقررات فناوری های نوظهور در حیطه سیستمهای سلاح هوشمند[۱] (مرگبار)(AWS) بعد از بیش از یک سال از وقفهی کووید ۱۹ در ژنو از سر گرفته می شود. وظیفه ی اساسی که دولت ها با آن مواجه هستند شفافیت بیشتر در مورد چگونگی اعمال قواعد حقوق بشردوستانه بینالمللی (IHL) [2]است: این قواعد چه محدودیتهایی در توسعه و توسل به سلاح هوشمند اعمال می کند و یا شاید از همه مهم تر این که، برای بشر چه الزاماتی در توسل به زور وضع می کند؟
در این پست لورا برون[۳] از موسسه تحقیقات صلح بین المللی استکهلم (SIPRI) [4](در مورد این چالش) تأمل میکند که آیا قواعد حقوق بشر دوستانه بین المللی به اندازه کافی، در مورد اینکه چگونه انسان و ماشین میتوانند در تصمیمات توسل به زور اثر متقابل داشته باشند، راهنمای شفافی مقرر می کند. بر اساس یافته های مطالعهی اخیر موسسه تحقیقات صلح بین المللی استکهلم وی استدلال می کند که می توان برای شفاف سازی اقدام کرد و پیشنهادات مشخصی ارائه کرد تا برای تعیین و تبیین قواعد لازم الرعایه ی حقوق بشردوستانه ی بین المللی در توسعه و توسل به سیستم سلاح های هوشمند، مورد استفاده ی دولتها قرار بگیرد. سیستمهای سلاح هوشمند میتواند به صورت بنیادی شیوه تصمیم گیری انسان را در طی مخاصمات مسلحانه تغییر دهد. سلاح هوشمند به توانایی شان در انتخاب و هدف گیری بدون نیاز به مداخله ی انسان پس از فعال شدن در بسیاری از زمینه ها با دیگر تسلیحات متفاوتند. در حالی که این قابلیت می تواند مزایای عملی و بشردوستانه داشته باشد همچنین می تواند نگرانی های حقوقی، اخلاقی و استراتژیک اساسی را مطرح کند. همزمان که مزایا و خطرات مرتبط با توسل به سیستم های سلاح هوشمند مورد بحث و بررسی است،پیشرفت تسلیحات هوشمند موجب شده جامعه ی بینالمللی یک سوال اساسی را مورد توجه قرار دهد: نقش انسان در توسل به زور چیست و تا چه حدی تصمیمات مربوط به حیات و مرگ می تواند به چنین ماشین هایی واگذار شود؟
در جستجوی پاسخ، دولتها به بررسی قواعد حقوق بشردوستانه بینالمللی به عنوان یکی از چهارچوب های حقوقی قابل اعمال می پردازند. با این وجود؛ موسسه ی تحقیقات صلح بین المللی استکهلم نشان می دهد که در مورد آنچه از حیث توسل به زور برای انسان ها الزامی و برای ماشین مجاز باشد، قواعد حقوق بشردوستانه ی بینالمللی موجود به اندازهی کافی راهنمای روشنی ارائه نمی دهد، بنابراین دولت ها باید دنبال شفافسازی بیشتری باشند. روش انجام آن،این است که در مورد موضوع احترام و تضمین احترام به قواعد حقوق بشردوستانه ی بین المللی در چهار وجه ذیل واکاوی شود: چه کسی باید چه چیزی را چه زمانی و کجا انجام دهد؟
مقررات سیستمهای سلاح هوشمند و مساله تاثیر متقابل انسان –ماشین
چالش های حقوقی، اخلاقی و نظامی ناشی از سیستم سلاح های هوشمند و اینکه چطور باید به هر یک پرداخت، برای تقریبا یک دهه موضوع گفتگوهای بین المللی بوده است. این بحث از سال ۲۰۱۷ توسط گروهی از کارشناسان دولتی در چارچوب کنوانسیون ۱۹۸۰ سلاح های متعارف به عنوان یک نقطه ی عزیمت هدایت شده است. گروه کارشناسان دولتی قراراست توصیه های اجماعی در مورد شفافسازی، سنجش و توسعه ی ابعاد چهارچوب هنجاری و عملیاتی برای قانونمندسازی فناوری های نوظهور ارائه کنند. مساله ی اصلی در این ارتباط آن است که آیا قواعد حقوق بشردوستانه بینالمللی موجود، چهارچوب قانونی شفاف کافی فراهم می کند یا قواعد، استانداردها یا رویه های جدیدی مورد نیاز است تا اوصاف منحصر به فرد و چالش های سیستم های سلاح هوشمند را مدّنظر قرار دهد؟ در حالی که دولت ها دیدگاه های متفاوتی در مورد این موضوع دارند، گروه کارشناسان دولتی در مورد شماری از موضوعات ماهوی به اجماع رسیده اند.
این گروه ویژه تاکید کرده است که قواعد حقوق بشردوستانه بینالمللی نسبت به سلاح هوشمند اعمال شود و توافق داشته اند که انسان، ماشین مسئول توسعه و استفاده از سیستم های سلاح هوشمند باقی نمی ماند. گروه کارشناسان سپس مقرر داشته است جهت تضمین متابعت توسعه و استفاده از سیستم های سلاح هوشمند از حقوق بین الملل به ویژه قواعد حقوق بشردوستانه بین المللی نوعی مداخله ی انسانی کم و بیش مشخص، ضروری خواهد بود. در نظر اجماعی گروه کارشناسان دولتی این گونه مورد توجه قرار گرفت که هوشمندسازی سیستم های تسلیحات نمی تواند نامحدود باشد و دخالت انسان مورد نیاز است.
یکی از موضوعات محوری،اگر نه محوری ترین موضوع،گفتگوها در حال حاضر این است که چه سطحی از دخالت انسان-ماشین را باید در نظر گرفت. گروه کارشناسان دولتی توافق دارند که نمی توان یک نسخه ی واحد در مورد نوع و درجه ی اثر متقابل انسان-ماشین برای انواع مختلف تسلیحات هوشمند ارائه داد و این موضوع بسته به نوع سلاح و کاربرد آن متفاوت خواهد بود. اما مشکل و مساله ی بغرنجی که باقی می ماند این است که چطور و بر چه مبنایی یک دولت مشخص خواهد کرد که چه کیفیت و چه حدودی از اثر متقابل انسان و ماشین در یک وضعیت مطروحه مورد نیاز است؟ برای بسیاری از دولت ها پاسخ به سوالات مرتبط در خصوص چگونگی تعامل قانونمند انسان و ماشین با بررسی سیستماتیک تر قواعد حقوق بشردوستانه بین المللی قابل دریافت است. برای حمایت از تلاش دولت ها در این زمینه،موسسه تحقیقات صلح بین المللی استکهلم در سال 2021 یک طرح مطالعاتی پیاده کرد با عنوان “سیستم سلاحهای هوشمند و قواعد حقوق بشردوستانه ی بین المللی” تا سوالات کلیدی مستلزم بررسی راجع به نوع و درجهی تعامل لازم میان انسان-ماشین برای تضمین اجرای قواعد حقوق بشردوستانه ی بین المللی را مشخص کند. برخی از یافته های اساسی این طرح در قسمت بعدی ترسیم می شود.
گفتهها و ناگفتههای قواعد حقوق بشردوستانه بینالمللی در مورد نقش انسان در توسل به زور
هدف اصلی قواعد حقوق بشردوستانه ی بین المللی آن است که به منظور حمایت از جمعیت غیرنظامی در زمان توسل به زور و نیز در امان ماندن نظامیان از صدمات اضافی و رنج غیر ضروری،قواعدی در راستای محدودیت ها و ممنوعیت ها وضع کند که در نهایت به تقلیل آثارمخاصمات مسلحانه بیانجامد. این قواعد نسبت به همهی سلاحها اعم از سیستمهای سلاح های هوشمند اعمال می شود.همچنان که قواعد حقوق بشردوستانه ی بینالمللی در مورد آنچه غیرقانونی است،روشن است در مورد آنچه می تواند قانونی تلقی شود،شفافیّت کمتری دارد.این عدم شفافیّت البته که به موضوع تسلیحات هوشمند تسرّی می یابد. در این خصوص سیستم سلاح های هوشمند با این سوال مواجه است که الزامات قواعد حقوق بشردوستانه ی بین المللی به ویژه الزاماتی که بر اساس اصول تفکیک،تناسب و احتیاط مورد نظر است تا چه حد می تواند در یک فرآیند ماشین محور اجرا شود. مطالعه ی موسسه ی تحقیقاتی صلح بین المللی استکهلم دریافت که قواعد حقوق بشردوستانه ی بین المللی موجود پاسخ روشنی در مورد این مساله ارائه نمی دهد و در نتیجه؛ دولتها، تفاسیر و نتایج متفاوتی در آن خصوص خواهند داشت. برخی استدلال می کنند تا زمانی که آثار ناشی از بکارگیری،قانونی هستند مشکلی (از لحاظ حقوقی) در ارتباط با تفویض اختیار وظایف به ماشین وجود ندارد. این در حالی است که برخی معتقدند رعایت قواعد حقوق بشردوستانه ی بین المللی مستلزم آن است که اعمال زورمدارانه توسط عامل انسانی انجام شود.
حاصل این که، این خطر وجود دارد که در مورد نوع و درجه تعامل انسان و ماشین برای رعایت قواعد حقوق بشردوستانه بین المللی در یک وضعیت مطروحه، دولت ها به صورت بنیادی به نتایج کاملا متفاوتی برسند. بنابراین شفاف سازی بیشتر قواعد حقوق بشردوستانه بین المللی می تواند ضروری باشد.
چه کسی، چه چیزی، چه موقع و کجا؟
هوشمند بودن سیستم های تسلیحاتی جایگزین تصمیم گیری انسان نیست، بلکه روش تصمیم گیری انسان در جنگ را تغییر میدهد. فرآیند تصمیم گیری در ارتباط با سیستم های سلاح هوشمند،احتمالا تعداد افراد دخیل در بکارگیری را افزایش می دهد. این تغییر،چالش های جدیدی را در مورد اجرای قواعد حقوق بشردوستانه ی بین المللی ایجاد نمود و سوالات بیشتری را در مورد اینکه الزامات حقوق بشردوستانه ی بین المللی تا چه اندازه بر چه تعداد و در چه فاصله ای از محل به کارگیری قابل اعمال است،مطرح می کند. به منظور شفافیّت چنین موضوعاتی گروه کارشناسان دولتی توانستند به صورت مؤثر این موضوع را مدّنظر دهند که چگونه هوشمند بودن اجرای الزامات قواعد حقوق بشردوستانه بین المللی چهار بعد را تحت تاثیر قرار می دهد. بعد اول در ارتباط با این است که چه کسی و چه تعدادی از افراد می توانند مسوول اجرای قواعد حقوق بشردوستانه بین المللی باشند. بعد دوم در ارتباط با این است که قواعد حقوق بشردوستانه ی بین المللی چه نوع و درجه ای از تعامل انسان-ماشین را الزام یا ممنوع می کند. ابعاد سوم و چهارم در ارتباط با این است که در چه زمانی و در چه موقعیتی مقررات حقوق بشردوستانه لازمالاجراست.
در مورد اینکه چه کسی باید چه چیزی را چه موقع و کجا در توسعه و استفاده از سیستم های سلاح هوشمند انجام دهد. آنچه اساسی است، روشن کردن این موضوع است که چه نوع و درجه ای از تعامل انسان و ماشین برای رعایت قواعد حقوق بشردوستانه ی بین المللی در یک وضعیت مطروحه،ضروری است. در حالی که هر بعد شایسته ی توجه است،محدودیت ها،زمانی مشخص می شوند که همه ی ابعاد، توامان در نظر گرفته شوند. برای مثال این که چگونه ویژگی های محیط عملیاتی، بر پاسخ به این سوال اثر می گذارد که تناسب اقدام صورت گرفته لازم است تا کدام مرحله ی پیش از اقدام عقب رفت و این که ارزیابیهای مرتبط با کاربست قواعد حقوق بشردوستانه ی بین المللی بر عهده ی چه کسی است. یکی از روشهای بررسی مفید این ابعاد و وابستگی متقابل آنها میتواند تمرینهای سناریویی باشد. با استفاده از سناریوهای متفاوت و تغییرات درجه ابعاد مختلف، دولت ها بهتر می توانند مشخص کنند که کدام وظایف به ماشین تفویض شود و چه وظایفی باید به عهده انسان باقی بماند.
شفافسازی نقش انسان در توسل به زور
بعد از سالها مباحثه پیرامون سیستمهای سلاح های هوشمند، گروه کارشناسان دولتی در مرحله ی حساس قرار دارند. گروه کارشناسان در ماه دسامبر،ششمین کنفرانس بررسی کنوانسیون سلاح های متعارف را پیش رو دارد که موقعیت ویژه ای برای پاسخ جامعه ی بین المللی به چالش های مرتبط با افزایش سطح هوشمندی در سیستم های تسلیحاتی،محسوب می شود. مباحثات ساختارمند و عمیق تر پیرامون چهارچوب چهار بعدی در تشخیص خطوط قرمز و نواحی مجاز قواعد حقوق بشردوستانه بین المللی به دولتها کمک می کند چه انواعی باید قانونمند شود.
پس از شفاف کردن این موضوع که ضرورت رعایت حقوق بشردوستانه ی بین المللی چه الزاماتی را برای انسان و چه جوازهایی برای ماشین به همراه دارد،موضوع دیگری که دارای اهمیت حیاتی است پاسخ به این سوال است که آیا برای مسائل مرتبط با سلاح های هوشمند،وضع مقررات جدید مورد نیاز است و اگر بله در چه قالبی؟ این؛به ویژه در صورتی ضرورت خواهد یافت که گروه کارشناسان،چنان که جلسات اخیرش حاکی از آن است، در پی ممنوع سازی برخی انواع سیستم های تسلیحاتی هوشمند و محدودسازی استفاده از برخی دیگر می باشد.
تلاش ها برای شفاف کردن این موضوع که ضرورت رعایت حقوق بشردوستانه ی بین المللی در مورد نقش انسان در توسل به زور چه می گوید، به حیطه ی ورای سیستم سلاح های هوشمند هم تسری می یابد. توسعه فناوری در سایر حیطه ها، از جمله پیشرفت ها در هوش مصنوعی، مسائل مشابهی در مورد عامل انسانی و تصمیم گیری در پیش می نهد. بنابراین زمان آن است که جامعه ی بین المللی نه تنها این موضوع را که مقررات موجود در مورد نقش انسان در توسل به زور چه می گوید یا نمی گوید بلکه این را هم که چه باید بگوید را مورد بررسی قرار دهد.ِ
[۱] -Autonomous Weapon Systems
[2] -International Humanitarian Law
[3] -Laura Bruun
[4] -Stockholm International Peace Research Institute