آیا سیستمهای پشتیبان تصمیمگیری مبتنی بر هوش مصنوعی از انسانها در تصمیمگیری نظامی درباره توسل به زور حمایت میکنند؟[۱]
Anna Nadibaidze
مترجم: فراز باغبان نو
پژوهشگر حقوق بینالملل
ویراستار علمی: دکتر شهرام زرنشان
عضو هیئت علمی دانشکده حقوق و علوم سیاسی دانشگاه علامه طباطبایی
اجلاس آینده سازمان ملل متحد که در سپتامبر ۲۰۲۴ در نیویورک برگزار شد، منجر به تصویب (میثاق آینده) گردید. این میثاق، در میان بسیاری از مسائل دیگر، تسریع در پیشبرد مباحث مربوط به سامانههای تسلیحاتی خودمختار مرگبار را در چارچوب گروه کارشناسان دولتی(GGE) سازمان ملل متحد به عنوان یک اقدام ضروری فهرست کرده است. مباحث مربوط به سامانههای تسلیحاتی خودمختار (AWS) که به عنوان سامانههایی تعریف میشوند که پس از فعال سازی، اهداف را بدون مداخله انسانی انتخاب و درگیر میکنند، بیش از ده سال است که در سازمان ملل متحد ادامه داشته است. در سالهای اخیر، پیشرفت گروه کارشناسان دولتی در زمینه توافق بر سر ابزارها یا تدابیر جدید برای مقابله با چالشهای مربوط به سیستمهای تسلیحاتی که از هوش مصنوعی و فناوریهای خودمختار استفاده میکنند، چندان چشمگیر نبوده است. علاوه بر این، تمرکز غالب بر روی سیستمهای تسلیحاتی خودمختار باعثشده که استفادههای دیگر از فناوریهای هوش مصنوعی در حوزه نظامی کمتر مورد توجه قرار گیرد. نیروهای مسلح در سراسر جهان نه تنها در حال توسعه فناوریهای هوش مصنوعی به عنوان بخشی از سامانههای تسلیحاتی مانند پهپادها یا مهمات سرگردان هستند بلکه آنها را در فرآیندهای تصمیمگیری در مورد هدفگیری نظامی نیز ادغام میکنند. این امر از طریق سامانههای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی (AI DSS) انجام میشود که میتوانند الگوهای موجود در حجم وسیعی از دادهها را شناسایی کرده، سناریوهای احتمالی را پیشبینی کنند یا گزینههای ممکن را به فرماندهان نظامی پیشنهاد دهند .فرآیند پیچیده و چندبعدی هدفگیری نظامی میتواند در مراحل مختلف، از سیستمهای هوش مصنوعی بهره گیرد که ممکن است به طور مستقیم یا غیرمستقیم توسل به زور را اطلاعرسانی نمایند.
گزارشهایی درباره استفاده از سامانههای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی از مناطق جنگی مختلف در سراسر جهان منتشر شده است؛ از جمله جنگ اخیر اسرائیل و حماس )۲۰۲۳- تا کنون (و جنگ روسیه و اوکراین )۲۰۲۲- تا کنون). همانطور که گزارش منتشرشده توسط پروژه AutoNorms در دانشگاه Southern Dernmark تاکید میکند، این تحولات پرسشهایی را درباره نقش انسان و ماشین در فرآیند تصمیمگیری درباره توسل به زور مطرح میکند که نیازمند بررسیهای بیشتر است .به کارگیری سامانههای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی به طور رسمی در مباحث سازمان ملل متحد درباره سامانههای تسلیحاتی خودمختار قرار نمیگیرد، زیرا از حیث نظری، این سامانهها صرفا نقش »پشتیبانی «از انسانها را در فرآیند پیچیده و چندلایه تصمیمگیری درباره توسل زور ایفا میکنند و تصمیمگیری نهایی همچنان بر عهده انسان است. با این حال، صرف حضور یک انسان در فرآیند تصمیمگیری، تضمینکننده سطح بالایی از مشارکت انسانی و قضاوت متناسب با شرایط در تصمیمات مربوط به هدفگیری نیست. پویاییهای تعامل انسان –ماشین، یعنی نقشهای انسان و سامانههای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی در تصمیمگیری درباره توسل به زور، سوالات مهمی را از منظر حقوقی، اخلاقی، بشردوستانه و امنیتی مطرح میکند. این مسائل ما را به این پرسش اساسی هدایت میکند که: آیا سامانههای هوش مصنوعی واقعا به شکل مفید از تصمیمگیری انسانی پشتیبانی میکنند؟
کاربردهای هوش مصنوعی در تصمیمگیری نظامی
مسئله استفاده از هوش مصنوعی در تصمیمگیری نظامی موضوع جدید نیست. وزارت دفاع ایالات متحده مدتهاست که به بهبود کارایی تحلیلهای اطلاعاتی برای تصمیمات نسبت به هدفگیری از طریق فناوریهای خودکار و مبتنی بر هوش مصنوعی علاقهمند بوده است. یکی از نمونههای برجسته این شیوه، «تیم چندوظیفهای جنگ الگوریتمی» موسوم به پروژه مَون (Project Maven) است. این پروژه در سال ۲۰۱۷ با هدف تحلیل حجم وسیعی از ویدئوهای ضبط شده توسط پهپادهای آمریکایی با استفاده از الگوریتمهای یادگیری ماشینی راهاندازی شد. پروژه فوق که اکنون تحت مدیریت آژانس ملی اطلاعات جغرافیایی- فضایی (NGA) قرار دارد، انواع مختلفی از دادهها را در مورد Maven Smart System ادغام میکند و از طریق تحلیل دادهها و برونیابیِ مَون، اهداف بالقوه را مشخص میسازد.
نیروهای مسلح اوکراین نیز در دفاع از این کشور در برابر تهاجم غیرقانونی تمامعیار روسیه، از چندین سامانه پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی در تصمیمگیریهای میدان نبرد استفاده میکنند. برخی از سامانههای توسعهیافته داخلی مانند Kropyva و GIS Arta به دلیل توانایی ادغام دادههای راداری، تصاویر پهپادی و سایر منابع برای محاسبه و ارسال اطلاعات موقعیت نیروهای روسیه به یگانهای توپخانه اوکراینی در زمان واقعی، لقب «اوبر توپخانهای» را دریافت کردهاند. همچنین انواع دیگری از نرمافزارهای تصمیمگیری مبتنی بر هوش مصنوعی توسط شرکتهای خارجی مانند Palantir Technologies تامین میشوند که طبق گفته Alex Karp ، مدیر عامل این شرکت، «مسئول بیشتر عملیات هدفگیری در اوکراین» است.
با وجود این که نیروهای دفاعی اسرائیل(IDF) پیش از حملات حماس در ۷ اکتبر ۲۰۲۳ نیز از سامانههای تصمیمگیری مبتنی بر هوش مصنوعی استفاده کرده بودند، اما پس از انتشار گزارشهای تحقیقی درباره استفاده IDF از چندین سامانه مبتنی بر هوش مصنوعی در غزه، این موضوع توجه گسترده رسانهای و دانشگاهی را به خود جلب کرده است. سامانههای) Gospel و (Lavender که اغلب در شبکهای پیچیده از سامانهها و حسگرها به کار گرفته میشوند به IDF این امکان را دادهاند که تعداد اهدافی بیسابقه را با سرعتی کمنظیر ایجاد کند. هر چند، با وجود این که Gospel و Lavender ممکن است در ابتدا به عنوان منابع اطلاعاتی یا پایگاههای داده برای تحلیلگران اطلاعاتی طراحی شده باشند، اما در عمل به نظر میرسد که این سامانهها به عنوان ابزاری برای تایید اهداف در چارچوب عملیات نظامی اسرائیل در غزه به کار گرفته شدهاند. این روندها نگرانیهایی را در مورد نقش انسانها در تایید و بررسی اهداف در یک بحران انسانی در حال تشدید، ایجاد میکند.
به ¬نظر میرسد توسعه سامانههای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی یک روند جهانی و ماندگار باشد، زیرا ارتشها در همکاری با برخی شرکتهای خصوصی در حال برنامهریزی برای ادغام هوش مصنوعی جهت پردازش حجم وسیعی از دادههای جمعآوریشده از طریق نظارت، تصاویر ماهوارهای و سایر منابع با سرعت و مقیاس بالاتر هستند. Frank Whitworth ، مدیر آژانس ملی اطلاعات جغرافیایی- فضایی(NGA)، در کنفرانسی که توسط Palantir سازماندهی شده بود، اظهار داشت که سامانه هوشمند میون(Maven Smart System) ابزاری برای تصمیمگیری است، نه تصمیمگیرنده. این «پشتیبانی» از تصمیمگیری انسانی با افزایش کارایی و دارا بودن برتری استراتژیک در برخی از زمینههای نبرد مرتبط دانسته میشود. با این حال، نیاز احساسشده به سرعت در تصمیمگیری نظامی باید در کنار نگرانیهای مختلف پیرامون چگونگی تعامل انسانها با سامانههای پشتیبانی تصمیمگیری هوش مصنوعی مورد بررسی قرار گیرد.
اعمال عاملیت در تعاملات انسان – ماشین
هم انسانها و هم سامانههای مبتنی بر هوش مصنوعی دارای سوگیریها و مفروضات خاص خود در فرآیند تصمیمگیری هستند. به جای این که این موضوع را به عنوان یک دوگانگی بین انسان و «ماشینی که به طور سرد و بیاحساس عمل میکند» در نظر بگیریم، ضروری است که به تعامل این عوامل در چارچوب یک نظام اجتماعی- فنی پرداخته شود. این بررسی باید شامل انواع سوگیریهای شناختی، دادهای و سیستمی باشد و همچنین موضوعاتی مانند اعتماد، خواه بیش از حد (سوگیری اتوماسیون) یا بیاعتمادی بیش از حد (گریز از الگوریتم) و همچنین زمینههای نهادی و سیاسی پیرامون توسعه و استفاده از سامانههای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی از جمله دکترینهای هدفگیری و قواعد درگیری در مسئله نظامی مربوط، مورد بررسی قرار گیرند. همه این عوامل با این خطر همراه هستند که ممکن است بر نحوه اعمال عاملیت انسانی یعنی توانایی درک، پیشبینی معقول تاثیرات سامانه هوش مصنوعی در یک زمینه خاص، اتخاذ تصمیمات مناسب و اجرای این تصمیمات به گونهای که مسئولیتپذیری و پاسخگویی تضمین شود، تاثیر بگذارند.
اعمال عاملیت انسانی در تصمیمات مربوط به توسل به زور، نقش حیاتی در پایبندی به حقوق بینالملل بشردوستانه دارد، زیرا این حقوق مستلزم آن است که رفتارهای مرتبط با جنگ به انسانها منتسب شود. افزون بر این، عاملیت انسانی برای حفظ عنصر انسانی در فرآیند پیچیده تصمیمگیری در هدفگیری نظامی ضروری است، به ویژه در جنگهای شهری که خطر تاثیرگذاری بر غیرنظامیان در آن بالا است. همانطور که Charli Carpenter اشاره میکند، جایگزینی انسانها با فناوریهای هوش مصنوعی در فرآیند تصمیمگیری مسئله نیست؛ بلکه این است که تصمیمگیری انسانی بیش از حد مکانیکی و غیرانسانی شود، تا جایی که اپراتورهای انسانی خود به «رباتهای قاتل» تبدیل شوند.
در حالی که سامانههای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی که در سراسر جهان توسعه یافتهاند، بهطور ذاتی غیرقانونی نیستند؛ روشهایی که این سامانهها در آن به کار گرفته میشوند، نشان میدهند که انسانها در معرض خطر از دست دادن فرصت برای اعمال سطح لازم از عاملیت انسانی قرار دارند. به عنوان مثال، گزارشهایی که از استفاده ارتش اسرائیل(IDF) از AI DSS در روشهایی که اولویت را به کمیت اهداف میدهند یا جایی که انسانها به نظر میرسد بتوانند که هدفها را در عرض چند ثانیه تایید کنند، نشان میدهند که در بسیاری از زمینههای استفاده، تصمیمگیری انسانی به طور مثبت از سوی سیستمهای هوش مصنوعی پشتیبانی نمیشود.
تبادل نظر در سازمان ملل متحد همچنان بر روی سامانههای سلاحهای خودمختار کشنده(AWS) متمرکز است، اما حفظ و تقویت نقش انسانها نگرانیای است که در تمامی کاربردهای نظامی هوش مصنوعی از جمله در مواردی که انسانها صریحا تصمیمگیری میکنند، مطرح است. انسانهای درگیر در استفاده از سامانههای پشتیبانی تصمیمگیری مبتنی بر هوش مصنوعی از جمله تحلیلگران و اپراتورها، نیازمند زمان و فضای کافی برای تامل در مورد اثرات سیستم هوش مصنوعی در یک زمینه خاص هستند. بنابراین روشهای عملی برای اطمینان از اعمال این عاملیت انسانی در تعامل انسان ماشین باید در کانون بحثهای جهانی در مورد استفادههای مسئولانه از هوش مصنوعی در حوزه نظامی قرار گیرد.[۲]
[۱] https://opiniojuris.org/2024/11/29/do-ai-decision-support-systems-support-humans-in-military-decision-making-on-the-use-of-force/#:~:text=Armed%20forces%20around%20the%20world%20are%20not%20only,recommend%20possible%20courses%20of%20action%20to%20military%20commanders.
[2] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)