آیا سیستم‌های پشتیبان تصمیم‌گیری مبتنی بر هوش مصنوعی از انسانها در تصمیم‌گیری نظامی درباره‌ توسل به زور حمایت می‌کنند؟

 

 

آیا سیستم‌های پشتیبان تصمیم‌گیری مبتنی بر هوش مصنوعی از انسانها در تصمیم‌گیری نظامی درباره‌ توسل به زور حمایت می‌کنند؟[۱]

Anna Nadibaidze

مترجم: فراز باغبان نو

پژوهشگر حقوق بین‌الملل

ویراستار علمی: دکتر شهرام زرنشان

عضو هیئت علمی دانشکده حقوق و علوم سیاسی دانشگاه علامه طباطبایی

اجلاس آینده سازمان ملل متحد که در سپتامبر ۲۰۲۴ در نیویورک برگزار شد، منجر به تصویب (میثاق آینده) گردید. این میثاق، در میان بسیاری از مسائل دیگر، تسریع در پیشبرد مباحث مربوط به سامانه‌های تسلیحاتی خودمختار مرگبار را در چارچوب گروه کارشناسان دولتی(GGE) سازمان ملل متحد به‌ عنوان یک اقدام ضروری فهرست کرده است. مباحث مربوط به سامانه‌های تسلیحاتی خودمختار (AWS) که به‌ عنوان سامانه‌هایی تعریف می‌شوند که پس از فعال سازی، اهداف را بدون مداخله انسانی انتخاب و درگیر می‌کنند، بیش از ده سال است که در سازمان ملل متحد ادامه داشته است. در سال‌های اخیر، پیشرفت گروه کارشناسان دولتی در زمینه توافق بر سر ابزارها یا تدابیر جدید برای مقابله با چالش‌های مربوط به سیستم‌های تسلیحاتی که از هوش مصنوعی و فناوری‌های خودمختار استفاده می‌کنند، چندان چشمگیر نبوده است. علاوه بر این، تمرکز غالب بر روی سیستم‌های تسلیحاتی خودمختار باعث‌شده که استفاده‌های دیگر از فناوری‌های هوش مصنوعی در حوزه نظامی کمتر مورد توجه قرار گیرد. نیروهای مسلح در سراسر جهان نه تنها در حال توسعه فناوری‌های هوش مصنوعی به‌ عنوان بخشی از سامانه‌های تسلیحاتی مانند پهپادها یا مهمات سرگردان هستند بلکه آن‌ها را در فرآیندهای تصمیم‌گیری در مورد هدف‌گیری نظامی نیز ادغام می‌کنند. این امر از طریق سامانه‌های پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی (AI DSS) انجام می‌شود که می‌توانند الگوهای موجود در حجم وسیعی از داده‌ها را شناسایی کرده، سناریوهای احتمالی را پیش‌بینی کنند یا گزینه‌های ممکن را به فرماندهان نظامی پیشنهاد دهند .فرآیند پیچیده و چندبعدی هدف‌گیری نظامی می‌تواند در مراحل مختلف، از سیستم‌های هوش مصنوعی بهره گیرد که ممکن است به طور مستقیم یا غیرمستقیم توسل به زور را اطلاع‌رسانی نمایند.

گزارش‌هایی درباره استفاده از سامانه‌های پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی از مناطق جنگی مختلف در سراسر جهان منتشر شده است؛ از جمله جنگ اخیر اسرائیل و حماس )۲۰۲۳- تا کنون (و جنگ روسیه و اوکراین )۲۰۲۲- تا کنون). همان‌طور که گزارش منتشرشده توسط پروژه AutoNorms در دانشگاه Southern Dernmark تاکید می‌کند، این تحولات پرسش‌هایی را درباره نقش انسان و ماشین در فرآیند تصمیم‌گیری درباره توسل به زور مطرح می‌کند که نیازمند بررسی‌های بیشتر است .به کارگیری سامانه‌های پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی به طور رسمی در مباحث سازمان ملل متحد درباره سامانه‌های تسلیحاتی خودمختار قرار نمی‌گیرد، زیرا از حیث نظری، این سامانه‌ها صرفا نقش »پشتیبانی «از انسانها را در فرآیند پیچیده و چندلایه تصمیم‌گیری درباره توسل زور ایفا می‌کنند و تصمیم‌گیری نهایی همچنان بر عهده انسان است. با این حال، صرف حضور یک انسان در فرآیند تصمیم‌گیری، تضمین‌کننده سطح بالایی از مشارکت انسانی و قضاوت متناسب با شرایط در تصمیمات مربوط به هدف‌گیری نیست. پویایی‌های تعامل انسان –ماشین، یعنی نقش‌های انسان و سامانه‌های پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی در تصمیم‌گیری درباره توسل به زور، سوالات مهمی را از منظر حقوقی، اخلاقی، بشردوستانه و امنیتی مطرح می‌کند. این مسائل ما را به این پرسش اساسی هدایت می‌کند که: آیا سامانه‌های هوش مصنوعی واقعا به شکل مفید از تصمیم‌گیری انسانی پشتیبانی می‌کنند؟

کاربردهای هوش مصنوعی در تصمیم‌گیری نظامی

مسئله استفاده از هوش مصنوعی در تصمیم‌گیری نظامی موضوع جدید نیست. وزارت دفاع ایالات متحده مدتهاست که به بهبود کارایی تحلیل‌های اطلاعاتی برای تصمیمات نسبت به هدف‌گیری از طریق فناوری‌های خودکار و مبتنی بر هوش مصنوعی علاقه‌مند بوده است. یکی از نمونه‌های برجسته این شیوه، «تیم چندوظیفه‌ای جنگ الگوریتمی» موسوم به پروژه مَون (Project Maven) است. این پروژه در سال ۲۰۱۷ با هدف تحلیل حجم وسیعی از ویدئوهای ضبط ‌شده توسط پهپادهای آمریکایی با استفاده از الگوریتم‌های یادگیری ماشینی راه‌اندازی شد. پروژه فوق که اکنون تحت مدیریت آژانس ملی اطلاعات جغرافیایی- فضایی (NGA) قرار دارد، انواع مختلفی از داده‌ها را در مورد Maven Smart System ادغام می‌کند و از طریق تحلیل داده‌ها و برون‌یابیِ مَون، اهداف بالقوه را مشخص می‌سازد.

نیروهای مسلح اوکراین نیز در دفاع از این کشور در برابر تهاجم غیرقانونی تمام‌عیار روسیه، از چندین سامانه پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی در تصمیم‌گیری‌های میدان نبرد استفاده می‌کنند. برخی از سامانه‌های توسعه‌یافته داخلی مانند Kropyva و GIS Arta به دلیل توانایی ادغام داده‌های راداری، تصاویر پهپادی و سایر منابع برای محاسبه و ارسال اطلاعات موقعیت نیروهای روسیه به یگان‌های توپخانه اوکراینی در زمان واقعی، لقب «اوبر توپخانه‌ای» را دریافت کرده‌اند. همچنین انواع دیگری از نرم‌افزارهای تصمیم‌گیری مبتنی بر هوش مصنوعی توسط شرکت‌های خارجی مانند Palantir Technologies تامین می‌شوند که طبق گفته Alex Karp ، مدیر عامل این شرکت، «مسئول بیشتر عملیات هدف‌گیری در اوکراین» است.

با وجود این که نیروهای دفاعی اسرائیل(IDF) پیش از حملات حماس در ۷ اکتبر ۲۰۲۳ نیز از سامانه‌های تصمیم‌گیری مبتنی بر هوش مصنوعی استفاده کرده بودند، اما پس از انتشار گزارش‌های تحقیقی درباره استفاده IDF از چندین سامانه مبتنی بر هوش مصنوعی در غزه، این موضوع توجه گسترده رسانه‌ای و دانشگاهی را به خود جلب کرده است. سامانه‌های) Gospel و (Lavender که اغلب در شبکه‌ای پیچیده از سامانه‌ها و حسگرها به کار گرفته می‌شوند به IDF این امکان را داده‌اند که تعداد اهدافی بی‌سابقه را با سرعتی کم‌نظیر ایجاد کند. هر چند، با وجود این که Gospel و Lavender ممکن است در ابتدا به‌ عنوان منابع اطلاعاتی یا پایگاه‌های داده برای تحلیلگران اطلاعاتی طراحی شده باشند، اما در عمل به نظر می‌رسد که این سامانه‌ها به ‌عنوان ابزاری برای تایید اهداف در چارچوب عملیات نظامی اسرائیل در غزه به کار گرفته شده‌اند. این روندها نگرانی‌هایی را در مورد نقش انسانها در تایید و بررسی اهداف در یک بحران انسانی در حال تشدید، ایجاد می‌کند.

به ¬نظر می‌رسد توسعه سامانه‌های پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی یک روند جهانی و ماندگار باشد، زیرا ارتشها در همکاری با برخی شرکت‌های خصوصی در حال برنامه‌ریزی برای ادغام هوش مصنوعی جهت پردازش حجم وسیعی از داده‌های جمع‌آوری‌شده از طریق نظارت، تصاویر ماهواره‌ای و سایر منابع با سرعت و مقیاس بالاتر هستند. Frank Whitworth ، مدیر آژانس ملی اطلاعات جغرافیایی- فضایی(NGA)، در کنفرانسی که توسط Palantir سازماندهی شده بود، اظهار داشت که سامانه هوشمند میون(Maven Smart System) ابزاری برای تصمیم‌گیری است، نه تصمیم‌گیرنده. این «پشتیبانی» از تصمیم‌گیری انسانی با افزایش کارایی و دارا بودن برتری استراتژیک در برخی از زمینه‌های نبرد مرتبط دانسته می‌شود. با این حال، نیاز احساس‌‌شده به سرعت در تصمیم‌گیری نظامی باید در کنار نگرانی‌های مختلف پیرامون چگونگی تعامل انسانها با سامانه‌های پشتیبانی تصمیم‌گیری هوش مصنوعی مورد بررسی قرار گیرد.

اعمال عاملیت در تعاملات انسان – ماشین

هم انسانها و هم سامانه‌های مبتنی بر هوش مصنوعی دارای سوگیریها و مفروضات خاص خود در فرآیند تصمیم‌گیری هستند. به جای این که این موضوع را به ‌عنوان یک دوگانگی بین انسان و «ماشینی که به ‌طور سرد و بی‌احساس عمل می‌کند» در نظر بگیریم، ضروری است که به تعامل این عوامل در چارچوب یک نظام اجتماعی- فنی پرداخته شود. این بررسی باید شامل انواع سوگیری‌های شناختی، داده‌ای و سیستمی باشد و همچنین موضوعاتی مانند اعتماد، خواه بیش از حد (سوگیری اتوماسیون) یا بی‌اعتمادی بیش از حد (گریز از الگوریتم) و همچنین زمینه‌های نهادی و سیاسی پیرامون توسعه و استفاده از سامانه‌های پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی از جمله دکترین‌های هدف‌گیری و قواعد درگیری در مسئله نظامی مربوط، مورد بررسی قرار گیرند. همه این عوامل با این خطر همراه هستند که ممکن است بر نحوه اعمال عاملیت انسانی یعنی توانایی درک، پیش‌بینی معقول تاثیرات سامانه هوش مصنوعی در یک زمینه خاص، اتخاذ تصمیمات مناسب و اجرای این تصمیمات به گونه‌ای که مسئولیت‌پذیری و پاسخگویی تضمین شود، تاثیر بگذارند.

اعمال عاملیت انسانی در تصمیمات مربوط به توسل به زور، نقش حیاتی در پایبندی به حقوق بین‌الملل بشردوستانه دارد، زیرا این حقوق مستلزم آن است که رفتارهای مرتبط با جنگ به انسانها منتسب شود. افزون بر این، عاملیت انسانی برای حفظ عنصر انسانی در فرآیند پیچیده تصمیم‌گیری در هدف‌گیری نظامی ضروری است، به‌ ویژه در جنگ‌های شهری که خطر تاثیرگذاری بر غیرنظامیان در آن بالا است. همان‌طور که Charli Carpenter اشاره می‌کند، جایگزینی انسانها با فناوری‌های هوش مصنوعی در فرآیند تصمیم‌گیری مسئله نیست؛ بلکه این است که تصمیم‌گیری انسانی بیش ‌از حد مکانیکی و غیرانسانی شود، تا جایی که اپراتورهای انسانی خود به «ربات‌های قاتل» تبدیل شوند.

در حالی که سامانه‌های پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی که در سراسر جهان توسعه یافته‌اند، به‌طور ذاتی غیرقانونی نیستند؛ روش‌هایی که این سامانه‌ها در آن به کار گرفته می‌شوند، نشان می‌دهند که انسانها در معرض خطر از دست دادن فرصت برای اعمال سطح لازم از عاملیت انسانی قرار دارند. به‌ عنوان مثال، گزارش‌هایی که از استفاده ارتش اسرائیل(IDF) از AI DSS در روش‌هایی که اولویت را به کمیت اهداف می‌دهند یا جایی که انسانها به نظر می‌رسد بتوانند که هدفها را در عرض چند ثانیه تایید کنند، نشان می‌دهند که در بسیاری از زمینه‌های استفاده، تصمیم‌گیری انسانی به ‌طور مثبت از سوی سیستم‌های هوش مصنوعی پشتیبانی نمی‌شود.

تبادل نظر در سازمان ملل متحد همچنان بر روی سامانه‌های سلاح‌های خودمختار کشنده(AWS) متمرکز است، اما حفظ و تقویت نقش انسانها نگرانی‌ای است که در تمامی کاربردهای نظامی هوش مصنوعی از جمله در مواردی که انسانها صریحا تصمیم‌گیری می‌کنند، مطرح است. انسان‌های درگیر در استفاده از سامانه‌های پشتیبانی تصمیم‌گیری مبتنی بر هوش مصنوعی از جمله تحلیلگران و اپراتورها، نیازمند زمان و فضای کافی برای تامل در مورد اثرات سیستم هوش مصنوعی در یک زمینه خاص هستند. بنابراین روش‌های عملی برای اطمینان از اعمال این عاملیت انسانی در تعامل انسان ماشین باید در کانون بحث‌های جهانی در مورد استفاده‌های مسئولانه از هوش مصنوعی در حوزه نظامی قرار گیرد.[۲]

[۱] https://opiniojuris.org/2024/11/29/do-ai-decision-support-systems-support-humans-in-military-decision-making-on-the-use-of-force/#:~:text=Armed%20forces%20around%20the%20world%20are%20not%20only,recommend%20possible%20courses%20of%20action%20to%20military%20commanders.

[2] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)

 

 

 

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *