سیستم پیشرفته مبتنی بر هوش مصنوعی رونمایی شد: فراموشی کرامت انسانی در سیاست جنگی اسرائیل علیه غزه

سیستم پیشرفته مبتنی بر هوش مصنوعی رونمایی شد: فراموشی کرامت انسانی در سیاست جنگی اسرائیل علیه غزه[۱]

Adrián Agenjo

مترجم : زهره شفیعی

دانشجوی دکتری حقوق بین‌الملل دانشگاه علامه طباطبایی

ویراستار علمی: دکتر پوریا عسکری

دانشیار دانشکده حقوق و علوم سیاسی دانشگاه علامه طباطبایی

عملیات نظامی اسرائیل به غزه به رغم تضادها با تمام مظاهر کرامت انسانی همچنان ادامه دارد. یک تحقیق ژورنالی که در متن به آن اشاره شده است، استقرار یک سیستم پیشرفته مبتنی بر هوش مصنوعی معروف به «لاوندر»(Lavender ) را معرفی کرده که در هدایت عملیات هایِ جنگیِ بمبارانِ متمرکزِ اسرائیل در منطقه نقش بسزایی داشته است. افشای نقش سیستم لاوندر در این عملیات‌ها افزایش قابل توجه در کنترل و هدایت خودکار فرآیندهای هدف¬گیری نظامی را نشان می‌دهد و مسائل اخلاقی و قانونی مهمی را ایجاد می‌کند. این رویکرد ماشینی به درگیری اگرچه در مهمات جنگی مدرن به کارگرفته شده از سوی اسرائیل بی‌سابقه نیست(نمونه‌هایی از سیستم‌های گنبد آهنین یا گاسپل)، به طور گسترده‌ای تحت نظر حقوق بین‌الملل بشردوستانه مورد مداقه قرار گرفته است. قصد نویسنده در این پست تکرار تحلیل حقوقی همانند حقوق بشردوستانه نیست. هدف از این نوشته این است که چگونه لاوندر ادامه سیاست فراموشی اسرائیل در مورد کرامت انسانی در جنگ با غزه را نشان می‌دهد که از دو جنبه کلیدی تجلی یافته است: شخصیت‌زدایی و حذف مداخله انسانی در هدف‌گیری.

فراموشی کرامت انسانی با شخصیت‌زدایی

اصل کرامت انسانی به عنوان یک رکن اساسی در حمایت از افراد در حقوق بین‌الملل مدرن است. مقدمه منشور سازمان ملل متحد، تعهد به اعتقاد به حقوق اساسی بشر و حیثیت و ارزش انسانی را دربردارد. چنین تعهدی در ماده یک اعلامیه جهانی حقوق بشر نیز گنجانده شده و تاکید می‌کند که «همه افراد بشر آزاد به دنیا می‌آیند و از نظر حیثیت و حقوق برابر هستند». همچنین در مقدمه میثاق بین‌المللی حقوق مدنی و سیاسی حیثیت را منشا حقوق می‌داند که در خود جای داده است و به رغم این که در فهرست حقوق ماهوی میثاق قرار ندارد، با سایر حقوق در هم تنیده شده است. غیرقابل انکار است که حفظ کرامت انسانی یکی از اهداف اصلی حقوق بین‌الملل بشردوستانه و حقوق بین‌الملل بشر است و اشتراک و هم‌افزایی آن‌ها بر این اصل استوار است(ص ۳۱۲). علاوه بر این، ضرورت حفظ کرامت انسانی در چندین قانون اساسی داخلی به رسمیت شناخته شده است(به عنوان مثال ماده یک قانون اساسی جمهوری فدرال آلمان ۱۹۴۹) و رویه قضایی داخلی(برای بررسی به مک کرادن و کاروزا رجوع کنید).

به گفته Schlink(ص ۶۳۲) کرامت انسانی در حالی که در معرض تفاسیر مختلف در آموزه‌های دینی و فلسفی قرار می گیرد، اساسا حو ل محور مفهوم ارزش ذاتی و بیکران هر فرد می‌چرخد. فناوری‌های انتخابِ هدف هوش مصنوعی مانند لاوندر بدون خونریزی، بدون ملاحظه اخلاقیات و بدون مرگ و میر نمی‌توانند اهمیت استفاده از زور علیه یک انسان را درک کنند و نمی‌توانند شدت تصمیم را تشخیص دهند. بر خلاف تصمیم گیرندگان انسانی، این فناوری ها نمی‌توانند متعهد به انسانیت باشند یا بر اساس نکات دقیق و ظریف زمینه‌ای، عاطفی و اخلاقی صلاحدید اعمال کنند. در واقع این نیز یکی از نگرانی‌های اصلی است که به سیستم‌های مشابهی مانند سلاح‌های خودمختار مرگبار، همان‌طور که آسارو سنتز(ص ۶۹۳-۷۰۴) اشاره می‌کند، وجود دارد.

استفاده از لاوندر مرتبه افراد را به «اشیایی که باید نابود شوند»، کاهش می‌دهد. با ۳/۲ میلیون فلسطینی در غزه که تحت نظارت هوش مصنوعی قرار دارند، به عنوان مزاحمی رفتار می‌شود که باید از شر آن‌ها خلاص شد و کرامت ذاتی آن‌ها را سلب کرد. این غیرانسانی شدن با ماهیت احصایی و آماری عملیات‌های سیستم لاوندر تشدید می‌شود. با اعطای رتبه به هر فرد در غزه بر اساس احتمال ستیزه جو بودن آن‌ها(به پاراگراف‌های ۱۳- ۴۸ پژوهش رجوع کنید. رجوع به مرحله ۱: ایجاد اهداف) سیستم جان انسان‌ها را به احتمالات عددی دسته‌بندی می‌کند. احتمالات به محض ورود به سیستم، به بیت و داده تبدیل می‌شوند. همان‌طور که پژوهش نشان می‌دهد، اپراتورها(عامل) تشخیص می‌دهند که «همه چیز آماری بود، همه چیز شسته رفته بود»(پاراگراف ۳۳).

به‌ رغم ادعای «بررسی‌های داخلی» که حاکی از ۱۰ درصد خطا در محاسبات لاوندر است، سیستم با جداسازی استدلالی عمل می‌کند. نادیده گرفتن عواقب اشتباهات نشان‌دهنده شکست سیستماتیک در احترام به کرامت انسانی در تعقیب اهداف نظامی است. این امر بدون شک مفهوم پذیرفته‌شده تاریخی کرامت انسانی را به خطر می‌اندازد که تاکید می‌کند انسان‌ها را نمی‌توان به عنوان اشیا یا وسیله در نظر گرفت؛ حتی در جنگ(به عنوان مثال از طریق ممنوعیت سپر انسانی).

فراموشی کرامت انسانی از طریق دور زدن قضاوت و داوری انسانی

سیستم لاوندر نگرانی‌ها در مورد نقض کرامت انسانی از طریق زدودن شخصیت افراد در مورد دور زدن مشارکت انسان در فرآیند هدف‌گیری را ایجاد می‌کند. از آن‌جایی که افراد بر اساس قوانین از پیش تعیین‌شده و فرضیات انتزاعی مشخص‌شده توسط الگوریتم‌ها هدف قرار می‌گیرند، ملاحظات ظریف و شرایط فردی نادیده گرفته می‌شوند. این رویکرد مکانیزه در مورد تصمیم‌گیری اساسا اصول کرامت انسانی را با سلب حق تعیین سرنوشت افراد از طریق یک فرآیند مشورتی از جمله ملاحظات انسانی را تحلیل می‌برد.

صرف نظر از ضرورت اتخاذ تصمیم‌های سریع در جریان درگیری مسلحانه علیه نیروهای در حال جنگ، لزوما چنین تصمیم‌هایی را نمی‌توان به صورت انتزاعی یا نظری و بدون مجوز انسانی اتخاذ کرد(همان‌طور که اولگن در صفحات ۱۴- ۱۵ بیان کرده). امکان یک فرآیند مشورتی در جایی پایین تر، جایی که امکان تغییر ذهن و سرنوشت وجود دارد، با معرفی سیستم لاوندر تقریبا از قبل منتفی است؛ زیرا کنترل انسان در این فرآیند فدا می‌شود. این پژوهش واقعیت نگران‌کننده‌ای را برجسته می‌کند که در آن پرسنل انسانی صرفا به عنوان «جنس پلاستیکی» برای تصمیم‌گیری‌های سیستم‌های هوش مصنوعی(بند ۴) هستند و حداقل زمان را برای تایید اهداف قبل از صدور مجوز بمباران اختصاص می‌دهند.

به رغم خطای مشهود در محاسبات لاوندر، نظارت انسانی به جای انجام ارزیابی‌های کامل از مشروعیت هدف، بر بررسی‌های سطحی مانند تایید جنسیت هدف متمرکز است. همان‌طور که پژوهش به تفصیل شرح داده است(پاراگراف های ۴۵- ۴۷)، پروتکل نظارت پیش از هدف قرار دادن نظامیان مشکوک شاملِ تاییدِ جنسیتِ هدفِ انتخابی توسط هوش مصنوعی است با این فرض که اهداف زن انتخابی اشتباه و اهداف مرد انتخابی صحیح هستند. بر اساس گفته یکی از مقامات که از وی مصاحبه به عمل آمده:«من برای هر هدف در این مرحله ۲۰ ثانیه وقت می‌گذارم و هر روز ده‌ها مورد از آن‌ها را انجام می‌دهم. من به عنوان یک انسان ارزش افزوده صفر نداشتم، جدا از این که مهر تاییدی بودم. زمان زیادی صرفه‌جویی می‌شود. اگر عامل در مکانیزم خودکار بود و من بررسی می‌کردم که او مرد است، اجازه بمباران او مشروط به بررسی خسارت جانبی او بود»(پاراگراف ۴۷).

این کاهش مشارکت انسان به یک فرآیند راستی‌آزمایی جنسیتی نشان‌دهنده شکست سیستماتیک در قضاوت انسانی است.

همان‌طور که آسارا می‌گوید، عدالت مستلزم یک وظیفه انسانی برای «در نظر گرفتن شواهد، تفسیرهای جایگزین عمیق و رسیدن به نظر آگاهانه» است. به عنوان مثال احکام غیرقابلِ تقلیلِ حبس ابد ناقض کرامت انسانی است؛ چرا که به معنای «حذف» شخص است و تصمیم‌گیری صرفا انتزاعی و فضایی برای تغییر و امید نیست. به هیچ وجه نمی‌توان گفت که سیستم لاوندر با این استاندارد مطابقت دارد.

یکی دیگر از نگرانی‌های مبرم در مورد لاوندر در ابهام آن است که الگوریتم‌هایی که از آن استفاده می‌کند، از نظارت عموم محفوظ است(به دلیل حفاظت قانونی یا عدم دسترسی ساده). دسترسی ناکافی مانع درک و نظارت بر فرآیند هدف‌گیری می‌شود که یک جنبه حیاتی است؛ به ویژه برای زمانی که قواعد بین‌المللی تحقیقات را برای نقض قوانین خود الزامی می‌کنند(صص ۱۹۹-۲۱۰). علاوه بر این، از آن‌جایی که هوش مصنوعی به طور فزاینده‌ای بر شبکه‌های عصبی متکی هستند که به ویژه الگوریتم‌های یادگیری عمیق ذاتا فاقد شفافیت هستند، کاربران اغلب برای درک استدلال اساسی در پس تصمیم خاصی که توسط این سیستم‌ها گرفته می‌شود، در تلاش هستند. در حالی که برخی از محققان چون Chehtman معتقدند که نظارت انسانی ممکن است به طور کامل به این چالش‌ها نپردازد، حداقل می‌تواند اطلاعات بیشتری در مورد چرایی و چگونگی انتخاب هدفمند ارائه دهد.

در این مورد، تصمیم‌گیریِ مبتنی بر الگوریتم اغلب به عنوان هدف درست اعلام می‌شوند اما نوشتن الگوریتم‌های بی‌طرفانه کار پیچیده‌ای است و برنامه‌نویسان ممکن است به اشتباه یا حتی با طراحی عمدی، اطلاعات نادرست، نژادپرستانه، متعصبانه و تبعیض‌آمیز ایجاد کنند. تبعیض بالقوه به دلیل عدم شفافیت برنامه‌ها تشدید می‌شود و تمایل اجتماعی به فرض این که تصمیمی که ماشین گرفته به احتمال زیاد عینی و کارآمد است. در حالی که کارهای علمی قابل توجهی انجام شده است که به طور فزاینده‌ای با تمرکز بر سیاست به سمت راه حل‌هایی برای ایجاد الگوریتم‌های منصفانه هدایت شده است، هیچ استاندارد بین‌المللی قوی‌ای برای حسابرسی، پاسخگویی یا شفافیت وجود ندارد. من در این‌جا انکار نمی‌کنم که ممکن است مزایایی (محدود) در هوش مصنوعی و سیستم‌های هدف‌گیری الگوریتمی در جنگ مدرن وجود داشته باشد؛ همان‌طور که هلر(صص ۳۱- ۴۹) آن‌ها را فهرست کرده است. با این وجود، هیچ یک از این مزایا نمی‌تواند به طور قابل قبولی استفاده از لاوندر را توجیه کند. سیستمی که در آن تمام نگرانی‌های فوق‌الذکر به طرز قابل توجهی تقویت می‌شوند.

نتایجی قابل ملاحظه

در حالی که جهان نظاره‌گر حمله مداوم به غزه است و در سطح جهانی تصاویر این حملات پخش می‌شوند و همگی شاهد ویرانی عمیقی هستیم که بر مردم فلسطین روا می‌شود، تخیل مرگبار اسرائیل در مورد جنگ ویرانگر و نامحدود آشکار می‌شود. سیستم لاوندر که به شخصیت‌زدایی افراد متصف است، به عنوان یکی دیگر از روش‌های اختراعی نابودی ظهور یافته است. این تاکتیک غیرانسانی ارزش ذاتی و کرامت زندگی انسان را نابود می‌سازد.

از آن‌جایی که هوش مصنوعی و رباتیک به طور فزاینده‌ای با جنگ‌ها عجین شده‌اند، این قدرت را دارند که رویکرد ما به درگیری در آینده را بازتعریف کنند. با این حال، ضروری است که ادامه این مسیر که فوقا شرح داده شد را زیر سوال ببریم و به جای پذیرش چنین فناوری‌ها و تداوم غیرانسانی¬سازی بیشتر باید حفاظت از جان انسان‌ها با هدف به حداقل رساندن تلفات و آسیب‌های غیرنظامیان در اولویت قرار گیرد. در روایات کتاب‌ها، فیلم‌ها و رسانه‌هایِ آینده‌پژوه نبردی بی‌انتها بین هوش مصنوعی و بشریت به نمایش گذاشته می‌شود. با این حال، آنچه امروز برای ما آشکار می‌شود، انحراف شدید این داستان‌هاست. واقعیتی هولناک که در آن بشریت هوش مصنوعی را به عنوان سلاحی علیه خود، خویشاوندانش و یا بهتر است بگوییم علیه مردمی خاص با منشا ملی و متعلق به گروه دیگر به کار می‌گیرد. به کارگیری لاوندر در عملیات نظامی اسرائیل علیه غزه نگرانی‌های عمیق اخلاقی و قانونی را به همراه دارد؛ چرا که به هسته اصلی کرامت انسانی ضربه می‌زند. این فناوری‌ها با تقلیل افراد به نقاطِ داده‌ایِ صرف و کنار گذاشتن قضاوت انسانی به نفع تصمیم‌های ماشینی جوهر انسانیت را می‌زدایند و منظره‌ای ویران را به جای می‌گذارند که در آن زندگی‌ها با آمار، بدون ارزش و اهمیت سنجیده می‌شود. به کارگیری این سلاح مدرک دیگری از سیاست جنگی غیرقانونی و وحشیانه اسرائیل است. این سوال ایجاد می‌شود که نقطه عطف تنازع بشریت علیه زدایش شخصیت خود چیست؟[۲]

[۱] https://opiniojuris.org/2024/04/12/lavender-unveiled-the-oblivion-of-human-dignity-in-israels-war-policy-on-gaza/

[2] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *