سیستم پیشرفته مبتنی بر هوش مصنوعی رونمایی شد: فراموشی کرامت انسانی در سیاست جنگی اسرائیل علیه غزه[۱]
Adrián Agenjo
مترجم : زهره شفیعی
دانشجوی دکتری حقوق بینالملل دانشگاه علامه طباطبایی
ویراستار علمی: دکتر پوریا عسکری
دانشیار دانشکده حقوق و علوم سیاسی دانشگاه علامه طباطبایی
عملیات نظامی اسرائیل به غزه به رغم تضادها با تمام مظاهر کرامت انسانی همچنان ادامه دارد. یک تحقیق ژورنالی که در متن به آن اشاره شده است، استقرار یک سیستم پیشرفته مبتنی بر هوش مصنوعی معروف به «لاوندر»(Lavender ) را معرفی کرده که در هدایت عملیات هایِ جنگیِ بمبارانِ متمرکزِ اسرائیل در منطقه نقش بسزایی داشته است. افشای نقش سیستم لاوندر در این عملیاتها افزایش قابل توجه در کنترل و هدایت خودکار فرآیندهای هدف¬گیری نظامی را نشان میدهد و مسائل اخلاقی و قانونی مهمی را ایجاد میکند. این رویکرد ماشینی به درگیری اگرچه در مهمات جنگی مدرن به کارگرفته شده از سوی اسرائیل بیسابقه نیست(نمونههایی از سیستمهای گنبد آهنین یا گاسپل)، به طور گستردهای تحت نظر حقوق بینالملل بشردوستانه مورد مداقه قرار گرفته است. قصد نویسنده در این پست تکرار تحلیل حقوقی همانند حقوق بشردوستانه نیست. هدف از این نوشته این است که چگونه لاوندر ادامه سیاست فراموشی اسرائیل در مورد کرامت انسانی در جنگ با غزه را نشان میدهد که از دو جنبه کلیدی تجلی یافته است: شخصیتزدایی و حذف مداخله انسانی در هدفگیری.
فراموشی کرامت انسانی با شخصیتزدایی
اصل کرامت انسانی به عنوان یک رکن اساسی در حمایت از افراد در حقوق بینالملل مدرن است. مقدمه منشور سازمان ملل متحد، تعهد به اعتقاد به حقوق اساسی بشر و حیثیت و ارزش انسانی را دربردارد. چنین تعهدی در ماده یک اعلامیه جهانی حقوق بشر نیز گنجانده شده و تاکید میکند که «همه افراد بشر آزاد به دنیا میآیند و از نظر حیثیت و حقوق برابر هستند». همچنین در مقدمه میثاق بینالمللی حقوق مدنی و سیاسی حیثیت را منشا حقوق میداند که در خود جای داده است و به رغم این که در فهرست حقوق ماهوی میثاق قرار ندارد، با سایر حقوق در هم تنیده شده است. غیرقابل انکار است که حفظ کرامت انسانی یکی از اهداف اصلی حقوق بینالملل بشردوستانه و حقوق بینالملل بشر است و اشتراک و همافزایی آنها بر این اصل استوار است(ص ۳۱۲). علاوه بر این، ضرورت حفظ کرامت انسانی در چندین قانون اساسی داخلی به رسمیت شناخته شده است(به عنوان مثال ماده یک قانون اساسی جمهوری فدرال آلمان ۱۹۴۹) و رویه قضایی داخلی(برای بررسی به مک کرادن و کاروزا رجوع کنید).
به گفته Schlink(ص ۶۳۲) کرامت انسانی در حالی که در معرض تفاسیر مختلف در آموزههای دینی و فلسفی قرار می گیرد، اساسا حو ل محور مفهوم ارزش ذاتی و بیکران هر فرد میچرخد. فناوریهای انتخابِ هدف هوش مصنوعی مانند لاوندر بدون خونریزی، بدون ملاحظه اخلاقیات و بدون مرگ و میر نمیتوانند اهمیت استفاده از زور علیه یک انسان را درک کنند و نمیتوانند شدت تصمیم را تشخیص دهند. بر خلاف تصمیم گیرندگان انسانی، این فناوری ها نمیتوانند متعهد به انسانیت باشند یا بر اساس نکات دقیق و ظریف زمینهای، عاطفی و اخلاقی صلاحدید اعمال کنند. در واقع این نیز یکی از نگرانیهای اصلی است که به سیستمهای مشابهی مانند سلاحهای خودمختار مرگبار، همانطور که آسارو سنتز(ص ۶۹۳-۷۰۴) اشاره میکند، وجود دارد.
استفاده از لاوندر مرتبه افراد را به «اشیایی که باید نابود شوند»، کاهش میدهد. با ۳/۲ میلیون فلسطینی در غزه که تحت نظارت هوش مصنوعی قرار دارند، به عنوان مزاحمی رفتار میشود که باید از شر آنها خلاص شد و کرامت ذاتی آنها را سلب کرد. این غیرانسانی شدن با ماهیت احصایی و آماری عملیاتهای سیستم لاوندر تشدید میشود. با اعطای رتبه به هر فرد در غزه بر اساس احتمال ستیزه جو بودن آنها(به پاراگرافهای ۱۳- ۴۸ پژوهش رجوع کنید. رجوع به مرحله ۱: ایجاد اهداف) سیستم جان انسانها را به احتمالات عددی دستهبندی میکند. احتمالات به محض ورود به سیستم، به بیت و داده تبدیل میشوند. همانطور که پژوهش نشان میدهد، اپراتورها(عامل) تشخیص میدهند که «همه چیز آماری بود، همه چیز شسته رفته بود»(پاراگراف ۳۳).
به رغم ادعای «بررسیهای داخلی» که حاکی از ۱۰ درصد خطا در محاسبات لاوندر است، سیستم با جداسازی استدلالی عمل میکند. نادیده گرفتن عواقب اشتباهات نشاندهنده شکست سیستماتیک در احترام به کرامت انسانی در تعقیب اهداف نظامی است. این امر بدون شک مفهوم پذیرفتهشده تاریخی کرامت انسانی را به خطر میاندازد که تاکید میکند انسانها را نمیتوان به عنوان اشیا یا وسیله در نظر گرفت؛ حتی در جنگ(به عنوان مثال از طریق ممنوعیت سپر انسانی).
فراموشی کرامت انسانی از طریق دور زدن قضاوت و داوری انسانی
سیستم لاوندر نگرانیها در مورد نقض کرامت انسانی از طریق زدودن شخصیت افراد در مورد دور زدن مشارکت انسان در فرآیند هدفگیری را ایجاد میکند. از آنجایی که افراد بر اساس قوانین از پیش تعیینشده و فرضیات انتزاعی مشخصشده توسط الگوریتمها هدف قرار میگیرند، ملاحظات ظریف و شرایط فردی نادیده گرفته میشوند. این رویکرد مکانیزه در مورد تصمیمگیری اساسا اصول کرامت انسانی را با سلب حق تعیین سرنوشت افراد از طریق یک فرآیند مشورتی از جمله ملاحظات انسانی را تحلیل میبرد.
صرف نظر از ضرورت اتخاذ تصمیمهای سریع در جریان درگیری مسلحانه علیه نیروهای در حال جنگ، لزوما چنین تصمیمهایی را نمیتوان به صورت انتزاعی یا نظری و بدون مجوز انسانی اتخاذ کرد(همانطور که اولگن در صفحات ۱۴- ۱۵ بیان کرده). امکان یک فرآیند مشورتی در جایی پایین تر، جایی که امکان تغییر ذهن و سرنوشت وجود دارد، با معرفی سیستم لاوندر تقریبا از قبل منتفی است؛ زیرا کنترل انسان در این فرآیند فدا میشود. این پژوهش واقعیت نگرانکنندهای را برجسته میکند که در آن پرسنل انسانی صرفا به عنوان «جنس پلاستیکی» برای تصمیمگیریهای سیستمهای هوش مصنوعی(بند ۴) هستند و حداقل زمان را برای تایید اهداف قبل از صدور مجوز بمباران اختصاص میدهند.
به رغم خطای مشهود در محاسبات لاوندر، نظارت انسانی به جای انجام ارزیابیهای کامل از مشروعیت هدف، بر بررسیهای سطحی مانند تایید جنسیت هدف متمرکز است. همانطور که پژوهش به تفصیل شرح داده است(پاراگراف های ۴۵- ۴۷)، پروتکل نظارت پیش از هدف قرار دادن نظامیان مشکوک شاملِ تاییدِ جنسیتِ هدفِ انتخابی توسط هوش مصنوعی است با این فرض که اهداف زن انتخابی اشتباه و اهداف مرد انتخابی صحیح هستند. بر اساس گفته یکی از مقامات که از وی مصاحبه به عمل آمده:«من برای هر هدف در این مرحله ۲۰ ثانیه وقت میگذارم و هر روز دهها مورد از آنها را انجام میدهم. من به عنوان یک انسان ارزش افزوده صفر نداشتم، جدا از این که مهر تاییدی بودم. زمان زیادی صرفهجویی میشود. اگر عامل در مکانیزم خودکار بود و من بررسی میکردم که او مرد است، اجازه بمباران او مشروط به بررسی خسارت جانبی او بود»(پاراگراف ۴۷).
این کاهش مشارکت انسان به یک فرآیند راستیآزمایی جنسیتی نشاندهنده شکست سیستماتیک در قضاوت انسانی است.
همانطور که آسارا میگوید، عدالت مستلزم یک وظیفه انسانی برای «در نظر گرفتن شواهد، تفسیرهای جایگزین عمیق و رسیدن به نظر آگاهانه» است. به عنوان مثال احکام غیرقابلِ تقلیلِ حبس ابد ناقض کرامت انسانی است؛ چرا که به معنای «حذف» شخص است و تصمیمگیری صرفا انتزاعی و فضایی برای تغییر و امید نیست. به هیچ وجه نمیتوان گفت که سیستم لاوندر با این استاندارد مطابقت دارد.
یکی دیگر از نگرانیهای مبرم در مورد لاوندر در ابهام آن است که الگوریتمهایی که از آن استفاده میکند، از نظارت عموم محفوظ است(به دلیل حفاظت قانونی یا عدم دسترسی ساده). دسترسی ناکافی مانع درک و نظارت بر فرآیند هدفگیری میشود که یک جنبه حیاتی است؛ به ویژه برای زمانی که قواعد بینالمللی تحقیقات را برای نقض قوانین خود الزامی میکنند(صص ۱۹۹-۲۱۰). علاوه بر این، از آنجایی که هوش مصنوعی به طور فزایندهای بر شبکههای عصبی متکی هستند که به ویژه الگوریتمهای یادگیری عمیق ذاتا فاقد شفافیت هستند، کاربران اغلب برای درک استدلال اساسی در پس تصمیم خاصی که توسط این سیستمها گرفته میشود، در تلاش هستند. در حالی که برخی از محققان چون Chehtman معتقدند که نظارت انسانی ممکن است به طور کامل به این چالشها نپردازد، حداقل میتواند اطلاعات بیشتری در مورد چرایی و چگونگی انتخاب هدفمند ارائه دهد.
در این مورد، تصمیمگیریِ مبتنی بر الگوریتم اغلب به عنوان هدف درست اعلام میشوند اما نوشتن الگوریتمهای بیطرفانه کار پیچیدهای است و برنامهنویسان ممکن است به اشتباه یا حتی با طراحی عمدی، اطلاعات نادرست، نژادپرستانه، متعصبانه و تبعیضآمیز ایجاد کنند. تبعیض بالقوه به دلیل عدم شفافیت برنامهها تشدید میشود و تمایل اجتماعی به فرض این که تصمیمی که ماشین گرفته به احتمال زیاد عینی و کارآمد است. در حالی که کارهای علمی قابل توجهی انجام شده است که به طور فزایندهای با تمرکز بر سیاست به سمت راه حلهایی برای ایجاد الگوریتمهای منصفانه هدایت شده است، هیچ استاندارد بینالمللی قویای برای حسابرسی، پاسخگویی یا شفافیت وجود ندارد. من در اینجا انکار نمیکنم که ممکن است مزایایی (محدود) در هوش مصنوعی و سیستمهای هدفگیری الگوریتمی در جنگ مدرن وجود داشته باشد؛ همانطور که هلر(صص ۳۱- ۴۹) آنها را فهرست کرده است. با این وجود، هیچ یک از این مزایا نمیتواند به طور قابل قبولی استفاده از لاوندر را توجیه کند. سیستمی که در آن تمام نگرانیهای فوقالذکر به طرز قابل توجهی تقویت میشوند.
نتایجی قابل ملاحظه
در حالی که جهان نظارهگر حمله مداوم به غزه است و در سطح جهانی تصاویر این حملات پخش میشوند و همگی شاهد ویرانی عمیقی هستیم که بر مردم فلسطین روا میشود، تخیل مرگبار اسرائیل در مورد جنگ ویرانگر و نامحدود آشکار میشود. سیستم لاوندر که به شخصیتزدایی افراد متصف است، به عنوان یکی دیگر از روشهای اختراعی نابودی ظهور یافته است. این تاکتیک غیرانسانی ارزش ذاتی و کرامت زندگی انسان را نابود میسازد.
از آنجایی که هوش مصنوعی و رباتیک به طور فزایندهای با جنگها عجین شدهاند، این قدرت را دارند که رویکرد ما به درگیری در آینده را بازتعریف کنند. با این حال، ضروری است که ادامه این مسیر که فوقا شرح داده شد را زیر سوال ببریم و به جای پذیرش چنین فناوریها و تداوم غیرانسانی¬سازی بیشتر باید حفاظت از جان انسانها با هدف به حداقل رساندن تلفات و آسیبهای غیرنظامیان در اولویت قرار گیرد. در روایات کتابها، فیلمها و رسانههایِ آیندهپژوه نبردی بیانتها بین هوش مصنوعی و بشریت به نمایش گذاشته میشود. با این حال، آنچه امروز برای ما آشکار میشود، انحراف شدید این داستانهاست. واقعیتی هولناک که در آن بشریت هوش مصنوعی را به عنوان سلاحی علیه خود، خویشاوندانش و یا بهتر است بگوییم علیه مردمی خاص با منشا ملی و متعلق به گروه دیگر به کار میگیرد. به کارگیری لاوندر در عملیات نظامی اسرائیل علیه غزه نگرانیهای عمیق اخلاقی و قانونی را به همراه دارد؛ چرا که به هسته اصلی کرامت انسانی ضربه میزند. این فناوریها با تقلیل افراد به نقاطِ دادهایِ صرف و کنار گذاشتن قضاوت انسانی به نفع تصمیمهای ماشینی جوهر انسانیت را میزدایند و منظرهای ویران را به جای میگذارند که در آن زندگیها با آمار، بدون ارزش و اهمیت سنجیده میشود. به کارگیری این سلاح مدرک دیگری از سیاست جنگی غیرقانونی و وحشیانه اسرائیل است. این سوال ایجاد میشود که نقطه عطف تنازع بشریت علیه زدایش شخصیت خود چیست؟[۲]
[۱] https://opiniojuris.org/2024/04/12/lavender-unveiled-the-oblivion-of-human-dignity-in-israels-war-policy-on-gaza/
[2] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)