رباتها و حقوق بشر: مسئله انسجام؟(۱)
By Patricia Wiater
مترجم: دکتر مرضیه حججی
پژوهشگر حقوق بین الملل
ویراستار: دکتر مژگان رامین نیا
عضو هیئت علمی دانشگاه پیام نور
موافقان حقوق موسوم به “حقوق ربات ها” برای گنجاندن هوش مصنوعی (AI) در حمایت از حقوق بشر از دو دیدگاه کاملا متفاوت استدلال می کنند. اولین استدلال مربوط به انسجام به شرح زیر است: اگر دادگاهها، شرکتهای تجاری را همانند انسان تلقی کرده و برای آنها حمایت های حقوق بشری قائل می شوند، پس باید همین کار را برای رباتها نیز انجام دهند. شرکتها از طریق عوامل انسانی، هیئت مدیرهها و سهامداران فعالیت میکنند و حاکمیت شرکتی فرآیند تصمیمگیری ساختارمندی را فراهم میکند. در مقابل، رباتها و سیستمهای هوش مصنوعی بر اساس الگوریتمهای از پیش برنامهریزیشده، یادگیری ماشینی یا تصمیمگیری خودمختار بدون عاملیت انسانی مشابه عمل میکنند. بنابراین این مفهوم از انسجام نه بر اساس مقایسه مکانیسمهای داخلی شرکتها و هوش مصنوعی، بلکه بر اساس ملاحظات عملکردی شکل گرفته است. از این دیدگاه، استدلال اولیه برای شخصیت حقوقی شرکتها یعنی برخورد با شرکتها بهعنوان موجودیت های حقوقی برای تسهیل عملکرد و مزایای اقتصادی انها باید برای رباتها نیز اعمال شود.
در مقایسه ها با انسانها که دارندگان اصلی حقوق بشر هستند، شباهتی میان هوش مصنوعی و شرکتها وجود دارد. نه هوش مصنوعی و نه شرکتها «تنفس نمی کنند » یا رنج را به همان شکلی که انسانها تجربه میکنند، احساس نمیکنند. یک شرکت که بهعنوان یک نهاد انتفاعی با مسئولیت محدود و شخصیت حقوقی مستقل تعریف میشود، یک شخص انتزاعی است – درست مانند رباتها یا بهطور کلیتر، سیستمهای هوش مصنوعی خودمختار همان طور که در مقدمه سمپوزیوم دیوان اروپایی حقوق بشر (ECtHR) به طور کلی، شکل حقوقی شرکتها را محترم میشمارد و حقوق مختلفی را تحت کنوانسیون اروپایی حقوق بشر (ECHR) به آنها اعطا میکند (اگرچه تناقض هایی وجود دارد). در مقابل، دیوان آمریکایی حقوق بشر ، نظریه حقوقبشری شرکت ها را رد کرده و صرفاحمایتهایی را مقرر می دارد که از حقوق بنیادین نشأت گرفته باشد. دیوان دادگستری جامعه اقتصادی کشورهای غرب آفریقا (ECOWAS) و دیوان دادگستری اتحادیه اروپا با رویکرد دیوان اروپایی حقوق بشر همسو هستند، در حالی که دیوان آفریقایی حقوق بشر و مردم ، مسئولیتپذیری شرکتی را تقویت کرده اما هنوز بهطور واضح درباره اعطای حقوق بشر به شرکتها حکم صادر نکرده است. در نظامهای آمریکایی و آفریقایی حقوق بشری ، نیاز به انسجام برای گسترش حمایت از حقوق بشر به هوش مصنوعی کمتر احساس میشود، اما این مورد در اروپا از اهمیت بیشتری برخوردار است.
با این حال، دومین استدلال بر ضرورت
انسجام که توسط طرفداران حقوق رباتها مطرح میشود، برتمامی سیستمهای منطقهای حقوق بشر اعمال می شود. این ادعا به این صورت بیان میشود: «اگر در مقطعی از زمان به این نتیجه برسیم که رباتها ممکن است دارای شخصیت اخلاقی، بر اساس معیارهایی مانند عقلانیت، هوش، خودمختاری، آگاهی (ماشینی)، خودآگاهی و حساسیت باشند،در آن صورت انسانها ممکن است مجبور شوند حقوق اخلاقی و حقوقی آنها را به رسمیت بشناسند، (از جمله “حقوق بشر” آنها). از این رو رباتها دیگر نمیتوانند صرفاً ابزارهای بیذهن ما باشند؛ بلکه انسانها از نظر اخلاقی موظف خواهند بود که جایگاه و حقوق آنها را به رسمیت بشناسند و مطابق آن رفتار کنند. این ضرورت انسجام بنیادیتر است، زیرا «مرزها و فرضیات پذیرفتهشده را مورد بررسی قرار می دهد و ویژگیهایی را به چالش می کشند که ذاتاً انسانی تلقی می شوند .» در نتیجه دگرگونی درک ما از عنصر انسانی در حمایت از حقوق بشر، این ادعا بر تمامی سازمان های قضایی مرتبط با حمایت از حقوق بشر، از جمله تمامی دادگاههای منطقهای حقوق بشر، تأثیر میگذارد. مقایسه بین شرکتها و هوش مصنوعی به دلایل کارکردی برای گسترش حمایت از حقوق بشر اشاره دارد، در حالی که ارتباط دادن حمایت از حقوق بشر به ویژگیهایی مانند عقلانیت یا خودمختاری در هوش مصنوعی بر پایه مبانی اخلاقی مطرح می شود.
در این نوشتار، من به هر دو نوع ضرورت انسجام میپردازم. ابتدا به بررسی شباهتهای اغلب مطرحشده میان ویژگیهای انسانی و هوش مصنوعی خواهم پرداخت و استدلال میکنم که توجیه اخلاقی اعطای حقوق رباتها معادل با حقوق بشر از چندین جهت قانعکننده نیست. من دیدگاه کارکردی را در رابطه با ضرورت حمایت از هوش مصنوعی متقاعدکنندهتر میدانم. از دیدگاه کارکردی – که حمایت از حقوق بشر را نه لزوماً بر پایه اخلاق، بلکه بهعنوان یک مفهوم سیاسی-حقوقی تلقی میکند – شناسایی موجودیت های هوش مصنوعی بهعنوان موضوعات حقوق بشر باید بر این اساس ارزیابی شود که آیا این شناسایی بهعنوان ابزاری برای حل چالشهای حکمرانی ناشی از هوش مصنوعی عمل میکند یا مانعی در این مسیر ایجاد میکند. در بخش دوم این نوشتار، این دیدگاه را بررسی کرده و نگاهی مقایسهای به رویکردهای احتمالی حمایت از هوش مصنوعی و شرکتها خواهم داشت.
دلیلی برای حقوق ربات ها ؟ رویکردهای اخلاقی و کارکردی سیاسی
پساانسانگرایی و جایگاه اخلاقی موجودیت های هوش مصنوعی
من بحث را با پرسش درباره تعهدات اخلاقی برای اعطای حمایت از حقوق بشر به هوش مصنوعی، به دلیل ویژگیهایی که با ویژگیهای انسانی قابل مقایسه هستند، آغاز میکنم. ادعاهای مبتنی بر اخلاق در مورد حقوق رباتها در جهات مختلف مطرح می شوند و به انواع و ویژگی های متفاوتی از هوش مصنوعی مرتبط میشوند. برخی از این موارد در حال حاضر از اهمیت برخوردارند، زیرا با اشکالی از هوش مصنوعی سروکار دارند که بخشی از زندگی روزمره برخی افراد شدهاند. برای مثال، رباتهای اجتماعی انساننما را در نظر بگیرید ، همانطور که مطالعات تجربی نشان میدهند، به انسانها مانند سالمندانی که تنها زندگی میکنند، حمایت عاطفی ارائه میدهند. یا الگوریتمهای مولدی فکر کنید که به طور خودکار آثار خلاقانه مانند موسیقی، آثار هنری دیجیتال و داستان تولید می کنند.برای ایجاد خودکار آثار خلاقانه مانند موسیقی، هنرهای دیجیتال و داستانها به کار میروند. یک ماشین نقاشی یا یک ربات مترجم با تحلیل نمونههای متعدد، یک الگوی کلی یا قاعدهای را استخراج میکند. پس از تکمیل فرآیند یادگیری، میتواند بهطور مستقل این یافتهها را در موقعیتهای جدید اعمال کند. برخی محققان پیشنهاد میکنند که حمایت از حقوق بشر به این گونه از هوش مصنوعی نیز گسترش یابد. برای برخی دیگر، ایده اعطای حق ازدواج به یک ربات انساننما – و در نتیجه اعطای حق زندگی خانوادگی به انسانها و رباتها به طور مشترک– سناریوی واقعگرایانهای برای عصر ما به نظر میرسد. همین مسئله در مورد ادعاهایی صادق است که هدفشان غلبه بر ماهیت انسانمحور قوانین کپیرایت کنونی است، زیرا این قوانین فرآیندهای خلاقانه هوش مصنوعی را کم ارزش تر از فرآیندهای انسانی تلقی میکنند. در همین راستا، ادعای «اجازه دادن به ربات برای سخن گفتن» و اعمال دامنه حمایتی آزادی بیان بر اظهارات تولیدشده توسط یادگیری ماشینی نیز مطرح شده است.
سناریوی آینده نگرانه ای نیز به آنچه “هوش مصنوعی فرابشری” نامیده می شود، اختصاص دارد. این ایده مطرح میشود که روزی یک سیستم هوش مصنوعی دارای خودآگاهی خواهد بود که قادر به حل مشکلات، یاد گیری و برنامه ریزی برای آینده است. این سیستم همچنین شامل تواناییهای شناختی مشابه انسان و ارائه ویژگیهای شخصیتی خواهد بود، از جمله توانایی یادگیری مشابه انسانها و داشتن حس تخیل، بهگونهای که فراتر از حل مشکلات، نیازهای آینده را نیز در نظر می گیرد. در این سناریو، هوش مصنوعی دارای قدرتهای خارقالعادهای خواهد بود که از سطح کنونی هوش انسانی فراتر میروند و آن را قادر میسازند سایر رایانهها را آموزش دهد، در حالی که به محدودیتهای خود نیز آگاهی دارد. طرفداران حقوق رباتها در حال حاضر به این فکر میکنند که «زندگی» موجودات آینده مانند رباتهای انساننمای هوشمند در کنار آنچه به اصطلاح «انسان معیار » نامیده میشود، چگونه خواهد بود. برخی معتقدند که هوش مصنوعی آینده نهتنها باید دارای حقوق بشر باشد ، بلکه باید از جایگاهی بالاتر در حوزه اخلاقی و حقوقی نسبت به انسان برخوردار باشد. این استدلال مبتنی بر دیدگاهی خاص از شخصیت است که بر اساس آن، قابلیتهای شناختی (مانند عقلانیت، هوش، خودمختاری، خودآگاهی) تعیینکنندهترین عوامل در تعیین جایگاه اخلاقی گونههای مختلف، از جمله انسانها و حیوانات، و همچنین جایگاههای درون هر گونه محسوب میشوند. در چارچوب ا سناد موجود حقوق بشر، استدلال میشود که حقوقی مانند ماده ۲ کنوانسیون اروپایی حقوق بشر که بیان میکند: «حق زندگی هر فرد باید توسط قانون محافظت شود» یا ماده ۱۴ که به تبعیض بر اساس «وضعیت» اشاره دارد، در حال حاضر برای اشخاص مصنوعی و وضعیت های حقوقی نیز قابل اعمال است. از این دیدگاه، انکار شخصیت حقوق بشر به یک «موجود هوشمند که بهطور قابل اثبات دارای ویژگیهای ضروری از جمله حساسیت، خودآگاهی، عاملیت اخلاقی و هویت روایتی است»، موجب بیمعنا شدن پایههای درک ما از مفهوم شخصیت خواهد شد. دیدگاه پساانسانگرایانهای که در ادعاهای مربوط به حقوق رباتها، اعم از هوش مصنوعی موجود و آینده، نهفته است، در این نکته اشتراک دارد که بهطور بنیادین دیدگاههای سنتی در مورد عنصر انسانی در حمایت از حقوق بشر را به چالش میکشد.
من نسبت به حقوق اخلاقی رباتها بر اساس ویژگیهای هوش مصنوعی تردید دارم. نگرانی من این است که هوش مصنوعی، چه در شکل فعلی و چه در آینده، بهطور اجتنابناپذیر فاقد ویژگیها و مهارتهای ذاتی است. منظور من سایبورگها (انسانهای تقویتشده با اجزای مکانیکی) نیست، بلکه هوش مصنوعی بدون جسمانیت انسانی، مانند الگوریتمها یا اندرویدهایی است که از مواد مشابه با بافت انسانی ساخته شدهاند اما فاقد اعضای انسانی هستند. هیچ یک از الگوریتمهای مولد و رباتهای انساننمای فوق هوشمند که قادر به ایجاد روابط طولانیمدتی با انسانها هستند، بدون مداخله انسانی نمیتوانند وجود داشته باشند یا بقا پیدا کنند. هوش مصنوعی ساخته دست بشر است و به انسان وابسته است. همانطور که مطرح شد، سیستمهای هوش مصنوعی «هرگز بهطور کامل خودمختار نیستند، بلکه همیشه سیستمهای انسان-ماشیناند که بر نیروی کار انسانی استثمار شده و منابع محیطی متکی هستند. آنها سیستمهای اجتماعی-فنیاند و در تمام مراحل، از دادههای آموزشی گرفته تا پذیرش اجتماعی پس از پیادهسازی، ماهیتی انسانی دارند». توسعهدهندگان رباتهای اجتماعی آگاهانه تصمیم میگیرند آنها را در محیطهای اجتماعی انسانی ادغام کنند و طوری طراحی میکنند که شبیه به انسانها عمل کنند. هم طراحان و هم کاربران نیز «در تعامل با چنین رباتهایی تمایل دارند آنها را انساننما تلقی کرده و ویژگیهایی مانند شخصیت و زنده بودن را به آنها نسبت دهند.
این نشان میدهد که تواناییهای شبهانسانی رباتها از تصمیمات انسانی ناشی میشود، حتی اگر تصمیمات هوش مصنوعی غیرقابل پیشبینی و دشوار برای ردیابی باشند و سامانه های هوش مصنوعی را به اصطلاح به «جعبه سیاه» تبدیل کند و حتی اگر مطالعات اخیر نشان دهند که عوامل هوش مصنوعی قادر به تلاش برای بقای خود هستند و میتوانند «بهطور راهبردی خطاهای ظریفی را در پاسخهای خود وارد کنند، سعی در غیرفعال کردن مکانیزمهای نظارتی خود داشته باشند، و حتی آنچه را که تصور میکنند وزنهای مدلشان است، به سرورهای خارجی انتقال دهند. این وابستگی به منشاء و ورودیهای خارجی در تضاد با توجیه اخلاقی حقوق بشر برای انسانها قرار دارد، که این حقوق را وابسته به شناخت خارجی یا عضویت در یک گروه نمیداند. انسانها از طریق تولیدمثل بهوجود میآیند و همچنین تحت تأثیر عوامل خارجی مانند آموزش و منابع مادی قرار دارند، اما ویژگیهای انسانی با تأثیرات خارجی هوش مصنوعی متفاوت است، زیرا توانایی انسان در انتخاب و سلطه ناپذیری ذاتی است و نه برنامهریزی شده توسط عوامل بیرونی. من با دیدگاهی موافقم که بر اساس آن، اتکا به ویژگیهای هستیشناختی برای تعیین شخصیت روانشناختی/اخلاقی، جایگاه اخلاقی و حقوق اخلاقی مشکلساز است، زیرا درباره این که کدام ویژگیها برای شخصیت اخلاقی ضروریاست و چگونه حضور این ویژگیها در یک موجود میتواند بهطور تجربی تأیید شود، اختلاف نظر زیادی وجود دارد. هدف من این نیست که بگویم موجودیت های هوش مصنوعی شبیه انسان نیستند، بلکه این است که آنها اساساً فاقد هرگونه ویژگی ذاتیاند. با این حال، حیوانات دارای ویژگیهای ذاتیاند، و از دیدگاه اخلاقی، تفاوتهای بین حیوانات و انسانها ممکن است کمتراز تفاوتها بین انسانها و هوش مصنوعی باشد.
محدودیت دیگر زمانی مطرح میشود که به روابط انسان و هوش مصنوعی نگاه کنیم. ( در خصوص جزئیات رویکرد مبتنی بر ویژگی ها در مقایسه با رویکرد مبتنی بر رابطه در حقوق هوش مصنوعی به صفحه ی ۱۶ و صفحات بعدی مراجعه کنید).
همانطور که در اخلاق هوش مصنوعی بیان شده، به نظر میرسد که اتخاذ رویکردی انتقادی نسبت به هر دو دیدگاه—هم دیدگاه «ابزارگرای سادهانگارانه» درباره رباتها و هم دیدگاه «پساانسانگرایانه غیرانتقادی» رویکردی سنجیده باشد. دیدگاه اول، این تصور را که رباتها صرفاً ماشینها و ابزارهایی برای اهداف انسانی هستند، به چالش میکشد، زیرا هنگام تعامل با رباتها، روانشناسی کاربران منجر به «درک ربات بهعنوان نوعی شخص» میشود. ، تمرکز «پساانسانگرایانه غیرانتقادی» بر دیگری بودن و ساخت اجتماعی-فرهنگی رباتها باعث «نادیده گرفتن منشأ آنها در فعالیتهای انسانی و مادی» میشود. در راستای آنچه پیش تر بهعنوان فقدان ویژگیهای ذاتی بیان کردم، این موضوع مربوط به این واقعیت است که رباتها ممکن است از نظر اجتماعی مهم باشند، اما در نهایت ماشینهایی هستند که توسط انسان ساخنه شده اند. راه خروج از این مواضع افراطی این است که بپذیریم رباتها ابزار هستند؛ اما ابزارهایی که تحت عنوان «ابزارهای ارتباطی» شناخته میشوند و به انسانها و زمینههای اجتماعی-فرهنگی که در آن فعالیت میکنند، متصلاند.بهطور خلاصه، زمانی که انسانها به چیزی اهمیت میدهند، آن چیز فقط از «جایگاه اخلاقی مشتقشده» برخوردار میشود. این برداشت از هوش مصنوعی بهعنوان «ابزارهای ارتباطی»، به نیاز های حمایتی حقوق بشر اشاره دارد: یعنی منفعت انسانی در توانایی ورود و حفظ چنین روابط اجتماعی با یک نهاد هوش مصنوعی..
از این منظر، حقوق بشر در جهت تحقق منافع انسانی در زمینه هایی چون ازدواج با ربات عاشق یا تعیین یک ربات مراقب به عنوان وارث، اهمیت می یابد. در این سناریو، همانطور که در رویّه دیوان آمریکایی حقوق بشر در رابطه با شرکتها مشاهده می شود، حمایت حقوق بشری از رباتها صرفا ماهیت انعکاسی و تبعی دارد. در این چارچوب، هیچ دلیل اخلاقی متقنی برای شناسایی هوش مصنوعی بهعنوان یک موضوع یا تابع مستقل حقوق بشر وجود ندارد.
منطق کارکردی برای شناسایی هوش مصنوعی بهعنوان موضوع یا تابع حقوق بشر و ملاحظات مربوط
همانطور که در مقدمه ذکر شد، جستجوی ویژگیهای ذاتی هوش مصنوعی که توجیهی اخلاقی برای حمایت از حقوق بشر فراهم کند، تنها یکی ازرویکردهای ممکن است. در بررسی دلایلی که این نوع حمایت حقوقی را موجه میسازد، میتوان گام فراتر نهاد و اهداف کارکردی و ابزاری را بررسی کرد که با رویکرد مبتنی بر حقوق دنبال میشود؛ چرا که حقوق بشر میتواند «بهعنوان حقوق اخلاقی یا مفاهیم سیاسی-حقوقی تلقی شوند از آنجا که حقوق بشر می تواند به عنوان حقوق اخلاقی یا مفاهیم حقوقی-سیاسی تلقی شود، مقایسه با شرکت ها که بر مبنای ملاحظات صرف کارکردی از حمایت های حقوق بشری برخوردارند، مرتبط و قابل توجه است. در ادامه، قصد ندارم نتیجهگیری نهایی را مطرح کنم که آیا در مقطعی از زمان پذیرش حقوق هوش مصنوعی در سطح حقوق بشر به دلایل کارکردی یا به اصطلاح « منفعت محور» منطقی و موجه خواهد بود یا نه. آنچه میخواهم انجام دهم، برجستهسازی طیف پیچیدهای از ملاحظاتی است که در اتخاذ چنین تصمیمی مورد توجه قرارمی گیرد.
۱-نیاز به تصویری روشن از تهدید های حقوق بشر ناشی از هوش مصنوعی
پیش از اعطای حمایت از حقوق بشر به هوش مصنوعی، باید درکی کاملاً واضح از نحوه عملکرد هوش مصنوعی داشته باشیم و اینکه جنبه خودمختار اقدامات آن چگونه میتواند تهدیدها و نقضهای حقوق بشر را ایجاد کند. این مسئله جدیدی نیست. در سال ۲۰۲۰، Diane Desiertoدر مقالهای در EJIL:Talk! به سه سناریوی تهدید مرتبط با حقوق بشر ناشی از اتوماسیون و هوش مصنوعی اشاره کرد: «چالشهای مرتبط با شکلگیری و ارتباط رضایت فردی»، «چالشهای مرتبط با خودمختاری، شخصیت و تعیین سرنوشت»، و «چالشهای مرتبط با کرامت انسانی، بهعنوان ارزش اخلاقی برابر همه انسانها. از آن زمان تاکنون، هیچ بهبودی در رابطه با این تهدیدها حاصل نشده، بلکه با پیشرفتهای فناوری و استفاده گسترده از مدلهای زبانی بزرگ مانند ChatGPT، وضعیت وخیمتر شده است. در پایان سال ۲۰۲۳، دفتر کمیساریای عالی حقوق بشر سازمان ملل متحد گزارشی با عنوان «طبقهبندی خطرات حقوق بشر مرتبط با هوش مصنوعی مولد» منتشر کرد. این گزارش بهطور مشخص نشان میدهد که چگونه هوش مصنوعی مولد میتواندمنع آسیبهای جسمی و روانی، حق برابری در برابر قانون و حمایت در برابر تبعیض، حق حریم خصوصی و آزادی بیان را به خطر اندازد . همچنین این گزارش تأکید دارد که مدلهای هوش مصنوعی مولد اغلب گروههای فرهنگی غالب (مانند سفیدپوستان، غربیها، و مردان) را بیش از حد بازنمایی کرده و منجر به ارائه تصویر نادرست یا کمرنگ از سایر گروهها میشوند. این مسئله باعث تقویت کلیشههای مضر، تعصبات، و محدودیت کنترل گروههای بهحاشیهراندهشده بر هویتهای آنلاینشان میشود. در «گزارش علمی بینالمللی درباره ایمنی هوش مصنوعی پیشرفته» که در ماه مه ۲۰۲۴ منتشر شد، گروهی متشکل از ۷۵ متخصص هوش مصنوعی از سراسر جهان اعلام کردند که توسعهدهندگان هنوز اطلاعات محدودی درباره نحوه عملکرد مدلهای هوش مصنوعی عمومی دارند، چراکه این مدلها آموزش داده شدهاند ولی برنامهریزی نشدهاند. با وجود تریلیونها پارامتر، فرآیندهای داخلی آنها تا حد زیادی مبهم است، حتی برای خود توسعهدهندگان. درحالیکه تکنیکهایی برای توضیح و تفسیر این مدلها وجود دارد، اما تحقیقات در این زمینه هنوز در مراحل اولیه است. متخصصان به روشهای فنی موجود که به کاهش خطرات حقوق بشر کمک میکنند اشاره دارند، از جمله روشهایی برای کاهش سو گیری مدل یا تکنیکهایی که احتمال پاسخگویی مدلهای عمومی هوش مصنوعی که درخواستهای مضر کاربران را کاهش میدهند. بااینحال، امید به این تکنیکها محدود است، زیرا همانطور که کارشناسان اذعان دارند، درحالحاضر هیچ روشی نمیتواند تضمینهای کمّی درباره ایمنی مدلها یا سیستمهای پیشرفته هوش مصنوعی ارائه دهد. از این دیدگاه، به نظر میرسد که بحث درباره قابلیت هوش مصنوعی برای برخورداری از حقوق بشر پیش از آنکه بتوان بهطور واضح توان بالقوه آن برای نقض حقوق بشر را درک کرد، اقدامی شتابزده باشد.
۲- مقررات کذاری و ارتباط بین شخصیت حقوقی و حقوق بشر
این مسئله ما را به جنبه دوم مورد توجه سوق میدهد. تصمیم قانونگذاری برای به رسمیت شناختن نهادهای هوش مصنوعی بهعنوان اشخاص حقوقی و حتی سوژههایی که قادر به برخورداری از حقوق بشر هستند، باید تنها زمانی اتخاذ شود که مرزها و مسئولیتهای قانونی مربوط به این نهادها بهطور کاملاً شفاف تعریف شده باشد. همانطور که ابتکارات فعلی در جهت ارتقای مسئولیتپذیری شرکتها در قبال نقض حقوق بشر نشان میدهند ، تنظیم مقررات یا مقررات گذاری پس از وقوع (Ex-post regulation) ممکن است. این روند پس از به رسمیت شناختن حقوق شرکتها انجام شد—خواه از طریق تعهدات قانونی الزامآور مانند دستورالعمل اتحادیه اروپا درباره استحکامپذیری شرکتی (EU CSDDD) یا از طریق تعدیل حمایتهای سرمایهگذاری برای رسیدگی به مسائل حقوق بشر. با این حال، ترجیح داده میشود که پیش از اعطای توانمندی قانونی به هوش مصنوعی، روشهای مؤثر و اجماع سیاسی برای تنظیم آن پیدا شود. بااینحال، این مسئله بسیار پیچیده است، نهتنها از منظر فنی بلکه از دیدگاههای حقوقی و سیاسی، خصوصاً در مورد تخصیص مسئولیتهای مرتبط با هوش مصنوعی خودمختار در مواجهه با تعدد کنشگران. بسیار مشابه شیوهای که ما با مسئولیت شرکتها در سطح قواعد داخلی مربوط به مسئولیت برخورد میکنیم، این ایده مطرح شد که شخصیت حقوقی بهاصطلاح «اشخاص الکترونیکی» اعطا شود و به این ترتیب، «شیء (..) بهعنوان یک موضوع مسئولیت» شناخته شود. در سال ۲۰۱۷، پارلمان اروپا برنامهریزی برای ایجاد یک وضعیت حقوقی برای رباتها را پیشنهاد کرد، که طی آن، پیشرفتهترین رباتهای خودمختار دارای وضعیت «اشخاص الکترونیکی» شده و مسئول هر گونه آسیبی باشند که ایجاد میکنند. این پیشنهاد همچنین امکان گسترش این وضعیت به مواردی که رباتها تصمیمات مستقل میگیرند یا با اشخاص ثالث تعامل دارند را مطرح کرد. در آن زمان، این پیشنهاد با انتقاد شدید از سوی جامعه علمی هوش مصنوعی روبرو شد و توسط کمیسیون اروپا مورد پذیرش قرار نگرفت. یکی از انتقادات کلیدی این بود که موضوع جدید مسئولیت را تنها زمانی میتوان در نظر گرفت که دارای منابع مالی کافی برای پوشش دعاوی خسارت باشد تا از انتقال خطرات به نفع طرفهایی که از مسئولیت توسط این نهاد جدید محافظت میشوند، یعنی تولیدکنندگان و اپراتورها، جلوگیری شود. دیدگاههای مختلفی درباره این مسئله وجود دارد که آیا و چگونه میتوان آن را حل کرد. یکی از رویکردهای مورد بحث، معرفی بیمه اجباری برای هوش مصنوعی است، که توسط تمامی طرفهای دخیل در تلاشهای تولید و بهکارگیری یک عامل هوش مصنوعی، از جمله طراحان محصول، توسعهدهندگان نرمافزار، تولیدکنندگان، و حتی مالکان و کاربران، تأمین مالی شود. باید دید که آیا (یا چه زمانی) رویکرد شخصیت الکترونیکی «ePerson» در فرآیندهای قانونگذاری مجدداً مطرح خواهد شد.
سؤال اصلی این است که آیا به رسمیت شناختن شخصیت حقوقی هوش مصنوعی در سطح ملی یا منطقهای بهطور خودکار منجر به اعطای حمایت از حقوق بشر به هوش مصنوعی در سطح بینالمللی خواهد شد؟ بیایید این موضوع را از طریق یک آزمایش ذهنی بررسی کنیم. اگر، برای مثال، شخصیت الکترونیکی اجازه دهد که موجودیت های هوش مصنوعی وارد روابط قراردادی شوند، دارایی داشته باشند و طرف دعاوی حقوقی شوند، آیا این وضعیت در سطح قوانین داخلی یا فراملی باید برای تعهدات بینالمللی حقوق بشر دولتها پیامد داشته باشد؟ مستدلا، هیچ دلیل آشکاری وجود ندارد که چرا دولتها باید مجاز باشند یک شخص الکترونیکی را بدون جبران خسارت مصادره کنند یا حق برخورداری از دادرسی عادلانه را از آن سلب کنند. در این شرایط، گسترش حمایت از حقوق بشر به هوش مصنوعی میتواند اثرات انتظامی بر دولتها داشته باشد و به تقویت حاکمیت قانون در سطح بینالمللی کمک کند. بااینحال، همانطور که در سومین جنبه مورد بررسی توضیح خواهم داد، فکر نمیکنم که این مسئله بهتنهایی بتواند توجیهی کافی برای اعطای وضعیت حقوق بشر به هوش مصنوعی باشد.
۳-فایده چیست؟ تعیین اهداف سیاسی برای به رسمیت شناختن موضوعیت حقوق بشر
مؤکدا گفته می شود یکی از نکات کلیدی اهداف سیاسی بالقوه و ملاحظات کاربردی، ، حمایت از حقوق بنیادین شرکتها در اروپا و منشأ آن است. تصمیم سیاسی برای ادغام شرکتها در سیستم حقوق بشر اروپایی نه توسط خود دادگاه، بلکه همانطور که در مقاله سمپوزیوم تیم آیکه( Tim Eicke) شرح داده شده، توسط کشورهای عضو شورای اروپا در هنگام تدوین کنوانسیون و پروتکل اول در دهه ۱۹۵۰ اتخاذ شد. ماده ۳۴ کنوانسیون اروپایی حقوق بشر (ECHR) با عبارتی باز، درخواستهایی را از هر «سازمان غیردولتی» میپذیرد؛ ماده ۱ پروتکل شماره ۱ به ECHR صراحتاً حق مالکیت را به «هر شخص حقیقی یا حقوقی» گسترش میدهد. بر اساس اسناد مقدماتی، تدوینکنندگان کنوانسیون اروپایی از همان ابتدا آن را بهعنوان تعهدی به دولت لیبرال غرب در برابر تهدیدهای جدید ناشی از گسترش سریع شرق کمونیستی در نظر گرفتند. همانطور که پیشتر توضیح دادهام، رویکرد اروپایی در حمایت از حقوق بنیادی شرکتها بخشی از یک پروژه ادغام سیاسی و اقتصادی بوده و همچنان ادامه دارد. آیا علاقه مشابهی برای اعطای این وضعیت به هوش مصنوعی نیز وجود دارد؟ در اروپا – یا در سایر مناطق جهان؟
در مارس ۲۰۲۴، مجمع عمومی سازمان ملل متحد اولین نقطه عطف را در مسیر دستیابی به یک رویکرد جهانی رقم زد و نخستین قطعنامه در مورد هوش مصنوعی را تصویب کرد. بااینحال، همانطور که در یک پست وبلاگی اخیر تشریح شده، روند تدوین این قطعنامه شکافهای سیاسی قابل توجهی میان مناطق مختلف جهان و کشورهای منفرد درباره هوش مصنوعی آشکار کرد. بهعنوان مثال، ایالات متحده، که میزبان چندین شرکت پیشرو در زمینه هوش مصنوعی است، بر پیشبرد منافع تجاری برای تحریک نوآوری و افزایش درآمد تأکید کرده و بر پتانسیل تحولآفرین هوش مصنوعی برای صنایع جهانی تأکید دارد. در مقابل، اتحادیه اروپا عمدتاً بر استانداردهای سختگیرانه حریم خصوصی دادهها و محافظت از کاربران متمرکز بوده، که در قانون جدید هوش مصنوعی اتحادیه اروپا (EU AI Act) منعکس شده است. کشورهای جنوب جهانی، از سوی دیگر، نگرانیهایی در مورد دسترسی و شمول در پیشرفتهای هوش مصنوعی مطرح کرده و تأکید کردهاند که بهرهمندی از هوش مصنوعی مستلزم دسترسی به اینترنت است—منبعی که برای ۳۳٪ از جمعیت جهان در دسترس نیست. این نگاه مختصر به مواضع مخالف مذاکرهکنندگان که منجر به تصویب قطعنامه سازمان ملل متحد شد، اختلافات شدید در برداشتهای سیاسی از هوش مصنوعی را برجسته میکند.
ما میدانیم که استفاده از هوش مصنوعی میتواند اثرات بسیار مفیدی برای جوامع سراسر جهان داشته باشد. یک مثال مشخص: گزارش شده است که در مجمعالجزایر زنگبار در تانزانیا، کشاورزان روستایی از یک برنامه مبتنی بر هوش مصنوعی به نام Nuru استفاده میکنند که به زبان سواحیلی بومی آنها عمل کرده و برای شناسایی بیماری مضر کاساوا پیش از گسترش آن به کار میرود. علاوه بر این مزایای اجتماعی، استفاده از هوش مصنوعی ، مزایای اقتصادی آشکاری نیز دارد: برآورد شده است که برنامههای هوش مصنوعی میتوانند تا سال ۲۰۳۰ تا ۱۳۶ میلیارد دلار به منافع اقتصادی چهار کشور جنوب صحرای آفریقا (غنا، کنیا، نیجریه، و آفریقای جنوبی) کمک کنند. این مثالها نشان میدهند که توسعه و استفاده از هوش مصنوعی در راستای حقوق بشر، قطعاً یک هدف سیاسی است که اکثر کشورها در جهان به آن علاقه دارند. با وجود هدف فراگیر تقویت نوآوری به نفع افراد و اقتصاد، این امر نمیتواند توجیه کاربردی یا سیاسی برای اعطای حقوق بشر خودمختار به نهادهای هوش مصنوعی باشد. به نظر من، حمایت انسانی و تبعی از هوش مصنوعی برای دستیابی به این هدف کافی است. در چارچوب اروپایی، شرکتهای توسعهدهنده هوش مصنوعی از قبل توسط حقوق بنیادین محافظت شدهاند، که ایجاد یک نهاد قانونی جداگانه را غیرضروری میسازد. بهطور مشابه، در سیستمهای حقوق بشری مانند نظام حقوق بشری کشورهای آمریکایی، حفاظت از نوآوری را میتوان از طریق حمایت از انسانها تسهیل و محقق شده است. بهطور خلاصه، اگر یک توسعهدهنده هوش مصنوعی از حق انسانی کار، خلق، و فعالیت تجاری برخوردار باشد، نیازی به گسترش این حقوق به هوش مصنوعی بهعنوان یک موضوع مستقل وجود ندارد.
در شرایط فعلی، هیچ توجیه اخلاقی یا سیاسی-حقوقی برای گسترش حمایت از حقوق بشر به رباتها یا سایر نهادهای هوش مصنوعی نمیبینم. بااینحال، اذعان دارم که تنظیم مقررات هوش مصنوعی هنوز در مراحل ابتدایی است و ممکن است مفهوم یک شخص حقوقی الکترونیکی (ePerson) روزی در سطح داخلی یا منطقهای به واقعیت حقوقی تبدیل شود. در چنین سناریویی، سیستمهای حقوق بشری (اروپایی) که از قبل درهای خود را به روی اشخاص حقوقی باز کردهاند، ممکن است با مطالبه انسجام روبرو شوند و باید برای رسیدگی به این پرسش بهخوبی آماده باشند.
منابع
(۱) ejiltalk.org/robots-and-human-rights-a-matter-of-coherence