ربات‌ها و حقوق بشر: مسئله انسجام؟

 

 

ربات‌ها و حقوق بشر: مسئله انسجام؟(۱)

By Patricia Wiater

مترجم: دکتر مرضیه حججی

پژوهشگر حقوق بین الملل

ویراستار: دکتر مژگان رامین نیا

عضو هیئت علمی دانشگاه پیام نور

موافقان حقوق موسوم به “حقوق ربات ها” برای گنجاندن هوش مصنوعی (AI) در حمایت از حقوق بشر از دو دیدگاه کاملا متفاوت استدلال می کنند. اولین استدلال مربوط به انسجام به شرح زیر است: اگر دادگاه‌ها، شرکت‌های تجاری را همانند انسان تلقی کرده و برای آنها حمایت های حقوق بشری قائل می شوند، پس باید همین کار را برای ربات‌ها نیز انجام دهند. شرکت‌ها از طریق عوامل انسانی، هیئت ‌مدیره‌ها و سهامداران فعالیت می‌کنند و حاکمیت شرکتی فرآیند تصمیم‌گیری ساختارمندی را فراهم می‌کند. در مقابل، ربات‌ها و سیستم‌های هوش مصنوعی بر اساس الگوریتم‌های از پیش برنامه‌ریزی‌شده، یادگیری ماشینی یا تصمیم‌گیری خودمختار بدون عاملیت انسانی مشابه عمل می‌کنند. بنابراین این مفهوم از انسجام نه بر اساس مقایسه مکانیسم‌های داخلی شرکت‌ها و هوش مصنوعی، بلکه بر اساس ملاحظات عملکردی شکل گرفته است. از این دیدگاه، استدلال اولیه برای شخصیت حقوقی شرکت‌ها یعنی برخورد با شرکت‌ها به‌عنوان موجودیت های حقوقی برای تسهیل عملکرد و مزایای اقتصادی ان‌ها باید برای ربات‌ها نیز اعمال شود.

در مقایسه ها با انسان‌ها که دارندگان اصلی حقوق بشر هستند، شباهتی میان هوش مصنوعی و شرکت‌ها وجود دارد. نه هوش مصنوعی و نه شرکت‌ها «تنفس نمی کنند » یا رنج را به همان شکلی که انسان‌ها تجربه می‌کنند، احساس نمی‌کنند. یک شرکت که به‌عنوان یک نهاد انتفاعی با مسئولیت محدود و شخصیت حقوقی مستقل تعریف می‌شود، یک شخص انتزاعی است – درست مانند ربات‌ها یا به‌طور کلی‌تر، سیستم‌های هوش مصنوعی خودمختار همان طور که در مقدمه سمپوزیوم دیوان اروپایی حقوق بشر (ECtHR) به طور کلی، شکل حقوقی شرکت‌ها را محترم می‌شمارد و حقوق مختلفی را تحت کنوانسیون اروپایی حقوق بشر (ECHR) به آن‌ها اعطا می‌کند (اگرچه تناقض هایی وجود دارد). در مقابل، دیوان آمریکایی حقوق بشر ، نظریه حقوق‌بشری شرکت ها را رد کرده و صرفاحمایت‌هایی را مقرر می دارد که از حقوق بنیادین نشأت گرفته باشد. دیوان دادگستری جامعه اقتصادی کشورهای غرب آفریقا (ECOWAS) و دیوان دادگستری اتحادیه اروپا با رویکرد دیوان اروپایی حقوق بشر همسو هستند، در حالی که دیوان آفریقایی حقوق بشر و مردم ، مسئولیت‌پذیری شرکتی را تقویت کرده اما هنوز به‌طور واضح درباره اعطای حقوق بشر به شرکت‌ها حکم صادر نکرده است. در نظام‌های آمریکایی و آفریقایی حقوق بشری ، نیاز به انسجام برای گسترش حمایت از حقوق بشر به هوش مصنوعی کمتر احساس می‌شود، اما این مورد در اروپا از اهمیت بیشتری برخوردار است.

با این حال، دومین استدلال بر ضرورت

انسجام که توسط طرفداران حقوق ربات‌ها مطرح می‌شود، برتمامی سیستم‌های منطقه‌ای حقوق بشر اعمال می شود. این ادعا به این صورت بیان می‌شود: «اگر در مقطعی از زمان به این نتیجه برسیم که ربات‌ها ممکن است دارای شخصیت اخلاقی، بر اساس معیارهایی مانند عقلانیت، هوش، خودمختاری، آگاهی (ماشینی)، خودآگاهی و حساسیت باشند،در آن صورت انسان‌ها ممکن است مجبور شوند حقوق اخلاقی و حقوقی آن‌ها را به رسمیت بشناسند، (از جمله “حقوق بشر” آن‌ها). از این رو ربات‌ها دیگر نمی‌توانند صرفاً ابزارهای بی‌ذهن ما باشند؛ بلکه انسان‌ها از نظر اخلاقی موظف خواهند بود که جایگاه و حقوق آن‌ها را به رسمیت بشناسند و مطابق آن رفتار کنند. این ضرورت انسجام بنیادی‌تر است، زیرا «مرزها و فرضیات پذیرفته‌شده را مورد بررسی قرار می دهد و ویژگی‌هایی را به چالش می کشند که ذاتاً انسانی تلقی می شوند .» در نتیجه دگرگونی درک ما از عنصر انسانی در حمایت از حقوق بشر، این ادعا بر تمامی سازمان های قضایی مرتبط با حمایت از حقوق بشر، از جمله تمامی دادگاه‌های منطقه‌ای حقوق بشر، تأثیر می‌گذارد. مقایسه بین شرکت‌ها و هوش مصنوعی به دلایل کارکردی برای گسترش حمایت از حقوق بشر اشاره دارد، در حالی که ارتباط دادن حمایت از حقوق بشر به ویژگی‌هایی مانند عقلانیت یا خودمختاری در هوش مصنوعی بر پایه مبانی اخلاقی مطرح می شود.

در این نوشتار، من به هر دو نوع ضرورت انسجام می‌پردازم. ابتدا به بررسی شباهت‌های اغلب مطرح‌شده میان ویژگی‌های انسانی و هوش مصنوعی خواهم پرداخت و استدلال می‌کنم که توجیه اخلاقی اعطای حقوق ربات‌ها معادل با حقوق بشر از چندین جهت قانع‌کننده نیست. من دیدگاه کارکردی را در رابطه با ضرورت حمایت از هوش مصنوعی متقاعدکننده‌تر می‌دانم. از دیدگاه کارکردی – که حمایت از حقوق بشر را نه لزوماً بر پایه اخلاق، بلکه به‌عنوان یک مفهوم سیاسی-حقوقی تلقی می‌کند – شناسایی موجودیت های هوش مصنوعی به‌عنوان موضوعات حقوق بشر باید بر این اساس ارزیابی شود که آیا این شناسایی به‌عنوان ابزاری برای حل چالش‌های حکمرانی ناشی از هوش مصنوعی عمل می‌کند یا مانعی در این مسیر ایجاد می‌کند. در بخش دوم این نوشتار، این دیدگاه را بررسی کرده و نگاهی مقایسه‌ای به رویکردهای احتمالی حمایت از هوش مصنوعی و شرکت‌ها خواهم داشت.

دلیلی برای حقوق ربات ها ‌؟ رویکردهای اخلاقی و کارکردی سیاسی

پساانسان‌گرایی و جایگاه اخلاقی موجودیت های هوش مصنوعی

من بحث را با پرسش درباره تعهدات اخلاقی برای اعطای حمایت از حقوق بشر به هوش مصنوعی، به دلیل ویژگی‌هایی که با ویژگی‌های انسانی قابل مقایسه هستند، آغاز می‌کنم. ادعاهای مبتنی بر اخلاق در مورد حقوق ربات‌ها در جهات مختلف مطرح می شوند و به انواع و ویژگی های متفاوتی از هوش مصنوعی مرتبط می‌شوند. برخی از این موارد در حال حاضر از اهمیت برخوردارند، زیرا با اشکالی از هوش مصنوعی سروکار دارند که بخشی از زندگی روزمره برخی افراد شده‌اند. برای مثال، ربات‌های اجتماعی انسان‌نما را در نظر بگیرید ، همان‌طور که مطالعات تجربی نشان می‌دهند، به انسان‌ها مانند سالمندانی که تنها زندگی می‌کنند، حمایت عاطفی ارائه می‌دهند. یا الگوریتم‌های مولدی فکر کنید که به طور خودکار آثار خلاقانه مانند موسیقی، آثار هنری دیجیتال و داستان تولید می کنند.برای ایجاد خودکار آثار خلاقانه مانند موسیقی، هنرهای دیجیتال و داستان‌ها به کار می‌روند. یک ماشین نقاشی یا یک ربات مترجم با تحلیل نمونه‌های متعدد، یک الگوی کلی یا قاعده‌ای را استخراج می‌کند. پس از تکمیل فرآیند یادگیری، می‌تواند به‌طور مستقل این یافته‌ها را در موقعیت‌های جدید اعمال کند. برخی محققان پیشنهاد می‌کنند که حمایت از حقوق بشر به این گونه از هوش مصنوعی نیز گسترش یابد. برای برخی دیگر، ایده اعطای حق ازدواج به یک ربات انسان‌نما – و در نتیجه اعطای حق زندگی خانوادگی به انسان‌ها و ربات‌ها به طور مشترک– سناریوی واقع‌گرایانه‌ای برای عصر ما به نظر می‌رسد. همین مسئله در مورد ادعاهایی صادق است که هدفشان غلبه بر ماهیت انسان‌محور قوانین کپی‌رایت کنونی است، زیرا این قوانین فرآیندهای خلاقانه هوش مصنوعی را کم ارزش تر از فرآیندهای انسانی تلقی می‌کنند. در همین راستا، ادعای «اجازه دادن به ربات برای سخن گفتن» و اعمال دامنه حمایتی آزادی بیان بر اظهارات تولیدشده توسط یادگیری ماشینی نیز مطرح شده است.

سناریوی آینده نگرانه ای نیز به آنچه “هوش مصنوعی فرابشری” نامیده می شود، اختصاص دارد. این ایده مطرح می‌شود که روزی یک سیستم هوش مصنوعی دارای خودآگاهی خواهد بود که قادر به حل مشکلات، یاد گیری و برنامه ریزی برای آینده است. این سیستم همچنین شامل توانایی‌های شناختی مشابه انسان و ارائه ویژگی‌های شخصیتی خواهد بود، از جمله توانایی یادگیری مشابه انسان‌ها و داشتن حس تخیل، به‌گونه‌ای که فراتر از حل مشکلات، نیازهای آینده را نیز در نظر می گیرد. در این سناریو، هوش مصنوعی دارای قدرت‌های خارق‌العاده‌ای خواهد بود که از سطح کنونی هوش انسانی فراتر می‌روند و آن را قادر می‌سازند سایر رایانه‌ها را آموزش دهد، در حالی که به محدودیت‌های خود نیز آگاهی دارد. طرفداران حقوق ربات‌ها در حال حاضر به این فکر می‌کنند که «زندگی» موجودات آینده مانند ربات‌های انسان‌نمای هوشمند در کنار آنچه به اصطلاح «انسان معیار » نامیده می‌شود، چگونه خواهد بود. برخی معتقدند که هوش مصنوعی آینده نه‌تنها باید دارای حقوق بشر باشد ، بلکه باید از جایگاهی بالاتر در حوزه اخلاقی و حقوقی نسبت به انسان برخوردار باشد. این استدلال مبتنی بر دیدگاهی خاص از شخصیت است که بر اساس آن، قابلیت‌های شناختی (مانند عقلانیت، هوش، خودمختاری، خودآگاهی) تعیین‌کننده‌ترین عوامل در تعیین جایگاه اخلاقی گونه‌های مختلف، از جمله انسان‌ها و حیوانات، و همچنین جایگاه‌های درون هر گونه محسوب می‌شوند. در چارچوب ا سناد موجود حقوق بشر، استدلال می‌شود که حقوقی مانند ماده ۲ کنوانسیون اروپایی حقوق بشر که بیان می‌کند: «حق زندگی هر فرد باید توسط قانون محافظت شود» یا ماده ۱۴ که به تبعیض بر اساس «وضعیت» اشاره دارد، در حال حاضر برای اشخاص مصنوعی و وضعیت ‌های حقوقی نیز قابل اعمال است. از این دیدگاه، انکار شخصیت حقوق بشر به یک «موجود هوشمند که به‌طور قابل اثبات دارای ویژگی‌های ضروری از جمله حساسیت، خودآگاهی، عاملیت اخلاقی و هویت روایتی است»، موجب بی‌معنا شدن پایه‌های درک ما از مفهوم شخصیت خواهد شد. دیدگاه پساانسان‌گرایانه‌ای که در ادعاهای مربوط به حقوق ربات‌ها، اعم از هوش مصنوعی موجود و آینده، نهفته است، در این نکته اشتراک دارد که به‌طور بنیادین دیدگاه‌های سنتی در مورد عنصر انسانی در حمایت از حقوق بشر را به چالش می‌کشد.

من نسبت به حقوق اخلاقی ربات‌ها بر اساس ویژگی‌های هوش مصنوعی تردید دارم. نگرانی من این است که هوش مصنوعی، چه در شکل فعلی و چه در آینده، به‌طور اجتناب‌ناپذیر فاقد ویژگی‌ها و مهارت‌های ذاتی است. منظور من سایبورگ‌ها (انسان‌های تقویت‌شده با اجزای مکانیکی) نیست، بلکه هوش مصنوعی بدون جسمانیت انسانی، مانند الگوریتم‌ها یا اندرویدهایی است که از مواد مشابه با بافت انسانی ساخته شده‌اند اما فاقد اعضای انسانی هستند. هیچ یک از الگوریتم‌های مولد و ربات‌های انسان‌نمای فوق هوشمند که قادر به ایجاد روابط طولانی‌مدتی با انسان‌ها هستند، بدون مداخله انسانی نمی‌توانند وجود داشته باشند یا بقا پیدا کنند. هوش مصنوعی ساخته دست بشر است و به انسان وابسته است. همان‌طور که مطرح شد، سیستم‌های هوش مصنوعی «هرگز به‌طور کامل خودمختار نیستند، بلکه همیشه سیستم‌های انسان-ماشین‌اند که بر نیروی کار انسانی استثمار شده و منابع محیطی متکی هستند. آن‌ها سیستم‌های اجتماعی-فنی‌اند و در تمام مراحل، از داده‌های آموزشی گرفته تا پذیرش اجتماعی پس از پیاده‌سازی، ماهیتی انسانی دارند». توسعه‌دهندگان ربات‌های اجتماعی آگاهانه تصمیم می‌گیرند آن‌ها را در محیط‌های اجتماعی انسانی ادغام کنند و طوری طراحی می‌کنند که شبیه به انسان‌ها عمل کنند. هم طراحان و هم کاربران نیز «در تعامل با چنین ربات‌هایی تمایل دارند آن‌ها را انسان‌نما تلقی کرده و ویژگی‌هایی مانند شخصیت و زنده بودن را به آن‌ها نسبت دهند.

این نشان می‌دهد که توانایی‌های شبه‌انسانی ربات‌ها از تصمیمات انسانی ناشی می‌شود، حتی اگر تصمیمات هوش مصنوعی غیرقابل پیش‌بینی و دشوار برای ردیابی باشند و سامانه های هوش مصنوعی را به اصطلاح به «جعبه سیاه» تبدیل کند و حتی اگر مطالعات اخیر نشان دهند که عوامل هوش مصنوعی قادر به تلاش برای بقای خود هستند و می‌توانند «به‌طور راهبردی خطاهای ظریفی را در پاسخ‌های خود وارد کنند، سعی در غیرفعال کردن مکانیزم‌های نظارتی خود داشته باشند، و حتی آنچه را که تصور می‌کنند وزن‌های مدلشان است، به سرورهای خارجی انتقال دهند. این وابستگی به منشاء و ورودی‌های خارجی در تضاد با توجیه اخلاقی حقوق بشر برای انسان‌ها قرار دارد، که این حقوق را وابسته به شناخت خارجی یا عضویت در یک گروه نمی‌داند. انسان‌ها از طریق تولیدمثل به‌وجود می‌آیند و همچنین تحت تأثیر عوامل خارجی مانند آموزش و منابع مادی قرار دارند، اما ویژگی‌های انسانی با تأثیرات خارجی هوش مصنوعی متفاوت است، زیرا توانایی انسان در انتخاب و سلطه ناپذیری ذاتی است و نه برنامه‌ریزی شده توسط عوامل بیرونی. من با دیدگاهی موافقم که بر اساس آن، اتکا به ویژگی‌های هستی‌شناختی برای تعیین شخصیت روان‌شناختی/اخلاقی، جایگاه اخلاقی و حقوق اخلاقی مشکل‌ساز است، زیرا درباره این که کدام ویژگی‌ها برای شخصیت اخلاقی ضروری‌است و چگونه حضور این ویژگی‌ها در یک موجود می‌تواند به‌طور تجربی تأیید شود، اختلاف نظر زیادی وجود دارد. هدف من این نیست که بگویم موجودیت های هوش مصنوعی شبیه انسان نیستند، بلکه این است که آن‌ها اساساً فاقد هرگونه ویژگی ذاتی‌اند. با این حال، حیوانات دارای ویژگی‌های ذاتی‌اند، و از دیدگاه اخلاقی، تفاوت‌های بین حیوانات و انسان‌ها ممکن است کمتراز تفاوت‌ها بین انسان‌ها و هوش مصنوعی باشد.

محدودیت دیگر زمانی مطرح می‌شود که به روابط انسان و هوش مصنوعی نگاه کنیم. ( در خصوص جزئیات رویکرد مبتنی بر ویژگی ها در مقایسه با رویکرد مبتنی بر رابطه در حقوق هوش مصنوعی به صفحه ی ۱۶ و صفحات بعدی مراجعه کنید).

همان‌طور که در اخلاق هوش مصنوعی بیان شده، به نظر می‌رسد که اتخاذ رویکردی انتقادی نسبت به هر دو دیدگاه—هم دیدگاه «ابزارگرای ساده‌انگارانه» درباره ربات‌ها و هم دیدگاه «پساانسان‌گرایانه غیرانتقادی» رویکردی سنجیده باشد. دیدگاه اول، این تصور را که ربات‌ها صرفاً ماشین‌ها و ابزارهایی برای اهداف انسانی هستند، به چالش می‌کشد، زیرا هنگام تعامل با ربات‌ها، روان‌شناسی کاربران منجر به «درک ربات به‌عنوان نوعی شخص» می‌شود. ، تمرکز «پساانسان‌گرایانه غیرانتقادی» بر دیگری بودن و ساخت اجتماعی-فرهنگی ربات‌ها باعث «نادیده گرفتن منشأ آن‌ها در فعالیت‌های انسانی و مادی» می‌شود. در راستای آنچه پیش تر به‌عنوان فقدان ویژگی‌های ذاتی بیان کردم، این موضوع مربوط به این واقعیت است که ربات‌ها ممکن است از نظر اجتماعی مهم باشند، اما در نهایت ماشین‌هایی هستند که توسط انسان ساخنه شده اند. راه خروج از این مواضع افراطی این است که بپذیریم ربات‌ها ابزار هستند؛ اما ابزارهایی که تحت عنوان «ابزارهای ارتباطی» شناخته می‌شوند و به انسان‌ها و زمینه‌های اجتماعی-فرهنگی که در آن فعالیت می‌کنند، متصل‌اند.به‌طور خلاصه، زمانی که انسان‌ها به چیزی اهمیت می‌دهند، آن چیز فقط از «جایگاه اخلاقی مشتق‌شده» برخوردار می‌شود. این برداشت از هوش مصنوعی به‌عنوان «ابزارهای ارتباطی»، به نیاز های حمایتی حقوق بشر اشاره دارد: یعنی منفعت انسانی در توانایی ورود و حفظ چنین روابط اجتماعی با یک نهاد هوش مصنوعی..

از این منظر، حقوق بشر در جهت تحقق منافع انسانی در زمینه هایی چون ازدواج با ربات عاشق یا تعیین یک ربات مراقب به عنوان وارث، اهمیت می یابد. در این سناریو، همان‌طور که در رویّه دیوان آمریکایی حقوق بشر در رابطه با شرکت‌ها مشاهده می شود، حمایت حقوق بشری از ربات‌ها صرفا ماهیت انعکاسی و تبعی دارد. در این چارچوب، هیچ دلیل اخلاقی متقنی برای شناسایی هوش مصنوعی به‌عنوان یک موضوع یا تابع مستقل حقوق بشر وجود ندارد.

منطق کارکردی برای شناسایی هوش مصنوعی به‌عنوان موضوع یا تابع حقوق بشر و ملاحظات مربوط

همان‌طور که در مقدمه ذکر شد، جستجوی ویژگی‌های ذاتی هوش مصنوعی که توجیهی اخلاقی برای حمایت از حقوق بشر فراهم کند، تنها یکی ازرویکردهای ممکن است. در بررسی دلایلی که این نوع حمایت حقوقی را موجه می‌سازد، می‌توان گام فراتر نهاد و اهداف کارکردی و ابزاری را بررسی کرد که با رویکرد مبتنی بر حقوق دنبال می‌شود؛ چرا که حقوق بشر می‌تواند «به‌عنوان حقوق اخلاقی یا مفاهیم سیاسی-حقوقی تلقی شوند از آنجا که حقوق بشر می تواند به عنوان حقوق اخلاقی یا مفاهیم حقوقی-سیاسی تلقی شود، مقایسه با شرکت ها که بر مبنای ملاحظات صرف کارکردی از حمایت های حقوق بشری برخوردارند، مرتبط و قابل توجه است. در ادامه، قصد ندارم نتیجه‌گیری نهایی را مطرح کنم که آیا در مقطعی از زمان پذیرش حقوق هوش مصنوعی در سطح حقوق بشر به دلایل کارکردی یا به اصطلاح « منفعت محور» منطقی و موجه خواهد بود یا نه. آنچه می‌خواهم انجام دهم، برجسته‌سازی طیف پیچیده‌ای از ملاحظاتی است که در اتخاذ چنین تصمیمی مورد توجه قرارمی گیرد.

۱-نیاز به تصویری روشن از تهدید های حقوق بشر ناشی از هوش مصنوعی

پیش از اعطای حمایت از حقوق بشر به هوش مصنوعی، باید درکی کاملاً واضح از نحوه عملکرد هوش مصنوعی داشته باشیم و این‌که جنبه خودمختار اقدامات آن چگونه می‌تواند تهدیدها و نقض‌های حقوق بشر را ایجاد کند. این مسئله جدیدی نیست. در سال ۲۰۲۰، Diane Desiertoدر مقاله‌ای در EJIL:Talk! به سه سناریوی تهدید مرتبط با حقوق بشر ناشی از اتوماسیون و هوش مصنوعی اشاره کرد: «چالش‌های مرتبط با شکل‌گیری و ارتباط رضایت فردی»، «چالش‌های مرتبط با خودمختاری، شخصیت و تعیین سرنوشت»، و «چالش‌های مرتبط با کرامت انسانی، به‌عنوان ارزش اخلاقی برابر همه انسان‌ها. از آن زمان تاکنون، هیچ بهبودی در رابطه با این تهدیدها حاصل نشده، بلکه با پیشرفت‌های فناوری و استفاده گسترده از مدل‌های زبانی بزرگ مانند ChatGPT، وضعیت وخیم‌تر شده است. در پایان سال ۲۰۲۳، دفتر کمیساریای عالی حقوق بشر سازمان ملل متحد گزارشی با عنوان «طبقه‌بندی خطرات حقوق بشر مرتبط با هوش مصنوعی مولد» منتشر کرد. این گزارش به‌طور مشخص نشان می‌دهد که چگونه هوش مصنوعی مولد می‌تواندمنع آسیب‌های جسمی و روانی، حق برابری در برابر قانون و حمایت در برابر تبعیض، حق حریم خصوصی و آزادی بیان را به خطر اندازد . همچنین این گزارش تأکید دارد که مدل‌های هوش مصنوعی مولد اغلب گروه‌های فرهنگی غالب (مانند سفیدپوستان، غربی‌ها، و مردان) را بیش از حد بازنمایی کرده و منجر به ارائه تصویر نادرست یا کم‌رنگ از سایر گروه‌ها می‌شوند. این مسئله باعث تقویت کلیشه‌های مضر، تعصبات، و محدودیت کنترل گروه‌های به‌حاشیه‌رانده‌شده بر هویت‌های آنلاینشان می‌شود. در «گزارش علمی بین‌المللی درباره ایمنی هوش مصنوعی پیشرفته» که در ماه مه ۲۰۲۴ منتشر شد، گروهی متشکل از ۷۵ متخصص هوش مصنوعی از سراسر جهان اعلام کردند که توسعه‌دهندگان هنوز اطلاعات محدودی درباره نحوه عملکرد مدل‌های هوش مصنوعی عمومی دارند، چراکه این مدل‌ها آموزش داده شده‌اند ولی برنامه‌ریزی نشده‌اند. با وجود تریلیون‌ها پارامتر، فرآیندهای داخلی آن‌ها تا حد زیادی مبهم است، حتی برای خود توسعه‌دهندگان. درحالی‌که تکنیک‌هایی برای توضیح و تفسیر این مدل‌ها وجود دارد، اما تحقیقات در این زمینه هنوز در مراحل اولیه است. متخصصان به روش‌های فنی موجود که به کاهش خطرات حقوق بشر کمک می‌کنند اشاره دارند، از جمله روش‌هایی برای کاهش سو گیری مدل یا تکنیک‌هایی که احتمال پاسخ‌گویی مدل‌های عمومی هوش مصنوعی که درخواست‌های مضر کاربران را کاهش می‌دهند. بااین‌حال، امید به این تکنیک‌ها محدود است، زیرا همان‌طور که کارشناسان اذعان دارند، درحال‌حاضر هیچ روشی نمی‌تواند تضمین‌های کمّی درباره ایمنی مدل‌ها یا سیستم‌های پیشرفته هوش مصنوعی ارائه دهد. از این دیدگاه، به نظر می‌رسد که بحث درباره قابلیت هوش مصنوعی برای برخورداری از حقوق بشر پیش از آن‌که بتوان به‌طور واضح توان بالقوه آن برای نقض حقوق بشر را درک کرد، اقدامی شتاب‌زده باشد.

۲- مقررات کذاری و ارتباط بین شخصیت حقوقی و حقوق بشر

این مسئله ما را به جنبه دوم مورد توجه سوق می‌دهد. تصمیم قانون‌گذاری برای به رسمیت شناختن نهادهای هوش مصنوعی به‌عنوان اشخاص حقوقی و حتی سوژه‌هایی که قادر به برخورداری از حقوق بشر هستند، باید تنها زمانی اتخاذ شود که مرزها و مسئولیت‌های قانونی مربوط به این نهادها به‌طور کاملاً شفاف تعریف شده باشد. همان‌طور که ابتکارات فعلی در جهت ارتقای مسئولیت‌پذیری شرکت‌ها در قبال نقض حقوق بشر نشان می‌دهند ، تنظیم مقررات یا مقررات گذاری پس از وقوع (Ex-post regulation) ممکن است. این روند پس از به رسمیت شناختن حقوق شرکت‌ها انجام شد—خواه از طریق تعهدات قانونی الزام‌آور مانند دستورالعمل اتحادیه اروپا درباره استحکام‌پذیری شرکتی (EU CSDDD) یا از طریق تعدیل حمایت‌های سرمایه‌گذاری برای رسیدگی به مسائل حقوق بشر. با این حال، ترجیح داده می‌شود که پیش از اعطای توانمندی قانونی به هوش مصنوعی، روش‌های مؤثر و اجماع سیاسی برای تنظیم آن پیدا شود. بااین‌حال، این مسئله بسیار پیچیده است، نه‌تنها از منظر فنی بلکه از دیدگاه‌های حقوقی و سیاسی، خصوصاً در مورد تخصیص مسئولیت‌های مرتبط با هوش مصنوعی خودمختار در مواجهه با تعدد کنشگران. بسیار مشابه شیوه‌ای که ما با مسئولیت شرکت‌ها در سطح قواعد داخلی مربوط به مسئولیت برخورد می‌کنیم، این ایده مطرح شد که شخصیت حقوقی به‌اصطلاح «اشخاص الکترونیکی» اعطا شود و به این ترتیب، «شیء (..) به‌عنوان یک موضوع مسئولیت» شناخته شود. در سال ۲۰۱۷، پارلمان اروپا برنامه‌ریزی برای ایجاد یک وضعیت حقوقی برای ربات‌ها را پیشنهاد کرد، که طی آن، پیشرفته‌ترین ربات‌های خودمختار دارای وضعیت «اشخاص الکترونیکی» شده و مسئول هر گونه آسیبی باشند که ایجاد می‌کنند. این پیشنهاد همچنین امکان گسترش این وضعیت به مواردی که ربات‌ها تصمیمات مستقل می‌گیرند یا با اشخاص ثالث تعامل دارند را مطرح کرد. در آن زمان، این پیشنهاد با انتقاد شدید از سوی جامعه علمی هوش مصنوعی روبرو شد و توسط کمیسیون اروپا مورد پذیرش قرار نگرفت. یکی از انتقادات کلیدی این بود که موضوع جدید مسئولیت را تنها زمانی می‌توان در نظر گرفت که دارای منابع مالی کافی برای پوشش دعاوی خسارت باشد تا از انتقال خطرات به نفع طرف‌هایی که از مسئولیت توسط این نهاد جدید محافظت می‌شوند، یعنی تولیدکنندگان و اپراتورها، جلوگیری شود. دیدگاه‌های مختلفی درباره این مسئله وجود دارد که آیا و چگونه می‌توان آن را حل کرد. یکی از رویکردهای مورد بحث، معرفی بیمه اجباری برای هوش مصنوعی است، که توسط تمامی طرف‌های دخیل در تلاش‌های تولید و به‌کارگیری یک عامل هوش مصنوعی، از جمله طراحان محصول، توسعه‌دهندگان نرم‌افزار، تولیدکنندگان، و حتی مالکان و کاربران، تأمین مالی شود. باید دید که آیا (یا چه زمانی) رویکرد شخصیت الکترونیکی «ePerson» در فرآیندهای قانون‌گذاری مجدداً مطرح خواهد شد.

سؤال اصلی این است که آیا به رسمیت شناختن شخصیت حقوقی هوش مصنوعی در سطح ملی یا منطقه‌ای به‌طور خودکار منجر به اعطای حمایت از حقوق بشر به هوش مصنوعی در سطح بین‌المللی خواهد شد؟ بیایید این موضوع را از طریق یک آزمایش ذهنی بررسی کنیم. اگر، برای مثال، شخصیت الکترونیکی اجازه دهد که موجودیت های هوش مصنوعی وارد روابط قراردادی شوند، دارایی داشته باشند و طرف دعاوی حقوقی شوند، آیا این وضعیت در سطح قوانین داخلی یا فراملی باید برای تعهدات بین‌المللی حقوق بشر دولت‌ها پیامد داشته باشد؟ مستدلا، هیچ دلیل آشکاری وجود ندارد که چرا دولت‌ها باید مجاز باشند یک شخص الکترونیکی را بدون جبران خسارت مصادره کنند یا حق برخورداری از دادرسی عادلانه را از آن سلب کنند. در این شرایط، گسترش حمایت از حقوق بشر به هوش مصنوعی می‌تواند اثرات انتظامی بر دولت‌ها داشته باشد و به تقویت حاکمیت قانون در سطح بین‌المللی کمک کند. بااین‌حال، همان‌طور که در سومین جنبه مورد بررسی توضیح خواهم داد، فکر نمی‌کنم که این مسئله به‌تنهایی بتواند توجیهی کافی برای اعطای وضعیت حقوق بشر به هوش مصنوعی باشد.

۳-فایده چیست؟ تعیین اهداف سیاسی برای به رسمیت شناختن موضوعیت حقوق بشر

مؤکدا گفته می شود یکی از نکات کلیدی اهداف سیاسی بالقوه و ملاحظات کاربردی، ، حمایت از حقوق بنیادین شرکت‌ها در اروپا و منشأ آن است. تصمیم سیاسی برای ادغام شرکت‌ها در سیستم حقوق بشر اروپایی نه توسط خود دادگاه، بلکه همان‌طور که در مقاله سمپوزیوم تیم آیکه( Tim Eicke) شرح داده شده، توسط کشورهای عضو شورای اروپا در هنگام تدوین کنوانسیون و پروتکل اول در دهه ۱۹۵۰ اتخاذ شد. ماده ۳۴ کنوانسیون اروپایی حقوق بشر (ECHR) با عبارتی باز، درخواست‌هایی را از هر «سازمان غیردولتی» می‌پذیرد؛ ماده ۱ پروتکل شماره ۱ به ECHR صراحتاً حق مالکیت را به «هر شخص حقیقی یا حقوقی» گسترش می‌دهد. بر اساس اسناد مقدماتی، تدوین‌کنندگان کنوانسیون اروپایی از همان ابتدا آن را به‌عنوان تعهدی به دولت لیبرال غرب در برابر تهدیدهای جدید ناشی از گسترش سریع شرق کمونیستی در نظر گرفتند. همان‌طور که پیش‌تر توضیح داده‌ام، رویکرد اروپایی در حمایت از حقوق بنیادی شرکت‌ها بخشی از یک پروژه ادغام سیاسی و اقتصادی بوده و همچنان ادامه دارد. آیا علاقه مشابهی برای اعطای این وضعیت به هوش مصنوعی نیز وجود دارد؟ در اروپا – یا در سایر مناطق جهان؟

در مارس ۲۰۲۴، مجمع عمومی سازمان ملل متحد اولین نقطه عطف را در مسیر دستیابی به یک رویکرد جهانی رقم زد و نخستین قطعنامه در مورد هوش مصنوعی را تصویب کرد. بااین‌حال، همان‌طور که در یک پست وبلاگی اخیر تشریح شده، روند تدوین این قطعنامه شکاف‌های سیاسی قابل توجهی میان مناطق مختلف جهان و کشورهای منفرد درباره هوش مصنوعی آشکار کرد. به‌عنوان مثال، ایالات متحده، که میزبان چندین شرکت پیشرو در زمینه هوش مصنوعی است، بر پیشبرد منافع تجاری برای تحریک نوآوری و افزایش درآمد تأکید کرده و بر پتانسیل تحول‌آفرین هوش مصنوعی برای صنایع جهانی تأکید دارد. در مقابل، اتحادیه اروپا عمدتاً بر استانداردهای سخت‌گیرانه حریم خصوصی داده‌ها و محافظت از کاربران متمرکز بوده، که در قانون جدید هوش مصنوعی اتحادیه اروپا (EU AI Act) منعکس شده است. کشورهای جنوب جهانی، از سوی دیگر، نگرانی‌هایی در مورد دسترسی و شمول در پیشرفت‌های هوش مصنوعی مطرح کرده و تأکید کرده‌اند که بهره‌مندی از هوش مصنوعی مستلزم دسترسی به اینترنت است—منبعی که برای ۳۳٪ از جمعیت جهان در دسترس نیست. این نگاه مختصر به مواضع مخالف مذاکره‌کنندگان که منجر به تصویب قطعنامه سازمان ملل متحد شد، اختلافات شدید در برداشت‌های سیاسی از هوش مصنوعی را برجسته می‌کند.

ما می‌دانیم که استفاده از هوش مصنوعی می‌تواند اثرات بسیار مفیدی برای جوامع سراسر جهان داشته باشد. یک مثال مشخص: گزارش شده است که در مجمع‌الجزایر زنگبار در تانزانیا، کشاورزان روستایی از یک برنامه مبتنی بر هوش مصنوعی به نام Nuru استفاده می‌کنند که به زبان سواحیلی بومی آن‌ها عمل کرده و برای شناسایی بیماری مضر کاساوا پیش از گسترش آن به کار می‌رود. علاوه بر این مزایای اجتماعی، استفاده از هوش مصنوعی ، مزایای اقتصادی آشکاری نیز دارد: برآورد شده است که برنامه‌های هوش مصنوعی می‌توانند تا سال ۲۰۳۰ تا ۱۳۶ میلیارد دلار به منافع اقتصادی چهار کشور جنوب صحرای آفریقا (غنا، کنیا، نیجریه، و آفریقای جنوبی) کمک کنند. این مثال‌ها نشان می‌دهند که توسعه و استفاده از هوش مصنوعی در راستای حقوق بشر، قطعاً یک هدف سیاسی است که اکثر کشورها در جهان به آن علاقه دارند. با وجود هدف فراگیر تقویت نوآوری به نفع افراد و اقتصاد، این امر نمی‌تواند توجیه کاربردی یا سیاسی برای اعطای حقوق بشر خودمختار به نهادهای هوش مصنوعی باشد. به نظر من، حمایت انسانی و تبعی از هوش مصنوعی برای دستیابی به این هدف کافی است. در چارچوب اروپایی، شرکت‌های توسعه‌دهنده هوش مصنوعی از قبل توسط حقوق بنیادین محافظت شده‌اند، که ایجاد یک نهاد قانونی جداگانه را غیرضروری می‌سازد. به‌طور مشابه، در سیستم‌های حقوق بشری مانند نظام حقوق بشری کشورهای آمریکایی، حفاظت از نوآوری را می‌توان از طریق حمایت از انسان‌ها تسهیل و محقق شده است. به‌طور خلاصه، اگر یک توسعه‌دهنده هوش مصنوعی از حق انسانی کار، خلق، و فعالیت تجاری برخوردار باشد، نیازی به گسترش این حقوق به هوش مصنوعی به‌عنوان یک موضوع مستقل وجود ندارد.

در شرایط فعلی، هیچ توجیه اخلاقی یا سیاسی-حقوقی برای گسترش حمایت از حقوق بشر به ربات‌ها یا سایر نهادهای هوش مصنوعی نمی‌بینم. بااین‌حال، اذعان دارم که تنظیم مقررات هوش مصنوعی هنوز در مراحل ابتدایی است و ممکن است مفهوم یک شخص حقوقی الکترونیکی (ePerson) روزی در سطح داخلی یا منطقه‌ای به واقعیت حقوقی تبدیل شود. در چنین سناریویی، سیستم‌های حقوق بشری (اروپایی) که از قبل درهای خود را به روی اشخاص حقوقی باز کرده‌اند، ممکن است با مطالبه انسجام روبرو شوند و باید برای رسیدگی به این پرسش به‌خوبی آماده باشند.

منابع

(۱) ejiltalk.org/robots-and-human-rights-a-matter-of-coherence

 

 

 

 

 

 

 

 

 

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *