نیاز جامعه بینالمللی به نظارت انسانی بر هوش مصنوعی[۱]
Valentina Urrea
مترجم: حسین سپهسرا
دانشجوی دکتری حقوق بینالملل دانشگاه علامه طباطبایی
ویراستار علمی: دکتر سید هادی محمودی
عضو هیئت علمی دانشگاه شهید بهشتی
مقدمه
سیستمهای هوش مصنوعی از یادگیری ماشین، استدلال ماشین و رباتیک برای درک محیط خود از طریق جمعآوری دادهها و انتخاب بهترین شیوه برای دستیابی به هدف مشخص، استفاده میکنند. نظارت انسانی بر هوش مصنوعی به دنبال آن است تا از خسارتهای ناخواستهای که ممکن است توسط این هوش تولید شود، همچون پیشبینیهای اشتباه یا جانبدارانه جلوگیری نماید.
جامعه بینالمللی باید به پیروی از پیشگامی اتحادیه اروپا و ایالات متحده آمریکا، معاهدهای جهت برقراری یک سیستم نظارت انسانی بر هوش مصنوعی ایجاد کند. هر چند نظارت انسانی بر هوش مصنوعی موضوع گستردهای است، این نوشتار به ضرورت نظارت انسانی بر هوش مصنوعی، زمان مناسب این نظارت، مسئول آن و دامنه نظارت محدود میشود.
اقدامات اتحادیه اروپا و ایالات متحده آمریکا
اتحادیه اروپا و ایالات متحده آمریکا اقداماتی را جهت اطمینان از وجود نظارت انسانی بر هوش مصنوعی انجام دادهاند. در اتحادیه اروپا این مسئله در قانون پیشنهادی هوش مصنوعی[۲](قانون هوش مصنوعی)، رهنمودهای اخلاقی برای هوش مصنوعی قابل اطمینان۳ و فهرست ارزیابی برای هوش مصنوعی قابل اطمینان[۴](فهرست ارزیابی) دیده میشود. در ایالات متحده آمریکا نیاز به این نظارت را میتوان در ایجاد دفتر اصلی دیجیتال و هوش مصنوعی[۵]، طرح حقوق اساسی هوش مصنوعی۶ و فرمان اجرایی در مورد توسعه و استفاده امن، حفاظتشده و قابل اطمینان از آن مشاهده نمود.
قانون هوش مصنوعی که شامل نیاز به نظارت انسانی است را کمیسیون اروپا پیشنهاد داده و اکثر نشانهها حاکی از تصویب آن است. بر اساس ماده ۱۴ پیشنویس این قانون، طراحی و توسعه هوش مصنوعی باید به گونهای باشد که «توسط افراد حقیقی به طور موثری مورد نظارت قرار گیرد».
همچنین رهنمودها سندی است که توسط گروه تخصصی سطح بالای هوش مصنوعی تدوین شده است. این سند به برجستهسازی هفت نیاز همچون نظارت و عاملیت انسانی میپردازد که هر چند جامع نیستند اما برای اطمینانپذیر بودن هوش مصنوعی، اساسی محسوب میشوند. این رهنمودها به تفصیل بیان داشتهاند که نظارت انسانی میتواند از طریق سازکارهای کنترلی و به سه شیوه بهدست آید: انسان در حلقه[۷]، انسان بر حلقه[۸] یا انسان در فرماندهی[۹]. بسته به رویکردی که اتخاذ شود، زمان نیاز به نظارت و دامنه آن متفاوت خواهد بود. مورد آخر، فهرست ارزیابی هوش مصنوعی است که برای خود ارزیابی این هوش ایجاد شده است.
در ایالات متحده دفتر اصلی دیجیتال و هوش مصنوعی برای اطمینان از اجرای سیاستهای مورد نیاز نظارت انسانی بر هوش مصنوعی طراحی شده است. طرح حقوق اساسی هوش مصنوعی توسط دولت بایدن منتشر شده و شامل «اصول هدایتکننده طراحی، استفاده و استقرار سیستمهای خودکار میباشد». به تازگی بایدن فرمان اجرایی منتشر کرده و در کنار سایر موارد، استانداردهای جدیدی برای ایمنی و حفاظت هوش مصنوعی ایجاد نموده است.
الزاماتی که ممکن است نظیر آن در معاهده بینالمللی نظارت بر هوش مصنوعی گنجانده شوند
چه نوع از هوش مصنوعی نیاز به نظارت انسانی دارد؟
همه هوشهای مصنوعی نیازمند نظارت انسانی نیستند، بلکه این امر به حوزه فعالیت آن بستگی دارد. با وجود حوزههای متفاوتی که اتحادیه اروپا و ایالات متحده پیشنهاد میکنند، اجماعی بر روی استخدام، آموزش و اجرای قانون/عدالت کیفری وجود دارد و بنابراین این موارد باید در معاهده گنجانده شوند. زمانی که یک سیستم هوش مصنوعی در این سه بخش قرار میگیرد، باید نظارت انسانی وجود داشته باشد.
قانون هوش مصنوعی لزوم نظارت انسانی را برای مواردی مطرح میکند: (الف) هوش مصنوعی که محصولات یا بخشی از محصولاتی هستند که تحت قوانین اتحادیه اروپا در ضمیمه دوم آمده است، یا (ب) به عنوان هوش مصنوعی با «خطر بالا» تلقی میشوند، زیرا در حوزه خاص فهرست شده در ضمیمه سوم قرار میگیرند.
از سوی دیگر ایالات متحده بیشتر بر بخش بهداشت و درمان تاکید دارد. هم فرمان اجرایی و هم طرح، لزوم نظارت انسانی بر هوش مصنوعی در حوزههای بهداشت و درمان را مطرح میکنند. با این حال طرح فراتر رفته و نظارت گسترده انسانی را در «قلمروهای حساسی» که نیازبه حفاظتهای بیشتری دارند مانند نظام عدالت کیفری، استخدام، آموزش و بهداشت و درمان پیشنهاد میکند.
چه زمانی باید نظارت انسانی بر هوش مصنوعی برقرار شود؟
اتحادیه اروپا پاسخ مشخصی در مورد این زمان ارائه نمیدهد ،اما پیشنهاد میکند که این امر در کل دوره عملکرد آن اجرا شود. قانون هوش مصنوعی مقرر میدارد که هوش مصنوعی با خطر بالا باید بهگونهای طراحی شده و توسعه یابد تا در دوران استفاده از سیستم به طور موثری توسط اشخاص حقیقی مورد نظارت قرار گیرد. همچنین رهنمودهای اخلاقی گروه تخصصی نیز الزامات هفتگانه از جمله نظارت انسانی را میطلبد که در طول چرخه حیات سیستم هوش مصنوعی ارزیابی و مورد توجه قرار گیرند. به خصوص سیستمهای انسان در حلقه نیازمند نظارت در هر چرخه تصمیمگیری هستند، سیستم-های انسان بر حلقه نیازمند نظارت در طول چرخه طراحی و در زمان عملکرد است و سیستمهای انسان در فرماندهی نیازمند نظارت بر همه فعالیتهاست.
در فرمان اجرایی ایالات متحده پس از عرضهی سیستمهای الگوریتمی فناوری بهداشت و درمانِ مبتنی بر هوش مصنوعی نیاز به نظارت وجود دارد. اگرچه ایالات متحده مشخص نمیکند که نظارت پس از عرضه چه زمانی انجام شود و پاسخ روشنی نیز در مورد زمانیکه نظارت الزامی است، نمیدهد اما نیاز به نظارت انسانی در تمام مراحل عملکرد سیستم هوش مصنوعی موجب ایمنی شده و خطرات جدیتر نبود نظارت را از بین میبرد.
چه کسی باید بر هوش مصنوعی نظارت داشته باشد؟
اگرچه رهنمود دقیقی در مورد این که چه کسی باید مسئولیت نظارت بر هوش مصنوعی را بپذیرد، وجود ندارد اما همگان متفقالقول هستند که این افراد باید آموزش مناسبی همچون خطر سوگیری خودکار[۱۰] دریافت کنند.
به طور کلی تمام اسناد اتحادیه اروپا و طرح ایالات متحده آمریکا که به آنها ارجاع دادهایم، بر اهمیت آموزش تاکید میکنند. به طور خاص به چند نمونه اشاره میکنیم: شرح ۴۸ قانون هوش مصنوعی مقرر میدارد که ناظران باید صلاحیت، آموزش و اختیارات لازم را داشته باشند. فهرست ارزیابی، «آموزش ویژه» را لازم میداند. رهنمودهای اخلاقی از این که ناظران «واجد شرایط و آموزش دیده باشند»، سخن به میان میآورد و طرح ایالات متحده آمریکا قائل به لزوم آموزش و ارزیابی هر بخشی از سیستم است که انسان محور باشد.
بند ۴ ماده ۱۴ قانون هوش مصنوعی اتحادیه اروپا با وضوح بیشتری الزامات پیشنهادی برای ناظران بر هوش مصنوعی را مطرح میکند. به واسطه همین وضوح، این بند از ماده ۱۴ باید الگوی یک معاهده بینالمللی باشد. اهمیت آگاهی ناظران از سوگیری خودکار و حفظ این آگاهی نیز روشن است و همانطور که در قانون هوش مصنوعی و رهنمودهای اخلاقی ذکر شده، در معاهده نیز باید گنجانده شود.
دامنه نظارت انسانی
در نهایت یک معاهده بینالمللی باید نظارت انسانی را بر دامنه و چارچوب[۱۱] خاصی که سیستم هوش مصنوعی در آن عمل میکند، برقرار کند.
رهنمودها تصدیق میکنند که نیاز به نظارت ممکن است به منطقه عمل سیستم هوش مصنوعی، خطرات بالقوه، هدف استفاده از سیستم و تدابیر امنیتی، ایمنی و کنترل موجود وابسته باشد. با این حال رهنمودها و قانون هوش مصنوعی به جزئیات قابلتوجهی در مورد چگونگی نظارت انسانی نمیپردازند. اما با توجه به این که هوش مصنوعیِ نیازمند نظارت انسانی در بخشها و به تبع آن در زمینهها و حوزهها و ذیل قانونهای مختلفی قرار دارد، منطقی است که این جزییات ارائه نشوند. در عوض، نیازمند تناسب هستیم؛ بدین معنا که تمام معیارهای مربوط باید «مناسب شرایط باشند». به طور کلی این امر نشان میدهد که باید رابطه معکوسی میان نظارت انسانی و سایر مکانیزمهای حفاظتی وجود داشته باشد؛ جایی که «با فرض برابر بودن همه چیز: هر چه توانایی انسان به نظارت بر سیستم هوش مصنوعی کمتر باشد، آزمایشهای گستردهتر و کنترل دقیقتری نیاز است».
بر همین مبنا، نظارت انسانی در طرح ایالات متحده بر اساس کاربرد خاصی که دارد، توجیه میشود و بر اساس همین کاربرد خاص و برای استقرار در جهان واقعی سفارشیسازی میگردد.
نتیجه
معاهدهای که یک سیستم نظارت انسانی بر هوش مصنوعی را برقرار میسازد، تنها باید هوشهایی را پوشش دهد که در بخشهای استخدام، آموزش و اعمال قانون/عدالت کیفری قرار دارند و این نظارت مخصوص به آن بخش و زمینه باشد. ناظران باید به درستی از جمله در مورد مخاطرات سوگیری خودکار، آموزش دیده بوده و در طول کل دوره عملکرد هوش مصنوعی بر آن نظارت داشته باشند. ]۱۲[
[۱] https://www.mjilonline.org/the-international-communitys-need-for human-oversight-in-artificial-intelligence/
[2] The proposed AI ACT
[3] The Ethics Guidelines for Trustworthy AI
[4] The Assessment list for Trustworthy AI
[5] The Chief Digital and AI Office
[6] The AI Bill of Rights Blueprint
[7] انسان جزئی از چرخه تصمیم گیری است (Human in the Loop)
[8] انسان جزئی از فرایند طراحی چرخه و نظارت بر عملکرد است (Human on Loop)
[9] انسان بر کل فعالیت سیستم هوش مصنوعی نظارت دارد (Human in Command)
[10] این فکر که عملکرد یک ماشین یا تصمیم¬گیری یک سیستم خودکار، بهتر از تصمیم انسانی است. (automation bias)
[11] Scope and Context
]12[ ویراستار ادبی: صادق بشیره(گروه پژوهشی اکادمی بیگدلی)