نیاز جامعه بین‌المللی به نظارت انسانی بر هوش مصنوعی

نیاز جامعه بین‌المللی به نظارت انسانی بر هوش مصنوعی[۱]
Valentina Urrea
مترجم: حسین سپه‌سرا
دانشجوی دکتری حقوق بین‌الملل دانشگاه علامه طباطبایی
ویراستار علمی: دکتر سید هادی محمودی
عضو هیئت علمی دانشگاه شهید بهشتی

مقدمه
سیستمهای هوش مصنوعی از یادگیری ماشین، استدلال ماشین و رباتیک برای درک محیط خود از طریق جمع‌آوری داده‌ها و انتخاب بهترین شیوه برای دستیابی به هدف مشخص، استفاده می‌کنند. نظارت انسانی بر هوش مصنوعی به دنبال آن است تا از خسارت‌های ناخواسته‌ای که ممکن است توسط این هوش تولید شود، همچون پیش‌بینی‌های اشتباه یا جانبدارانه جلوگیری نماید.
جامعه بین‌المللی باید به پیروی از پیشگامی اتحادیه اروپا و ایالات متحده آمریکا، معاهده‌ای جهت برقراری یک سیستم نظارت انسانی بر هوش مصنوعی ایجاد کند. هر چند نظارت انسانی بر هوش مصنوعی موضوع گسترده‌ای است، این نوشتار به ضرورت نظارت انسانی بر هوش مصنوعی، زمان مناسب این نظارت، مسئول آن و دامنه نظارت محدود می‌شود.

اقدامات اتحادیه اروپا و ایالات متحده آمریکا
اتحادیه اروپا و ایالات متحده آمریکا اقداماتی را جهت اطمینان از وجود نظارت انسانی بر هوش مصنوعی انجام داده‌اند. در اتحادیه اروپا این مسئله در قانون پیشنهادی هوش مصنوعی[۲](قانون هوش مصنوعی)، رهنمودهای اخلاقی برای هوش مصنوعی قابل اطمینان۳ و فهرست ارزیابی برای هوش مصنوعی قابل اطمینان[۴](فهرست ارزیابی) دیده می‌شود. در ایالات متحده آمریکا نیاز به این نظارت را می‌توان در ایجاد دفتر اصلی دیجیتال و هوش مصنوعی[۵]، طرح حقوق اساسی هوش مصنوعی۶ و فرمان اجرایی در مورد توسعه و استفاده امن، حفاظت‌شده و قابل اطمینان از آن مشاهده نمود.
قانون هوش مصنوعی که شامل نیاز به نظارت انسانی است را کمیسیون اروپا پیشنهاد داده و اکثر نشانه‌ها حاکی از تصویب آن است. بر اساس ماده ۱۴ پیش‌نویس این قانون، طراحی و توسعه هوش مصنوعی باید به گونه‌ای باشد که «توسط افراد حقیقی به طور موثری مورد نظارت قرار گیرد».
همچنین رهنمودها سندی است که توسط گروه تخصصی سطح بالای هوش مصنوعی تدوین شده است. این سند به برجسته‌سازی هفت نیاز همچون نظارت و عاملیت انسانی می‌پردازد که هر چند جامع نیستند اما برای اطمینان‌پذیر بودن هوش مصنوعی، اساسی محسوب می‌شوند. این رهنمودها به تفصیل بیان داشته‌اند که نظارت انسانی می‌تواند از طریق سازکارهای کنترلی و به سه شیوه به‌دست آید: انسان در حلقه[۷]، انسان بر حلقه[۸] یا انسان در فرماندهی[۹]. بسته به رویکردی که اتخاذ شود، زمان نیاز به نظارت و دامنه آن متفاوت خواهد بود. مورد آخر، فهرست ارزیابی هوش مصنوعی است که برای خود ارزیابی این هوش ایجاد شده است.
در ایالات متحده دفتر اصلی دیجیتال و هوش مصنوعی برای اطمینان از اجرای سیاست‌های مورد نیاز نظارت انسانی بر هوش مصنوعی طراحی شده است. طرح حقوق اساسی هوش مصنوعی توسط دولت بایدن منتشر شده و شامل «اصول هدایت‌کننده طراحی، استفاده و استقرار سیستم‌های خودکار می‌باشد». به تازگی بایدن فرمان اجرایی منتشر کرده و در کنار سایر موارد، استانداردهای جدیدی برای ایمنی و حفاظت هوش مصنوعی ایجاد نموده است.

الزاماتی که ممکن است نظیر آن در معاهده بین‌المللی نظارت بر هوش مصنوعی گنجانده شوند
چه نوع از هوش مصنوعی نیاز به نظارت انسانی دارد؟
همه هوش‌های مصنوعی نیازمند نظارت انسانی نیستند، بلکه این امر به حوزه فعالیت آن بستگی دارد. با وجود حوزه‌های متفاوتی که اتحادیه اروپا و ایالات متحده پیشنهاد می‌کنند، اجماعی بر روی استخدام، آموزش و اجرای قانون/عدالت کیفری وجود دارد و بنابراین این موارد باید در معاهده گنجانده شوند. زمانی که یک سیستم هوش مصنوعی در این سه بخش قرار می‌گیرد، باید نظارت انسانی وجود داشته باشد.
قانون هوش مصنوعی لزوم نظارت انسانی را برای مواردی مطرح می‌کند: (الف) هوش مصنوعی که محصولات یا بخشی از محصولاتی هستند که تحت قوانین اتحادیه اروپا در ضمیمه دوم آمده است، یا (ب) به عنوان هوش مصنوعی با «خطر بالا» تلقی می‌شوند، زیرا در حوزه خاص فهرست شده در ضمیمه سوم قرار می‌گیرند.
از سوی دیگر ایالات متحده بیشتر بر بخش بهداشت و درمان تاکید دارد. هم فرمان اجرایی و هم طرح، لزوم نظارت انسانی بر هوش مصنوعی در حوزه‌های بهداشت و درمان را مطرح می‌کنند. با این حال طرح فراتر رفته و نظارت گسترده انسانی را در «قلمروهای حساسی» که نیازبه حفاظت‌های بیشتری دارند مانند نظام عدالت کیفری، استخدام، آموزش و بهداشت و درمان پیشنهاد می‌کند.
چه زمانی باید نظارت انسانی بر هوش مصنوعی برقرار شود؟
اتحادیه اروپا پاسخ مشخصی در مورد این زمان ارائه نمی‌دهد ،اما پیشنهاد می‌کند که این امر در کل دوره عملکرد آن اجرا شود. قانون هوش مصنوعی مقرر می‌دارد که هوش مصنوعی با خطر بالا باید به‌گونه‌ای طراحی شده و توسعه یابد تا در دوران استفاده از سیستم به طور موثری توسط اشخاص حقیقی مورد نظارت قرار گیرد. همچنین رهنمودهای اخلاقی گروه تخصصی نیز الزامات هفت‌گانه از جمله نظارت انسانی را می‌طلبد که در طول چرخه حیات سیستم هوش مصنوعی ارزیابی و مورد توجه قرار گیرند. به خصوص سیستم‌های انسان در حلقه نیازمند نظارت در هر چرخه تصمیم‌گیری هستند، سیستم-های انسان بر حلقه نیازمند نظارت در طول چرخه طراحی و در زمان عملکرد است و سیستم‌های انسان در فرماندهی نیازمند نظارت بر همه فعالیت‌هاست.
در فرمان اجرایی ایالات متحده پس از عرضه‌ی سیستم‌های الگوریتمی فناوری بهداشت و درمانِ مبتنی بر هوش مصنوعی نیاز به نظارت وجود دارد. اگرچه ایالات متحده مشخص نمی‌کند که نظارت پس از عرضه چه زمانی انجام شود و پاسخ روشنی نیز در مورد زمانی‌که نظارت الزامی است، نمی‌دهد اما نیاز به نظارت انسانی در تمام مراحل عملکرد سیستم هوش مصنوعی موجب ایمنی شده و خطرات جدی‌تر نبود نظارت را از بین می‌برد.
چه کسی باید بر هوش مصنوعی نظارت داشته باشد؟
اگرچه رهنمود دقیقی در مورد این که چه کسی باید مسئولیت نظارت بر هوش مصنوعی را بپذیرد، وجود ندارد اما همگان متفق‌القول هستند که این افراد باید آموزش مناسبی همچون خطر سوگیری خودکار[۱۰] دریافت کنند.
به طور کلی تمام اسناد اتحادیه اروپا و طرح ایالات متحده آمریکا که به آن‌ها ارجاع داده‌ایم، بر اهمیت آموزش تاکید می‌کنند. به طور خاص به چند نمونه اشاره می‌کنیم: شرح ۴۸ قانون هوش مصنوعی مقرر می‌دارد که ناظران باید صلاحیت، آموزش و اختیارات لازم را داشته باشند. فهرست ارزیابی، «آموزش ویژه» را لازم می‌داند. رهنمودهای اخلاقی از این که ناظران «واجد شرایط و آموزش دیده باشند»، سخن به میان می‌آورد و طرح ایالات متحده آمریکا قائل به لزوم آموزش و ارزیابی هر بخشی از سیستم است که انسان محور باشد.
بند ۴ ماده ۱۴ قانون هوش مصنوعی اتحادیه اروپا با وضوح بیشتری الزامات پیشنهادی برای ناظران بر هوش مصنوعی را مطرح می‌کند. به واسطه همین وضوح، این بند از ماده ۱۴ باید الگوی یک معاهده بین‌المللی باشد. اهمیت آگاهی ناظران از سوگیری خودکار و حفظ این آگاهی نیز روشن است و همانطور که در قانون هوش مصنوعی و رهنمودهای اخلاقی ذکر شده، در معاهده نیز باید گنجانده شود.

دامنه نظارت انسانی
در نهایت یک معاهده بین‌المللی باید نظارت انسانی را بر دامنه و چارچوب[۱۱] خاصی که سیستم هوش مصنوعی در آن عمل می‌کند، برقرار کند.
رهنمودها تصدیق می‌کنند که نیاز به نظارت ممکن است به منطقه عمل سیستم هوش مصنوعی، خطرات بالقوه، هدف استفاده از سیستم و تدابیر امنیتی، ایمنی و کنترل موجود وابسته باشد. با این حال رهنمودها و قانون هوش مصنوعی به جزئیات قابل‌توجهی در مورد چگونگی نظارت انسانی نمی‌پردازند. اما با توجه به این که هوش مصنوعیِ نیازمند نظارت انسانی در بخشها و به تبع آن در زمینه‌ها و حوزه‌ها و ذیل قانونهای مختلفی قرار دارد، منطقی است که این جزییات ارائه نشوند. در عوض، نیازمند تناسب هستیم؛ بدین معنا که تمام معیارهای مربوط باید «مناسب شرایط باشند». به طور کلی این امر نشان می‌دهد که باید رابطه معکوسی میان نظارت انسانی و سایر مکانیزمهای حفاظتی وجود داشته باشد؛ جایی که «با فرض برابر بودن همه چیز: هر چه توانایی انسان به نظارت بر سیستم هوش مصنوعی کمتر باشد، آزمایش‌های گسترده‌تر و کنترل دقیق‌تری نیاز است».
بر همین مبنا، نظارت انسانی در طرح ایالات متحده بر اساس کاربرد خاصی که دارد، توجیه می‌شود و بر اساس همین کاربرد خاص و برای استقرار در جهان واقعی سفارشی‌سازی می‌گردد.

نتیجه
معاهده‌ای که یک سیستم نظارت انسانی بر هوش مصنوعی را برقرار می‌سازد، تنها باید هوش‌هایی را پوشش دهد که در بخش‌های استخدام، آموزش و اعمال قانون/عدالت کیفری قرار دارند و این نظارت مخصوص به آن بخش و زمینه باشد. ناظران باید به درستی از جمله در مورد مخاطرات سوگیری خودکار، آموزش دیده بوده و در طول کل دوره عملکرد هوش مصنوعی بر آن نظارت داشته باشند. ]۱۲[

[۱] https://www.mjilonline.org/the-international-communitys-need-for human-oversight-in-artificial-intelligence/
[2] The proposed AI ACT
[3] The Ethics Guidelines for Trustworthy AI
[4] The Assessment list for Trustworthy AI
[5] The Chief Digital and AI Office
[6] The AI Bill of Rights Blueprint
[7] انسان جزئی از چرخه تصمیم گیری است (Human in the Loop)
[8] انسان جزئی از فرایند طراحی چرخه و نظارت بر عملکرد است (Human on Loop)
[9] انسان بر کل فعالیت سیستم هوش مصنوعی نظارت دارد (Human in Command)
[10] این فکر که عملکرد یک ماشین یا تصمیم¬گیری یک سیستم خودکار، بهتر از تصمیم انسانی است. (automation bias)
[11] Scope and Context
]12[ ویراستار ادبی: صادق بشیره(گروه پژوهشی اکادمی بیگدلی)

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *