درک دامنه کنوانسیون چارچوب شورای اروپا در مورد هوش مصنوعی[۱]
Karolína Babická & Cristina Giacomin
مترجم: صادق بشیره
دانشجوی دکتری حقوق بینالملل دانشگاه علامه طباطبایی
ویراستار علمی: دکتر حمیدرضا رحمانیزاده دهکردی
دانشیار دانشکده حقوق و علوم سیاسی دانشگاه علامه طباطبایی
بررسی اجمالی ]کنوانسیون[
در دو سال گذشته، کمیته هوش مصنوعی شورای اروپا [۲]درباره کنوانسیون چارچوب در مورد هوش مصنوعی، حقوق بشر، دموکراسی و حاکمیت قانون[۳] کار کرده است. متن نهایی کنوانسیون چارچوب در مورد هوش مصنوعی، حقوق بشر، دموکراسی و حاکمیت قانون در تاریخ ۱۷ مه ۲۰۲۴ به تصویب رسید. این کنوانسیون در تاریخ ۵ سپتامبر ۲۰۲۴ برای امضا گشوده شد. اتحادیه اروپا، ایالات متحده آمریکا، بریتانیا، اسرائیل، نروژ، گرجستان، مولداوی، ایسلند، آندورا و سانمارینو از جمله نخستین امضاکنندگان این کنوانسیون بودهاند.
کنوانسیون چارچوب هوش مصنوعی توسط نمایندگان ۴۶ کشور عضو شورای اروپا و با مشارکت سایر کشورها و سازمانها تهیه شد. ناظران شامل اتحادیه اروپا و چند کشور غیرعضو (از جمله استرالیا، آرژانتین، کانادا، کاستاریکا، اسرائیل، ژاپن، مکزیک، پرو، واتیکان، ایالات متحده آمریکا و اروگوئه) بودند. این کنوانسیون برای امضا توسط کشورهای عضو شورای اروپا، اتحادیه اروپا و کشورهای غیرعضوی که در تهیه آن مشارکت داشتند، مفتوح است. سایر کشورهای غیرعضو میتوانند پس از لازمالاجرا شدن کنوانسیون، بنا به دعوت و با اجماع تمامی طرفهای کنوانسیون و با مشورت کمیته وزیران شورای اروپا به کنوانسیون ملحق شوند(مواد ۳۰ و ۳۱). نمایندگانی از جامعه مدنی، دانشگاهیان، صنعت و سازمانهای بینالمللی نیز در تدوین این کنوانسیون مشارکت داشتند.
هدف کنوانسیون چارچوب در مورد هوش مصنوعی، حقوق بشر، دموکراسی و حاکمیت قانون حصول اطمینان از این موضوع است که کلیه فعالیتها در سراسر چرخه حیات سامانههای هوش مصنوعی، کاملا منطبق با حقوق بشر، دموکراسی و حاکمیت قانون باشد(ماده ۱). این کنوانسیون همچنین به تعاریف، دامنه شمول و تعهدات کلی کشورها در زمینه حمایت از حقوق بشر، فرآیندهای دموکراتیک و رعایت حاکمیت قانون میپردازد. فصل سوم (مواد ۶ تا ۱۳) اصول مربوط به اجرای فعالیتها را شناسایی میکند. به عنوان نمونه، اصول برابری و عدم تبعیض، اصول کرامت انسانی، شفافیت، پاسخگویی و نوآوری ایمن در این فصل معرفی شدهاند. فصل چهارم (مواد ۱۴ و ۱۵) به موضوع جبران خسارتها اختصاص یافته است. فصل پنجم (ماده ۱۶) بر مدیریت ریسک و ارزیابی اثرات تمرکز دارد. فصل ششم (مواد ۱۷ تا ۲۲) به اجرای کنوانسیون میپردازد و مقرراتی از جمله ماده ۱۸ در خصوص حقوق کودکان و اشخاص دارای معلولیت، یا ماده ۲۰ درباره سواد و مهارتهای دیجیتال را شامل میشود. فصل هفتم (مواد ۲۳ تا ۲۶) سازکارهای پیگیری و همکاری را ایجاد میکند و مطابق ماده ۲۶، یک سازکار نظارتی الزامآور را معرفی مینماید.
دامنه شمول کنوانسیون در مورد هوش مصنوعی
مطابق ماده ۳ کنوانسیون دامنه آن «… شامل فعالیتهای چرخه حیات سامانههای هوش مصنوعی میشود که این قابلیت را دارند تا در حقوق بشر، دموکراسی و حاکمیت قانون مداخله نمایند …
الف) فعالیتهایی که توسط مقامات عمومی یا کنشگران خصوصی که از جانب آنان اقدام میکنند، انجام میپذیرد…
ب) هر کشور طرف کنوانسیون باید خطرات و آثار ناشی از فعالیتهای چرخه حیات سامانههای هوش مصنوعی توسط کنشگران خصوصی را، تا آنجا که در جزء (الف) پوشش داده نشده است، به نحوی که منطبق با موضوع و هدف این کنوانسیون باشد، مورد رسیدگی قرار دهد.
هر کشور طرف معاهده باید در قالب یک اعلامیه که در زمان امضا یا هنگام تودیع سند تصویب، پذیرش، تایید یا الحاق به دبیر کل شورای اروپا تسلیم مینماید، مشخص سازد که قصد دارد این تعهد را چگونه اجرا کند؛ خواه از طریق اعمال اصول و تکالیف مندرج در فصول دوم تا ششم این کنوانسیون در مورد فعالیتهای کنشگران خصوصی، یا از طریق اتخاذ تدابیر مقتضی دیگر به منظور ایفای تعهد مقرر در این بند. طرفین میتوانند در هر زمان و به همان طریق، اعلامیههای خویش را اصلاح نمایند…»
ماده ۳.۱ نتیجه دیدگاههای متضاد و فشارهای سیاسی است. ماموریت کمیته هوش مصنوعی کنوانسیون را به عنوان یک سند الزامآور حقوقی با ماهیتی فرابخشی تعریف میکند و گزارش توضیحی بر قصد الزامآور کردن کنوانسیون برای هر دو گروه بازیگران دولتی و خصوصی تاکید دارد. از سوی دیگر، گزارشهای رسانهای نشان میدهند که برخی کشورها از جمله ایالات متحده، بریتانیا، ژاپن و اسرائیل حذف بخش خصوصی و محدود کردن دامنه شمول کنوانسیون به فعالیتهای مقامات دولتی و بازیگران خصوصی که به نمایندگی از آنها عمل میکنند را خواستار بودند. هر دو رویکرد از سوی بازیگران مختلف از جمله سازمانهای جامعه مدنی، نهادهای شورای اروپا، نهادهای اتحادیه اروپا و نمایندگان سازمان ملل متحد مورد انتقاد قرار گرفته است.
کنوانسیون مقامات دولتی یا بازیگران خصوصی که به نمایندگی از آنها عمل میکنند را دربرمیگیرد و به صورت پیشفرض فعالیتهای سایر بازیگران خصوصی را پوشش نمیدهد. در خصوص سایر بازیگران خصوصی، کشورهای طرف کنوانسیون از انعطاف قابل توجهی برخوردارند – آنها میتوانند از طریق اعلامیهای تصمیم بگیرند که چگونه به خطرات و تاثیرات ناشی از فعالیتها در طول چرخه حیات سامانههای هوش مصنوعی رسیدگی کنند. به ویژه آنها میتوانند اعلام نمایند که قواعد و اصول مندرج در کنوانسیون را اعمال میکنند یا تدابیر مناسب دیگری برای مدیریت ریسکها و تاثیرات ناشی از فعالیتهای هوش مصنوعی اتخاذ مینمایند. با این حال، نه متن کنوانسیون و نه گزارش توضیحی مشخص نمیکنند که این «تدابیر مناسب دیگر» چه هستند و یا این الزام به طور مشخص شامل چه مواردی میشود. این ابهام میتواند به قطعیت و پیشبینیپذیری این مقررات آسیب برساند و هدف کلی کنوانسیون، یعنی تضمین سازگاری تمامی فعالیتها در چرخه حیات سامانههای هوش مصنوعی با حقوق بشر، دموکراسی و حاکمیت قانون را به خطر اندازد. این ریسک با توجه به نقش مهم بخش خصوصی در توسعه و بهکارگیری سامانههای هوش مصنوعی جدیتر به نظر میرسد.
ماده ۳.۲ «تمام فعالیتهای مرتبط با چرخه حیات سامانههای هوش مصنوعی که به حفاظت از منافع ملی مربوط میشوند» را از دامنه کنوانسیون خارج میکند. این یکی از سه استثنایی است که در متن نهایی کنوانسیون چارچوب هوش مصنوعی در نظر گرفته شده است. گزارش توضیحی تصریح دارد که این استثنا، بدون توجه به نوع نهادهای دخیل در آن، شامل تمام فعالیتهای مرتبط با منافع امنیت ملی میشود.
این بند یک استثنای گسترده برای تمامی فعالیتهای مرتبط با امنیت ملی است. حتی اگر بند مذکور به ضرورت رعایت چارچوب حقوق بینالملل بشر تاکید کند، کشورها ممکن است همچنان تلاش نمایند تا با استفاده از توجیهات امنیت ملی از انجام تعهدات حقوق بشری خود شانه خالی کنند. استفاده از توجیهات امنیت ملی برای اجتناب از رعایت حقوق بشر در حوزه هوش مصنوعی قبلا توسط سازمانهای غیردولتی و گزارشگران ویژه سازمان ملل متحد مورد اشاره قرار گرفته است.
استثنای کلی مبتنی بر دلایل امنیت ملی با رویکرد محتاطانهتر دیوان اروپایی حقوق بشر(ECtHR) در مورد توازن بین منافع مختلف و حقوق همسو نیست. کنوانسیون اروپایی حقوق بشر(ECHR) امکان محدود کردن برخی حقها را به رسمیت میشناسد، به ویژه طبق ماده ۶ (حق دسترسی به دادرسی عادلانه)، ماده ۸ (حق زندگی خصوصی و خانوادگی)، ماده ۹ (آزادی اندیشه، وجدان و مذهب)، ماده ۱۰ (آزادی بیان)، ماده ۱۱ (آزادی تجمع و انجمن) و ماده ۲ پروتکل شماره ۴ که امنیت ملی را به عنوان دلیل مشروع برای محدودیت ]حقوق بشر[ به رسمیت میشناسد. با این حال، مواد ۸ تا ۱۱ ECHR اجازه محدود کردن حقها را تنها زمانی میدهند که به واسطه قانون پیشبینی شده و در جامعه دموکراتیک ضروری باشد.
دیوان معمولا بررسی میکند که آیا محدود کردن یک حق مشروع، ضروری و متناسب با هدفی مشروع دنبال شده است یا خیر. ECtHR همچنین در قضایای مختلفی رای داده است که در آنها کشورها توجیهات امنیت ملی را برای کاهش حمایت از حقوق بشر به ویژه در زمینه مبارزه با تروریسم مطرح کردهاند. در این زمینه، دیوان موضعی یکسان در رویه قضایی خود اتخاذ نکرده و گاهی به کشورهای عضو اختیار عمل گستردهتر یا محدودتری داده است.
بند سوم ماده ۳، با استثنا کردن «فعالیتهای تحقیق و توسعه مرتبط با هوش مصنوعی که هنوز برای استفاده در دسترس نیستند»، محدودیت قابل توجهی بر دامنه شمول کنوانسیون چارچوب هوش مصنوعی اعمال مینماید. این مقرره امکان کنترل اولیه بر تطابق فناوریها با حقوق بشر را فراهم نمیکند و میتواند به ایجاد فناوریهایی منجر شود که به صورت پیشفرض با حقوق بشر مطابقت ندارند.
این استثنا با نسخه اصلی ]و اولیه[ کنوانسیون چارچوب هوش مصنوعی که به طور صریح اعمال کنوانسیون را بر مراحل طراحی و توسعه سامانههای هوش مصنوعی به رسمیت میشناخت، در تضاد است. همچنین کنوانسیون مشخص نمیکند که چگونه فعالیتهای بالقوه مضر شناسایی شوند. در نتیجه، متن فضایی برای عدم قطعیت حقوقی ایجاد میکند که ممکن است به تفسیر نادرست در خصوص اعمال این مقرره منجر شود.
ماده ۳.۴ تمام «فعالیتهای مرتبط با دفاع ملی» را از دامنه شمول کنوانسیون استثنا میکند. این استثنای مطلق برای سامانههای هوش مصنوعی مورد استفاده در دفاع ملی، شکاف قابل توجهی در حفاظت از حقوق بشر ایجاد میکند. کشورها میتوانند به سادگی از توجیهات دفاع ملی برای نقض حقوق بشر استفاده کنند، مشابه آنچه در مورد امنیت ملی رخ میدهد. این امر به ویژه با توجه به استفاده گسترده از سامانههای هوش مصنوعی در توسعه و تولید سلاحهای خودکار نگرانکننده است. با این حال، این استثنا ذیل کنوانسیون به این معنا نیست که چارچوب حقوق بشر شورای اروپا در فعالیتهای دفاع ملی اعمال نمیشود.
ماده ۳.۴ از ماده ۱ (د) اساسنامه شورای اروپا الهام گرفته است. در واقع، مسائلی مانند دفاع/هزینههای نظامی، تسلیحات، اتحادها، انجام عملیات نظامی یا جنبههای سیاسی دفاع که مربوط به امور حاکمیتیاند، از صلاحیتهای شورای اروپا خارج هستند. با این حال، بر اساس مواد ۱ (الف) و (ب) و ماده ۳ اساسنامه شورای اروپا، این شورا صلاحیت دارد بر تمامی امور مرتبط با حفاظت از حقوق بشر، حفاظت از نهادهای دموکراتیک و سازکارهای پاسخگویی، و رعایت حاکمیت قانون نظارت داشته باشد. ماده ۱ (ب) اساسنامه این صلاحیت را به توافقات و اقدامات مشترک در زمینههای اقتصادی، اجتماعی، فرهنگی، علمی، حقوقی و اداری گسترش میدهد.
ماده ۳.۴ کنونی همچنین سامانههایی که برای اهداف نظامی توسعه یافتهاند را استثنا میکند، حتی اگر منحصرا برای این اهداف طراحی شده باشند. ]چرا که[ پیشرفتهای فناوری اغلب در زمینههای نظامی آغاز میشوند و سپس به طور غیرمنتظره در کاربردهای مدنی مورد استفاده قرار میگیرند. مهمتر این که عدم صلاحیت شورای اروپا در امور دفاع ملی ]چنان که گفته شد[ به این معنا نیست که چارچوب حقوق بشر آن بر فعالیتهای دفاع ملی اعمال نمیشود. در واقع، تمامی ارزشهایی که کنوانسیون چارچوب قصد حفاظت از آنها را دارد، یعنی حقوق بشر و آزادیهای بنیادین، دموکراسی و حاکمیت قانون، به همان اندازه در موارد یا موقعیتهای دفاع ملی نیز کاربرد دارند. این امر از مفاد ماده ۱۵ ECHR که اجازه استثنا در زمان جنگ را میدهد، مشهود است. ]به این ترتیب،[ در خصوص این بند ]یعنی ماده ۳.۴[، طراحان کنوانسیون توصیههای متعدد سازمانهای جامعه مدنی و نهادهای حقوق بشری را دنبال نکردهاند. در مقابل، کمیسیون اتحادیه اروپا برای استثنا شدن صریح سامانههای هوش مصنوعی که صرفا برای امنیت ملی و اهداف دفاعی توسعه یافتهاند لابی کرد تا کنوانسیون چارچوب هوش مصنوعی با قانون اخیر هوش مصنوعی اتحادیه اروپا هماهنگ شود.
کلیدهای اجرای موثر
تصویب کنوانسیون گامی حیاتی برای تضمین آن است که فناوریهای هوش مصنوعی بهگونهای توسعه یابند و بهکارگیری شوند که حقوق بشر را رعایت و حمایت کنند. این کنوانسیون ضمانتهای حیاتی را چنان که در فصل سوم آن تشریح شده است، از جمله پیرامون اصول کرامت انسانی، برابری و عدم تبعیض، شفافیت، پاسخگویی، حفظ حریم خصوصی و حفاظت از دادههای شخصی و نوآوری ایمن معرفی میکند. این اصول در کنار هم چارچوبی ایجاد میکنند که هدف آن کاهش خطرات ناشی از هوش مصنوعی در عین بهرهبرداری از فواید آن است. با ادغام این ضمانتها در قوانین ]کشورها[، کنوانسیون نقش اساسی خود را در هدایت توسعه و بهکارگیری مسئولانه سامانههای هوش مصنوعی ایفا میکند و اطمینان میدهد که این سامانهها حقوق بشر را تقویت کنند، نه تضعیف.
با این حال، شکافهای موجود در دامنه فعلی کنوانسیون میتوانند امکان رفتارهایی را فراهم کنند که تاثیر منفی بر حفاظت از حقوق بشر دارند. کشورهای طرف کنوانسیون اختیار وسیعی در تصمیمگیری دارند که کنوانسیون آیا بر بازیگران خصوصی اعمال شود یا خیر و استثنای فعالیتهای تحقیق و توسعه، همراه با دو استثنای دیگر مبتنی بر امنیت و دفاع ملی، حوزههای بسیار مهم برای کاربرد سامانههای هوش مصنوعی را از قلم میاندازد.
کشورها هنگام تصمیمگیری برای امضا و تصویب کنوانسیون، این فرصت را دارند که حفاظت کامل از حقوق بشر را هنگام استفاده از سامانههای هوش مصنوعی توسط هر دو نهاد دولتی و خصوصی انتخاب کنند. به ویژه برای تضمین تطابق تمام فعالیتها در چرخه حیات سامانههای هوش مصنوعی با حقوق بشر، دموکراسی و حاکمیت قانون، کشورهای عضو در اعلامیههای خود باید راه حلی را انتخاب کنند که سطح یکسانی از حفاظت حقوق بشر را در هر دو بخش دولتی و خصوصی تضمین نماید. کنوانسیون باید به یک اندازه بر بازیگران دولتی و خصوصی اعمال شود.
طرفین باید اطمینان حاصل کنند که استثنای منافع امنیت ملی در ماده ۳.۲ تنها زمانی اعمال شود که تطابق فعالیت سامانههای هوش مصنوعی با تعهدات حقوق بشری آنها تضمین گردد. همچنین مطابق با هدف اصلی کنوانسیون، طرفین باید کنوانسیون را تا حد امکان بر فعالیتهای تحقیق و توسعه(ماده ۳.۳) و همچنین در حوزه دفاع ملی(ماده ۳.۴) اعمال کنند.
تا کنون از میان ده کشور نخست امضاکننده، تنها نروژ چنین اعلامیهای را به منظور تضمین اعمال اصول و تعهدات مندرج در فصول دوم تا ششم کنوانسیون پیرامون فعالیتهای بازیگران خصوصی اتخاذ کرده است. برای فراهم آوردن بالاترین سطح حفاظت از حقوق بشر، سایر کشورهای امضاکننده باید از این نمونه پیروی کنند.
[۱] https://opiniojuris.org/2024/11/05/understanding-the-scope-of-the-council-of-europe-framework-convention-on-ai/
[2] Committee on Artificial Intelligence (CAI) of the Council of Europe (CoE)
[3] the Framework Convention (FC) on Artificial Intelligence, Human Rights, Democracy and the Rule of Law.