درک دامنه کنوانسیون چارچوب شورای اروپا در مورد هوش مصنوعی

درک دامنه کنوانسیون چارچوب شورای اروپا در مورد هوش مصنوعی[۱]

Karolína Babická & Cristina Giacomin

مترجم: صادق بشیره

دانشجوی دکتری حقوق بین‌الملل دانشگاه علامه طباطبایی

ویراستار علمی: دکتر حمیدرضا رحمانی‌زاده دهکردی

دانشیار دانشکده حقوق و علوم سیاسی دانشگاه علامه طباطبایی

بررسی اجمالی ]کنوانسیون[

در دو سال گذشته، کمیته هوش مصنوعی شورای اروپا [۲]درباره کنوانسیون چارچوب در مورد هوش مصنوعی، حقوق بشر، دموکراسی و حاکمیت قانون[۳] کار کرده است. متن نهایی کنوانسیون چارچوب در مورد هوش مصنوعی، حقوق بشر، دموکراسی و حاکمیت قانون در تاریخ ۱۷ مه ۲۰۲۴ به تصویب رسید. این کنوانسیون در تاریخ ۵ سپتامبر ۲۰۲۴ برای امضا گشوده شد. اتحادیه اروپا، ایالات متحده آمریکا، بریتانیا، اسرائیل، نروژ، گرجستان، مولداوی، ایسلند، آندورا و سان‌مارینو از جمله نخستین امضاکنندگان این کنوانسیون بوده‌اند.

کنوانسیون چارچوب هوش مصنوعی توسط نمایندگان ۴۶ کشور عضو شورای اروپا و با مشارکت سایر کشورها و سازمان‌ها تهیه شد. ناظران شامل اتحادیه اروپا و چند کشور غیرعضو (از جمله استرالیا، آرژانتین، کانادا، کاستاریکا، اسرائیل، ژاپن، مکزیک، پرو، واتیکان، ایالات متحده آمریکا و اروگوئه) بودند. این کنوانسیون برای امضا توسط کشورهای عضو شورای اروپا، اتحادیه اروپا و کشورهای غیرعضوی که در تهیه آن مشارکت داشتند، مفتوح است. سایر کشورهای غیرعضو می‌توانند پس از لازم‌الاجرا شدن کنوانسیون، بنا به دعوت و با اجماع تمامی طرف‌های کنوانسیون و با مشورت‌ کمیته وزیران شورای اروپا به کنوانسیون ملحق شوند(مواد ۳۰ و ۳۱). نمایندگانی از جامعه مدنی، دانشگاهیان، صنعت و سازمان‌های بین‌المللی نیز در تدوین این کنوانسیون مشارکت داشتند.

هدف کنوانسیون چارچوب در مورد هوش مصنوعی، حقوق بشر، دموکراسی و حاکمیت قانون حصول اطمینان از این موضوع است که کلیه فعالیت‌ها در سراسر چرخه حیات سامانه‌های هوش مصنوعی، کاملا منطبق با حقوق بشر، دموکراسی و حاکمیت قانون باشد(ماده ۱). این کنوانسیون همچنین به تعاریف، دامنه شمول و تعهدات کلی کشورها در زمینه حمایت از حقوق بشر، فرآیندهای دموکراتیک و رعایت حاکمیت قانون می‌پردازد. فصل سوم (مواد ۶ تا ۱۳) اصول مربوط به اجرای فعالیت‌ها را شناسایی می‌کند. به ‌عنوان نمونه، اصول برابری و عدم تبعیض، اصول کرامت انسانی، شفافیت، پاسخگویی و نوآوری ایمن در این فصل معرفی شده‌اند. فصل چهارم (مواد ۱۴ و ۱۵) به موضوع جبران خسارت‌ها اختصاص یافته است. فصل پنجم (ماده ۱۶) بر مدیریت ریسک و ارزیابی اثرات تمرکز دارد. فصل ششم (مواد ۱۷ تا ۲۲) به اجرای کنوانسیون می‌پردازد و مقرراتی از جمله ماده ۱۸ در خصوص حقوق کودکان و اشخاص دارای معلولیت، یا ماده ۲۰ درباره سواد و مهارت‌های دیجیتال را شامل می‌شود. فصل هفتم (مواد ۲۳ تا ۲۶) سازکارهای پیگیری و همکاری را ایجاد می‌کند و مطابق ماده ۲۶، یک سازکار نظارتی الزام‎آور را معرفی می‌نماید.

دامنه شمول کنوانسیون در مورد هوش مصنوعی

مطابق ماده ۳ کنوانسیون دامنه آن «… شامل فعالیت‌های چرخه حیات سامانه‌های هوش مصنوعی می‌شود که این قابلیت را دارند تا در حقوق بشر، دموکراسی و حاکمیت قانون مداخله نمایند …

الف) فعالیت‌هایی که توسط مقامات عمومی یا کنشگران خصوصی که از جانب آنان اقدام می‌کنند، انجام می‌پذیرد…

ب) هر کشور طرف کنوانسیون باید خطرات و آثار ناشی از فعالیت‌های چرخه حیات سامانه‌های هوش مصنوعی توسط کنشگران خصوصی را، تا آن‌جا که در جزء (الف) پوشش داده نشده است، به نحوی که منطبق با موضوع و هدف این کنوانسیون باشد، مورد رسیدگی قرار دهد.

هر کشور طرف معاهده باید در قالب یک اعلامیه که در زمان امضا یا هنگام تودیع سند تصویب، پذیرش، تایید یا الحاق به دبیر کل شورای اروپا تسلیم می‌نماید، مشخص سازد که قصد دارد این تعهد را چگونه اجرا کند؛ خواه از طریق اعمال اصول و تکالیف مندرج در فصول دوم تا ششم این کنوانسیون در مورد فعالیت‌های کنشگران خصوصی، یا از طریق اتخاذ تدابیر مقتضی دیگر به منظور ایفای تعهد مقرر در این بند. طرفین می‌توانند در هر زمان و به همان طریق، اعلامیه‌های خویش را اصلاح نمایند…»

ماده ۳.۱ نتیجه دیدگاه‌های متضاد و فشارهای سیاسی است. ماموریت کمیته هوش مصنوعی کنوانسیون را به ‌عنوان یک سند الزام‌آور حقوقی با ماهیتی فرابخشی تعریف می‌کند و گزارش توضیحی بر قصد الزام‌آور کردن کنوانسیون برای هر دو گروه بازیگران دولتی و خصوصی تاکید دارد. از سوی دیگر، گزارش‌های رسانه‌ای نشان می‌دهند که برخی کشورها از جمله ایالات متحده، بریتانیا، ژاپن و اسرائیل حذف بخش خصوصی و محدود کردن دامنه شمول کنوانسیون به فعالیت‌های مقامات دولتی و بازیگران خصوصی که به نمایندگی از آن‌ها عمل می‌کنند را خواستار بودند. هر دو رویکرد از سوی بازیگران مختلف از جمله سازمان‌های جامعه مدنی، نهادهای شورای اروپا، نهادهای اتحادیه اروپا و نمایندگان سازمان ملل متحد مورد انتقاد قرار گرفته است.

کنوانسیون مقامات دولتی یا بازیگران خصوصی که به نمایندگی از آن‌ها عمل می‌کنند را دربرمی‌گیرد و به‌ صورت پیش‌فرض فعالیت‌های سایر بازیگران خصوصی را پوشش نمی‌دهد. در خصوص سایر بازیگران خصوصی، کشورهای طرف کنوانسیون از انعطاف قابل توجهی برخوردارند – آن‌ها می‌توانند از طریق اعلامیه‌ای تصمیم بگیرند که چگونه به خطرات و تاثیرات ناشی از فعالیت‌ها در طول چرخه حیات سامانه‌های هوش مصنوعی رسیدگی کنند. به‌ ویژه آن‌ها می‌توانند اعلام نمایند که قواعد و اصول مندرج در کنوانسیون را اعمال می‌کنند یا تدابیر مناسب دیگری برای مدیریت ریسک‌ها و تاثیرات ناشی از فعالیت‌های هوش مصنوعی اتخاذ می‌نمایند. با این حال، نه متن کنوانسیون و نه گزارش توضیحی مشخص نمی‌کنند که این «تدابیر مناسب دیگر» چه هستند و یا این الزام به ‌طور مشخص شامل چه مواردی می‌شود. این ابهام می‌تواند به قطعیت و پیش‌بینی‌پذیری این مقررات آسیب برساند و هدف کلی کنوانسیون، یعنی تضمین سازگاری تمامی فعالیت‌ها در چرخه حیات سامانه‌های هوش مصنوعی با حقوق بشر، دموکراسی و حاکمیت قانون را به خطر اندازد. این ریسک با توجه به نقش مهم بخش خصوصی در توسعه و به‌کارگیری سامانه‌های هوش مصنوعی جدی‌تر به نظر می‌رسد.

ماده ۳.۲ «تمام فعالیت‌های مرتبط با چرخه حیات سامانه‌های هوش مصنوعی که به حفاظت از منافع ملی مربوط می‌شوند» را از دامنه کنوانسیون خارج می‌کند. این یکی از سه استثنایی است که در متن نهایی کنوانسیون چارچوب هوش مصنوعی در نظر گرفته شده است. گزارش توضیحی تصریح دارد که این استثنا، بدون توجه به نوع نهادهای دخیل در آن، شامل تمام فعالیت‌های مرتبط با منافع امنیت ملی می‌شود.

این بند یک استثنای گسترده برای تمامی فعالیت‌های مرتبط با امنیت ملی است. حتی اگر بند مذکور به ضرورت رعایت چارچوب حقوق بین‌الملل بشر تاکید کند، کشورها ممکن است همچنان تلاش نمایند تا با استفاده از توجیهات امنیت ملی از انجام تعهدات حقوق بشری خود شانه خالی کنند. استفاده از توجیهات امنیت ملی برای اجتناب از رعایت حقوق بشر در حوزه هوش مصنوعی قبلا توسط سازمان‌های غیردولتی و گزارشگران ویژه سازمان ملل متحد مورد اشاره قرار گرفته است.

استثنای کلی مبتنی بر دلایل امنیت ملی با رویکرد محتاطانه‌تر دیوان اروپایی حقوق بشر(ECtHR) در مورد توازن بین منافع مختلف و حقوق همسو نیست. کنوانسیون اروپایی حقوق بشر(ECHR) امکان محدود کردن برخی حق‌ها را به رسمیت می‌شناسد، به ‌ویژه طبق ماده ۶ (حق دسترسی به دادرسی عادلانه)، ماده ۸ (حق زندگی خصوصی و خانوادگی)، ماده ۹ (آزادی اندیشه، وجدان و مذهب)، ماده ۱۰ (آزادی بیان)، ماده ۱۱ (آزادی تجمع و انجمن) و ماده ۲ پروتکل شماره ۴ که امنیت ملی را به ‌عنوان دلیل مشروع برای محدودیت ]حقوق بشر[ به رسمیت می‌شناسد. با این حال، مواد ۸ تا ۱۱ ECHR اجازه محدود کردن حق‌ها را تنها زمانی می‌دهند که به واسطه قانون پیش‌بینی شده و در جامعه دموکراتیک ضروری باشد.

دیوان معمولا بررسی می‌کند که آیا محدود کردن یک حق مشروع، ضروری و متناسب با هدفی مشروع دنبال‌ شده است یا خیر. ECtHR همچنین در قضایای مختلفی رای داده است که در آن‌ها کشورها توجیهات امنیت ملی را برای کاهش حمایت از حقوق بشر به‌ ویژه در زمینه مبارزه با تروریسم مطرح کرده‌اند. در این زمینه، دیوان موضعی یکسان در رویه قضایی خود اتخاذ نکرده و گاهی به کشورهای عضو اختیار عمل گسترده‌تر یا محدودتری داده است.

بند سوم ماده ۳، با استثنا کردن «فعالیت‌های تحقیق و توسعه مرتبط با هوش مصنوعی که هنوز برای استفاده در دسترس نیستند»، محدودیت قابل توجهی بر دامنه شمول کنوانسیون چارچوب هوش مصنوعی اعمال می‌نماید. این مقرره امکان کنترل اولیه بر تطابق فناوری‌ها با حقوق بشر را فراهم نمی‌کند و می‌تواند به ایجاد فناوری‌هایی منجر شود که به‌ صورت پیش‌فرض با حقوق بشر مطابقت ندارند.

این استثنا با نسخه اصلی ]و اولیه[ کنوانسیون چارچوب هوش مصنوعی که به‌ طور صریح اعمال کنوانسیون را بر مراحل طراحی و توسعه سامانه‌های هوش مصنوعی به رسمیت می‌شناخت، در تضاد است. همچنین کنوانسیون مشخص نمی‌کند که چگونه فعالیت‌های بالقوه مضر شناسایی شوند. در نتیجه، متن فضایی برای عدم قطعیت حقوقی ایجاد می‌کند که ممکن است به تفسیر نادرست در خصوص اعمال این مقرره منجر شود.

ماده ۳.۴ تمام «فعالیت‌های مرتبط با دفاع ملی» را از دامنه شمول کنوانسیون استثنا می‌کند. این استثنای مطلق برای سامانه‌های هوش مصنوعی مورد استفاده در دفاع ملی، شکاف قابل توجهی در حفاظت از حقوق بشر ایجاد می‌کند. کشورها می‌توانند به‌ سادگی از توجیهات دفاع ملی برای نقض حقوق بشر استفاده کنند، مشابه آنچه در مورد امنیت ملی رخ می‌دهد. این امر به‌ ویژه با توجه به استفاده گسترده از سامانه‌های هوش مصنوعی در توسعه و تولید سلاح‌های خودکار نگران‌کننده است. با این حال، این استثنا ذیل کنوانسیون به این معنا نیست که چارچوب حقوق بشر شورای اروپا در فعالیت‌های دفاع ملی اعمال نمی‌شود.

ماده ۳.۴ از ماده ۱ (د) اساسنامه شورای اروپا الهام گرفته است. در واقع، مسائلی مانند دفاع/هزینه‌های نظامی، تسلیحات، اتحادها، انجام عملیات نظامی یا جنبه‌های سیاسی دفاع که مربوط به امور حاکمیتی‌اند، از صلاحیت‌های شورای اروپا خارج‌ هستند. با این حال، بر اساس مواد ۱ (الف) و (ب) و ماده ۳ اساسنامه شورای اروپا، این شورا صلاحیت دارد بر تمامی امور مرتبط با حفاظت از حقوق بشر، حفاظت از نهادهای دموکراتیک و سازکارهای پاسخگویی، و رعایت حاکمیت قانون نظارت داشته باشد. ماده ۱ (ب) اساسنامه این صلاحیت را به توافقات و اقدامات مشترک در زمینه‌های اقتصادی، اجتماعی، فرهنگی، علمی، حقوقی و اداری گسترش می‌دهد.

ماده ۳.۴ کنونی همچنین سامانه‌هایی که برای اهداف نظامی توسعه یافته‌اند را استثنا می‌کند، حتی اگر منحصرا برای این اهداف طراحی شده باشند. ]چرا که[ پیشرفت‌های فناوری اغلب در زمینه‌های نظامی آغاز می‌شوند و سپس به ‌طور غیرمنتظره در کاربردهای مدنی مورد استفاده قرار می‌گیرند. مهم‌تر این که عدم صلاحیت شورای اروپا در امور دفاع ملی ]چنان که گفته شد[ به این معنا نیست که چارچوب حقوق بشر آن بر فعالیت‌های دفاع ملی اعمال نمی‌شود. در واقع، تمامی ارزش‌هایی که کنوانسیون چارچوب قصد حفاظت از آن‌ها را دارد، یعنی حقوق بشر و آزادی‌های بنیادین، دموکراسی و حاکمیت قانون، به همان اندازه در موارد یا موقعیت‌های دفاع ملی نیز کاربرد دارند. این امر از مفاد ماده ۱۵ ECHR که اجازه استثنا در زمان جنگ را می‌دهد، مشهود است. ]به این ترتیب،[ در خصوص این بند ]یعنی ماده ۳.۴[، طراحان کنوانسیون توصیه‌های متعدد سازمان‌های جامعه مدنی و نهادهای حقوق بشری را دنبال نکرده‌اند. در مقابل، کمیسیون اتحادیه اروپا برای استثنا شدن صریح سامانه‌های هوش مصنوعی که صرفا برای امنیت ملی و اهداف دفاعی توسعه یافته‌اند لابی کرد تا کنوانسیون چارچوب هوش مصنوعی با قانون اخیر هوش مصنوعی اتحادیه اروپا هماهنگ شود.

کلیدهای اجرای موثر

تصویب کنوانسیون گامی حیاتی برای تضمین آن است که فناوری‌های هوش مصنوعی به‌گونه‌ای توسعه یابند و به‌کارگیری شوند که حقوق بشر را رعایت و حمایت کنند. این کنوانسیون ضمانت‌های حیاتی را چنان که در فصل سوم آن تشریح شده است، از جمله پیرامون اصول کرامت انسانی، برابری و عدم تبعیض، شفافیت، پاسخگویی، حفظ حریم خصوصی و حفاظت از داده‌های شخصی و نوآوری ایمن معرفی می‌کند. این اصول در کنار هم چارچوبی ایجاد می‌کنند که هدف آن کاهش خطرات ناشی از هوش مصنوعی در عین بهره‌برداری از فواید آن است. با ادغام این ضمانت‌ها در قوانین ]کشورها[، کنوانسیون نقش اساسی خود را در هدایت توسعه و به‌کارگیری مسئولانه سامانه‌های هوش مصنوعی ایفا می‌کند و اطمینان می‌دهد که این سامانه‌ها حقوق بشر را تقویت کنند، نه تضعیف.

با این حال، شکاف‌های موجود در دامنه فعلی کنوانسیون می‌توانند امکان رفتارهایی را فراهم کنند که تاثیر منفی بر حفاظت از حقوق بشر دارند. کشورهای طرف کنوانسیون اختیار وسیعی در تصمیم‌گیری دارند که کنوانسیون آیا بر بازیگران خصوصی اعمال شود یا خیر و استثنای فعالیت‌های تحقیق و توسعه، همراه با دو استثنای دیگر مبتنی بر امنیت و دفاع ملی، حوزه‌های بسیار مهم برای کاربرد سامانه‌های هوش مصنوعی را از قلم می‌اندازد.

کشورها هنگام تصمیم‌گیری برای امضا و تصویب کنوانسیون، این فرصت را دارند که حفاظت کامل از حقوق بشر را هنگام استفاده از سامانه‌های هوش مصنوعی توسط هر دو نهاد دولتی و خصوصی انتخاب کنند. به ‌ویژه برای تضمین تطابق تمام فعالیت‌ها در چرخه حیات سامانه‌های هوش مصنوعی با حقوق بشر، دموکراسی و حاکمیت قانون، کشورهای عضو در اعلامیه‌های خود باید راه ‌حلی را انتخاب کنند که سطح یکسانی از حفاظت حقوق بشر را در هر دو بخش دولتی و خصوصی تضمین نماید. کنوانسیون باید به یک اندازه بر بازیگران دولتی و خصوصی اعمال شود.

طرفین باید اطمینان حاصل کنند که استثنای منافع امنیت ملی در ماده ۳.۲ تنها زمانی اعمال شود که تطابق فعالیت‌ سامانه‌های هوش مصنوعی با تعهدات حقوق بشری آن‌ها تضمین گردد. همچنین مطابق با هدف اصلی کنوانسیون، طرفین باید کنوانسیون را تا حد امکان بر فعالیت‌های تحقیق و توسعه(ماده ۳.۳) و همچنین در حوزه دفاع ملی(ماده ۳.۴) اعمال کنند.

تا کنون از میان ده کشور نخست امضا‌کننده، تنها نروژ چنین اعلامیه‌ای را به منظور تضمین اعمال اصول و تعهدات مندرج در فصول دوم تا ششم کنوانسیون پیرامون فعالیت‌های بازیگران خصوصی اتخاذ کرده است. برای فراهم آوردن بالاترین سطح حفاظت از حقوق بشر، سایر کشورهای امضا‌کننده باید از این نمونه پیروی کنند.

[۱] https://opiniojuris.org/2024/11/05/understanding-the-scope-of-the-council-of-europe-framework-convention-on-ai/

[2] Committee on Artificial Intelligence (CAI) of the Council of Europe (CoE)

[3] the Framework Convention (FC) on Artificial Intelligence, Human Rights, Democracy and the Rule of Law.

 

 

 

 

 

 

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *