حقیقت، اعتماد و هوش مصنوعی: عدالت و پاسخگویی در برابر جنایات بین‌المللی در عصر فریب دیجیتال

حقیقت، اعتماد و هوش مصنوعی: عدالت و پاسخگویی در برابر جنایات بین‌المللی در عصر فریب دیجیتال[۱]

Raquel Vázquez Llorente and Yvonne McDermott

مترجم: فاطمه میرآخورلی

دانشجوی دکتری حقوق بین‌الملل دانشگاه قم

ویراستار علمی: دکتر فاطمه کیهانلو

عضو هیئت علمی دانشگاه آزاد اسلامی

طی ۱۸ ماه گذشته، تجاری‌سازی نرم‌افزارهای کاربردی مبتنی بر هوش مصنوعی(AI) توانایی ما را برای ساختن تصاویر و ویدئوهای واقعی از اتفاقاتی که رخ نداده‌اند دگرگون کرده است. ابزارهای مولد هوش مصنوعی مانند Dall-E یا Midjourney به ما کمک می‌کنند تا با تغییر زوایای عکس‌ها، تصاویر متعددی از یک رویداد واحد ایجاد کنیم و این امر تشخیص واقعی یا جعلی بودن ترکیب‌بندی تصاویر را دشوارتر می‌کند. پیش از این، تولید چنین محتوایی به منابع، قدرت فنی و تخصص نیاز داشت که بیشتر مختص استودیوهای هالیوود بود. در حال حاضر، ساخت یک واقعیت جایگزین تنها با ۲۰ دلار در ماه برای بسیاری از ما ]افراد[ در دسترس است.

ما در یک محیط اطلاعاتی هستیم که به طور فزاینده‌ای رسانه‌های هوش مصنوعی و غیرهوش مصنوعی نه تنها همزیستی می‌کنند، بلکه در هم می‌آمیزند و یک اکوسیستم رسانه‌ای ترکیبی ایجاد می‌کنند. تکنیک‌هایی مانند “in-painting” و “out-painting” به کاربران این امکان را می‌دهند که به راحتی و بدون دستکاری قابل توجه، اشیا را در محتوای ضبط شده توسط انسان اضافه یا حذف کنند. جدیدترین قابلیت‌های صوتی، خروجی‌های واقعی را از متن یا گفتار تولید می‌کنند که وقتی با سایر انواع رسانه ترکیب شود حتی می‌توانند سیستم‌های امنیتی بانکی پیچیده را فریب دهند، این ممکن است به این معنی باشد که محتوای بصری یک ویدیو واقعی است، اما صدای همراه آن می‌تواند جعلی باشد و درک ما از یک رویداد را تغییر دهد یا بر عقاید و جهان‌بینی ما تاثیر بگذارد.

پس از پشت سر گذراندن بخش عمده‌ای از دهه گذشته به حمایت کردن و نوشتن در مورد امیدها و مشکلات ناشی از شواهد کاربرساز برای عدالت و پاسخگویی در قبال جنایات بین‌المللی، می‌بینیم که چگونه پیشرفت در هوش مصنوعی سمعی و بصری چالش‌های موجود در راستی‌آزمایی و احراز هویت محتوا را تشدید می‌کند و در عین حال چالش‌های جدیدی نیز ایجاد می‌شوند. در این مقاله، یافته‌های سطح بالایی از کار خود را با] پروژه[ شاهد و پروژه حقیقت به اشتراک می‌گذاریم و بررسی می‌کنیم که چگونه رسانه‌های مصنوعی بر اعتماد به اکوسیستم اطلاعاتی تاثیر می‌گذارند. همچنین توصیه‌هایی برای رسیدگی به مسائل مربوط به یکپارچگی ادله تولید شده توسط کاربر و استفاده از آن در دادگاه در بحبوحه ظهور هوش مصنوعی ارائه می‌دهیم.

رسانه مصنوعی و شواهد تولید شده توسط کاربر

تجاری‌سازی، سهولت استفاده و دسترسی به ابزارهای مولد هوش مصنوعی منجر به افزایش انتشار رسانه‌های مصنوعی ]از جمله[ تصویر، صدا یا ویدیوهایی شده است که به‌طور مصنوعی، به‌ویژه از طریق استفاده از هوش مصنوعی تولید شده‌اند. گاهی اوقات از این نوع محتوا به عنوان «جعل عمیق» یاد می‌شود، اگرچه مورد اخیر بیشتر زیرمجموعه‌ای از رسانه‌های مصنوعی است که در آن شباهت انسان به حدی است که به طور قابل باوری می‌توان فرد را در حال گفتن چیزی که نگفته یا کاری که انجام نداده است، به تصویر بکشد.

ادله تولید شده توسط کاربر یعنی اطلاعات دارای منابع محرمانه یا غیرمحرمانه‌ای که توسط اشخاص از طریق دستگاه‌های دیجیتال شخصی آن‌ها تولید می‌شود و ممکن است در رسیدگی‌های حقوقی مورد استفاده قرار بگیرند، به طور فزاینده‌ای برای مطلع کردن افکار عمومی در دیوان‌ها و دادگاه‌های بین‌المللی و داخلی به نمایش درمی‌آیند. این ادله در اوایل سال جاری در جلسات رسیدگی دیوان بین‌المللی دادگستری در خصوص قضیه آفریقای جنوبی علیه اسرائیل مورد اشاره قرار گرفتند. فراتر از روند حقوقی، رسانه‌های تولید شده توسط کاربران در تحقیقات حقوق بشر سازمان ملل متحد نیز نقش اساسی دارند.

در همین زمان، تقریبا هر روز ماجراهایی درباره تصاویر، ویدیوها یا ]فایل‌های [صوتی ساخته شده توسط هوش مصنوعی در رسانه‌ها منتشر می‌شدند. نمونه‌های اخیر از انتخابات در سرااسر جهان، تصاویر جنسی بدون توافق و کمپین‌ها در خصوص اطلاعات نادرست نشان می‌دهد که اصطلاح «جعل عمیق»(deepfake)در حال حاضر تا چه حد یکی از ویژگی‌های فضای رسانه‌ای است.

]سوال این است که [ نتیجه دانش گسترده‌تر ناشی از این پیشرفت‌های فناورانه برای ادله تولیدشده توسط کاربر در فرآیندهای پاسخگویی چه می‌تواند باشد؟ از یک طرف، احتیاط بیش از حد می‌تواند منجر به حذف یا عدم استنتاج اطلاعات مهم و مرتبط شود. از سوی دیگر، اتکای ناخواسته به یک جعل عمیق برای اثبات یک واقعیت می‌تواند به وضوح اثرات مخربی بر مشروعیت و اثربخشی آن تحقیقات یا محاکمه‌ها داشته باشد. در این زمینه، اعتمادی که ما برای محتوای سمعی و بصری قائل هستیم، نه تنها عواقب قابل توجهی در دادگاه و درک ما از انصاف دارد، بلکه می‌تواند بر نحوه مستندسازی جنایات بین‌المللی نیز تاثیر زیادی بگذارد.

بار شهادت و اثبات اصالت

پروژه شاهد(witness) از سال ۲۰۱۸ یک تلاش جهانی برای درک این که چگونه جعل عمیق، رسانه‌های مصنوعی و هوش مصنوعی مولد بر دموکراسی، بیان طنز]انتقادی[، عدالت بین‌المللی و حمایت از حقوق بشر تاثیر می‌گذارند را هدایت کرده است. برای بیش از یک سال است که ما یک نیروی آزمایشی راه‌اندازی کرده‌ایم که حقیقت‌سنج‌ها، روزنامه‌نگاران و محققان را با متخصصان پزشکی قانونی رسانه‌های پیشرو و متخصصان ترکیب هوش مصنوعی در ارتباط قرار می‌دهد. آن‌ها دانش و مدل‌های محاسباتی خود را به صورت رایگان ارائه می‌کنند، بنابراین ما می‌توانیم به سرعت به کسانی که در خط مقدم مبارزه دیجیتال با اطلاعات گمراه‌کننده هستند، کمک کنیم. به عنوان بخشی از این ابتکار، ما صوت‌های جعلی مشکوکی از کشورهایی مانند سودان، نیجریه، ونزوئلا، هند، مکزیک و همچنین انواع دیگری از محتوای بالقوه دستکاری‌شده با هوش مصنوعی از مناطقی دریافت کرده‌ایم که درگیری‌های مداوم یا خشونت گسترده‌ای را تجربه می‌کنند.

یافته‌های ما نشان می‌دهد که یک اکوسیستم اطلاعاتی مملو از رسانه‌های مصنوعی و محتوای واقعی‌تر و شخصی‌شده‌تر (نه تنها به معنی خوراک‌های رسانه‌ای شخصی‌‌سازی‌شده، بلکه اطلاعات فریبنده‌ای است که به طور قابل باوری هویت شخصیت‌های غیرسرشناس را جعل کرده و گاه خارج از نظارت عمومی منتشر می‌شوند) تشخیص حقیقت از دروغ را دشوارتر می‌کند. به طور فزاینده‌ای، بررسی‌کنندگان حقایق، روزنامه‌نگاران و سازمان‌های حقوق بشری که با محتوای سمعی و بصری، به‌ویژه اطلاعات دارای منابع غیرمحرمانه سروکار دارند، ممکن است توانایی خود برای تایید دستکاری شده بودن یا نبودن یک قطعه از محتوا را مورد تردید قرار دهند – و همان‌طور که تحقیقات پروژه شاهد نشان داده است، ابزارهای راستی‌آزمایی که در دسترس عموم قرار دارند دارای محدویت‌های قابل توجهی هستند.

به‌طور کلی‌تر، این ممکن است منجر به چیزی شود که آویو اوادیا(Aviv Ovadya) آن را «انفعال واقعیت»(reality apathy) می‌نامد: در مواجهه با جریان فزاینده اطلاعات گمراه‌کننده، مردم به سادگی از تلاش برای تشخیص واقعیت از دروغ دست می‌کشند. رایزنی‌های انجام‌شده توسط پروژه شاهد با سازمان‌های مردمی در آمریکای لاتین، آفریقا، ایالات متحده آمریکا و آسیای جنوب شرقی نشان داد که این کاهش اعتماد در اکوسیستم اطلاعاتی، به‌طور گسترده، بر فعالیت‌های میدانی سازمان‌های جامعه مدنی(CSOs) مانند مستندسازی نقض حقوق بشر و جنایات بین‌المللی تأثیر می‌گذارد. زمانی که صحت فیلم‌ها و تصاویر آن‌ها به راحتی زیر سوال رفته یا رد شود، اعتبار فیلم‌های سازمان‌های مدنی در معرض خطر قرار می‌گیرد. این امر، حمایت از عدالت و پاسخگویی را برای این سازمان‌ها چالش برانگیزتر می‌کند. اگر مستندسازان حقوق بشر موظف باشند صحت هر محتوایی را که ضبط می‌کنند با زحمت نشان دهند، در حالی که اصحاب دخیل در موضوع می‌توانند به طور هماهنگ ادعای جعلی بودن آن‌ها را مطرح کنند، خطر ایجاد شکل جدیدی از « بی عدالتی معرفت شناسانه »(epistemic injustice)افزایش می‌یابد؛ بدین معنا که طرف ضعیف‌تر ]ادله‌اش[ کمتر باور می‌شود.

دو فرایند به طور ویژه در این زمینه نگران‌کننده هستند. اولین مورد «انکارپذیری ظاهرا موجه» است. در سال ۲۰۱۸، دانیل سیترون(Danielle Citron) و رابرت چسنی(Robert Chesney) در مورد خطر «سود سفته‌بازان»[۲] نوشتند. آن‌ها این نظریه را مطرح کردند که همزمان با آگاهی عموم مردم از چگونگی استفاده از هوش مصنوعی برای تولید یا دستکاری تصاویر، صدا و ویدئو, انکار کردن یک محتوا به عنوان جعل عمیق برای کسانی که در دنیای واقعی فعالیتی انجام داده‌اند، ساده‌تر می‌شود. حتی اگر آن محتوا واقعی باشد صرف این احتمال که ممکن است ساختگی باشد، ایجاد تردید می‌کند و ممکن است منجر به عدم پاسخگویی در قبال اقدامات واقعی شود. برای مثال، دولتی که متهم به ارتکاب نقض حقوق بشر است ممکن است ادعا کند که شواهد ویدیویی ارائه‌شده علیه آن با هوش مصنوعی دستکاری شده است و بدین ترتیب از عواقب آن احتراز کند.

مورد دوم «باورپذیری ظاهرا موجه» است که در آن رسانه‌های دستکاری‌شده با ظاهری واقع‌گرایانه فرصتی را برای حامیان یک نهضت فراهم می‌کنند تا به باورهای موجود خود بچسبند و روایت‌های ریشه‌دار را تداوم بخشند. سالیان متمادی است که تحقیقات ثابت کرده که افراد هنگام مواجه شدن با مطالبی که نمی‌خواهند ببینند، شک و تردید بیشتری نشان می‌دهند تا زمان مواجه شدن با اطلاعاتی که با ترجیحاتشان مطابقت دارد. اگر بخشی از محتوای تولید شده توسط کاربر با جهان‌بینی قبلی شخصی مطابقت داشته باشد، احتمال بیشتری وجود دارد که بدون در نظر گرفتن صحت، آن را به عنوان واقعیت بپذیرد. این پذیرش انتخابی می‌تواند گرایش به قطبی‌سازی را تشدید و دستیابی به اجماع در مورد واقعیت‌های اساسی را دشوارتر کند.

در نتیجه، ظهور جعل‌های عمیق و رسانه‌های مصنوعی ، لایه جدیدی از پیچیدگی را آشکار می‌کند که در آن صحت و راستی‌آزمایی شواهد تحت بررسی و ارزیابی جدی قرار دارد. روزنامه‌نگاران، فعالان و مستندسازان حقوق بشر که تا پیش از این، بار سنگینی بر عهده داشتند، اکنون با چالشی مضاعف روبه‌رو هستند تا ثابت کنند که محتوای واقعی آن‌ها جعل پیچیده واقعیت نیست. این به منابع بیشتری برای تقویت و تایید نیاز دارد که می‌تواند زمان‌بر، پرخطر، پرهزینه یا دور از دسترس باشد. گام‌های اشتباه می‌تواند تاثیرات محسوسی بر اعتبار سازمان‌های مدنی داشته باشد، اما مهم‌تر از آن، افزایش تلاش‌های مورد نیاز برای ایجاد اعتبار می‌تواند منابع را از سایر فعالیت‌های حیاتی منحرف و تاثیر کلی ، کار آن‌ها را تضعیف کند.

اعتماد به ادله تولیدشده توسط کاربر در عصر هوش مصنوعی

ایجاد چشم‌انداز اعتماد به ادله تولیدشده توسط کاربر، به منظور بررسی تاثیر «انکارپذیری ظاهرا موجه» و «باورپذیری ظاهرا موجه» در عمل مهم است. پروژه حقیقت به دنبال آزمایش تجربی این فرضیه است که بزرگ‌ترین خطر با ظهور جعل عمیق و رسانه‌های مصنوعی احتمالا این نیست که فیلم‌های جعلی به دادگاه ارائه شوند، بلکه این است که فیلم‌های واقعی به راحتی با ادعای جعلی بودن رد ‌شوند. این پروژه دارای سه گروه تحقیقاتی به هم پیوسته است:

١- تحلیل حقوقی: ترسیم چگونگی ظهور جعل عمیق در قضایای سراسر جهان و انجام مصاحبه با متخصصان حقوقی؛

٢- آزمایش‌های روان‌شناختی: بررسی این که در چه شرایطی شواهد تولیدشده توسط کاربر کم و بیش قابل باور هستند و نیز ویژگی‌های ادله و شخص مشاهده‌کننده که به آن ارزیابی کمک می‌کند؛

٣- شبیه‌سازی‌های هیئت منصفه: بررسی چگونگی استدلال تصمیم‌گیرندگان و مبتنی کردن یافته‌ها بر ادله تولیدشده توسط کاربر در یک شبیه‌سازی واقع‌گرایانه و این که از چه عباراتی برای نشان دادن قابل اعتماد بودن آن شواهد استفاده می‌کنند.

تحلیل حقوقی ما تا کنون نشان داده است که استناد به اصطلاح «دفاع جعلی» بر اساس بررسی‌های دقیق رویه قضایی دادگاه‌های بین‌المللی و داخلی، شاید آن طور که انتظار می‌رود رایج نباشد. ما دریافته‌ایم که ادله تولیدشده توسط کاربر به روش‌های بی‌شماری به چالش کشیده می‌شوند، اما نسبتا به ندرت اتفاق می‌افتد که مخالفان ادعا کنند که این ادله توسط هوش مصنوعی تولید شده است.

یک استثنا قابل توجه در این زمینه، قضیه اوکراین و هلند علیه روسیه در دیوان اروپایی حقوق بشر است. یکی از شواهد این قضیه، عکس یک سرباز روسی به نام استانیسلاو تاراسف(Stanislav Tarasov) است که به عکس نمایه شبکه اجتماعی او فرستاده شده بود. از این عکس برای تعیین موقعیت جغرافیایی او و واحد نظامی‌اش در پاولوفکا(Pavlovka)، محل حملات توپخانه‌ای از روسیه به اوکراین در سال ۲۰۱۴، استفاده شده بود. در واقع، دو نسخه عکس با کمی تفاوت از یکدیگر وجود داشت. در یک عکس شماره تانک در پس‌زمینه وجود داشت و در دیگری وجود نداشت.

دو عکس تقریبا یکسان در کنار یکدیگر. یک سرباز روس که سلاحی در دست دارد، در حالی به دوربین نگاه می‌کند که کاروان تانک از پشتش عبور می‌کند. در عکس دیگر شماره ۷۵۸ تانک به وضوح در پشت آن قابل مشاهده است. عکس دیگر ادیت و شماره حذف شده است.[۳]

روسیه نزد دیوان اروپایی حقوق بشر، از این تناقض استفاده کرد تا ادعا نماید که ادله دستکاری‌شده است و بر این موضوع و آنچه که آن را «نشانه‌های جعل احتمالی» می‌خواند، تمرکز کرد؛ از جمله هاله‌ای جزئی در اطراف آقای تاراسف که ادعا کرد «ممکن است نشان‌دهنده مونتاژ باشد». روسیه افزود:«ممکن است کل صف نظامی [تانک‌های پشت سر او در تصویر] از روی یک وسیله نقلیه شبیه‌سازی شده باشد.»

با این حال، بعدا مشخص شد که سرباز عکس نمایه خود را در سایت شبکه اجتماعی VK.com به‌روزرسانی کرده است تا نسخه اصلی را که شامل شماره تانک می‌شد، با نسخه‌ای جایگزین کند که آن شماره مشخص نباشد. در رای نوامبر ۲۰۲۲، شعبه عالی به این توضیح اشاره کرد و افزود:«در مورد بقیه عکس، کشور خوانده فقط به نشانه‌هایی از جعل «بالقوه» اشاره کرده است و ساختگی بودن تصویر را اثبات نمی‌کند.» این مثال نشان می‌دهد که شاید بر خلاف نگرانی‌ها در مورد «سود سفته‌بازان» در دیوان، استناد به ادعاهای دستکاری‌شده بودن بدون ارائه ادله، حتی در عصر جعل عمیق هم ممکن است موثرترین استراتژی حقوقی برای تضعیف ادله تولیدشده توسط کاربر نباشد. نمونه مشابهی را در یکی از محاکمات شورش در کنگره ۶ ژانویه دیدیم؛ جایی که وکیل مدافع گای رفیت(Guy Reffitt) ادعا کرد که شواهد مجرمانه ممکن است جعلی بوده باشد. با این وجود رفیت توسط هیئت منصفه در مارس ۲۰۲۲ محکوم شد.

آماده‌سازی برای اکوسیستم رسانه‌ای ترکیبی هوش مصنوعی-انسان

حتی اگر ادعاهای دستکاری هوش مصنوعی (هنوز) تاثیر عمیقی بر رسیدگی‌های حقوقی نداشته باشد، اگر بخواهیم از اعتبار شواهد تولید شده توسط کاربر محافظت کنیم، مستندنگاران، بازرسان، متخصصان حقوقی و قضات باید چالش‌های ناشی از گسترش رسانه‌های مصنوعی را در نظر بگیرند. این بخش توصیه‌های کلیدی را ارائه می‌کند تا از حفظ یکپارچگی محتوای سمعی و بصری در مواجهه با فناوری در حال تکامل اطمینان حاصل شود.

سرمایه‌گذاری روی استانداردها و زیرساخت‌های مبنایی: فناوری‌های منشا و معتبر می‌توانند با حفظ حریم خصوصی و امنیت مدافعان حقوق بشر و تیم‌های مستندنگاری به ما بگویند کجا و چه زمانی یک قطعه فیلم گرفته شده است. جامعه مدنی در این زمینه پیشگام بوده و با ابزارهایی مانند «چشم شاهد»، فراداده و رمزنگاری‌ها را در عکس‌ها و ویدیوها در زمان ضبط جاسازی می‌نماید و تنها موردی است که در محاکم کیفری برای راستی‌آزمایی از آن استفاده می‌کنند. با این حال، اثربخشی این فناوری‌ها به پذیرش گسترده آن‌ها و آموزش استفاده‌کنندگان از آن‌ها بستگی دارد و هنوز تصورات غلط زیادی در مورد طراحی، توسعه و پذیرش فناوری منشا وجود دارد.

پافشاری بر شفافیت در تولید رسانه‌های مصنوعی: با وجود محو شدن وجوه تمایز بین انسان و هوش مصنوعی، پرداختن به محتوای هوش مصنوعی جدا از پرسش گسترده‌تر در مورد منشا رسانه‌ای دشوار خواهد بود. راه‌حل‌های فنی مانند واترمارک(ته نقش)، اثر انگشت دیجیتال و فراداده باید در پاسخ‌های سیاست‌گذاری‌، قانون‌گذاری‌ و تخصصی، با تفاوت‌های ظریف لازم برای حفظ حریم خصوصی و ناشناس بودن جوامع در معرض خطر مورد تایید قرار گیرند. «اعتبار محتوا» که گاهی به برچسب‌های غذایی روی غذا تشبیه می‌شود، به طور فزاینده‌ای توسط ارائه‌دهندگان سخت‌افزارها و نرم‌افزارها اضافه می‌شوند تا از جمله در زمانی که ممکن است از هوش مصنوعی استفاده شده باشد، منشا یک محتوا را نشان دهند.

توسعه و استقرار ابزارهای تشخیص: با افزایش حجم انتشار رسانه‌های مصنوعی و ترکیبی، ابزارهایی که می‌توانند تشخیص دهند که آیا یک قطعه از محتوای سمعی و بصری توسط هوش مصنوعی تولید یا دستکاری شده، برای طبقه‌بندی کردن محتوا اهمیت فزاینده‌ای پیدا می‌کنند. انجام تشخیص محاسباتی در موضوعات حقوق بشر و مخاصمات مستلزم همکاری و مشارکت بین بخش خصوصی، کشورها و سازمان‌های جامعه مدنی است تا اثربخشی آن‌ها را افزایش داده و خطرات مربوط به مجموعه داده‌های مورد نیاز برای تنظیم دقیق آن‌ها را کاهش دهد. اگرچه ابزارهای تشخیص هنوز در مراحل ابتدایی خود و اغلب فاقد ظرفیت مولد هستند، سرمایه‌گذاری در توسعه و در دسترس قرار دادن آن‌ها برای کسانی که در خط مقدم قرار دارند، ضروری است.

ایجاد تاب‌آوری اجتماعی: راهکارهای تخصصی باید با پاسخ‌های دیگری همراه شوند که دسترسی به دانش و سواد مورد نیاز برای تفسیر سیگنال‌های ابهام برانگیز را در اولویت قرار می‌دهند. این شامل درک فناوری پشت جعل‌های عمیق و پتانسیل تولید یا دستکاری محتوا با استفاده از هوش مصنوعی و همچنین محدودیت‌های این فناوری است. این ابتکارات می‌تواند به آماده‌سازی روزنامه‌نگاران، پژوهشگران و محققان منبع باز برای بررسی رسانه‌های سمعی و بصری بدون افزودن به لفاظی‌های پیرامون هوش مصنوعی مولد کمک کند. علاوه بر این، سواد رسانه‌ای می‌تواند به عنوان وسیله‌ای برای توانمندسازی مدافعان حقوق بشر، فعالان و سایر ذی‌نفعان کلیدی جامعه مدنی برای تعامل با کشورها و شرکت‌های فناوری برای ارتقای پاسخ‌ها و راه‌حل‌هایی عمل کند که منعکس‌کننده نیازها، شرایط و آرزوهای اجنماعی برای عدالت و پاسخگویی به جنایات بین‌المللی باشد.

تقویت پاسخ‌های حقوقی: در حالی که برخی استدلال کرده‌اند که قواعد مربوط به ادله نیاز به اصلاح دارند تا به طور خاص به چالش‌های ناشی از هوش مصنوعی رسیدگی شود، برخی دیگر خاطر نشان کرده‌اند که بالا بردن سطح پذیرش ادله ممکن است عواقب نامطلوبی داشته باشد.

یک راه میانی کارآمد این است که قضات دستورالعمل‌هایی برای نوع اطلاعاتی که باید همراه شواهد سمعی و بصری و کمک به ارزیابی آن‌ها ارائه شود را تنظیم کنند.

این می‌تواند شامل اطلاعات مربوط به ابرداده‌ها، چگونگی و مکان کشف محتوا و زنجیره نگهداری آن، در میان دیگر شاخص‌های مرتبط باشد. به طور کلی‌تر، قضات و وکلا باید در مورد پیچیدگی‌های دستکاری رسانه‌ها آموزش ببینند تا در مورد قابل پذیرش بودن و وزن شواهد دیجیتال تصمیمات آگاهانه‌ای اتخاذ کنند.

به همین دلیل است که ما اخیرا با سایر وکلا و متخصصان دانشگاهی، یک راهنما برای کمک به قضات و حقیقت‌یاب‌ها جهت کمک به آن‌ها در ارزیابی تصاویر دیجیتال آنلاین ایجاد کردیم. امیدواریم این راهنما که به پنج زبان در دسترس است، به متخصصان حقوقی کمک کند تا در دورانی که اعتماد به شواهد با پیشرفت‌های هوش مصنوعی به چالش کشیده شده است، در آب‌های متلاطم مسئولیت‌پذیری برای نقض حقوق بشر حرکت نمایند.

محتوای تولید شده توسط کاربر می‌تواند ادله ارزشمندی از جنایات بی‌رحمانه ارائه دهد، اما رسانه‌های مصنوعی در حال تغییر چشم‌انداز اطلاعات و اعتماد هستند. هوش مصنوعی مولد به کسانی که می‌خواهند رویدادهای واقعی را انکار یا رد کنند، قدرت می‌دهد و یک لایه محافظ برای اطلاعات نادرست ایجاد می‌کند. اکنون سازمان‌ها و افرادی که نقض حقوق بشر و جنایات بین‌المللی را در دوربین ضبط می‌کنند، با چالش مضاعف ثبت محتوای واقعی و در عین حال غلبه بر شک و تردیدهای فزاینده روبه‌رو هستند. این پویایی در حال تکوین نه تنها تلاش‌ها برای مستندسازی نقض حقوق بشر و جنایات بین‌المللی، بلکه توانایی ما به‌عنوان جامعه برای اجرای عدالت و تضمین پاسخگویی را نیز تهدید می‌کند.[۴]

[۱] https://www.justsecurity.org/96731/truth-trust-and-ai-justice-and-accountability/

[2] یکی دیگر از خطرهای احتمالی استفاده از جعل عمیق در تبلیغات سیاسی، چیزی است که محققان آن را «سود سفته‌بازان» یا (Liar’s Dividend) می‌نامند. با پیشرفت این فناوری، تولید ویدئوهای جعلی به قدری واقع‌گرایانه می‌شود که ممکن است تشخیص آن‌ها از واقعیت برای مردم عادی دشوار باشد. این وضع می‌تواند به سیاستمداران این امکان را بدهد که از پاسخگویی در برابر ادعاهای جنجالی یا ویدئوهای نامناسبی که از آن‌ها منتشر شده‌است، فرار و ادعا کنند که این محتوا جعلی بوده است./مترجم

[۳] تصویر: عکس اصلی و ویرایش شده سرباز روسی استانیسلاو تاراسف که تصویر اصلی را به عنوان تصویر نمایه خود در شبکه اجتماعی VK.com. منتشر کرده بود.

[۴] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)

 

 

 

 

 

 

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *