حقیقت، اعتماد و هوش مصنوعی: عدالت و پاسخگویی در برابر جنایات بینالمللی در عصر فریب دیجیتال[۱]
Raquel Vázquez Llorente and Yvonne McDermott
مترجم: فاطمه میرآخورلی
دانشجوی دکتری حقوق بینالملل دانشگاه قم
ویراستار علمی: دکتر فاطمه کیهانلو
عضو هیئت علمی دانشگاه آزاد اسلامی
طی ۱۸ ماه گذشته، تجاریسازی نرمافزارهای کاربردی مبتنی بر هوش مصنوعی(AI) توانایی ما را برای ساختن تصاویر و ویدئوهای واقعی از اتفاقاتی که رخ ندادهاند دگرگون کرده است. ابزارهای مولد هوش مصنوعی مانند Dall-E یا Midjourney به ما کمک میکنند تا با تغییر زوایای عکسها، تصاویر متعددی از یک رویداد واحد ایجاد کنیم و این امر تشخیص واقعی یا جعلی بودن ترکیببندی تصاویر را دشوارتر میکند. پیش از این، تولید چنین محتوایی به منابع، قدرت فنی و تخصص نیاز داشت که بیشتر مختص استودیوهای هالیوود بود. در حال حاضر، ساخت یک واقعیت جایگزین تنها با ۲۰ دلار در ماه برای بسیاری از ما ]افراد[ در دسترس است.
ما در یک محیط اطلاعاتی هستیم که به طور فزایندهای رسانههای هوش مصنوعی و غیرهوش مصنوعی نه تنها همزیستی میکنند، بلکه در هم میآمیزند و یک اکوسیستم رسانهای ترکیبی ایجاد میکنند. تکنیکهایی مانند “in-painting” و “out-painting” به کاربران این امکان را میدهند که به راحتی و بدون دستکاری قابل توجه، اشیا را در محتوای ضبط شده توسط انسان اضافه یا حذف کنند. جدیدترین قابلیتهای صوتی، خروجیهای واقعی را از متن یا گفتار تولید میکنند که وقتی با سایر انواع رسانه ترکیب شود حتی میتوانند سیستمهای امنیتی بانکی پیچیده را فریب دهند، این ممکن است به این معنی باشد که محتوای بصری یک ویدیو واقعی است، اما صدای همراه آن میتواند جعلی باشد و درک ما از یک رویداد را تغییر دهد یا بر عقاید و جهانبینی ما تاثیر بگذارد.
پس از پشت سر گذراندن بخش عمدهای از دهه گذشته به حمایت کردن و نوشتن در مورد امیدها و مشکلات ناشی از شواهد کاربرساز برای عدالت و پاسخگویی در قبال جنایات بینالمللی، میبینیم که چگونه پیشرفت در هوش مصنوعی سمعی و بصری چالشهای موجود در راستیآزمایی و احراز هویت محتوا را تشدید میکند و در عین حال چالشهای جدیدی نیز ایجاد میشوند. در این مقاله، یافتههای سطح بالایی از کار خود را با] پروژه[ شاهد و پروژه حقیقت به اشتراک میگذاریم و بررسی میکنیم که چگونه رسانههای مصنوعی بر اعتماد به اکوسیستم اطلاعاتی تاثیر میگذارند. همچنین توصیههایی برای رسیدگی به مسائل مربوط به یکپارچگی ادله تولید شده توسط کاربر و استفاده از آن در دادگاه در بحبوحه ظهور هوش مصنوعی ارائه میدهیم.
رسانه مصنوعی و شواهد تولید شده توسط کاربر
تجاریسازی، سهولت استفاده و دسترسی به ابزارهای مولد هوش مصنوعی منجر به افزایش انتشار رسانههای مصنوعی ]از جمله[ تصویر، صدا یا ویدیوهایی شده است که بهطور مصنوعی، بهویژه از طریق استفاده از هوش مصنوعی تولید شدهاند. گاهی اوقات از این نوع محتوا به عنوان «جعل عمیق» یاد میشود، اگرچه مورد اخیر بیشتر زیرمجموعهای از رسانههای مصنوعی است که در آن شباهت انسان به حدی است که به طور قابل باوری میتوان فرد را در حال گفتن چیزی که نگفته یا کاری که انجام نداده است، به تصویر بکشد.
ادله تولید شده توسط کاربر یعنی اطلاعات دارای منابع محرمانه یا غیرمحرمانهای که توسط اشخاص از طریق دستگاههای دیجیتال شخصی آنها تولید میشود و ممکن است در رسیدگیهای حقوقی مورد استفاده قرار بگیرند، به طور فزایندهای برای مطلع کردن افکار عمومی در دیوانها و دادگاههای بینالمللی و داخلی به نمایش درمیآیند. این ادله در اوایل سال جاری در جلسات رسیدگی دیوان بینالمللی دادگستری در خصوص قضیه آفریقای جنوبی علیه اسرائیل مورد اشاره قرار گرفتند. فراتر از روند حقوقی، رسانههای تولید شده توسط کاربران در تحقیقات حقوق بشر سازمان ملل متحد نیز نقش اساسی دارند.
در همین زمان، تقریبا هر روز ماجراهایی درباره تصاویر، ویدیوها یا ]فایلهای [صوتی ساخته شده توسط هوش مصنوعی در رسانهها منتشر میشدند. نمونههای اخیر از انتخابات در سرااسر جهان، تصاویر جنسی بدون توافق و کمپینها در خصوص اطلاعات نادرست نشان میدهد که اصطلاح «جعل عمیق»(deepfake)در حال حاضر تا چه حد یکی از ویژگیهای فضای رسانهای است.
]سوال این است که [ نتیجه دانش گستردهتر ناشی از این پیشرفتهای فناورانه برای ادله تولیدشده توسط کاربر در فرآیندهای پاسخگویی چه میتواند باشد؟ از یک طرف، احتیاط بیش از حد میتواند منجر به حذف یا عدم استنتاج اطلاعات مهم و مرتبط شود. از سوی دیگر، اتکای ناخواسته به یک جعل عمیق برای اثبات یک واقعیت میتواند به وضوح اثرات مخربی بر مشروعیت و اثربخشی آن تحقیقات یا محاکمهها داشته باشد. در این زمینه، اعتمادی که ما برای محتوای سمعی و بصری قائل هستیم، نه تنها عواقب قابل توجهی در دادگاه و درک ما از انصاف دارد، بلکه میتواند بر نحوه مستندسازی جنایات بینالمللی نیز تاثیر زیادی بگذارد.
بار شهادت و اثبات اصالت
پروژه شاهد(witness) از سال ۲۰۱۸ یک تلاش جهانی برای درک این که چگونه جعل عمیق، رسانههای مصنوعی و هوش مصنوعی مولد بر دموکراسی، بیان طنز]انتقادی[، عدالت بینالمللی و حمایت از حقوق بشر تاثیر میگذارند را هدایت کرده است. برای بیش از یک سال است که ما یک نیروی آزمایشی راهاندازی کردهایم که حقیقتسنجها، روزنامهنگاران و محققان را با متخصصان پزشکی قانونی رسانههای پیشرو و متخصصان ترکیب هوش مصنوعی در ارتباط قرار میدهد. آنها دانش و مدلهای محاسباتی خود را به صورت رایگان ارائه میکنند، بنابراین ما میتوانیم به سرعت به کسانی که در خط مقدم مبارزه دیجیتال با اطلاعات گمراهکننده هستند، کمک کنیم. به عنوان بخشی از این ابتکار، ما صوتهای جعلی مشکوکی از کشورهایی مانند سودان، نیجریه، ونزوئلا، هند، مکزیک و همچنین انواع دیگری از محتوای بالقوه دستکاریشده با هوش مصنوعی از مناطقی دریافت کردهایم که درگیریهای مداوم یا خشونت گستردهای را تجربه میکنند.
یافتههای ما نشان میدهد که یک اکوسیستم اطلاعاتی مملو از رسانههای مصنوعی و محتوای واقعیتر و شخصیشدهتر (نه تنها به معنی خوراکهای رسانهای شخصیسازیشده، بلکه اطلاعات فریبندهای است که به طور قابل باوری هویت شخصیتهای غیرسرشناس را جعل کرده و گاه خارج از نظارت عمومی منتشر میشوند) تشخیص حقیقت از دروغ را دشوارتر میکند. به طور فزایندهای، بررسیکنندگان حقایق، روزنامهنگاران و سازمانهای حقوق بشری که با محتوای سمعی و بصری، بهویژه اطلاعات دارای منابع غیرمحرمانه سروکار دارند، ممکن است توانایی خود برای تایید دستکاری شده بودن یا نبودن یک قطعه از محتوا را مورد تردید قرار دهند – و همانطور که تحقیقات پروژه شاهد نشان داده است، ابزارهای راستیآزمایی که در دسترس عموم قرار دارند دارای محدویتهای قابل توجهی هستند.
بهطور کلیتر، این ممکن است منجر به چیزی شود که آویو اوادیا(Aviv Ovadya) آن را «انفعال واقعیت»(reality apathy) مینامد: در مواجهه با جریان فزاینده اطلاعات گمراهکننده، مردم به سادگی از تلاش برای تشخیص واقعیت از دروغ دست میکشند. رایزنیهای انجامشده توسط پروژه شاهد با سازمانهای مردمی در آمریکای لاتین، آفریقا، ایالات متحده آمریکا و آسیای جنوب شرقی نشان داد که این کاهش اعتماد در اکوسیستم اطلاعاتی، بهطور گسترده، بر فعالیتهای میدانی سازمانهای جامعه مدنی(CSOs) مانند مستندسازی نقض حقوق بشر و جنایات بینالمللی تأثیر میگذارد. زمانی که صحت فیلمها و تصاویر آنها به راحتی زیر سوال رفته یا رد شود، اعتبار فیلمهای سازمانهای مدنی در معرض خطر قرار میگیرد. این امر، حمایت از عدالت و پاسخگویی را برای این سازمانها چالش برانگیزتر میکند. اگر مستندسازان حقوق بشر موظف باشند صحت هر محتوایی را که ضبط میکنند با زحمت نشان دهند، در حالی که اصحاب دخیل در موضوع میتوانند به طور هماهنگ ادعای جعلی بودن آنها را مطرح کنند، خطر ایجاد شکل جدیدی از « بی عدالتی معرفت شناسانه »(epistemic injustice)افزایش مییابد؛ بدین معنا که طرف ضعیفتر ]ادلهاش[ کمتر باور میشود.
دو فرایند به طور ویژه در این زمینه نگرانکننده هستند. اولین مورد «انکارپذیری ظاهرا موجه» است. در سال ۲۰۱۸، دانیل سیترون(Danielle Citron) و رابرت چسنی(Robert Chesney) در مورد خطر «سود سفتهبازان»[۲] نوشتند. آنها این نظریه را مطرح کردند که همزمان با آگاهی عموم مردم از چگونگی استفاده از هوش مصنوعی برای تولید یا دستکاری تصاویر، صدا و ویدئو, انکار کردن یک محتوا به عنوان جعل عمیق برای کسانی که در دنیای واقعی فعالیتی انجام دادهاند، سادهتر میشود. حتی اگر آن محتوا واقعی باشد صرف این احتمال که ممکن است ساختگی باشد، ایجاد تردید میکند و ممکن است منجر به عدم پاسخگویی در قبال اقدامات واقعی شود. برای مثال، دولتی که متهم به ارتکاب نقض حقوق بشر است ممکن است ادعا کند که شواهد ویدیویی ارائهشده علیه آن با هوش مصنوعی دستکاری شده است و بدین ترتیب از عواقب آن احتراز کند.
مورد دوم «باورپذیری ظاهرا موجه» است که در آن رسانههای دستکاریشده با ظاهری واقعگرایانه فرصتی را برای حامیان یک نهضت فراهم میکنند تا به باورهای موجود خود بچسبند و روایتهای ریشهدار را تداوم بخشند. سالیان متمادی است که تحقیقات ثابت کرده که افراد هنگام مواجه شدن با مطالبی که نمیخواهند ببینند، شک و تردید بیشتری نشان میدهند تا زمان مواجه شدن با اطلاعاتی که با ترجیحاتشان مطابقت دارد. اگر بخشی از محتوای تولید شده توسط کاربر با جهانبینی قبلی شخصی مطابقت داشته باشد، احتمال بیشتری وجود دارد که بدون در نظر گرفتن صحت، آن را به عنوان واقعیت بپذیرد. این پذیرش انتخابی میتواند گرایش به قطبیسازی را تشدید و دستیابی به اجماع در مورد واقعیتهای اساسی را دشوارتر کند.
در نتیجه، ظهور جعلهای عمیق و رسانههای مصنوعی ، لایه جدیدی از پیچیدگی را آشکار میکند که در آن صحت و راستیآزمایی شواهد تحت بررسی و ارزیابی جدی قرار دارد. روزنامهنگاران، فعالان و مستندسازان حقوق بشر که تا پیش از این، بار سنگینی بر عهده داشتند، اکنون با چالشی مضاعف روبهرو هستند تا ثابت کنند که محتوای واقعی آنها جعل پیچیده واقعیت نیست. این به منابع بیشتری برای تقویت و تایید نیاز دارد که میتواند زمانبر، پرخطر، پرهزینه یا دور از دسترس باشد. گامهای اشتباه میتواند تاثیرات محسوسی بر اعتبار سازمانهای مدنی داشته باشد، اما مهمتر از آن، افزایش تلاشهای مورد نیاز برای ایجاد اعتبار میتواند منابع را از سایر فعالیتهای حیاتی منحرف و تاثیر کلی ، کار آنها را تضعیف کند.
اعتماد به ادله تولیدشده توسط کاربر در عصر هوش مصنوعی
ایجاد چشمانداز اعتماد به ادله تولیدشده توسط کاربر، به منظور بررسی تاثیر «انکارپذیری ظاهرا موجه» و «باورپذیری ظاهرا موجه» در عمل مهم است. پروژه حقیقت به دنبال آزمایش تجربی این فرضیه است که بزرگترین خطر با ظهور جعل عمیق و رسانههای مصنوعی احتمالا این نیست که فیلمهای جعلی به دادگاه ارائه شوند، بلکه این است که فیلمهای واقعی به راحتی با ادعای جعلی بودن رد شوند. این پروژه دارای سه گروه تحقیقاتی به هم پیوسته است:
١- تحلیل حقوقی: ترسیم چگونگی ظهور جعل عمیق در قضایای سراسر جهان و انجام مصاحبه با متخصصان حقوقی؛
٢- آزمایشهای روانشناختی: بررسی این که در چه شرایطی شواهد تولیدشده توسط کاربر کم و بیش قابل باور هستند و نیز ویژگیهای ادله و شخص مشاهدهکننده که به آن ارزیابی کمک میکند؛
٣- شبیهسازیهای هیئت منصفه: بررسی چگونگی استدلال تصمیمگیرندگان و مبتنی کردن یافتهها بر ادله تولیدشده توسط کاربر در یک شبیهسازی واقعگرایانه و این که از چه عباراتی برای نشان دادن قابل اعتماد بودن آن شواهد استفاده میکنند.
تحلیل حقوقی ما تا کنون نشان داده است که استناد به اصطلاح «دفاع جعلی» بر اساس بررسیهای دقیق رویه قضایی دادگاههای بینالمللی و داخلی، شاید آن طور که انتظار میرود رایج نباشد. ما دریافتهایم که ادله تولیدشده توسط کاربر به روشهای بیشماری به چالش کشیده میشوند، اما نسبتا به ندرت اتفاق میافتد که مخالفان ادعا کنند که این ادله توسط هوش مصنوعی تولید شده است.
یک استثنا قابل توجه در این زمینه، قضیه اوکراین و هلند علیه روسیه در دیوان اروپایی حقوق بشر است. یکی از شواهد این قضیه، عکس یک سرباز روسی به نام استانیسلاو تاراسف(Stanislav Tarasov) است که به عکس نمایه شبکه اجتماعی او فرستاده شده بود. از این عکس برای تعیین موقعیت جغرافیایی او و واحد نظامیاش در پاولوفکا(Pavlovka)، محل حملات توپخانهای از روسیه به اوکراین در سال ۲۰۱۴، استفاده شده بود. در واقع، دو نسخه عکس با کمی تفاوت از یکدیگر وجود داشت. در یک عکس شماره تانک در پسزمینه وجود داشت و در دیگری وجود نداشت.
دو عکس تقریبا یکسان در کنار یکدیگر. یک سرباز روس که سلاحی در دست دارد، در حالی به دوربین نگاه میکند که کاروان تانک از پشتش عبور میکند. در عکس دیگر شماره ۷۵۸ تانک به وضوح در پشت آن قابل مشاهده است. عکس دیگر ادیت و شماره حذف شده است.[۳]
روسیه نزد دیوان اروپایی حقوق بشر، از این تناقض استفاده کرد تا ادعا نماید که ادله دستکاریشده است و بر این موضوع و آنچه که آن را «نشانههای جعل احتمالی» میخواند، تمرکز کرد؛ از جمله هالهای جزئی در اطراف آقای تاراسف که ادعا کرد «ممکن است نشاندهنده مونتاژ باشد». روسیه افزود:«ممکن است کل صف نظامی [تانکهای پشت سر او در تصویر] از روی یک وسیله نقلیه شبیهسازی شده باشد.»
با این حال، بعدا مشخص شد که سرباز عکس نمایه خود را در سایت شبکه اجتماعی VK.com بهروزرسانی کرده است تا نسخه اصلی را که شامل شماره تانک میشد، با نسخهای جایگزین کند که آن شماره مشخص نباشد. در رای نوامبر ۲۰۲۲، شعبه عالی به این توضیح اشاره کرد و افزود:«در مورد بقیه عکس، کشور خوانده فقط به نشانههایی از جعل «بالقوه» اشاره کرده است و ساختگی بودن تصویر را اثبات نمیکند.» این مثال نشان میدهد که شاید بر خلاف نگرانیها در مورد «سود سفتهبازان» در دیوان، استناد به ادعاهای دستکاریشده بودن بدون ارائه ادله، حتی در عصر جعل عمیق هم ممکن است موثرترین استراتژی حقوقی برای تضعیف ادله تولیدشده توسط کاربر نباشد. نمونه مشابهی را در یکی از محاکمات شورش در کنگره ۶ ژانویه دیدیم؛ جایی که وکیل مدافع گای رفیت(Guy Reffitt) ادعا کرد که شواهد مجرمانه ممکن است جعلی بوده باشد. با این وجود رفیت توسط هیئت منصفه در مارس ۲۰۲۲ محکوم شد.
آمادهسازی برای اکوسیستم رسانهای ترکیبی هوش مصنوعی-انسان
حتی اگر ادعاهای دستکاری هوش مصنوعی (هنوز) تاثیر عمیقی بر رسیدگیهای حقوقی نداشته باشد، اگر بخواهیم از اعتبار شواهد تولید شده توسط کاربر محافظت کنیم، مستندنگاران، بازرسان، متخصصان حقوقی و قضات باید چالشهای ناشی از گسترش رسانههای مصنوعی را در نظر بگیرند. این بخش توصیههای کلیدی را ارائه میکند تا از حفظ یکپارچگی محتوای سمعی و بصری در مواجهه با فناوری در حال تکامل اطمینان حاصل شود.
سرمایهگذاری روی استانداردها و زیرساختهای مبنایی: فناوریهای منشا و معتبر میتوانند با حفظ حریم خصوصی و امنیت مدافعان حقوق بشر و تیمهای مستندنگاری به ما بگویند کجا و چه زمانی یک قطعه فیلم گرفته شده است. جامعه مدنی در این زمینه پیشگام بوده و با ابزارهایی مانند «چشم شاهد»، فراداده و رمزنگاریها را در عکسها و ویدیوها در زمان ضبط جاسازی مینماید و تنها موردی است که در محاکم کیفری برای راستیآزمایی از آن استفاده میکنند. با این حال، اثربخشی این فناوریها به پذیرش گسترده آنها و آموزش استفادهکنندگان از آنها بستگی دارد و هنوز تصورات غلط زیادی در مورد طراحی، توسعه و پذیرش فناوری منشا وجود دارد.
پافشاری بر شفافیت در تولید رسانههای مصنوعی: با وجود محو شدن وجوه تمایز بین انسان و هوش مصنوعی، پرداختن به محتوای هوش مصنوعی جدا از پرسش گستردهتر در مورد منشا رسانهای دشوار خواهد بود. راهحلهای فنی مانند واترمارک(ته نقش)، اثر انگشت دیجیتال و فراداده باید در پاسخهای سیاستگذاری، قانونگذاری و تخصصی، با تفاوتهای ظریف لازم برای حفظ حریم خصوصی و ناشناس بودن جوامع در معرض خطر مورد تایید قرار گیرند. «اعتبار محتوا» که گاهی به برچسبهای غذایی روی غذا تشبیه میشود، به طور فزایندهای توسط ارائهدهندگان سختافزارها و نرمافزارها اضافه میشوند تا از جمله در زمانی که ممکن است از هوش مصنوعی استفاده شده باشد، منشا یک محتوا را نشان دهند.
توسعه و استقرار ابزارهای تشخیص: با افزایش حجم انتشار رسانههای مصنوعی و ترکیبی، ابزارهایی که میتوانند تشخیص دهند که آیا یک قطعه از محتوای سمعی و بصری توسط هوش مصنوعی تولید یا دستکاری شده، برای طبقهبندی کردن محتوا اهمیت فزایندهای پیدا میکنند. انجام تشخیص محاسباتی در موضوعات حقوق بشر و مخاصمات مستلزم همکاری و مشارکت بین بخش خصوصی، کشورها و سازمانهای جامعه مدنی است تا اثربخشی آنها را افزایش داده و خطرات مربوط به مجموعه دادههای مورد نیاز برای تنظیم دقیق آنها را کاهش دهد. اگرچه ابزارهای تشخیص هنوز در مراحل ابتدایی خود و اغلب فاقد ظرفیت مولد هستند، سرمایهگذاری در توسعه و در دسترس قرار دادن آنها برای کسانی که در خط مقدم قرار دارند، ضروری است.
ایجاد تابآوری اجتماعی: راهکارهای تخصصی باید با پاسخهای دیگری همراه شوند که دسترسی به دانش و سواد مورد نیاز برای تفسیر سیگنالهای ابهام برانگیز را در اولویت قرار میدهند. این شامل درک فناوری پشت جعلهای عمیق و پتانسیل تولید یا دستکاری محتوا با استفاده از هوش مصنوعی و همچنین محدودیتهای این فناوری است. این ابتکارات میتواند به آمادهسازی روزنامهنگاران، پژوهشگران و محققان منبع باز برای بررسی رسانههای سمعی و بصری بدون افزودن به لفاظیهای پیرامون هوش مصنوعی مولد کمک کند. علاوه بر این، سواد رسانهای میتواند به عنوان وسیلهای برای توانمندسازی مدافعان حقوق بشر، فعالان و سایر ذینفعان کلیدی جامعه مدنی برای تعامل با کشورها و شرکتهای فناوری برای ارتقای پاسخها و راهحلهایی عمل کند که منعکسکننده نیازها، شرایط و آرزوهای اجنماعی برای عدالت و پاسخگویی به جنایات بینالمللی باشد.
تقویت پاسخهای حقوقی: در حالی که برخی استدلال کردهاند که قواعد مربوط به ادله نیاز به اصلاح دارند تا به طور خاص به چالشهای ناشی از هوش مصنوعی رسیدگی شود، برخی دیگر خاطر نشان کردهاند که بالا بردن سطح پذیرش ادله ممکن است عواقب نامطلوبی داشته باشد.
یک راه میانی کارآمد این است که قضات دستورالعملهایی برای نوع اطلاعاتی که باید همراه شواهد سمعی و بصری و کمک به ارزیابی آنها ارائه شود را تنظیم کنند.
این میتواند شامل اطلاعات مربوط به ابردادهها، چگونگی و مکان کشف محتوا و زنجیره نگهداری آن، در میان دیگر شاخصهای مرتبط باشد. به طور کلیتر، قضات و وکلا باید در مورد پیچیدگیهای دستکاری رسانهها آموزش ببینند تا در مورد قابل پذیرش بودن و وزن شواهد دیجیتال تصمیمات آگاهانهای اتخاذ کنند.
به همین دلیل است که ما اخیرا با سایر وکلا و متخصصان دانشگاهی، یک راهنما برای کمک به قضات و حقیقتیابها جهت کمک به آنها در ارزیابی تصاویر دیجیتال آنلاین ایجاد کردیم. امیدواریم این راهنما که به پنج زبان در دسترس است، به متخصصان حقوقی کمک کند تا در دورانی که اعتماد به شواهد با پیشرفتهای هوش مصنوعی به چالش کشیده شده است، در آبهای متلاطم مسئولیتپذیری برای نقض حقوق بشر حرکت نمایند.
محتوای تولید شده توسط کاربر میتواند ادله ارزشمندی از جنایات بیرحمانه ارائه دهد، اما رسانههای مصنوعی در حال تغییر چشمانداز اطلاعات و اعتماد هستند. هوش مصنوعی مولد به کسانی که میخواهند رویدادهای واقعی را انکار یا رد کنند، قدرت میدهد و یک لایه محافظ برای اطلاعات نادرست ایجاد میکند. اکنون سازمانها و افرادی که نقض حقوق بشر و جنایات بینالمللی را در دوربین ضبط میکنند، با چالش مضاعف ثبت محتوای واقعی و در عین حال غلبه بر شک و تردیدهای فزاینده روبهرو هستند. این پویایی در حال تکوین نه تنها تلاشها برای مستندسازی نقض حقوق بشر و جنایات بینالمللی، بلکه توانایی ما بهعنوان جامعه برای اجرای عدالت و تضمین پاسخگویی را نیز تهدید میکند.[۴]
[۱] https://www.justsecurity.org/96731/truth-trust-and-ai-justice-and-accountability/
[2] یکی دیگر از خطرهای احتمالی استفاده از جعل عمیق در تبلیغات سیاسی، چیزی است که محققان آن را «سود سفتهبازان» یا (Liar’s Dividend) مینامند. با پیشرفت این فناوری، تولید ویدئوهای جعلی به قدری واقعگرایانه میشود که ممکن است تشخیص آنها از واقعیت برای مردم عادی دشوار باشد. این وضع میتواند به سیاستمداران این امکان را بدهد که از پاسخگویی در برابر ادعاهای جنجالی یا ویدئوهای نامناسبی که از آنها منتشر شدهاست، فرار و ادعا کنند که این محتوا جعلی بوده است./مترجم
[۳] تصویر: عکس اصلی و ویرایش شده سرباز روسی استانیسلاو تاراسف که تصویر اصلی را به عنوان تصویر نمایه خود در شبکه اجتماعی VK.com. منتشر کرده بود.
[۴] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)