جعبه پاندورا: شرکت‌های هوش مصنوعی مولد، چت جی‌پی‌تی و حقوق بشر در جدیدترین مسابقه فناوری چه چیزی در معرض خطر قرار دارد؟

جعبه پاندورا: شرکت‌های هوش مصنوعی مولد، چت جی‌پی‌تی و حقوق بشر

در جدیدترین مسابقه فناوری چه چیزی در معرض خطر قرار دارد؟[۱]

Anna Bacciarelli & Paul Aufiero

مترجم: محمد حاجی

دانشجوی دکتری حقوق بین‌الملل دانشگاه علامه طباطبایی

ویراستار علمی: دکتر هادی محمودی

عضو هیئت علمی دانشکده حقوق دانشگاه شهید بهشتی

با همکاری دکتر حمیدرضا رحمانی‌زاده دهکردی

عضو هیئت علمی دانشکده حقوق و علوم سیاسی دانشگاه علامه طباطبایی

چت جی‌پی‌تی(Chat GPT)[2] و هوش مصنوعی مولد(Artificial Intelligence)[3] بر سر زبان‌ها افتاده است. زمانی که مردم اسکرین شات‌های عجیب و جذاب از مکالمات یا تصاویر چت بات را در رسانه‌های اجتماعی ارسال می‌کنند، شاهد این امر هستیم و اکنون می‌توانیم با ربات‌های چت در پلتفرم‌های جستجو “تعامل” داشته باشیم. اما چه چیزی پشت این فناوری قرار دارد؟ چه کسی داده‌‌های آن را تغذیه می‌کند و تصمیم می‌گیرد که داده‌ها از کجا آمده باشند؟ این چه ارتباطی به حقوق بشر دارد؟ پل اوفیرو، تهیه کننده ارشد وب، با آنا باچیارلی، مدیر برنامه در بخش فناوری و حقوق بشر سازمان دیده‌بان حقوق بشر، در مورد سوالاتی که در مرکز این بحث جدید قرار دارند، صحبت می‌کند، به دلیل این که شرکت‌ها برای توسعه و پیاده‌سازی هوش مصنوعی مولد رقابت می‌کنند.

هوش مصنوعی مولد و چت جی‌پی‌تی چیست؟

چت جی‌بی‌تی نوعی فناوری است که به عنوان “هوش مصنوعی مولد” شناخته می‌شود. هوش مصنوعی مولد یک فناوری نسبتا پیشرفته است که به کاربران اجازه می‌دهد با وارد کردن یک پیام به سیستمی که آن را برای ایجاد یک فرایند مشخص هدایت می‌کند، محتوای جدید – کلمات، تصاویر و در حال حاضر، حتی ویدیوهایی – را تولید کنند.

چت جی‌پی‌تی مسلما شناخته‌شده‌ترین محصول هوش مصنوعی مولد است که توسط شرکت فناوری کالیفرنیایی[۴] اوپن ال ای توسعه داده شده است. از زمانی که اوپن ای ال، چت جی‌پی‌تی را در نوامبر سال ۲۰۲۲ منتشر کرد، مسابقه هوش مصنوعی مولد در جریان است. چندین شرکت فناوری از جمله گوگل، آمازون و بایدو از آن زمان محصولات هوش مصنوعی خود را عرضه کرده‌اند. مایکروسافت میلیاردها دلار در اوپن ال ای سرمایه‌گذاری کرده و از چت جی‌پی‌تی در نسخه مولد موتور جستجوی خود، Bing، استفاده می‌کند. طبق گزارش‌ها، ایلان ماسک نیز در حال آماده شدن برای راه‌اندازی یک شرکت مولد جدید مبتنی بر هوش مصنوعی است.

توجه به این نکته مهم است که به طور کلی، به دلیل این که منابع مالی و فنی قابل توجهی برای ساخت و اجرای آن‌ها [محصولات هوش مصنوعی] از قبیل دسترسی به حجم عظیمی از داده‌ها و قدرت محاسباتی مورد نیاز است، تنها شرکت‌های بزرگ یا دارای بودجه استثنایی می‌توانند این محصولات را بسازند. اگر هوش مصنوعی مولد سیمای آینده است، پس این دیدگاهی است که توسط تعداد معدودی از شرکت‌های فناوری و افراد قدرتمند که هر کدام منافع تجاری خود را در خطر می‌بینند، پیشنهاد و به سرانجام می‌رسد. این موضوع سوالات مهمی را در مورد قدرت و پاسخگویی شرکت‌ها مطرح می‍کند.

چه چیزی هوش مصنوعی مولد را تغذیه می‌کند؟

مدل‌های هوش مصنوعی مولد بر روی حجم وسیعی از داده‌ها آموزش داده می‌شوند. این امر زمانی مشکل‌ساز است که داده‌های آموزشی و فرآیندهای آموزشی در دسترس عموم نباشند؛ همان‌طور که در مورد GPT4،[۵] جدیدترین محصول هوش مصنوعی تولید کننده تصویر و متن از اوپن ال ای، چنین است. ما می‌دانیم که GPT3، مدل قبلی اوپن ال ای، بر روی متن سرهم‌بندی شده از تعداد زیادی از منابع اینترنتی از جمله تابلوهای Reddit،[۶] آموزش داده شده است.

استفاده از میلیاردها تصویر و متن از سراسر اینترنت به عنوان داده آموزشی، بدون فیلتر و تعدیل دقیق، خطر تداوم بدترین مشکلات مربوط به محتوا را که قبلا در فضای مجازی مشاهده می‌کنیم، به دنبال دارد. ابراز نظرات به عنوان حقایق، ایجاد تصاویر یا ویدئوهای نادرست قابل باور، تقویت تعصبات ساختاری و تولید محتوای مضر و تبعیض‌آمیز تنها چند نمونه از میان هزاران نمونه این خطرات هستند.

پژوهش‌ها نشان می‌دهد که محتوای موجود در وب چندان معرف واقعیت‌های زندگی اکثر مردم نیست. برای مثال علی‌رغم تلاش‌های قابل توجه برای پرداختن به نابرابری‌های محتوایی، ویکی‌پدیا همچنان تمایل زیادی به نمایش اطلاعات درباره مردان و به اصطلاح شمال جهانی[۷] دارد. سیستم‌های هوش مصنوعی مولد که بر روی داده‌های غیرنماینده آموزش دیده‌اند، به سادگی نابرابری‌ها را از محتوای اینترنتی موجود بازتولید می‌کنند.

این که شرکت‌ها محتوای افراد را بدون اطلاع یا رضایت آن‌ها برای آموزش داده‌های آموزشی سرهم‌بندی می‌کنند، پیامدهای آشکاری برای حفظ حریم خصوصی دارند. چگونه می‌دانید که از تصویر یا متن شما برای آموزش یک سیستم هوش مصنوعی مولد استفاده شده است؟ چگونه حذف آن را از سیستم درخواست می‌کنید؟

این فناوری چقدر با آنچه در حال حاضر به صورت آنلاین در دسترس است، تفاوت دارد؟

به واقع این اولین بار است که برنامه‌های پیشرفته و خلاقانه هوش مصنوعی در دسترس هر کسی است که رایانه یا تلفن هوشمند دارد. اما هنوز هم سلطه گسترده‌ زبان انگلیسی در برنامه‌های کاربردی هوش مصنوعی تولید‌کننده هر دوی متن و تصویر وجود دارد. بنابراین از این لحاظ دسترسی به آن بسیار محدود است.

دیده‌بان حقوق بشر در پنج سال گذشته روی تاثیر حقوق بشری مسائل هوش مصنوعی کار کرده است و هوش مصنوعی مولد از بسیاری جهات، گسترش نگرانی‌های شناخته شده در مورد هوش مصنوعی و فناوری یادگیری ماشینی است و آن گاه که همه چیز به اشتباه پیش می‌رود، خطر فزاینده نظارت، تبعیض و عدم پاسخگویی وجود دارد.

برخی از نگرانی‌ها در مورد حریم خصوصی و امنیت داده‌ها چیست؟

مراقب آنچه در ابزارهای هوش مصنوعی مولد تایپ می‌کنید باشید! ما باید فرض کنیم که همه چیزهایی که در محصولات هوش مصنوعی مولد وارد می‌کنیم تا حدی برای آموزش و “بهبود” مدل استفاده می‌شود. همچنین ممکن است برای شرکت فناوری که مالک یا از سیستم استفاده می‌کند، قابل مشاهده باشد. اکنون شرکت‌ها در تمامی بخش‌ها از کارکنان خود می‌خواهند که از وارد کردن اطلاعات حساس یا شخصی به سیستم‌های هوش مصنوعی مولد خودداری کنند.

حتی زمانی که اطلاعات به ظاهر پیش پا افتاده را در جستجوی هوش مصنوعی یا ربات‌های چت مولد وارد می‌کنیم، می‌توان از آن برای ساختن تصویری از شخصیت خودمان استفاده کنیم. هوش مصنوعی به ویژه در توجه به الگوها خوب عمل می‌کند و آنچه که ما جست‌وجو می‌کنیم یا در چت ربات‌ها تایپ می‌کنیم می‌تواند در طول زمان، بینش‌های حساسی را در مورد هویت یا رفتار ما از محتوایی را که طبیعتا تصور نمی‌کنیم به عنوان اطلاعات آشکارکننده به نظر می‌رسد، افشا کند.

در حال حاضر، ما اطلاعات کافی نداریم تا بدانیم اطلاعات ما تا چه حد مورد استفاده قرار می‌گیرد و می‌توان آن را به هویت‌های فردی مرتبط کرد. ما به پاسخ‌هایی از سوی شرکت‌های فناوری در مورد این که چگونه به حقوق حریم خصوصی در رابطه با هوش مصنوعی مولد احترام می‌گذارند، نیاز داریم. شایان ذکر است که اوپن ال ای هفته گذشته متعاقب «ممنوعیت» محصول در ایتالیا به دلیل نگرانی‌های مربوط به حفاظت از داده، کنترل‌های حریم خصوصی چت جی‌پی‌تی را افزایش داد. این امر چشم‌اندازی بسیار امیدبخش است.

آیا این سیستم‌ها قابل اعتماد هستند؟

ما به آسانی نمی‌توانیم به سیستم‌هایی که حاوی دروغ‌پردازی‌ها و بی‌دقتی‌ها هستند، اهمیت زیادی قائل شویم؛ به ‌ویژه زمانی که طراحی غیرشفاف دارند. به عنوان مثال ربات چت گوگل، Bard،[۸] پاسخی حاوی یک خطای واقعی در راه‌اندازی خود داد. شما فقط می‌توانید از جستجوی گوگل برای یافتن پاسخ درست استفاده کنید؛ اگرچه ممکن است لازم باشد قبل از یافتن پاسخ درست، پاسخ‌های اشتباه را هم بررسی کنید. اما با برخی از سیستم‌های هوش مصنوعی مولد، نمی‌توانید منابع اطلاعات را به راحتی ببینید، چیزی که به افراد کمک می‌کند ارزیابی انتقادی کنند که آیا به خروجی اعتماد کنند یا خیر.

شایان ذکر است که نگرانی‌های ایمنی بیشتری در مورد چت ربات‌های هوش مصنوعی مولد وجود دارد. به این دلیل که می‌تواند به دلیل طراحی و لحن محاوره ایی شان، آن‌ها را معتبر و تا حدودی شبیه به انسان جلوه دهد. این امر می تواند باعث شود تا کاربران اعتماد زیادی به آن‌ها داشته باشند. عواقب این امر جدی هستند. موردی وجود دارد که در آن یک قاضی در کلمبیا در حین تدارک حکم از چت جی‌پی‌تی سوال کرده است. این فناوری چقدر می‌تواند بر تصمیم دادگاه تاثیر بگذارد؟ در بلژیک زنی می‌گوید شوهرش پس از تعامل با یک ربات چت هوش مصنوعی خودکشی کرد.

ضروری است سازندگان و تنظیم‌کنندگان فناوری اندکی تامل کنند و برخی از سوالات مهم را در نظر بگیرند: چگونه می‌توان از این موضوع سوء استفاده کرد؟ حتی با بهترین نیت، چه چیزی ممکن است اشتباه باشد؟ آیا این می تواند باعث آسیب شود و اگر چنین است، چه کاری می‌توانیم انجام دهیم؟

شرکت‌ها عجله دارند تا محصولاتی را تولید کنند که به سادگی برای استفاده عمومی ایمن نیستند. نسخه‌های قبلی چت ربات‌های هوش مصنوعی مولد به خروجی‌هایی منجر شد که مشکل‌ساز و مغرضانه بودند. ما می‌دانیم که رقابت صنعتی کنونی به جای رقابتی مبتنی بر خط مشی و عملکردی که با حقوق بشر همسو است، رقابت را به سمت پایین سوق می‌دهد.[۹]

شرکت‌های فناوری دارای مسئولیت‌های حقوق بشری هستند، این مسئولیت‌ها زمانی به شکل ویژه‌ای اهمیت پیدا می‌کنند که شرکت‌ها، فناوری قدرتمند و اکتشافی جدید را ایجاد می‌کنند. آن‌ها باید به وضوح نشان دهند که قبل از انتشار هر محصولی، در حال شناسایی و کاهش خطرات حقوق بشری آن محصولات هستند. آن‌ها همچنین باید برای هر گونه آسیب ناشی از محصولاتشان پاسخگو باشند. برای انجام این کار می‌بایست داده‌های آموزشی، ارزش‌های طراحی[۱۰] و فرآیندهای تعدیل محتوا برای بررسی مستقل در دسترس باشند.

به نظر می رسد اطلاعات نادرست می‌تواند با این فناوری بیداد کند. آیا نگران آن هستید؟

بله! این احتمالا یک معضل بزرگ خواهد بود. هوش مصنوعی مولد می‌تواند با تغییر نحوه یافتن و اعتماد به اطلاعات آنلاین، نحوه استفاده ما از اینترنت را به شدت تغییر دهد. چگونه به آنچه می‌بینید، اعتماد دارید؟ با پیشرفت‌هایی مانند مدل‌های تبدیل متن به تصویر و متن به ویدیو، جعبه پاندورا را در مورد قابلیت اعتماد محتوای اینترنتی باز می‌کنیم. ما از قبل با دانستن این که چه چیزی واقعی است مشکل داریم و این در شرف بزرگ‌تر شدن است. این امر می‌تواند پیامدهای مخربی داشته باشد؛ مثلا در رویدادهای سیاسی مانند انتخابات یا در وضعیت‌های مخاصمه و بحران.

برخی ربات‌های چت هوش مصنوعی وجود دارند که خود را به شکل شخصیت‌های تاریخی و مقامات دولتی در می‌آورند. مردم می‌توانند متنی را منتشر کنند که اگر جدی گرفته شود، ممکن است برای قبح‌شکنی جنایات جدی و نقض‌های حقوق بشری مورد استفاده قرار گیرد.

در مورد افرادی که داده‌ها را برای تغذیه این چت ربات‌ها غربال می‌کنند، چطور؟

ساختن هوش مصنوعی مستلزم تعداد زیادی نیروی انسانی نامرئی است. کسی باید داده‌های آموزشی را برچسب‌گذاری کند و همچنین باید تصمیم بگیرد که آیا دستگاه کارها را درست یا غلط انجام می‌دهد. این فرآیند متکی به ورود اطلاعات توسط انسان است؛ به این معنی که این فناوری به ناچار تعصبات انسانی را نیز در بر دارد.

استثمار کارگران در ایجاد هوش مصنوعی یکی دیگر از موضوعات کلیدی حقوق بشر است. تحقیقات مجله تایم نشان داد که چگونه اوپن ال ای برچسب‌گذاری داده‌های خود را برای چت جی‌پی‌تی به شرکت Sama واگذار کرد؛ شرکتی که کارگرانی را در کنیا استخدام می‌کرد تا در شرایط طاقت‌فرسا با پرداخت کمتر از ۲ دلار در ساعت به برخی از آن‌ها برای غربال کردن داده‌های نامطلوب و مغرضانه کار کنند.

شرکت‌های فناوری این کار را عمدتا به نیروهای کار در جنوب جهانی[۱۱] برون‌سپاری می‌کنند. شکاف عظیمی بین شرایط کاری در مقر شرکت‌های فناوری ایالات متحده و مکان‌هایی که این فناوری‌ها را تغذیه می‌کنند، وجود دارد. کارگرانی که هوش مصنوعی را می‌سازند، اغلب شاهد بدترین بخش‌های اینترنت هستند و آن‌ها شایسته [شرایط] بهتری هستند. همه شرکت‌ها موظف به تامین معاش و منزلت در محل کار هستند.

چه نوع مقرراتی برای کنترل این فناوری وجود دارد؟

شرکت‌های فناوری با تلاش برای خودتنظیمی، برای مثال با نگارش و پذیرش اصول یا دستورالعمل‌هایی که اسما به آن پایبند هستند، سعی کرده‌اند پیشرو باقی بمانند. برای مثال، شرکت گوگل گفته است به موجب اصول هوش مصنوعی‌اش، محصولات هوش مصنوعی را که رسالت آن‌ها با حقوق بشر مغایرت دارد منتشر نخواهد کرد. اما انتظار از شرکت‌های فناوری برای پیروی از اصول خود، اعتماد بیش از حد به خودگردانی است. هوش مصنوعی بسیار قدرتمند است و این که شرکت‌ها خودشان را تنظیم کنند، عواقب آن برای حقوق [بشر] بسیار شدید است.

همه شرکت‌ها موظف به احترام به استانداردهای حقوق بشر و اتخاذ تدابیری برای شناسایی، پیشگیری و کاهش خطرات حقوق بشری هستند که باعث ایجاد آن‌ها می شوند، در ایجاد آن‌ها مشارکت دارند یا این که از طریق عملیات‌های خودشان یا عملیات‌های در زنجیره ارزش[۱۲] خود با آن خطرات پیوند دارند. این مسئولیت‌ها در اصول راهنمای سازمان ملل متحد در زمینه تجارت و حقوق بشر و همچنین دستورالعمل‌های سازمان همکاری و توسعه اقتصادی بیان شده است. ما باید اصول راهنمای سازمان ملل متحد را نه تنها برای هوش مصنوعی بلکه برای تمام فناوری به مقرره الزام‌آور تبدیل کنیم.

قانون‌گذاران در چند سال گذشته برای همگام شدن با پیشرفت‌های صنعت فناوری جدید تلاش کرده‌اند اما اکنون شاهد ظهور مقررات هوش مصنوعی در سطوح ملی و منطقه‌ای هستیم. یکی از موارد مهم، قانون هوش مصنوعی اتحادیه اروپا است که هفته گذشته رای اولیه را با پیشنهاد رسیدگی به مسائل مربوط به کپی رایت در هوش مصنوعی مولد به تصویب رساند. بیایید ببینیم که آیا این [رویه] به اندازه کافی برای رسیدگی به نگرانی‌های حقوق بشری که این فناوری ایجاد می‌کند، پیش می‌رود.

این فناوری چگونه بر تحقیقات حقوق بشری تاثیر می‌گذارد؟

نقش مهمی برای سازمان‌های حقوق بشری وجود دارد تا چگونگی توسعه فناوری‌های نوظهور را به چالش بکشند و این شامل محصولاتی می‌شود که از هوش مصنوعی مولد استفاده می‌کنند. اما یک تهدید واقعی برای تحقیقات حقوق بشری درخصوص هوش مصنوعی مولد نیز وجود دارد. پیشرفت‌ها در این فناوری به این معنی است که اکنون می‌توان محتوای باورپذیر را به سرعت و به راحتی ایجاد کرد که بدون شک چالش‌های جدیدی را برای گروه‌های حقوق بشری ایجاد می‌کند که شواهدی را برای مستندسازی تخلفات جمع‌آوری می‌کنند و بی‌عدالتی‌ها را مورد بازخواست قرار می دهند. کار آزمایشگاه تحقیقات دیجیتال دیده‌بان حقوق بشر و توانایی آن‌ها برای بررسی حقایق و راستی‌آزمایی محتوا در آینده‌ی هوش مصنوعی مولد اهمیت فزاینده‌ای خواهد داشت؛ زیرا اطلاعات جعلی یا گمراه‌کننده از قبیل عکس‌ها و ویدئوهای بسی باورپذیر تولید شده توسط هوش مصنوعی در فضای مجازی منتشر می‌شوند.[۱۳]

[۱] https://www.hrw.org/news/2023/05/03/pandoras-box-generative-ai-companies-chatgpt-and-human-rights

[2] به ‌طور ساده چت جی‌پی‌تی یک مدل زبان هوش مصنوعی با زبان طبیعی است؛ به این معنی که می‌توان از آن هر سوالی پرسید و جواب دریافت کرد. چت جی‌پی‌تی مخفف عبارت Chat Generative Pre-Trained Transformer است. عنوانی که به‌ خودی ‌خود تفاوت آن با دستیارهای صوتی مانند Siri و Alexa را نشان می‌دهد. کلمات Generative و Pre-Trained بیان‌کننده‌ این مطلب هستند که ChatGPT از شبکه‌های عصبی توسعه‌یافته با مدل‌های دیپ لرنینگ یا یادگیری عمیق بهره می‌برد. این شبکه‌ها پاسخ‌هایشان را در قالب الگوهای نوشتاری زبان انسان ارائه می‌کنند.(توضیح از مترجم)

[۳] هوش مصنوعی(Artificial Intelligence) به مجموعه‌ای از تکنیک‌ها و الگوریتم‌های مبتنی بر داده و ماشینی برای انجام کارهایی که قبلا نیاز به انسان داشته‌اند، گفته می‌شود. هدف اصلی هوش مصنوعی، بهبود عملکرد ماشین‌ها در انجام کارهایی است که نیاز به تفکر دارند. هوش مصنوعی در حال حاضر بسیاری از صنایع و کاربردها مورد استفاده قرار می گیرد؛ از جمله در پزشکی، صنعت، تجارت الکترونیکی و حتی بازی‌های رایانه‌ای.(توضیح از مترجم)

[۴] OpenAL مخفف (Open Audio Library) یک استاندارد عمومی و یک پلت‌فرم واسط میان سیستم عامل و سخت افزارهای صوتی است که شامل توابع مختلفی برای پردازش صداهای سه بعدی، ایجاد خروجی صوتی با کیفیت، کانالیزه شده و سه بعدی توسط توسعه‌دهندگان بازی‌های ویدیویی و برنامه‌های پردازش صوت می‌باشد. اوپن ای آی از معدود شرکت‌هایی است که هدف خودش را روشن و در یک خط بیان کرده است. اوپن ای ال هدفش را استفاده صلح‌آمیز از هوش مصنوعی در خدمت انسان تعریف کرده است. اوپن ال ای در سال ۲۰۱۵ در سان‌فرانسیسکو با سرمایه اولیه یک بیلیون دلار توسط سم آلتمن و ایلان ماسک تاسیس شد که بعدها ماسک از آن جدا شد. موسسان اوپن ال ای مدعی بودند که به دلیل ترس از خطرهای هوش مصنوعی و تهدیدهای احتمالی که از آن به وجود می‌آید این کار را شروع کردند.

[۵] نسخه جدیدی از برنامه GPT با نام GPT-4 که یک شبکه عصبی هوش مصنوعی با قابلیت پردازش ۱۰۰ تریلیون است را معرفی و عرضه کرده است. این فناوری جدید قرار است تا از این پس در چت بات ChatGPT و موتور جستجو بینگ و سایر محصولات شرکت مایکروسافت مورد استفاده قرار می‌گیرد. یکی از مهم‌ترین ویژگی‌هایی که تکنولوژی GPT-4 دارد این است که این مدل چند وجهی می‌تواند فراتر از متن باشد و به همین دلیل می‌تواند تصاویر را نیز به‌عنوان ورودی دریافت و درک کند. این در حالی است که در نسخه‌های قبلی تکنولوژی GPT یعنی مدل‌های زبانی GPT-3 و GPT-3.5 تنها به‌صورت متنی می‌توانستیم از آن‌ها استفاده کینم و کاربران فقط می‌توانستند با تایپ کردن سوالات خود را از این ربات‌ها بپرسند.

[۶] ردیت پلتفرمی است که محتوا، اخبار، انجمن و شبکه‌ اجتماعی را با ‌هم ترکیب می‌کند و به کاربر اجازه می‌دهد بدون هیچ محدودیتی و آزادانه دیدگاه‌هایش را در قالب متن یا تصویر یا ویدئو در آن با دیگر کاربران به‌ اشتراک بگذارد. ردیت در مرکز خود یک وب سایت به اشتراک‌گذاری اجتماعی دارد. این انجمن در اصل با ارسال لینک‌ها، عکس‌ها، متون و… توسط کاربران ساخته می‌شود و هر کاربر می‌تواند به اطلاعات کاربران دیگر رای بدهد. به این ترتیب بهترین محتوا در رتبه‌ بالاتری قرار می‌گیرد؛ در حالی که محتواهای با رای کمتر در رتبه‌ پایین‌تر قرار می‌گیرد.(توضیح از مترجم)

[۷] شمال جهانی به یک منطقه جغرافیایی به معنای سنتی اشاره نمی‌کند بلکه به قدرت و ثروت نسبی کشورها در بخش‌های مختلف جهان اشاره دارد. شمال جهانی مناطق ثروتمند و قدرتمندی مانند آمریکای شمالی، اروپا و استرالیا را در بر می‌گیرد. این اصطلاح توسط امانوئل والرشتاین، جامعه شناس و متفکر چپ‌گرایی آمریکایی(۲۰۱۹ -۱۹۳۰) برای توصیف یک نظام سرمایه‌داری جهانی که کشورها را به هسته اصلی(شمال)، نیمه‌پیرامونی و پیرامونی(جنوب) بر اساس مشارکت اقتصادی آن‌ها جدا می‌کند، توسعه یافته است. در خصوص هوش مصنوعی(AI) نیز که تاثیر عمیقی بر مسائل جهانی در کشاورزی، مراقبت‌های بهداشتی، آموزش و غیره داشته است، علی‌رغم پتانسیل فوق‌العاده‌ای ابزارهای هوش مصنوعی برای افزایش رشد اقتصادی اما مزایای اقتصادی و اجتماعی این فناوری از نظر جغرافیایی، عمدتا در شمال جهانی متمرکز است.(توضیح از مترجم)

[۸] پس از انتشار چت بات هوشمند چت جی‌پی‌تی توسط اوپن ال ای ۳۰ نوامبر ۲۰۲۲(۹ آذر ۱۴۰۱) شرکت گوگل، ربات بارد را به عنوان هوش مصنوعی مرتبط با جستجو در پاسخ به آن ارائه داد. مدیرعامل گوگل، آقای ساندرا پیچای، در تاریخ ۶ فوریه ۲۰۲۳(۱۶ بهمن ۱۴۰۱) در وبلاگ گوگل، ربات بارد را این گونه معرفی کرد:«ربات بارد (Bard) به دنبال ترکیب وسعت دانش جهان با قدرت، هوش و خلاقیت مدل های بزرگ زبانی است. این ربات از اطلاعات منتشرشده در وب استفاده می‌کند تا پاسخ های تازه و باکیفیت ارائه دهد. ربات بارد می‌تواند سکوی پرتاب به سمت خلاقیت و کنجکاوی باشد و به شما کمک کند تا پیچیده‌ترین مطالب را مثل اکتشافات جدید تلسکوپ فضایی جیمز وب برای یک کودک ۹ ساله به سادگی توضیح دهید یا در مورد بهترین مهاجمان فوتبال حال حاضر دنیا بیشتر بدانید و برای ساختن مهارت‌های خود بیشتر تمرین کنید».(توضیح از مترجم) برای اطلاع بیشتر رک به:

https://www.apprentice-bard.ai/

[9] رقابت به سمت پایین به وضعیت رقابتی اشاره دارد که در آن یک شرکت، ایالت یا کشور تلاش می‌کند تا با قربانی کردن استانداردهای کیفیت، حفاظت از محیط زیست یا ایمنی کارگران(اغلب نادیده گرفتن مقررات) یا کاهش هزینه‌های نیروی کار قیمت‌های رقابت را کاهش دهد. یک رقابت به سمت پایین نیز می ‌واند بین دولت‌ها برای جذب صنعت یا درآمدهای مالیاتی باشد. به عنوان مثال یک حوزه قضایی ممکن است مقررات را کاهش دهد یا مالیات‌ها را کاهش دهد و منافع عمومی را در تلاش برای جذب سرمایه‌گذاری به خطر اندازد؛ مانند ساخت یک کارخانه جدید یا دفتر شرکت.(توضیح از مترجم) برای اطلاع بیشتر رک به:

https://www.jstor.org/stable/3694277

[10] ارزش‌های طراحی، اصول یا باورهایی هستند که توسط یک طراح برای هدایت کار خود اتخاذ می‌شود. این ارزش‌ها می‌توانند با یک سبک یا نوع طراحی مرتبط باشند. یا ممکن است برای یک شرکت یا طراح فردی منحصر به فرد باشد.(توضیح از مترجم)

[۱۱] عبارت “جنوب جهانی” به طور گسترده به مناطق آمریکای لاتین، آسیا، آفریقا و اقیانوسیه اشاره دارد. این یکی از مترادف های این اصطلاحات، از جمله «جهان سوم» و «پیرامون» است که به مناطقی در خارج از اروپا و آمریکای شمالی اشاره می‌کند که عمدتا (اگرچه نه همه) کم درآمد و اغلب از نظر سیاسی یا فرهنگی به حاشیه رانده شده‌اند. استفاده از عبارت جنوب جهانی نشان دهنده تغییر از تمرکز کانونی بر توسعه یا تفاوت فرهنگی به سمت تاکید بر روابط ژئوپلیتیک قدرت است.(توضیح از مترجم) برای اطلاع بیشتر رک به:

https://journals.sagepub.com/doi/pdf/10.1177/1536504212436479

[12] زنجیره ارزش مجموعه‌ای از مراحل متوالی است که برای ایجاد یک محصول نهایی از طراحی اولیه تا رسیدن به دست مشتری انجام می‌شود.(توضیح از مترجم)

[۱۳] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *