جعبه پاندورا: شرکتهای هوش مصنوعی مولد، چت جیپیتی و حقوق بشر
در جدیدترین مسابقه فناوری چه چیزی در معرض خطر قرار دارد؟[۱]
Anna Bacciarelli & Paul Aufiero
مترجم: محمد حاجی
دانشجوی دکتری حقوق بینالملل دانشگاه علامه طباطبایی
ویراستار علمی: دکتر هادی محمودی
عضو هیئت علمی دانشکده حقوق دانشگاه شهید بهشتی
با همکاری دکتر حمیدرضا رحمانیزاده دهکردی
عضو هیئت علمی دانشکده حقوق و علوم سیاسی دانشگاه علامه طباطبایی
چت جیپیتی(Chat GPT)[2] و هوش مصنوعی مولد(Artificial Intelligence)[3] بر سر زبانها افتاده است. زمانی که مردم اسکرین شاتهای عجیب و جذاب از مکالمات یا تصاویر چت بات را در رسانههای اجتماعی ارسال میکنند، شاهد این امر هستیم و اکنون میتوانیم با رباتهای چت در پلتفرمهای جستجو “تعامل” داشته باشیم. اما چه چیزی پشت این فناوری قرار دارد؟ چه کسی دادههای آن را تغذیه میکند و تصمیم میگیرد که دادهها از کجا آمده باشند؟ این چه ارتباطی به حقوق بشر دارد؟ پل اوفیرو، تهیه کننده ارشد وب، با آنا باچیارلی، مدیر برنامه در بخش فناوری و حقوق بشر سازمان دیدهبان حقوق بشر، در مورد سوالاتی که در مرکز این بحث جدید قرار دارند، صحبت میکند، به دلیل این که شرکتها برای توسعه و پیادهسازی هوش مصنوعی مولد رقابت میکنند.
هوش مصنوعی مولد و چت جیپیتی چیست؟
چت جیبیتی نوعی فناوری است که به عنوان “هوش مصنوعی مولد” شناخته میشود. هوش مصنوعی مولد یک فناوری نسبتا پیشرفته است که به کاربران اجازه میدهد با وارد کردن یک پیام به سیستمی که آن را برای ایجاد یک فرایند مشخص هدایت میکند، محتوای جدید – کلمات، تصاویر و در حال حاضر، حتی ویدیوهایی – را تولید کنند.
چت جیپیتی مسلما شناختهشدهترین محصول هوش مصنوعی مولد است که توسط شرکت فناوری کالیفرنیایی[۴] اوپن ال ای توسعه داده شده است. از زمانی که اوپن ای ال، چت جیپیتی را در نوامبر سال ۲۰۲۲ منتشر کرد، مسابقه هوش مصنوعی مولد در جریان است. چندین شرکت فناوری از جمله گوگل، آمازون و بایدو از آن زمان محصولات هوش مصنوعی خود را عرضه کردهاند. مایکروسافت میلیاردها دلار در اوپن ال ای سرمایهگذاری کرده و از چت جیپیتی در نسخه مولد موتور جستجوی خود، Bing، استفاده میکند. طبق گزارشها، ایلان ماسک نیز در حال آماده شدن برای راهاندازی یک شرکت مولد جدید مبتنی بر هوش مصنوعی است.
توجه به این نکته مهم است که به طور کلی، به دلیل این که منابع مالی و فنی قابل توجهی برای ساخت و اجرای آنها [محصولات هوش مصنوعی] از قبیل دسترسی به حجم عظیمی از دادهها و قدرت محاسباتی مورد نیاز است، تنها شرکتهای بزرگ یا دارای بودجه استثنایی میتوانند این محصولات را بسازند. اگر هوش مصنوعی مولد سیمای آینده است، پس این دیدگاهی است که توسط تعداد معدودی از شرکتهای فناوری و افراد قدرتمند که هر کدام منافع تجاری خود را در خطر میبینند، پیشنهاد و به سرانجام میرسد. این موضوع سوالات مهمی را در مورد قدرت و پاسخگویی شرکتها مطرح میکند.
چه چیزی هوش مصنوعی مولد را تغذیه میکند؟
مدلهای هوش مصنوعی مولد بر روی حجم وسیعی از دادهها آموزش داده میشوند. این امر زمانی مشکلساز است که دادههای آموزشی و فرآیندهای آموزشی در دسترس عموم نباشند؛ همانطور که در مورد GPT4،[۵] جدیدترین محصول هوش مصنوعی تولید کننده تصویر و متن از اوپن ال ای، چنین است. ما میدانیم که GPT3، مدل قبلی اوپن ال ای، بر روی متن سرهمبندی شده از تعداد زیادی از منابع اینترنتی از جمله تابلوهای Reddit،[۶] آموزش داده شده است.
استفاده از میلیاردها تصویر و متن از سراسر اینترنت به عنوان داده آموزشی، بدون فیلتر و تعدیل دقیق، خطر تداوم بدترین مشکلات مربوط به محتوا را که قبلا در فضای مجازی مشاهده میکنیم، به دنبال دارد. ابراز نظرات به عنوان حقایق، ایجاد تصاویر یا ویدئوهای نادرست قابل باور، تقویت تعصبات ساختاری و تولید محتوای مضر و تبعیضآمیز تنها چند نمونه از میان هزاران نمونه این خطرات هستند.
پژوهشها نشان میدهد که محتوای موجود در وب چندان معرف واقعیتهای زندگی اکثر مردم نیست. برای مثال علیرغم تلاشهای قابل توجه برای پرداختن به نابرابریهای محتوایی، ویکیپدیا همچنان تمایل زیادی به نمایش اطلاعات درباره مردان و به اصطلاح شمال جهانی[۷] دارد. سیستمهای هوش مصنوعی مولد که بر روی دادههای غیرنماینده آموزش دیدهاند، به سادگی نابرابریها را از محتوای اینترنتی موجود بازتولید میکنند.
این که شرکتها محتوای افراد را بدون اطلاع یا رضایت آنها برای آموزش دادههای آموزشی سرهمبندی میکنند، پیامدهای آشکاری برای حفظ حریم خصوصی دارند. چگونه میدانید که از تصویر یا متن شما برای آموزش یک سیستم هوش مصنوعی مولد استفاده شده است؟ چگونه حذف آن را از سیستم درخواست میکنید؟
این فناوری چقدر با آنچه در حال حاضر به صورت آنلاین در دسترس است، تفاوت دارد؟
به واقع این اولین بار است که برنامههای پیشرفته و خلاقانه هوش مصنوعی در دسترس هر کسی است که رایانه یا تلفن هوشمند دارد. اما هنوز هم سلطه گسترده زبان انگلیسی در برنامههای کاربردی هوش مصنوعی تولیدکننده هر دوی متن و تصویر وجود دارد. بنابراین از این لحاظ دسترسی به آن بسیار محدود است.
دیدهبان حقوق بشر در پنج سال گذشته روی تاثیر حقوق بشری مسائل هوش مصنوعی کار کرده است و هوش مصنوعی مولد از بسیاری جهات، گسترش نگرانیهای شناخته شده در مورد هوش مصنوعی و فناوری یادگیری ماشینی است و آن گاه که همه چیز به اشتباه پیش میرود، خطر فزاینده نظارت، تبعیض و عدم پاسخگویی وجود دارد.
برخی از نگرانیها در مورد حریم خصوصی و امنیت دادهها چیست؟
مراقب آنچه در ابزارهای هوش مصنوعی مولد تایپ میکنید باشید! ما باید فرض کنیم که همه چیزهایی که در محصولات هوش مصنوعی مولد وارد میکنیم تا حدی برای آموزش و “بهبود” مدل استفاده میشود. همچنین ممکن است برای شرکت فناوری که مالک یا از سیستم استفاده میکند، قابل مشاهده باشد. اکنون شرکتها در تمامی بخشها از کارکنان خود میخواهند که از وارد کردن اطلاعات حساس یا شخصی به سیستمهای هوش مصنوعی مولد خودداری کنند.
حتی زمانی که اطلاعات به ظاهر پیش پا افتاده را در جستجوی هوش مصنوعی یا رباتهای چت مولد وارد میکنیم، میتوان از آن برای ساختن تصویری از شخصیت خودمان استفاده کنیم. هوش مصنوعی به ویژه در توجه به الگوها خوب عمل میکند و آنچه که ما جستوجو میکنیم یا در چت رباتها تایپ میکنیم میتواند در طول زمان، بینشهای حساسی را در مورد هویت یا رفتار ما از محتوایی را که طبیعتا تصور نمیکنیم به عنوان اطلاعات آشکارکننده به نظر میرسد، افشا کند.
در حال حاضر، ما اطلاعات کافی نداریم تا بدانیم اطلاعات ما تا چه حد مورد استفاده قرار میگیرد و میتوان آن را به هویتهای فردی مرتبط کرد. ما به پاسخهایی از سوی شرکتهای فناوری در مورد این که چگونه به حقوق حریم خصوصی در رابطه با هوش مصنوعی مولد احترام میگذارند، نیاز داریم. شایان ذکر است که اوپن ال ای هفته گذشته متعاقب «ممنوعیت» محصول در ایتالیا به دلیل نگرانیهای مربوط به حفاظت از داده، کنترلهای حریم خصوصی چت جیپیتی را افزایش داد. این امر چشماندازی بسیار امیدبخش است.
آیا این سیستمها قابل اعتماد هستند؟
ما به آسانی نمیتوانیم به سیستمهایی که حاوی دروغپردازیها و بیدقتیها هستند، اهمیت زیادی قائل شویم؛ به ویژه زمانی که طراحی غیرشفاف دارند. به عنوان مثال ربات چت گوگل، Bard،[۸] پاسخی حاوی یک خطای واقعی در راهاندازی خود داد. شما فقط میتوانید از جستجوی گوگل برای یافتن پاسخ درست استفاده کنید؛ اگرچه ممکن است لازم باشد قبل از یافتن پاسخ درست، پاسخهای اشتباه را هم بررسی کنید. اما با برخی از سیستمهای هوش مصنوعی مولد، نمیتوانید منابع اطلاعات را به راحتی ببینید، چیزی که به افراد کمک میکند ارزیابی انتقادی کنند که آیا به خروجی اعتماد کنند یا خیر.
شایان ذکر است که نگرانیهای ایمنی بیشتری در مورد چت رباتهای هوش مصنوعی مولد وجود دارد. به این دلیل که میتواند به دلیل طراحی و لحن محاوره ایی شان، آنها را معتبر و تا حدودی شبیه به انسان جلوه دهد. این امر می تواند باعث شود تا کاربران اعتماد زیادی به آنها داشته باشند. عواقب این امر جدی هستند. موردی وجود دارد که در آن یک قاضی در کلمبیا در حین تدارک حکم از چت جیپیتی سوال کرده است. این فناوری چقدر میتواند بر تصمیم دادگاه تاثیر بگذارد؟ در بلژیک زنی میگوید شوهرش پس از تعامل با یک ربات چت هوش مصنوعی خودکشی کرد.
ضروری است سازندگان و تنظیمکنندگان فناوری اندکی تامل کنند و برخی از سوالات مهم را در نظر بگیرند: چگونه میتوان از این موضوع سوء استفاده کرد؟ حتی با بهترین نیت، چه چیزی ممکن است اشتباه باشد؟ آیا این می تواند باعث آسیب شود و اگر چنین است، چه کاری میتوانیم انجام دهیم؟
شرکتها عجله دارند تا محصولاتی را تولید کنند که به سادگی برای استفاده عمومی ایمن نیستند. نسخههای قبلی چت رباتهای هوش مصنوعی مولد به خروجیهایی منجر شد که مشکلساز و مغرضانه بودند. ما میدانیم که رقابت صنعتی کنونی به جای رقابتی مبتنی بر خط مشی و عملکردی که با حقوق بشر همسو است، رقابت را به سمت پایین سوق میدهد.[۹]
شرکتهای فناوری دارای مسئولیتهای حقوق بشری هستند، این مسئولیتها زمانی به شکل ویژهای اهمیت پیدا میکنند که شرکتها، فناوری قدرتمند و اکتشافی جدید را ایجاد میکنند. آنها باید به وضوح نشان دهند که قبل از انتشار هر محصولی، در حال شناسایی و کاهش خطرات حقوق بشری آن محصولات هستند. آنها همچنین باید برای هر گونه آسیب ناشی از محصولاتشان پاسخگو باشند. برای انجام این کار میبایست دادههای آموزشی، ارزشهای طراحی[۱۰] و فرآیندهای تعدیل محتوا برای بررسی مستقل در دسترس باشند.
به نظر می رسد اطلاعات نادرست میتواند با این فناوری بیداد کند. آیا نگران آن هستید؟
بله! این احتمالا یک معضل بزرگ خواهد بود. هوش مصنوعی مولد میتواند با تغییر نحوه یافتن و اعتماد به اطلاعات آنلاین، نحوه استفاده ما از اینترنت را به شدت تغییر دهد. چگونه به آنچه میبینید، اعتماد دارید؟ با پیشرفتهایی مانند مدلهای تبدیل متن به تصویر و متن به ویدیو، جعبه پاندورا را در مورد قابلیت اعتماد محتوای اینترنتی باز میکنیم. ما از قبل با دانستن این که چه چیزی واقعی است مشکل داریم و این در شرف بزرگتر شدن است. این امر میتواند پیامدهای مخربی داشته باشد؛ مثلا در رویدادهای سیاسی مانند انتخابات یا در وضعیتهای مخاصمه و بحران.
برخی رباتهای چت هوش مصنوعی وجود دارند که خود را به شکل شخصیتهای تاریخی و مقامات دولتی در میآورند. مردم میتوانند متنی را منتشر کنند که اگر جدی گرفته شود، ممکن است برای قبحشکنی جنایات جدی و نقضهای حقوق بشری مورد استفاده قرار گیرد.
در مورد افرادی که دادهها را برای تغذیه این چت رباتها غربال میکنند، چطور؟
ساختن هوش مصنوعی مستلزم تعداد زیادی نیروی انسانی نامرئی است. کسی باید دادههای آموزشی را برچسبگذاری کند و همچنین باید تصمیم بگیرد که آیا دستگاه کارها را درست یا غلط انجام میدهد. این فرآیند متکی به ورود اطلاعات توسط انسان است؛ به این معنی که این فناوری به ناچار تعصبات انسانی را نیز در بر دارد.
استثمار کارگران در ایجاد هوش مصنوعی یکی دیگر از موضوعات کلیدی حقوق بشر است. تحقیقات مجله تایم نشان داد که چگونه اوپن ال ای برچسبگذاری دادههای خود را برای چت جیپیتی به شرکت Sama واگذار کرد؛ شرکتی که کارگرانی را در کنیا استخدام میکرد تا در شرایط طاقتفرسا با پرداخت کمتر از ۲ دلار در ساعت به برخی از آنها برای غربال کردن دادههای نامطلوب و مغرضانه کار کنند.
شرکتهای فناوری این کار را عمدتا به نیروهای کار در جنوب جهانی[۱۱] برونسپاری میکنند. شکاف عظیمی بین شرایط کاری در مقر شرکتهای فناوری ایالات متحده و مکانهایی که این فناوریها را تغذیه میکنند، وجود دارد. کارگرانی که هوش مصنوعی را میسازند، اغلب شاهد بدترین بخشهای اینترنت هستند و آنها شایسته [شرایط] بهتری هستند. همه شرکتها موظف به تامین معاش و منزلت در محل کار هستند.
چه نوع مقرراتی برای کنترل این فناوری وجود دارد؟
شرکتهای فناوری با تلاش برای خودتنظیمی، برای مثال با نگارش و پذیرش اصول یا دستورالعملهایی که اسما به آن پایبند هستند، سعی کردهاند پیشرو باقی بمانند. برای مثال، شرکت گوگل گفته است به موجب اصول هوش مصنوعیاش، محصولات هوش مصنوعی را که رسالت آنها با حقوق بشر مغایرت دارد منتشر نخواهد کرد. اما انتظار از شرکتهای فناوری برای پیروی از اصول خود، اعتماد بیش از حد به خودگردانی است. هوش مصنوعی بسیار قدرتمند است و این که شرکتها خودشان را تنظیم کنند، عواقب آن برای حقوق [بشر] بسیار شدید است.
همه شرکتها موظف به احترام به استانداردهای حقوق بشر و اتخاذ تدابیری برای شناسایی، پیشگیری و کاهش خطرات حقوق بشری هستند که باعث ایجاد آنها می شوند، در ایجاد آنها مشارکت دارند یا این که از طریق عملیاتهای خودشان یا عملیاتهای در زنجیره ارزش[۱۲] خود با آن خطرات پیوند دارند. این مسئولیتها در اصول راهنمای سازمان ملل متحد در زمینه تجارت و حقوق بشر و همچنین دستورالعملهای سازمان همکاری و توسعه اقتصادی بیان شده است. ما باید اصول راهنمای سازمان ملل متحد را نه تنها برای هوش مصنوعی بلکه برای تمام فناوری به مقرره الزامآور تبدیل کنیم.
قانونگذاران در چند سال گذشته برای همگام شدن با پیشرفتهای صنعت فناوری جدید تلاش کردهاند اما اکنون شاهد ظهور مقررات هوش مصنوعی در سطوح ملی و منطقهای هستیم. یکی از موارد مهم، قانون هوش مصنوعی اتحادیه اروپا است که هفته گذشته رای اولیه را با پیشنهاد رسیدگی به مسائل مربوط به کپی رایت در هوش مصنوعی مولد به تصویب رساند. بیایید ببینیم که آیا این [رویه] به اندازه کافی برای رسیدگی به نگرانیهای حقوق بشری که این فناوری ایجاد میکند، پیش میرود.
این فناوری چگونه بر تحقیقات حقوق بشری تاثیر میگذارد؟
نقش مهمی برای سازمانهای حقوق بشری وجود دارد تا چگونگی توسعه فناوریهای نوظهور را به چالش بکشند و این شامل محصولاتی میشود که از هوش مصنوعی مولد استفاده میکنند. اما یک تهدید واقعی برای تحقیقات حقوق بشری درخصوص هوش مصنوعی مولد نیز وجود دارد. پیشرفتها در این فناوری به این معنی است که اکنون میتوان محتوای باورپذیر را به سرعت و به راحتی ایجاد کرد که بدون شک چالشهای جدیدی را برای گروههای حقوق بشری ایجاد میکند که شواهدی را برای مستندسازی تخلفات جمعآوری میکنند و بیعدالتیها را مورد بازخواست قرار می دهند. کار آزمایشگاه تحقیقات دیجیتال دیدهبان حقوق بشر و توانایی آنها برای بررسی حقایق و راستیآزمایی محتوا در آیندهی هوش مصنوعی مولد اهمیت فزایندهای خواهد داشت؛ زیرا اطلاعات جعلی یا گمراهکننده از قبیل عکسها و ویدئوهای بسی باورپذیر تولید شده توسط هوش مصنوعی در فضای مجازی منتشر میشوند.[۱۳]
[۱] https://www.hrw.org/news/2023/05/03/pandoras-box-generative-ai-companies-chatgpt-and-human-rights
[2] به طور ساده چت جیپیتی یک مدل زبان هوش مصنوعی با زبان طبیعی است؛ به این معنی که میتوان از آن هر سوالی پرسید و جواب دریافت کرد. چت جیپیتی مخفف عبارت Chat Generative Pre-Trained Transformer است. عنوانی که به خودی خود تفاوت آن با دستیارهای صوتی مانند Siri و Alexa را نشان میدهد. کلمات Generative و Pre-Trained بیانکننده این مطلب هستند که ChatGPT از شبکههای عصبی توسعهیافته با مدلهای دیپ لرنینگ یا یادگیری عمیق بهره میبرد. این شبکهها پاسخهایشان را در قالب الگوهای نوشتاری زبان انسان ارائه میکنند.(توضیح از مترجم)
[۳] هوش مصنوعی(Artificial Intelligence) به مجموعهای از تکنیکها و الگوریتمهای مبتنی بر داده و ماشینی برای انجام کارهایی که قبلا نیاز به انسان داشتهاند، گفته میشود. هدف اصلی هوش مصنوعی، بهبود عملکرد ماشینها در انجام کارهایی است که نیاز به تفکر دارند. هوش مصنوعی در حال حاضر بسیاری از صنایع و کاربردها مورد استفاده قرار می گیرد؛ از جمله در پزشکی، صنعت، تجارت الکترونیکی و حتی بازیهای رایانهای.(توضیح از مترجم)
[۴] OpenAL مخفف (Open Audio Library) یک استاندارد عمومی و یک پلتفرم واسط میان سیستم عامل و سخت افزارهای صوتی است که شامل توابع مختلفی برای پردازش صداهای سه بعدی، ایجاد خروجی صوتی با کیفیت، کانالیزه شده و سه بعدی توسط توسعهدهندگان بازیهای ویدیویی و برنامههای پردازش صوت میباشد. اوپن ای آی از معدود شرکتهایی است که هدف خودش را روشن و در یک خط بیان کرده است. اوپن ای ال هدفش را استفاده صلحآمیز از هوش مصنوعی در خدمت انسان تعریف کرده است. اوپن ال ای در سال ۲۰۱۵ در سانفرانسیسکو با سرمایه اولیه یک بیلیون دلار توسط سم آلتمن و ایلان ماسک تاسیس شد که بعدها ماسک از آن جدا شد. موسسان اوپن ال ای مدعی بودند که به دلیل ترس از خطرهای هوش مصنوعی و تهدیدهای احتمالی که از آن به وجود میآید این کار را شروع کردند.
[۵] نسخه جدیدی از برنامه GPT با نام GPT-4 که یک شبکه عصبی هوش مصنوعی با قابلیت پردازش ۱۰۰ تریلیون است را معرفی و عرضه کرده است. این فناوری جدید قرار است تا از این پس در چت بات ChatGPT و موتور جستجو بینگ و سایر محصولات شرکت مایکروسافت مورد استفاده قرار میگیرد. یکی از مهمترین ویژگیهایی که تکنولوژی GPT-4 دارد این است که این مدل چند وجهی میتواند فراتر از متن باشد و به همین دلیل میتواند تصاویر را نیز بهعنوان ورودی دریافت و درک کند. این در حالی است که در نسخههای قبلی تکنولوژی GPT یعنی مدلهای زبانی GPT-3 و GPT-3.5 تنها بهصورت متنی میتوانستیم از آنها استفاده کینم و کاربران فقط میتوانستند با تایپ کردن سوالات خود را از این رباتها بپرسند.
[۶] ردیت پلتفرمی است که محتوا، اخبار، انجمن و شبکه اجتماعی را با هم ترکیب میکند و به کاربر اجازه میدهد بدون هیچ محدودیتی و آزادانه دیدگاههایش را در قالب متن یا تصویر یا ویدئو در آن با دیگر کاربران به اشتراک بگذارد. ردیت در مرکز خود یک وب سایت به اشتراکگذاری اجتماعی دارد. این انجمن در اصل با ارسال لینکها، عکسها، متون و… توسط کاربران ساخته میشود و هر کاربر میتواند به اطلاعات کاربران دیگر رای بدهد. به این ترتیب بهترین محتوا در رتبه بالاتری قرار میگیرد؛ در حالی که محتواهای با رای کمتر در رتبه پایینتر قرار میگیرد.(توضیح از مترجم)
[۷] شمال جهانی به یک منطقه جغرافیایی به معنای سنتی اشاره نمیکند بلکه به قدرت و ثروت نسبی کشورها در بخشهای مختلف جهان اشاره دارد. شمال جهانی مناطق ثروتمند و قدرتمندی مانند آمریکای شمالی، اروپا و استرالیا را در بر میگیرد. این اصطلاح توسط امانوئل والرشتاین، جامعه شناس و متفکر چپگرایی آمریکایی(۲۰۱۹ -۱۹۳۰) برای توصیف یک نظام سرمایهداری جهانی که کشورها را به هسته اصلی(شمال)، نیمهپیرامونی و پیرامونی(جنوب) بر اساس مشارکت اقتصادی آنها جدا میکند، توسعه یافته است. در خصوص هوش مصنوعی(AI) نیز که تاثیر عمیقی بر مسائل جهانی در کشاورزی، مراقبتهای بهداشتی، آموزش و غیره داشته است، علیرغم پتانسیل فوقالعادهای ابزارهای هوش مصنوعی برای افزایش رشد اقتصادی اما مزایای اقتصادی و اجتماعی این فناوری از نظر جغرافیایی، عمدتا در شمال جهانی متمرکز است.(توضیح از مترجم)
[۸] پس از انتشار چت بات هوشمند چت جیپیتی توسط اوپن ال ای ۳۰ نوامبر ۲۰۲۲(۹ آذر ۱۴۰۱) شرکت گوگل، ربات بارد را به عنوان هوش مصنوعی مرتبط با جستجو در پاسخ به آن ارائه داد. مدیرعامل گوگل، آقای ساندرا پیچای، در تاریخ ۶ فوریه ۲۰۲۳(۱۶ بهمن ۱۴۰۱) در وبلاگ گوگل، ربات بارد را این گونه معرفی کرد:«ربات بارد (Bard) به دنبال ترکیب وسعت دانش جهان با قدرت، هوش و خلاقیت مدل های بزرگ زبانی است. این ربات از اطلاعات منتشرشده در وب استفاده میکند تا پاسخ های تازه و باکیفیت ارائه دهد. ربات بارد میتواند سکوی پرتاب به سمت خلاقیت و کنجکاوی باشد و به شما کمک کند تا پیچیدهترین مطالب را مثل اکتشافات جدید تلسکوپ فضایی جیمز وب برای یک کودک ۹ ساله به سادگی توضیح دهید یا در مورد بهترین مهاجمان فوتبال حال حاضر دنیا بیشتر بدانید و برای ساختن مهارتهای خود بیشتر تمرین کنید».(توضیح از مترجم) برای اطلاع بیشتر رک به:
https://www.apprentice-bard.ai/
[9] رقابت به سمت پایین به وضعیت رقابتی اشاره دارد که در آن یک شرکت، ایالت یا کشور تلاش میکند تا با قربانی کردن استانداردهای کیفیت، حفاظت از محیط زیست یا ایمنی کارگران(اغلب نادیده گرفتن مقررات) یا کاهش هزینههای نیروی کار قیمتهای رقابت را کاهش دهد. یک رقابت به سمت پایین نیز می واند بین دولتها برای جذب صنعت یا درآمدهای مالیاتی باشد. به عنوان مثال یک حوزه قضایی ممکن است مقررات را کاهش دهد یا مالیاتها را کاهش دهد و منافع عمومی را در تلاش برای جذب سرمایهگذاری به خطر اندازد؛ مانند ساخت یک کارخانه جدید یا دفتر شرکت.(توضیح از مترجم) برای اطلاع بیشتر رک به:
https://www.jstor.org/stable/3694277
[10] ارزشهای طراحی، اصول یا باورهایی هستند که توسط یک طراح برای هدایت کار خود اتخاذ میشود. این ارزشها میتوانند با یک سبک یا نوع طراحی مرتبط باشند. یا ممکن است برای یک شرکت یا طراح فردی منحصر به فرد باشد.(توضیح از مترجم)
[۱۱] عبارت “جنوب جهانی” به طور گسترده به مناطق آمریکای لاتین، آسیا، آفریقا و اقیانوسیه اشاره دارد. این یکی از مترادف های این اصطلاحات، از جمله «جهان سوم» و «پیرامون» است که به مناطقی در خارج از اروپا و آمریکای شمالی اشاره میکند که عمدتا (اگرچه نه همه) کم درآمد و اغلب از نظر سیاسی یا فرهنگی به حاشیه رانده شدهاند. استفاده از عبارت جنوب جهانی نشان دهنده تغییر از تمرکز کانونی بر توسعه یا تفاوت فرهنگی به سمت تاکید بر روابط ژئوپلیتیک قدرت است.(توضیح از مترجم) برای اطلاع بیشتر رک به:
https://journals.sagepub.com/doi/pdf/10.1177/1536504212436479
[12] زنجیره ارزش مجموعهای از مراحل متوالی است که برای ایجاد یک محصول نهایی از طراحی اولیه تا رسیدن به دست مشتری انجام میشود.(توضیح از مترجم)
[۱۳] ویراستار ادبی: صادق بشیره(گروه پژوهشی آکادمی بیگدلی)