مخاطره جهانی در طرح اقدام هوش مصنوعی ترامپ و ضرورت حکمرانی بر آن
Craig Martin
Michael J. Kelly
15.10.2025
مترجم: معین سعدی
دانشآموخته کارشناسی ارشد حقوق بینالملل دانشگاه قم
ویراستار علمی: دکتر سیامک کریمی
عضو هیئت علمی دانشکده حقوق دانشگاه شهید بهشتی
تحلیل قابل ملاحظهای در خصوص طرح اقدام هوش مصنوعی رئیسجمهور ترامپ و فرامین اجرایی مرتبط صادره در اواخر ماه ژوئیه (اینجا و اینجا) و همچنین بحثهایی پیرامون طرح اقدام هوش مصنوعی چین که اندکی پس از آن منتشر شد، صورت گرفته است. در حالی که این [تحلیلها] بسیاری از پیامدهای مربوط به مخاطرات امنیت ملی را مد نظر قرار دادهاند، توجه ناچیزی به این موضوع شده است که این طرح، چگونه بزرگترین خطر از میان تمامی خطرات، یعنی ظهور هوش عمومی مصنوعی (AGI) در شرایطی که توسعهدهندگان آمادگی کامل برای مهار آن را ندارند، تشدید میکند.
اگرچه برخی ممکن است احتمال ظهور [هوش عمومی مصنوعی] AGI در چند دهه آینده را پایین بدانند، اما آسیب بالقوهای که میتواند به بار آورد بسیار عظیم است و این امر، ریسک آن را حائز اهمیت میسازد. در مجمع عمومی سازمان ملل متحد در سال جاری، درخواست برای اقدام در خصوص این ریسک مطرح شد و خواستار اتخاذ تدابیری برای تدوین «خطوط قرمز» در زمینه توسعه هوش مصنوعی گردید، پیش از آن که «فرصت برای مداخله معنادار از دست برود.» ما [با این درخواست] موافقیم.
در این نوشتار، نخست، چگونگی افزایش بنیادین خطرات ناشی از [هوش عمومی مصنوعی] AGI توسط طرح اقدام هوش مصنوعی ترامپ، از طریق دامن زدن به رقابتی ناسیونالیستی در توسعه هوش مصنوعی و از طریق تضعیف آگاهانه مقررات داخلی و بینالمللی هوش مصنوعی، مورد بررسی قرار میگیرد؛ و دوم، چرایی و چگونگی فوریت فزاینده ایجاد ساختارهای حکمرانی که برای رسیدگی به مخاطرات خاص مرتبط با AGI طراحی شدهاند، ارزیابی میشود.
طرح اقدام هوش مصنوعی- سلطه ملی و [رویکرد] ضد حکمرانی
طرح اقدام هوش مصنوعی رئیسجمهور ترامپ، خواستار یک رقابت تسلیحاتی جهانی در حوزه هوش مصنوعی است. این طرح در پی آن است که سلطه جهانی بلامنازع آمریکا بر فناوری در حال توسعه هوش مصنوعی را برقرار سازد که استدلال میکند این امر برای امنیت ملی، شکوفایی اقتصادی و پیشرفت علمی حیاتی است. این طرح و سه فرمان اجرایی (EOs) همراه آن، قصد دارند این تفوق فناورانه آمریکا در حوزه هوش مصنوعی را از طریق سه هدف با ستون اصلی محقق سازند. نخستین ستون، تسریع نوآوری و توسعه هوش مصنوعی است که شامل تاکید بر مقرراتزدایی، کاهش الزامات حکمرانی و تشویق توسعه و استفاده از مدلهای منبعباز و دسترسی گسترده به قدرت محاسباتی پیشرفته میشود.
ستون دوم، یعنی تقویت زیرساختهای مرتبط با هوش مصنوعی در ایالات متحده، ارتباط کمتری با مخاطره AGI دارد. ستون سوم، یعنی دیپلماسی و امنیت هوش مصنوعی، بر ترویج صادرات «مجموعه کامل فناوری هوش مصنوعی» آمریکا (شامل سختافزار، مدلها، نرمافزار، برنامههای کاربردی و استانداردهای هوش مصنوعی خود) به متحدین خود متمرکز است؛ و از این طریق، پذیرش استاندارد ها و فناوری آمریکایی هوش مصنوعی در خارج از کشور را تضمین میکند، در حالی که همزمان، دسترسی کشورهای رقیب، به طور خاص کشور چین، را به قابلیتهای محاسباتی و اجزای تولید حیاتی در حوزه هوش مصنوعی، سلب مینماید.
این تاکید بر سلطه آمریکا بر سایر نقاط جهان بهطور عام و بر چین بهطور خاص، به وضوح به یک رقابت تسلیحاتی دامن میزند. اما بسیاری از جنبههای دیگر این طرح نیز رقابت مهارناشده و توسعه فاقد [چارچوب های] حکمرانی را تشدید خواهد کرد. تاکید بر پیشبرد نوآوری در بخشهای دولتی و خصوصی، همراه با انگیزه توسعه سیستمهای منبعباز و وزنباز، و همچنین سرمایهگذاری برای تامین دسترسی گسترده به قابلیتهای پردازشی با توان بالا و صادرات اجزای فناوری هوش مصنوعی آمریکا، همگی فرصت و محرک رقابت را بیشتر افزایش خواهند داد. واکنش چین به طرح اقدام هوش مصنوعی ترامپ، در حالی که به طور کنایهآمیزی خواستار همکاری بیشتر است، این پویایی و درک مشترک از رقابت ملی را بیش از پیش بازتاب میدهد.
دومین شیوهای که از طریق آن این طرح، خطر AGI را افزایش میدهد، تاکید آن بر کاهش محدودیتهای نظارتی و حکمرانی است. طرح اقدام تصریح میکند که نیروی محرک نوآوری، نیازمند مقرراتزدایی است. این امر شامل لغو فرمان اجرایی [شماره] ۱۴۱۱۰ [رئیسجمهور] بایدن میشود، فرمانی که در پی تحمیل استانداردهای ایمنی و امنیتی، از جمله الزامات گزارشدهی، بر تمام توسعهدهندگان سیستمهای هوش مصنوعی بود. این طرح ملزم میکند که تمامی مقررات فدرال و ایالتی که مانع توسعه هوش مصنوعی هستند، شناسایی و ملغی گردند.
در چارچوب ستون سوم، طرح اقدام خواستار مقابله با نفوذ چین در نهادهای حکمرانی بینالمللی است و از « مقررات بیش از حد دستوپاگیر» و « آییننامههای رفتاری مبهم» که توسط سازمانهای بینالمللی مانند سازمان ملل متحد مطرح میشوند، انتقاد میکند. این طرح توصیه میکند که ایالات متحده باید «قاطعانه از رویکردهای حکمرانی بینالمللی هوش مصنوعی که نوآوری را ترویج کرده، منعکس کننده ارزشهای آمریکایی باشند و با نفوذ اقتدارگرایانه مقابله نمایند»، حمایت کند. تمامی این اقدامات، تلاشهای نوپای توسعه حاکمیت جهانی هوش مصنوعی (که در ادامه به آن پرداخته شده است) را تضعیف میکند و این امر به نوبه خود، این خطر را افزایش میدهد که AGI ممکن است در شرایطی ظهور کند که آمادگی کامل برای مهار آن وجود ندارد.
مخاطره [هوش عمومی مصنوعی] AGI و لزوم حکمرانی [بر آن]
[مخاطرات مرتبط با هوش عمومی مصنوعی] AGI کدامند؟ بسیاری در جامعه هوش مصنوعی (به فصل ۵ این منبع مراجعه شود) ریسکهای مرتبط با آن را اغراقآمیز میدانند. در مقابل، بسیاری دیگر، بر اساس یک نظرسنجی مشهور در سال ۲۰۲۲، احتمال اینکه AGI تهدیدی وجودی برای بشریت باشد را تا ۱۰ درصد برآورد میکنند. یک مطالعه عمومی در مورد چنین تهدیدات وجودی، هوش مصنوعی غیر منطبق را به عنوان بزرگترین ریسک واحد برای بشریت در طول قرن آتی رتبهبندی کرده است. اخیرا، یک مقاله تحقیقاتی جدید تحت عنوان «هوش مصنوعی ۲۰۲۷»، که توسط پروژه آینده هوش مصنوعی منتشر شد، با پیشبینی ظهور «هوش مصنوعی فوق بشری» در همین دهه، جنجال قابل توجهی به پا کرد. این مقاله پیشبینی میکند که [این هوش مصنوعی] بهطور فزایندهای خودمختار شده و قادر به کنترل عوامل [اجرایی] در دنیای واقعی خواهد بود، در حالی که همزمان در تمامی ابعاد دولت و صنعت نفوذ خواهد کرد. در این تحلیل، AGI بهطور خصمانهای با منافع بشریت نامنطبق شده و به آیندهای منجر میشود که در آن ما قادر به کنترل AGI نیستیم و در معرض مخاطرات فاجعهبار فزایندهای قرار میگیریم. یکی از سناریوهای «رقابت» منجر به انقراض نسل بشر میشود.
شکل ۱- پیشبینی هوش مصنوعی ۲۰۲۷ برای ظهور AGI با سناریویی که به ریشهکن شدن بشریت ختم میشود.
در حالی که جزئیات مطالعه هوش مصنوعی ۲۰۲۷، ممکن است دور از واقعیت به نظر برسند، بسیاری از میزان توجهی که این مطالعه مجددا بر خطر ناشی از AGI متمرکز کرده است، استقبال میکنند. زیرا، حتی اگر احتمال ظهور AGI در چند دهه آینده پایین باشد و احتمال این که چنین [هوش عمومی مصنوعی] AGI منافعی غیر منطبق با منافع بشریت ( که همان «مسئله انطباق» معروف است)را گسترش دهد، یک تهدید وجودی آشکار ایجاد خواهد کرد. یک AGI که در کل طیف حل مسئله بسیار باهوشتر از انسان باشد و دسترسی کامل به اینترنت و هر آنچه به آن متصل است داشته باشد و در نتیجه قادر به دستکاری «عوامل» در جهان واقعی باشد، یک تهدید وجودی آشکار ایجاد خواهد کرد. همان طور که آزمایش فکری اکنون مشهور گیره کاغذ نیک باستروم نشان میدهد، حتی یک AGI کاملا خیرخواه که اهدافی متناقض با اهداف بشریت ایجاد کند، به احتمال زیاد وجود ما را تهدید خواهد کرد. همان طورکه عنوان یک کتاب جدید از دو متخصص هوش مصنوعی بیان میدارد: «اگر کسی آن را بسازد، همه میمیرند».
بنابراین همه استدلال میکنند که تحقیق و توسعه بر روی AGI یا حتی بر روی هر مدل هوش مصنوعی پیشتاز که خطر عبور از آستانه هوش عمومی را در پی دارد، باید تحت امنترین شرایط و در محیطهای کاملا ایزولهشده انجام شود. این شرایط مشابه آزمایشگاههای سطح ایمنی زیستی ۴ خواهند بود که اختصاص به کار با عوامل بیماریزای بسیار خطرناک دارند، یا مشابه تاسیسات ایمنی SCIFs در سطح امنیت ملی. یکی از جنبههای کلیدی مخاطرهآمیزی که این طرح [اقدام] مطرح میکند، این است که در بستر رقابت تسلیحاتی فاقد مقررات برای توسعه مدلهای هوش مصنوعی با قدرت فزاینده، یک نهاد دولتی یا شرکتی، مدلی را توسعه خواهد داد که به هوش عمومی مصنوعی در شرایط باز و «متصل» دست مییابد و ما را بهطور ناخواسته از نقطه بیبازگشت AGI عبور میدهد. و حتی اگر AGI ابتدا در شرایط امن توسعه یابد، باز هم مخاطرات واقعی را در پی دارد؛ منتقدان برجسته هوش مصنوعی مانند الیزر یودکوفسکی، مدتها استدلال کردهاند که حتی در شرایط امن نیز یک AGI در حال ظهور میتواند ما را فریب دهد تا آن را «از جعبه خارج کنیم». هنگامی که یک AGI غیر منطبق «در طبیعت رها شود» دیگر خیلی دیر خواهد بود. این وضعیت شبیه به رهاسازی یک پاتوژن بسیار خطرناک و کشنده خواهد بود که هیچ واکسنی برای آن وجود ندارد.
اصل احتیاط که اکنون به طور گسترده به عنوان یک اصل بنیادین در حقوق بینالملل محیط زیست و تغییرات اقلیمی به رسمیت شناخته شده است (رجوع به نظریه مشورتی دیوان بینالمللی دادگستری درمورد تعهدکشورهابه رعایت تغییرات اقلیمی ، بندهای ۲۵۵ و ۲۹۳-۹۴ مراجعه شود)، بر این امر دلالت دارد که هنگام مواجهه با خطر آسیب عظیم، باید اقدامات لازم برای کاهش آن ریسک انجام شود؛ صرف نظر از هرگونه عدم قطعیت علمی باقیمانده در خصوص احتمال وقوع آن.
به یقین اصل احتیاط در اینجا قابلیت دارد و ایجاب میکند که اقداماتی را جهت توسعه نوعی ساختار حکمرانی بینالمللی برای تنظیمگری ابعاد تحقیق، توسعه و استقرار هوش مصنوعی پیشتاز به عمل آوریم؛ از جمله ایجاد پروتکلهایی که شرایط انجام چنین تحقیقاتی را سامان دهد. بنابراین، پرسش این است که چنین ساختارهای حکمرانی جهانی باید چه شکلی به خود بگیرند.
الگوهای حکمرانی جهانی
«حکمرانی جهانی» اصطلاحی است که معانی مختلفی دارد و در رشتههای گوناگون، دارای تفاسیر نظری کاملاً متفاوتی است. حتی در کاربرد عملی نیز، تلاشها برای تنظیمگری سایر تهدیدات جدی علیه بشریت، از آزمایش و اشاعه تسلیحات هستهای، سلاحهای بیولوژیک و شیمیایی، عملیات سایبری، حفره در لایه اوزن و علل تغییرات اقلیمی، از مجموعهای از روشها و سازکارهای مختلف بهره بردهاند. این تفاوتها طیفی از ساختارهای حکمرانی را منعکس میکنند که شامل موارد زیر است:
●حقوق سخت ، از جمله معاهدات با تعهدات حقوقی الزامآور (مانند رژیم معاهده منع اشاعه هستهای یا نظام کنوانسیون سلاحهای شیمیایی)؛
● رویکردهای «حقوق نرم» (مانند حکمرانی عملیات سایبری، در قالب کتابچه راهنمای تالین و نهادهایی چون گروه کاری نامحدود سازمان ملل متحد)؛
● رویکردهای بینابینی (مانند کنوانسیون چارچوب ملل متحد در مورد تغییرات اقلیمی (UNFCCC) و توافق نامه پاریس).
تفاوت در رویکردها ممکن است تا حدی با تفاوت در ماهیت ریسک مورد رسیدگی و ارزش منافعی که توسط محدودیتهای اعمالشده توسط نظام [حکمرانی] تهدید میشوند، توضیح داده شود. هر چه منافع تحت محدودیت بیشتر باشد و هر چه ریسکهای در معرض بحث پراکندهتر یا نامطمئنتر باشند، دستیابی به توافق بر سر تعهدات الزامآور دشوارتر است. این مقاومت زمانی بیشتر تشدید میشود که تأیید انطباق و اجرای [الزامات] دشوارتر گردد.
برخی از این تلاشهای حکمرانی پیشین، نمونههای مفیدی برای بررسی ارائه میدهند، اما هیچیک از آنها الگوهایی را فراهم نمیکنند که کاملاً مناسب برای مقابله با چالشهای منحصربهفرد ناشی از هرگونه تلاش برای مهار مخاطرات AGI باشند؛ جایی که منافع در معرض خطر ممکن است بسیار بالا تصور شوند، ریسک بسیار نامشخص است و تأیید انطباق و اجرا شدیداً دشوار خواهد بود.
برخی ابتکارات کلیدی وجود دارند که از پیش به دنبال ایجاد حکمرانی بیشتر بر هوش مصنوعی هستند. در حال حاضر، کنوانسیون چارچوب شورای اروپا در مورد هوش مصنوعی و حقوق بشر، دموکراسی و حاکمیت قانون و قانون هوش مصنوعی اتحادیه اروپا، که هر دو در سال ۲۰۲۴ تصویب شدند، در جای خود قرار دارند. اما هیچیک بهطور خاص به AGI نمیپردازند. همچنین فرآیند هوش مصنوعی هیروشیما [گروه هفت] G7 از سال ۲۰۲۳ وجود دارد که یک آییننامه رفتاری برای سازمانهای توسعهدهنده سیستمهای هوش مصنوعی پیشرفته تدوین کرده است، و نیز مشارکت جهانی در زمینه هوش مصنوعی. نهاد مشورتی سطح بالای سازمان ملل متحد در مورد هوش مصنوعی، گزارش نهایی خود با عنوان «حکمرانی هوش مصنوعی برای بشریت» را در سال ۲۰۲۴ منتشر کرد که به «کسری حکمرانی » در خصوص توسعه و استقرار هوش مصنوعی و ماهیت وصلهدوزانه حکمرانی موجود، اشاره داشت و بر ضرورت فوری توسعه حکمرانی جهانی برای رسیدگی به مخاطرات متنوع ناشی از هوش مصنوعی تأکید نمود.
ساختار حکمرانی جهانی خاص [هوش عمومی مصنوعی] AGI
یکی از مشکلات این تلاشهای جهانی برای تنظیمگری بهتر توسعه و استقرار هوش مصنوعی، آن است که این تلاشها در پی رسیدگی به خطرات متعدد و کاملاً متنوعی هستند که هوش مصنوعی بهطور کلی ایجاد میکند، در عین حال که میکوشند فرصتهای مثبتی را نیز که توسعه هوش مصنوعی میتواند فراهم آورد، تسهیل نمایند. همانگونه که گزارش نهاد مشورتی سطح بالای سازمان ملل متحد در مورد هوش مصنوعی تأکید کرد، دامنه این خطرات بهشدت گسترده است و شامل هر چیزی از منافع کپیرایت گرفته تا ایجاد تهدیدات مختلف علیه صلح و امنیت بینالمللی و کمک به بحران اقلیمی میشود. تلاشهای حکمرانی در صدد هستند تا همزمان با تمامی این موارد دست و پنجه نرم کنند که این امر منافع گستردهای را نیز درگیر میسازد و میتواند فرآیند را بهشدت پیچیده نماید. اما ریسک خاصی که ما در اینجا مورد بحث قرار میدهیم، یعنی ریسک ناشی از AGI، نیازمند یک شکل بسیار ویژه از حکمرانی است.
هدف ما در اینجا، تقویت این دیدگاه است که نیاز فوری به یک نظام حکمرانی جهانی مجزا و خاص برای رسیدگی به مخاطرات ناشی از AGI وجود دارد. در حالی که موانع و مخالفتهای بیشماری برای توسعه ساختارهای حکمرانی ِ الزامآور قانونی جهت تنظیمگری تمامی ریسکها و فرصتهای مختلف مرتبط با هوش مصنوعی وجود دارد، اما یک نظام الزامآور قانونی محدود که هدف آن تنظیمگری حداقل شرایطی باشد که تحت آن مدلهای هوش مصنوعی پیشتاز و AGI توسعه مییابند و تحمیل تعهدات گزارشدهی و تأیید انطباق، میتواند عملی باشد. نظام حکمرانی که اغلب بهعنوان الگویی محتمل برای الگوبرداری مطرح میشود (به اینجا و اینجا مراجعه کنید)، رژیم منع اشاعه هستهای است، که در آن آژانس بینالمللی انرژی اتمی (IAEA) وظایف بازرسی و تأیید انطباق را فراهم مینماید.
نظارت، تأیید انطباق و اجرای محدودیتها در توسعه AGI، به مراتب دشوارتر از تنظیمگری توسعه تسلیحات هستهای خواهد بود. حکمرانی AGI بسیاری از مشکلاتی را که رژیم حاکم بر تسلیحات بیولوژیک با آن روبرو است، به اشتراک میگذارد، چرا که نظارت، تأیید انطباق، کشف تقلب، و تمایز قائل شدن میان کارکردهای با کاربرد دوگانه از فعالیتهای ممنوعه، همگی بهشدت دشوار هستند. با وجود این، یک کنوانسیون سلاحهای بیولوژیک وجود دارد که ۱۸۹ دولت عضو آن هستند؛ و در حالی که این رژیم از حمایت نهادی و سازوکارهای اجرایی ناکافی رنج میبرد، کنوانسیون تعهدات الزامآوری را در خصوص توسعه، دستیابی یا استفاده از تسلیحات بیولوژیک تحمیل میکند و دولتها به منظور کاهش ریسکها، در گزارشدهی دورهای و سایر اقدامات اعتمادساز مشارکت مینمایند. میتوان استدلال کرد که این رژیم در تعدیل قابل ملاحظه مخاطرات ناشی از تسلیحات بیولوژیک موفق عمل کرده است.
با توجه به عظمت آسیب بالقوه و منافع نسبتاً محدودی که درگیر خواهند شد (بقیه توسعه و استقرار هوش مصنوعی تحت سلطه این نظام حاکمیتی قرار نخواهند گرفت)، بهطور قطع میتوان آغاز کار برای تدوین یک کنوانسیون جهت حکمرانی بر توسعه AGI را عملی دانست. چارچوب نهادی فراهمشده توسط فرآیند هوش مصنوعی هیروشیما گروه هفت یا [مشارکت جهانی در زمینه هوش مصنوعی] GPAI میتواند بهعنوان بستر نهادی برای مذاکرات عمل نماید. این فرآیند میتواند با ایجاد یک کنوانسیون چارچوب، و به دنبال آن یک پروتکل که محدودیتهای الزامآور مشخصتری را فراهم کند، آغاز شود؛ با الگو گرفتن از کنوانسیون چارچوب ملل متحد در مورد تغییرات اقلیمی و توافق نامه پاریس. همچنین این تلاشها میتواند به عنوان یک توافق «چندجانبه کوچک» که تنها کشورهای پیشرو در توسعه هوش مصنوعی در آن مشارکت دارند، آغاز گردد؛ همانگونه که در مورد پروتکل مونترال در خصوص لایه ازون و معاهده منع جزئی آزمایشهای هستهای انجام شد.
البته اینها صرفاً ایدههای مقدماتی هستند، اما استدلال محوری ما این است که نیاز به اقدام فوری است و این موضوع باید بسیار بیشتر از آنچه اکنون مورد توجه قرار میگیرد، مورد عنایت واقع شود.
نتیجهگیری
با صرف نظر کردن از سایر انتقادات به طرح اقدام هوش مصنوعی، صرفِ شیوهای که این طرح مخاطرات ناشی از [هوش عمومی مصنوعی] AGI را تشدید میکند، بهتنهایی باید موجب دغدغه و نگرانی قابل ملاحظهای شود. بهطور کنایهآمیزی، چین در اواخر ماه ژوئیه در واکنش به طرح ترامپ، خواستار همکاری بیشتر در حکمرانی بینالمللی هوش مصنوعی گردید. موضعگیری پکن تا حد زیادی معکوسسازی نقشهای دیپلماتیک سنتی میان ایالات متحده و چین است جایی که ایالات متحده بهطور معمول از همکاری چندجانبه بینالمللی دفاع کرده و چین غالباً چنین تلاشهایی را رد نموده است. ایالات متحده نباید به این سادگی رهبری بینالمللی خود را کنار بگذارد.
ایالات متحده، به جای تمرکز بر منافع محدود کوتاهمدتی که از طریق سلطه ملی در هوش مصنوعی و تضعیف تلاشهای حکمرانی جهانی به دست میآید، باید هدایت جهان را در پاسخ به مخاطرات ناشی از توسعه AGI بر عهده گیرد. انجام این کار بهطور قطع در راستای منافع بلندمدت آن خواهد بود. مهمتر آن که، جهان باید ایالات متحده را به این فرآیند بازگرداند، مخاطرات ناشی از AGI بدون حضور ایالات متحده به سادگی قابل مدیریت نیستند. عدم پیوستن آمریکا به جامعه ملل در وقوع جنگ جهانی اول سهیم بود و آسیب تهدیدشده توسط توسعه AGI، هر چند که بعید به نظر برسد، ابعاد فجایع آن جنگ را تحتالشعاع قرار میدهد.