مخاطره جهانی در طرح اقدام هوش مصنوعی ترامپ و ضرورت حکمرانی بر آن

مخاطره جهانی در طرح اقدام هوش مصنوعی ترامپ و ضرورت حکمرانی بر آن

Craig Martin

Michael J. Kelly

15.10.2025

مترجم: معین سعدی

دانش‌آموخته کارشناسی ارشد حقوق بین‌الملل دانشگاه قم

ویراستار علمی: دکتر سیامک کریمی

عضو هیئت علمی دانشکده حقوق دانشگاه شهید بهشتی

تحلیل قابل ملاحظه‌ای در خصوص طرح اقدام هوش مصنوعی رئیس‌جمهور ترامپ و فرامین اجرایی مرتبط صادره در اواخر ماه ژوئیه (اینجا و اینجا) و همچنین بحث‌هایی پیرامون طرح اقدام هوش مصنوعی چین که اندکی پس از آن منتشر شد، صورت گرفته است. در حالی که این [تحلیل‌ها] بسیاری از پیامدهای مربوط به مخاطرات امنیت ملی را مد نظر قرار داده‌اند، توجه ناچیزی به این موضوع شده است که این طرح، چگونه بزرگترین خطر از میان تمامی خطرات، یعنی ظهور هوش عمومی مصنوعی (AGI) در شرایطی که توسعه‌دهندگان آمادگی کامل برای مهار آن را ندارند، تشدید می‌کند.

اگرچه برخی ممکن است احتمال ظهور [هوش عمومی مصنوعی] AGI در چند دهه آینده را پایین بدانند، اما آسیب بالقوه‌ای که می‌تواند به بار آورد بسیار عظیم است و این امر، ریسک آن را حائز اهمیت می‌سازد. در مجمع عمومی سازمان ملل متحد در سال جاری، درخواست برای اقدام در خصوص این ریسک مطرح شد و خواستار اتخاذ تدابیری برای تدوین «خطوط قرمز» در زمینه توسعه هوش مصنوعی گردید، پیش از آن که «فرصت برای مداخله معنادار از دست برود.» ما [با این درخواست] موافقیم.

در این نوشتار، نخست، چگونگی افزایش بنیادین خطرات ناشی از [هوش عمومی مصنوعی] AGI توسط طرح اقدام هوش مصنوعی ترامپ، از طریق دامن زدن به رقابتی ناسیونالیستی در توسعه هوش مصنوعی و از طریق تضعیف آگاهانه مقررات داخلی و بین‌المللی هوش مصنوعی، مورد بررسی قرار می‌گیرد؛ و دوم، چرایی و چگونگی فوریت فزاینده ایجاد ساختارهای حکمرانی که برای رسیدگی به مخاطرات خاص مرتبط با AGI طراحی شده‌اند، ارزیابی می‌شود.

طرح اقدام هوش مصنوعی- سلطه ملی و [رویکرد] ضد حکمرانی

طرح اقدام هوش مصنوعی رئیس‌جمهور ترامپ، خواستار یک رقابت تسلیحاتی جهانی در حوزه هوش مصنوعی است. این طرح در پی آن است که سلطه جهانی بلامنازع آمریکا بر فناوری در حال توسعه هوش مصنوعی را برقرار سازد که استدلال می‌کند این امر برای امنیت ملی، شکوفایی اقتصادی و پیشرفت علمی حیاتی است. این طرح و سه فرمان اجرایی (EOs) همراه آن، قصد دارند این تفوق فناورانه آمریکا در حوزه هوش مصنوعی را از طریق سه هدف با ستون اصلی محقق سازند. نخستین ستون، تسریع نوآوری و توسعه هوش مصنوعی است که شامل تاکید بر مقررات‌زدایی، کاهش الزامات حکمرانی و تشویق توسعه و استفاده از مدل‌های منبع‌باز و دسترسی گسترده به قدرت محاسباتی پیشرفته می‌شود.

ستون دوم، یعنی تقویت زیرساخت‌های مرتبط با هوش مصنوعی در ایالات متحده، ارتباط کمتری با مخاطره AGI دارد. ستون سوم، یعنی دیپلماسی و امنیت هوش مصنوعی، بر ترویج صادرات «مجموعه کامل فناوری هوش مصنوعی» آمریکا (شامل سخت‌افزار، مدل‌ها، نرم‌افزار، برنامه‌های کاربردی و استانداردهای هوش مصنوعی خود) به متحدین خود متمرکز است؛ و از این طریق، پذیرش استاندارد ها و فناوری آمریکایی هوش مصنوعی در خارج از کشور را تضمین می‌کند، در حالی که همزمان، دسترسی کشورهای رقیب، به طور خاص کشور چین، را به قابلیت‌های محاسباتی و اجزای تولید حیاتی در حوزه هوش مصنوعی، سلب می‌نماید.

این تاکید بر سلطه آمریکا بر سایر نقاط جهان به‌طور عام و بر چین به‌طور خاص، به وضوح به یک رقابت تسلیحاتی دامن می‌زند. اما بسیاری از جنبه‌های دیگر این طرح نیز رقابت مهارناشده و توسعه فاقد [چارچوب ‌های] حکمرانی را تشدید خواهد کرد. تاکید بر پیشبرد نوآوری در بخش‌های دولتی و خصوصی، همراه با انگیزه توسعه سیستم‌های منبع‌باز و وزن‌باز، و همچنین سرمایه‌گذاری برای تامین دسترسی گسترده به قابلیت‌های پردازشی با توان بالا و صادرات اجزای فناوری هوش مصنوعی آمریکا، همگی فرصت و محرک رقابت را بیشتر افزایش خواهند داد. واکنش چین به طرح اقدام هوش مصنوعی ترامپ، در حالی که به طور کنایه‌آمیزی خواستار همکاری بیشتر است، این پویایی و درک مشترک از رقابت ملی را بیش از پیش بازتاب می‌دهد.

دومین شیوه‌ای که از طریق آن این طرح، خطر AGI را افزایش می‌دهد، تاکید آن بر کاهش محدودیت‌های نظارتی و حکمرانی است. طرح اقدام تصریح می‌کند که نیروی محرک نوآوری، نیازمند مقررات‌زدایی است. این امر شامل لغو فرمان اجرایی [شماره] ۱۴۱۱۰ [رئیس‌جمهور] بایدن می‌شود، فرمانی که در پی تحمیل استانداردهای ایمنی و امنیتی، از جمله الزامات گزارش‌دهی، بر تمام توسعه‌دهندگان سیستم‌های هوش مصنوعی بود. این طرح ملزم می‌کند که تمامی مقررات فدرال و ایالتی که مانع توسعه هوش مصنوعی هستند، شناسایی و ملغی گردند.

در چارچوب ستون سوم، طرح اقدام خواستار مقابله با نفوذ چین در نهادهای حکمرانی بین‌المللی است و از « مقررات بیش از حد دست‌وپا‌گیر» و « آیین‌نامه‌های رفتاری مبهم» که توسط سازمان‌های بین‌المللی مانند سازمان ملل متحد مطرح می‌شوند، انتقاد می‌کند. این طرح توصیه می‌کند که ایالات متحده باید «قاطعانه از رویکردهای حکمرانی بین‌المللی هوش مصنوعی که نوآوری را ترویج کرده، منعکس کننده ارزش‌های آمریکایی باشند و با نفوذ اقتدارگرایانه مقابله نمایند»، حمایت کند. تمامی این اقدامات، تلاش‌های نوپای توسعه حاکمیت جهانی هوش مصنوعی (که در ادامه به آن پرداخته شده است) را تضعیف می‌کند و این امر به نوبه خود، این خطر را افزایش می‌دهد که AGI ممکن است در شرایطی ظهور کند که آمادگی کامل برای مهار آن وجود ندارد.

مخاطره [هوش عمومی مصنوعی] AGI و لزوم حکمرانی [بر آن]

[مخاطرات مرتبط با هوش عمومی مصنوعی] AGI کدامند؟ بسیاری در جامعه هوش مصنوعی (به فصل ۵ این منبع مراجعه شود) ریسک‌های مرتبط با آن را اغراق‌آمیز می‌دانند. در مقابل، بسیاری دیگر، بر اساس یک نظرسنجی مشهور در سال ۲۰۲۲، احتمال اینکه AGI تهدیدی وجودی برای بشریت باشد را تا ۱۰ درصد برآورد می‌کنند. یک مطالعه عمومی در مورد چنین تهدیدات وجودی، هوش مصنوعی غیر منطبق را به عنوان بزرگترین ریسک واحد برای بشریت در طول قرن آتی رتبه‌بندی کرده است. اخیرا، یک مقاله تحقیقاتی جدید تحت عنوان «هوش مصنوعی ۲۰۲۷»، که توسط پروژه آینده هوش مصنوعی منتشر شد، با پیش‌بینی ظهور «هوش مصنوعی فوق بشری» در همین دهه، جنجال قابل توجهی به پا کرد. این مقاله پیش‌بینی می‌کند که [این هوش مصنوعی] به‌طور فزاینده‌ای خودمختار شده و قادر به کنترل عوامل [اجرایی] در دنیای واقعی خواهد بود، در حالی که همزمان در تمامی ابعاد دولت و صنعت نفوذ خواهد کرد. در این تحلیل، AGI به‌طور خصمانه‌ای با منافع بشریت نامنطبق شده و به آینده‌ای منجر می‌شود که در آن ما قادر به کنترل AGI نیستیم و در معرض مخاطرات فاجعه‌بار فزاینده‌ای قرار می‌گیریم. یکی از سناریوهای «رقابت» منجر به انقراض نسل بشر می‌شود.

شکل ۱- پیش‌بینی هوش مصنوعی ۲۰۲۷ برای ظهور AGI با سناریویی که به ریشه‌کن شدن بشریت ختم می‌شود.

در حالی که جزئیات مطالعه هوش مصنوعی ۲۰۲۷، ممکن است دور از واقعیت به نظر برسند، بسیاری از میزان توجهی که این مطالعه مجددا بر خطر ناشی از AGI متمرکز کرده است، استقبال می‌کنند. زیرا، حتی اگر احتمال ظهور AGI در چند دهه آینده پایین باشد و احتمال این که چنین [هوش عمومی مصنوعی] AGI منافعی غیر منطبق با منافع بشریت ( که همان «مسئله انطباق» معروف است)را گسترش دهد، یک تهدید وجودی آشکار ایجاد خواهد کرد. یک AGI که در کل طیف حل مسئله بسیار باهوش‌تر از انسان باشد و دسترسی کامل به اینترنت و هر آنچه به آن متصل است داشته باشد و در نتیجه قادر به دستکاری «عوامل» در جهان واقعی باشد، یک تهدید وجودی آشکار ایجاد خواهد کرد. همان طور که آزمایش فکری اکنون مشهور گیره کاغذ نیک باستروم نشان می‌دهد، حتی یک AGI کاملا خیرخواه که اهدافی متناقض با اهداف بشریت ایجاد کند، به احتمال زیاد وجود ما را تهدید خواهد کرد. همان طورکه عنوان یک کتاب جدید از دو متخصص هوش مصنوعی بیان می‌دارد: «اگر کسی آن را بسازد، همه می‌میرند».

بنابراین همه استدلال می‌کنند که تحقیق و توسعه بر روی AGI یا حتی بر روی هر مدل هوش مصنوعی پیشتاز که خطر عبور از آستانه هوش عمومی را در پی دارد، باید تحت امن‌ترین شرایط و در محیط‌های کاملا ایزوله‌شده انجام شود. این شرایط مشابه آزمایشگاه‌های سطح ایمنی زیستی ۴ خواهند بود که اختصاص به کار با عوامل بیماری‌زای بسیار خطرناک دارند، یا مشابه تاسیسات ایمنی SCIFs در سطح امنیت ملی. یکی از جنبه‌های کلیدی مخاطره‌‌آمیزی که این طرح [اقدام] مطرح می‌کند، این است که در بستر رقابت تسلیحاتی فاقد مقررات برای توسعه مدل‌های هوش مصنوعی با قدرت فزاینده، یک نهاد دولتی یا شرکتی، مدلی را توسعه خواهد داد که به هوش عمومی مصنوعی در شرایط باز و «متصل» دست می‌یابد و ما را به‌طور ناخواسته از نقطه بی‌بازگشت AGI عبور می‌دهد. و حتی اگر AGI ابتدا در شرایط امن توسعه یابد، باز هم مخاطرات واقعی را در پی دارد؛ منتقدان برجسته هوش مصنوعی مانند الیزر یودکوفسکی، مدت‌ها استدلال کرده‌اند که حتی در شرایط امن نیز یک AGI در حال ظهور می‌تواند ما را فریب دهد تا آن را «از جعبه خارج کنیم». هنگامی که یک AGI غیر منطبق «در طبیعت رها شود» دیگر خیلی دیر خواهد بود. این وضعیت شبیه به رهاسازی یک پاتوژن بسیار خطرناک و کشنده خواهد بود که هیچ واکسنی برای آن وجود ندارد.

اصل احتیاط که اکنون به طور گسترده به عنوان یک اصل بنیادین در حقوق بین‌الملل محیط زیست و تغییرات اقلیمی به رسمیت شناخته شده است (رجوع به نظریه مشورتی دیوان بین‌المللی دادگستری درمورد تعهدکشورهابه رعایت تغییرات اقلیمی ، بندهای ۲۵۵ و ۲۹۳-۹۴ مراجعه شود)، بر این امر دلالت دارد که هنگام مواجهه با خطر آسیب عظیم، باید اقدامات لازم برای کاهش آن ریسک انجام شود؛ صرف نظر از هرگونه عدم قطعیت علمی باقی‌مانده در خصوص احتمال وقوع آن.

به یقین اصل احتیاط در اینجا قابلیت دارد و ایجاب می‌کند که اقداماتی را جهت توسعه نوعی ساختار حکمرانی بین‌المللی برای تنظیم‌گری ابعاد تحقیق، توسعه و استقرار هوش مصنوعی پیشتاز به عمل آوریم؛ از جمله ایجاد پروتکل‌هایی که شرایط انجام چنین تحقیقاتی را سامان دهد. بنابراین، پرسش این است که چنین ساختارهای حکمرانی جهانی باید چه شکلی به خود بگیرند.

الگوهای حکمرانی جهانی

«حکمرانی جهانی» اصطلاحی است که معانی مختلفی دارد و در رشته‌های گوناگون، دارای تفاسیر نظری کاملاً متفاوتی است. حتی در کاربرد عملی نیز، تلاش‌ها برای تنظیم‌گری سایر تهدیدات جدی علیه بشریت، از آزمایش و اشاعه تسلیحات هسته‌ای، سلاح‌های بیولوژیک و شیمیایی، عملیات سایبری، حفره در لایه اوزن و علل تغییرات اقلیمی، از مجموعه‌ای از روش‌ها و سازکارهای مختلف بهره برده‌اند. این تفاوت‌ها طیفی از ساختارهای حکمرانی را منعکس می‌کنند که شامل موارد زیر است:

●حقوق سخت ، از جمله معاهدات با تعهدات حقوقی الزام‌آور (مانند رژیم معاهده منع اشاعه هسته‌ای یا نظام کنوانسیون سلاح‌های شیمیایی)؛

● رویکردهای «حقوق نرم» (مانند حکمرانی عملیات سایبری، در قالب کتابچه راهنمای تالین و نهادهایی چون گروه کاری نامحدود سازمان ملل متحد)؛

● رویکردهای بینابینی (مانند کنوانسیون چارچوب ملل متحد در مورد تغییرات اقلیمی (UNFCCC) و توافق نامه پاریس).

تفاوت در رویکردها ممکن است تا حدی با تفاوت در ماهیت ریسک مورد رسیدگی و ارزش منافعی که توسط محدودیت‌های اعمال‌شده توسط نظام [حکمرانی] تهدید می‌شوند، توضیح داده شود. هر چه منافع تحت محدودیت بیشتر باشد و هر چه ریسک‌های در معرض بحث پراکنده‌تر یا نامطمئن‌تر باشند، دستیابی به توافق بر سر تعهدات الزام‌آور دشوارتر است. این مقاومت زمانی بیشتر تشدید می‌شود که تأیید انطباق و اجرای [الزامات] دشوارتر گردد.

برخی از این تلاش‌های حکمرانی پیشین، نمونه‌های مفیدی برای بررسی ارائه می‌دهند، اما هیچ‌یک از آن‌ها الگوهایی را فراهم نمی‌کنند که کاملاً مناسب برای مقابله با چالش‌های منحصربه‌فرد ناشی از هرگونه تلاش برای مهار مخاطرات AGI باشند؛ جایی که منافع در معرض خطر ممکن است بسیار بالا تصور شوند، ریسک بسیار نامشخص است و تأیید انطباق و اجرا شدیداً دشوار خواهد بود.

برخی ابتکارات کلیدی وجود دارند که از پیش به دنبال ایجاد حکمرانی بیشتر بر هوش مصنوعی هستند. در حال حاضر، کنوانسیون چارچوب شورای اروپا در مورد هوش مصنوعی و حقوق بشر، دموکراسی و حاکمیت قانون و قانون هوش مصنوعی اتحادیه اروپا، که هر دو در سال ۲۰۲۴ تصویب شدند، در جای خود قرار دارند. اما هیچ‌یک به‌طور خاص به AGI نمی‌پردازند. همچنین فرآیند هوش مصنوعی هیروشیما [گروه هفت] G7 از سال ۲۰۲۳ وجود دارد که یک آیین‌نامه رفتاری برای سازمان‌های توسعه‌دهنده سیستم‌های هوش مصنوعی پیشرفته تدوین کرده است، و نیز مشارکت جهانی در زمینه هوش مصنوعی. نهاد مشورتی سطح بالای سازمان ملل متحد در مورد هوش مصنوعی، گزارش نهایی خود با عنوان «حکمرانی هوش مصنوعی برای بشریت» را در سال ۲۰۲۴ منتشر کرد که به «کسری حکمرانی » در خصوص توسعه و استقرار هوش مصنوعی و ماهیت وصله‌دوزانه‌ حکمرانی موجود، اشاره داشت و بر ضرورت فوری توسعه حکمرانی جهانی برای رسیدگی به مخاطرات متنوع ناشی از هوش مصنوعی تأکید نمود.

ساختار حکمرانی جهانی خاص [هوش عمومی مصنوعی] AGI

یکی از مشکلات این تلاش‌های جهانی برای تنظیم‌گری بهتر توسعه و استقرار هوش مصنوعی، آن است که این تلاش‌ها در پی رسیدگی به خطرات متعدد و کاملاً متنوعی هستند که هوش مصنوعی به‌طور کلی ایجاد می‌کند، در عین حال که می‌کوشند فرصت‌های مثبتی را نیز که توسعه هوش مصنوعی می‌تواند فراهم آورد، تسهیل نمایند. همان‌گونه که گزارش نهاد مشورتی سطح بالای سازمان ملل متحد در مورد هوش مصنوعی تأکید کرد، دامنه این خطرات به‌شدت گسترده است و شامل هر چیزی از منافع کپی‌رایت گرفته تا ایجاد تهدیدات مختلف علیه صلح و امنیت بین‌المللی و کمک به بحران اقلیمی می‌شود. تلاش‌های حکمرانی در صدد هستند تا همزمان با تمامی این موارد دست و پنجه نرم کنند که این امر منافع گسترده‌ای را نیز درگیر می‌سازد و می‌تواند فرآیند را به‌شدت پیچیده نماید. اما ریسک خاصی که ما در اینجا مورد بحث قرار می‌دهیم، یعنی ریسک ناشی از AGI، نیازمند یک شکل بسیار ویژه از حکمرانی است.

هدف ما در اینجا، تقویت این دیدگاه است که نیاز فوری به یک نظام حکمرانی جهانی مجزا و خاص برای رسیدگی به مخاطرات ناشی از AGI وجود دارد. در حالی که موانع و مخالفت‌های بی‌شماری برای توسعه ساختارهای حکمرانی ِ الزام‌آور قانونی جهت تنظیم‌گری تمامی ریسک‌ها و فرصت‌های مختلف مرتبط با هوش مصنوعی وجود دارد، اما یک نظام الزام‌آور قانونی محدود که هدف آن تنظیم‌گری حداقل شرایطی باشد که تحت آن مدل‌های هوش مصنوعی پیشتاز و AGI توسعه می‌یابند و تحمیل تعهدات گزارش‌دهی و تأیید انطباق، می‌تواند عملی باشد. نظام حکمرانی که اغلب به‌عنوان الگویی محتمل برای الگوبرداری مطرح می‌شود (به اینجا و اینجا مراجعه کنید)، رژیم منع اشاعه هسته‌ای است، که در آن آژانس بین‌المللی انرژی اتمی (IAEA) وظایف بازرسی و تأیید انطباق را فراهم می‌نماید.

نظارت، تأیید انطباق و اجرای محدودیت‌ها در توسعه AGI، به مراتب دشوارتر از تنظیم‌گری توسعه تسلیحات هسته‌ای خواهد بود. حکمرانی AGI بسیاری از مشکلاتی را که رژیم حاکم بر تسلیحات بیولوژیک با آن روبرو است، به اشتراک می‌گذارد، چرا که نظارت، تأیید انطباق، کشف تقلب، و تمایز قائل شدن میان کارکردهای با کاربرد دوگانه از فعالیت‌های ممنوعه، همگی به‌شدت دشوار هستند. با وجود این، یک کنوانسیون سلاح‌های بیولوژیک وجود دارد که ۱۸۹ دولت عضو آن هستند؛ و در حالی که این رژیم از حمایت نهادی و سازوکارهای اجرایی ناکافی رنج می‌برد، کنوانسیون تعهدات الزام‌آوری را در خصوص توسعه، دستیابی یا استفاده از تسلیحات بیولوژیک تحمیل می‌کند و دولت‌ها به منظور کاهش ریسک‌ها، در گزارش‌دهی دوره‌ای و سایر اقدامات اعتمادساز مشارکت می‌نمایند. می‌توان استدلال کرد که این رژیم در تعدیل قابل ملاحظه مخاطرات ناشی از تسلیحات بیولوژیک موفق عمل کرده است.

با توجه به عظمت آسیب بالقوه و منافع نسبتاً محدودی که درگیر خواهند شد (بقیه توسعه و استقرار هوش مصنوعی تحت سلطه این نظام حاکمیتی قرار نخواهند گرفت)، به‌طور قطع می‌توان آغاز کار برای تدوین یک کنوانسیون جهت حکمرانی بر توسعه AGI را عملی دانست. چارچوب نهادی فراهم‌شده توسط فرآیند هوش مصنوعی هیروشیما گروه هفت یا [مشارکت جهانی در زمینه هوش مصنوعی] GPAI می‌تواند به‌عنوان بستر نهادی برای مذاکرات عمل نماید. این فرآیند می‌تواند با ایجاد یک کنوانسیون چارچوب، و به دنبال آن یک پروتکل که محدودیت‌های الزام‌آور مشخص‌تری را فراهم کند، آغاز شود؛ با الگو گرفتن از کنوانسیون چارچوب ملل متحد در مورد تغییرات اقلیمی و توافق نامه پاریس. همچنین این تلاش‌ها می‌تواند به عنوان یک توافق «چندجانبه کوچک» که تنها کشورهای پیشرو در توسعه هوش مصنوعی در آن مشارکت دارند، آغاز گردد؛ همان‌گونه که در مورد پروتکل مونترال در خصوص لایه ازون و معاهده منع جزئی آزمایش‌های هسته‌ای انجام شد.

البته این‌ها صرفاً ایده‌های مقدماتی هستند، اما استدلال محوری ما این است که نیاز به اقدام فوری است و این موضوع باید بسیار بیشتر از آنچه اکنون مورد توجه قرار می‌گیرد، مورد عنایت واقع شود.

نتیجه‌گیری

با صرف نظر کردن از سایر انتقادات به طرح اقدام هوش مصنوعی، صرفِ شیوه‌ای که این طرح مخاطرات ناشی از [هوش عمومی مصنوعی] AGI را تشدید می‌کند، به‌تنهایی باید موجب دغدغه و نگرانی قابل ملاحظه‌ای شود. به‌طور کنایه‌آمیزی، چین در اواخر ماه ژوئیه در واکنش به طرح ترامپ، خواستار همکاری بیشتر در حکمرانی بین‌المللی هوش مصنوعی گردید. موضع‌گیری پکن تا حد زیادی معکوس‌سازی نقش‌های دیپلماتیک سنتی میان ایالات متحده و چین است جایی که ایالات متحده به‌طور معمول از همکاری چندجانبه بین‌المللی دفاع کرده و چین غالباً چنین تلاش‌هایی را رد نموده است. ایالات متحده نباید به این سادگی رهبری بین‌المللی خود را کنار بگذارد.

ایالات متحده، به جای تمرکز بر منافع محدود کوتاه‌مدتی که از طریق سلطه ملی در هوش مصنوعی و تضعیف تلاش‌های حکمرانی جهانی به دست می‌آید، باید هدایت جهان را در پاسخ به مخاطرات ناشی از توسعه AGI بر عهده گیرد. انجام این کار به‌طور قطع در راستای منافع بلندمدت آن خواهد بود. مهم‌تر آن که، جهان باید ایالات متحده را به این فرآیند بازگرداند، مخاطرات ناشی از AGI بدون حضور ایالات متحده به سادگی قابل مدیریت نیستند. عدم پیوستن آمریکا به جامعه ملل در وقوع جنگ جهانی اول سهیم بود و آسیب تهدیدشده توسط توسعه AGI، هر چند که بعید به نظر برسد، ابعاد فجایع آن جنگ را تحت‌الشعاع قرار می‌دهد.

 

 

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *