آیا هوش مصنوعی ممنوع خواهد شد؟ تحلیل نظریه بازی

در دنیای Dune، گوشی هوشمندی در چشم نیست، فقط افرادی در لحظه زندگی می کنند… معمولاً یک لحظه وحشتناک و خونین. فقدان رایانه در جهان Dune توسط جهاد باتلرین توضیح داده می شود که شاهد نابودی همه «ماشین های متفکر» بود. در دنیای خودمان، O3 OpenAI اخیراً به عملکرد غیرمنتظره ای فراتر از انسان در معیار ARC-AGI در میان بسیاری دیگر دست یافته است. همانطور که مدلهای هوش مصنوعی هوشمندتر و هوشمندتر میشوند، احتمال یک فاجعه مرتبط با هوش مصنوعی افزایش مییابد. با فرض اینکه بشریت بر آن غلبه کند، آینده چگونه خواهد بود؟ آیا یک ممنوعیت کلی برای همه رایانهها، کسب و کار معمول یا چیزی در این بین وجود خواهد داشت؟
سودمندی و خطر هوش مصنوعی دست به دست هم می دهند
آیا واقعاً یک فاجعه هوش مصنوعی رخ خواهد داد؟ حتی در میان مغزهای برتر بشریت، نظرات دوگانه است. پیشبینیهای نابودی هوش مصنوعی بر روی درام و جزییات سبک هستند، بنابراین اجازه دهید در عوض سناریویی از یک فاجعه جهانی هوش مصنوعی را به شما ارائه دهم که در حال حاضر با فناوری هوش مصنوعی فعلی قابل قبول است.
مایکروسافت اخیرا Recall را منتشر کرده است، فناوری که فقط میتواند به عنوان جاسوسافزار تعبیه شده در سیستم عامل شما توصیف شود. Recall از هر کاری که در رایانه خود انجام می دهید اسکرین شات می گیرد. با دسترسی به این نوع داده ها، یک مدل استدلال در سطح O3 OpenAI می تواند به طور مستقیم جریان کار همه کارشناسان موضوعی که از ویندوز استفاده می کنند بیاموزد. اگر بتواند معیار ARC را شکست دهد و در معیار تقریبا غیرممکن Frontier Math امتیاز 25% کسب کند، نه تنها میتواند جریان کار مبتنی بر صفحهگسترده و فرممحور اکثر کارگران از راه دور جهان را بیاموزد، بلکه میتواند یاد بگیرد که چگونه کارشناسان امنیت سایبری، محققان کلاهبرداری، ارائه دهندگان مراقبت های بهداشتی، کارآگاهان پلیس، و پرسنل نظامی کار می کنند و فکر می کنند. این دستگاه اطلاعات کامل و کامل خودی را در مورد تمام روشها و ابزارهای واقعی مورد استفاده و نحوه پرواز در زیر رادار برای انجام هر کاری که میخواهد داشته باشد. آیا این یک تهدید وجودی برای بشریت است؟ شاید هنوز کاملاً نه. آیا می تواند آسیب واقعی به اقتصاد و سیستم های اساسی جهان وارد کند؟ قطعا.
ما در طول بقیه تحلیل ها به این سناریو باز خواهیم گشت – که با منابع کافی، هر سازمانی قادر خواهد بود یک هوش مصنوعی فوق بشری بسازد که در یادگیری انجام هر کار یقه سفید در عین حال بسیار مفید است. زمان بسیار خطرناک است زیرا به طور همزمان یاد گرفت که متخصصان انسانی چگونه به تهدیدات فکر می کنند و چگونه پاسخ می دهند.
سناریوهای احتمالی
ارائه دهندگان هوش مصنوعی “خود تنظیمی”.
وضعیت فعلی جهان ما وضعیتی است که در آن سازمانهای تولیدکننده سیستمهای هوش مصنوعی «خود تنظیم میشوند». ما باید تحلیل خود را با وضعیت فعلی شروع کنیم. اگر وضعیت کنونی پایدار باشد، ممکن است دیگر چیزی برای بحث وجود نداشته باشد.
همه سیستمهای هوش مصنوعی موجود در حال حاضر، حتی سیستمهای «متن باز» که میتوانید به صورت محلی روی رایانهتان اجرا کنید، از پاسخ دادن به برخی درخواستها خودداری میکنند. ایجاد مدلهای هوش مصنوعی بسیار گران است و هیچ سازمانی که این پول را خرج میکند نمیخواهد توضیح دهد که چرا مدلش آزادانه دستورالعملهای ایجاد مواد مخدر یا سلاحهای غیرقانونی را به اشتراک میگذارد.
در عین حال، تمام مدلهای اصلی هوش مصنوعی که تاکنون برای عموم منتشر شده است، برای حذف یا دور زدن این محدودیتهای داخلی، با درخواستهای جیلبریک آزادانه و بدون عواقب در اینترنت به اشتراک گذاشته شده یا میتوانند جیلبریک شوند.
از منظر تئوری بازی، یک ارائهدهنده هوش مصنوعی انگیزهای دارد که به اندازه کافی تلاش کند تا نردههایی را برای پوشاندن باسن خود بگذارد، اما هیچ انگیزه واقعی برای فراتر رفتن از آن، و هیچ قدرت واقعی برای جلوگیری از انتشار اطلاعات فرار از زندان در اینترنت وجود ندارد. . در حال حاضر، هر فرد بالغ با هوش متوسط می تواند این نرده های محافظ را دور بزند.
سرمایه گذاری در ایمنی | سایر سازمان ها: صفر | سایر سازمان ها: حداقل | سایر سازمان ها: گسترده |
---|---|---|---|
سازمان شما: صفر | کل صنعت توسط دولت های جهان تعطیل شده است | سازمان شما توسط دولت شما بسته شده است | سازمان شما توسط دولت شما بسته شده است |
سازمان شما: حداقل | سازمان شما به عنوان نمونه ای از هوش مصنوعی مسئول نگهداری می شود، سایر سازمان ها تعطیل یا سانسور می شوند | رقابت بر اساس ویژگی ها، نه بر اساس ایمنی | سازمان شما از نظر ویژگی ها با سایر سازمان ها رقابت می کند |
سازمان شما: گسترده است | سازمان شما به عنوان نمونه ای از هوش مصنوعی مسئول نگهداری می شود، سایر سازمان ها تعطیل یا سانسور می شوند | سایر سازمان ها از نظر ویژگی ها از شما پیشی می گیرند | احتمالاً به هر حال جیلبریک پیدا شده و پخش می شود |
از تجزیه و تحلیل بالا مشخص است که اگر یک فاجعه هوش مصنوعی در راه باشد، صنعت هیچ انگیزه یا توانایی برای جلوگیری از آن ندارد. یک ارائهدهنده هوش مصنوعی همیشه این انگیزه را دارد که فقط حداقلها را برای ایمنی هوش مصنوعی انجام دهد، صرف نظر از اینکه دیگران چه میکنند – این استراتژی غالب است.
ممنوعیت جهانی محاسبات
در این مرحله، ما فرض می کنیم که حداقل تلاش ارائه دهندگان هوش مصنوعی نتوانسته است فاجعه جهانی هوش مصنوعی را مهار کند. با این حال، بشریت جان سالم به در برده است، و اکنون زمان یک وضعیت جدید فرا رسیده است. ما اکنون به شدیدترین واکنش نگاه می کنیم – همه رایانه ها نابود و ممنوع شده اند. این سناریوی “تلماسه” است.
جناح های دیگر: محاسبات را توسعه ندهید | گروه های دیگر: محاسبات را مخفیانه توسعه دهید | |
---|---|---|
جناح شما: محاسبات را توسعه نمی دهد | موسیقی متن فیلم حماسی هانس زیمر | جناح شما به سرعت از نظر اقتصادی و نظامی عقب می افتد |
جناح شما: مخفیانه کامپیوتر را توسعه می دهد | جناح شما به سرعت از نظر اقتصادی و نظامی جلو می رود | یک وضعیت جدید برای جلوگیری از فاجعه هوش مصنوعی مورد نیاز است |
یک استراتژی غالب برای هر جناحی وجود دارد که به دلیل مزایای بسیار زیاد رایانه ها در برنامه های نظامی و تجاری، توسعه محاسبات به صورت مخفیانه است.
ممنوعیت جهانی هوش مصنوعی
اگر ما با این ماشینهای فکر لعنتی گیر کرده باشیم، میتوانیم تحریم کنیم فقط کار هوش مصنوعی؟ خوب، اجرای این امر دشوار خواهد بود. آموزش مدلهای هوش مصنوعی به مراکز داده بسیار بزرگ نیاز دارد، اما اجرای آنها تقریباً در هر دستگاهی قابل انجام است. چند هزار یا نه میلیونها نفر از LLAMA یا Mistral محلی روی لپتاپ خود کار میکنند؟ آیا این مدل ها مشمول تحریم می شوند؟ اگر بله، از چه مکانیزمی میتوانیم برای حذف همه آنها استفاده کنیم؟ هر کارت microSD حاوی یک مدل AI منبع باز می تواند کل ممنوعیت را لغو کند.
و اگر ملتی تصمیم بگیرد که این ممنوعیت را رعایت نکند چه؟ تا چه حد می تواند بر سایر کشورها برتری داشته باشد؟ در حالی که رقبای آنها قادر به استفاده از هوش مصنوعی نیستند، شرکت های آن کشور چقدر می توانند از دولت خود کمک مخفی دریافت کنند؟
تحلیل تئوری بازی ها اساساً همان ممنوعیت محاسباتی بالا است. مزایای هوش مصنوعی به اندازه مزایای محاسبات به طور کلی زیاد نیست، اما همچنان به اندازه کافی قابل توجه است که بتواند برتری واقعی نسبت به سایر جناح ها یا کشورها داشته باشد.
مقررات بین المللی
گاهی اوقات شباهتی بین هوش مصنوعی فوق بشری و سلاح های هسته ای ایجاد می شود. من فکر میکنم موازی آن در این است که قدرتمندترین دولتها از نظر اقتصادی و نظامی میتوانند آنچه را که میخواهند انجام دهند. آنها می توانند هر چقدر که بخواهند سلاح هسته ای بسازند و تا آنجا که بخواهند می توانند از هوش مصنوعی فوق بشری استفاده کنند. معاهدات و قوانین بینالمللی معمولاً توسط این دولتهای قدرتمند تحمیل میشوند، نه آنها. تا زمانی که هیچ خطوطی که تهاجم همه جانبه یک ائتلاف را تضمین می کند عبور نکند، مقررات بین المللی بی معنی است. و عملاً غیرممکن خواهد بود که ثابت کنیم خطی کشیده شده است زیرا استفاده از هوش مصنوعی برخلاف استفاده از سلاح های هسته ای به طور پیش فرض مخفی است. به نظر نمی رسد راهی برای جلوگیری از استفاده نخبگان جهان از هوش مصنوعی فوق بشری بدون هیچ محدودیتی غیر از خودخواسته وجود داشته باشد.
من پیشبینی میکنم که «نقضهای مهار» هوش مصنوعی مافوق بشری که توسط نخبگان جهان استفاده میشود، گهگاه رخ میدهد و هیچ راهی برای جلوگیری از آنها وجود ندارد.
ممنوعیت جهانی تراشه های با کارایی بالا
O3 OpenAI بیش از 300 هزار دلار هزینه محاسباتی را صرف کرد تا مجموعه 100 مشکل ARC را شکست دهد. مصرف انرژی باید جزء بزرگی از آن باشد. در حالی که قانون مور پیشبینی میکند که تمام هزینههای محاسباتی در طول زمان کاهش مییابد، اگر از انجام این کار جلوگیری شود چه؟
ممنوعیت توسعه و فروش تراشه های با کارایی بالا؟ | کشورهای دیگر: ممنوعیت | کشورهای دیگر: تحریم نکنید |
---|---|---|
کشور شما: ممنوعیت ها | هوش مصنوعی ابرانسان با مصرف انرژی قابل تشخیص است | کشورهای دیگر ممکن است هوش مصنوعی غیرقابل شناسایی غیرقابل شناسایی را تولید کنند و به طور بالقوه حمله و نابودی کارخانه های تولید تراشه آنها را به موضوع بقای انسان تبدیل کنند. |
کشور شما: تحریم نمی کند | کشور شما ممکن است به تولید انبوه هوش مصنوعی مافوق بشری غیرقابل کشف بپردازد و خطر تهاجم دیگران را به دنبال داشته باشد | همه به تولید انبوه هوش مصنوعی مافوق بشری غیرقابل کشف می پردازند |
من پیشبینی میکنم که دولتهای جهان توسعه، ساخت و فروش تراشههای محاسباتی را که میتوانند مدلهای هوش مصنوعی مافوق بشری (سطح OpenAI O3 یا بالاتر) را به شیوهای کارآمد الکتریکی اجرا کنند که میتواند آنها را غیرقابل شناسایی کند، ممنوع کنند. هیچ نقطه ضعف واقعی برای ممنوعیت وجود ندارد، زیرا شما همچنان می توانید با کشورهایی که مخفیانه تراشه های با راندمان بالا تولید می کنند رقابت کنید – فقط قبض برق بالاتری خواهید داشت. نکته مثبت، مانع از تکثیر هوش مصنوعی فوق بشری است که احتمالاً همه دولت ها به آن علاقه مند هستند. این ممنوعیت همچنین بسیار قابل اجرا است، زیرا در حال حاضر تعداد کمی در دنیا امکاناتی وجود دارد که می توانند چنین تراشه های رایانه ای پیشرفته ای را تولید کنند، و این کار را نمی کند. پیدا کردن آنها و واداشتن آنها به رعایت یا نابود کردن آنها دشوار نیست. اگر کشور دیگر همکاری نمی کند، حتی یک جنگ آشکار ضروری نیست – این تأسیسات فقط باید مخفیانه تخریب شود. همچنین مزایای اخلاقی عالی وجود دارد (“به خاطر بقای بشریت است”). تصور میکنم تأثیرات بر استفادههای غیر هوش مصنوعی از تراشههای محاسباتی بسیار کم خواهد بود، زیرا ما صادقانه بیشتر قدرت محاسباتی خود را هدر میدهیم.
جداسازی سخت افزار
در حالی که ممنوعیت تراشه های با کارایی بالا از محاسبات کافی برای اجرای یک هوش مصنوعی فوق بشری برای اجرای مخفیانه در یک مکان منفرد جلوگیری می کند، مانع از استفاده از محاسبات توزیع شده برای اجرای یک هوش مصنوعی فوق بشری نمی شود. اگر محاسبات به طور مخفیانه گسترده شود، حتی تراشه های الکتریکی ناکارآمد نیز می توانند یکی را اجرا کنند.
در عین حال، هوش مصنوعی «رسمی» مافوق بشری وجود دارد که توسط دولتها، شرکتها یا دولتهای متخاصم اداره میشوند که نگران آنها هستند. چه روشی ممکن است برای محافظت از خود یا سازمانتان در برابر آنها وجود داشته باشد؟
این دو عامل حتی میتوانند در یک بدافزار هوش مصنوعی مافوق بشری ترکیب شوند که رایانهها را آلوده میکند تا خودش را روی آنها اجرا کند، شبیه به روشی که امروزه هکرها رایانهها را برای استخراج ارزهای دیجیتال آلوده میکنند.
همه این خطرات با سخت افزار شبکه امکان پذیر می شود. اینترنت یکی از نمونه های آن است. پس چرا فقط سخت افزار را ایزوله نکنیم؟ خوب، به این سادگی نیست. مقاله 2013 اریک بایرز The Air Gap: SCADA's Enduring Security Myth درباره غیرعملی بودن سیستم های کامپیوتری واقعاً ایزوله یا “شکاف هوا” صحبت می کند:
به همان اندازه که بخواهیم خلاف این را وانمود کنیم، سیستمهای کنترل صنعتی مدرن به رژیم غذایی ثابتی از اطلاعات الکترونیکی از دنیای خارج نیاز دارند. قطع اتصال شبکه با یک شکاف هوایی به سادگی مسیرهای جدیدی مانند لپ تاپ موبایل و درایو فلش USB را ایجاد می کند که مدیریت آنها دشوارتر است و به همین راحتی آلوده می شوند.
من کاملاً معتقدم بایرس که یک سیستم کاملاً با شکاف هوا غیرعملی است. با این حال، سیستمهای رایانهای پس از یک فاجعه هوش مصنوعی ممکن است بر خلاف روند مدرن که همه چیز را تا حد امکان به فضای ابری فشار میدهد، به سمتی متمایل شوند که تا حد امکان دارای شکاف هوا باشند.
تهدید امنیت سایبری انسانی متوسط (مدرن) | تهدید بالای امنیت سایبری فوق بشری (آینده احتمالی) | |
---|---|---|
شکاف هوایی دقیق فقط رابط انسانی | غیر عملی | هنوز غیر عملی |
حداقل مصرف اطلاعات توسط انسان بررسی شده و از نظر فیزیکی محافظت شده است | از نظر اقتصادی غیر قابل توجیه | ممکن است لازم باشد |
اتصال به اینترنت همیشه روشن | برای رقابت و سرعت اجرا لازم است | ممکن است منجر به حملات سایبری مداوم و موثر علیه سازمان شود |
این می تواند نشان دهنده بازگشت از فضای ابری به اتاق سرور داخلی یا مرکز داده و همچنین پایان کار از راه دور باشد. به عنوان یک کارمند، باید شخصاً به یک ترمینال قدیمی (فقط مانیتور، صفحه کلید و ماوس متصل به اتاق سرور) مراجعه کنید.
بسته به اندازه شرکت، این اتاق سرور داخلی می تواند هوش مصنوعی مرکزی شرکت را نیز در خود جای دهد. محدودیتهای شبکه همچنین میتواند از پخش شدن آن در صورت خرابکاری و جلوگیری از تماس آن با سایر هوش مصنوعی جلوگیری کند. محدودیت های شبکه یک هدف دوگانه را برای جلوگیری از بروز شر بالقوه به همان اندازه در خدمت خواهد بود.
این امکان وجود دارد که بسیاری از کارهای فکری یا دیجیتالی که ممکن است در حال حاضر در یک شرکت بزرگ انجام دهید، مانند برنامه نویسی، شیمی، طراحی، و کار با صفحه گسترده، به جای آن توسط هوش مصنوعی مرکزی انجام شود.
شرکتهای کوچکتری که توانایی خرید مراکز داده هوش مصنوعی خود را ندارند، ممکن است بتوانند خدمات هوش مصنوعی را از تعداد معدودی از فروشندگان مورد تایید دولت خریداری کنند. با این حال، این فروشندگان، اهداف بزرگ آشکار برای هوش مصنوعی مخرب خواهند بود. ممکن است روند اشتغال یقه سفید از کسب و کارهای بزرگ در درجه اول به مشاغل کوچک تغییر کند که هزینه های هوش مصنوعی داخلی و خدمات مرکزی برای آنها گران است.
روبات ها
هواپیماهای جنگی و ماشینها شاید مرگبارترین ماشینهایی باشند که بشر تا به حال ساخته است، و با این حال اینها ماشینهایی هستند که ما در سریعترین زمان ممکن با کنترل کامل کامپیوتری میسازیم. در عین حال، پهپادهای نظامی و خودروهای بدون راننده هنوز برای زیرساخت ها و تعمیر و نگهداری کاملاً به انسان وابسته هستند.
اگر ربات ها بتوانند به جای آن از زیرساخت ها و تعمیر و نگهداری مراقبت کنند چه می شد؟ این امکان پذیر است اما سخت افزار یک بازی کاملاً متفاوت از نرم افزار است. سخت افزار بسیار بسیار سخت است (هاها). پیشرفت در هوش مصنوعی و شبیهسازیهایی مانند IsaacSim احتمالاً احتمالات جدیدی را باز میکند، اما اکنون با آن فاصله داریم. تعویض کارگران یقه آبی نسبت به یقهسفیدها سختتر است و مزیت آن نیز به مراتب کمتر مشخص است. شایان ذکر است که حواس انسان کاملاً باورنکردنی است. برای مثال، نوک انگشت انسان میتواند ناهمواریهایی را در حدود یک دهم میلیمتر تشخیص دهد. بازوها و دست های انسان فوق العاده ماهر و پر از نورون های بازخوردی هستند. چند موتور و حسگر از این دست را میتوانید در یک ربات قرار دهید، قبل از اینکه هزینه آن بیشتر از استخدام یک انسان باشد؟ من فکر نمی کنم جایگزینی کامل یقه آبی در اینجا روی زمین برای مدت طولانی منطقی باشد.
اما فضای بیرونی داستان متفاوتی است. نگهداری از یک انسان در فضای بیرونی بسیار پرهزینه تر و مستعد شکست نسبت به نگهداری یک ربات در بیرون است. من انتظار دارم که خیلی قبل از اینکه ببینیم روباتهایی که جایگزین انسانها روی زمین میشوند، پیشرفتهایی در رباتیک خارج از زمین ببینیم.
نتیجه گیری
در اینجا سه پیشبینی کلیدی از بحث بالا آمده است:
- حملات توسط هوش مصنوعی مخرب ابرانسانی و نقض آن در آینده یک امر عادی خواهد بود.
- قانون مور به اجبار متوقف خواهد شد و تولیدکنندگان مجاز به تولید تراشه های فراتر از تعداد معینی از محاسبات در واحد انرژی مصرف شده نخواهند بود.
- روند حرکت همه چیز به سمت ابر معکوس خواهد شد و برنامههای کاربردی حیاتی با بررسیهای دقیق دریافت دادهها به اتاقهای سرور داخلی بازمیگردند. کار از راه دور به پایان می رسد و کارمندان باید به جای لپ تاپ، از طریق پایانه های داخلی به سیستم های حیاتی متصل شوند. 4. جایگزینی برای کارگران یقه آبی برای مدت طولانی، اگر هرگز، در راه نیست. این امکان وجود دارد که حتی کارگران یقه سفید نیز بتوانند به کار خود ادامه دهند و شاید مشاغل از هر دو نوع بیش از همیشه وجود داشته باشد.