برنامه نویسی

آیا هوش مصنوعی ممنوع خواهد شد؟ تحلیل نظریه بازی

در دنیای Dune، گوشی هوشمندی در چشم نیست، فقط افرادی در لحظه زندگی می کنند… معمولاً یک لحظه وحشتناک و خونین. فقدان رایانه در جهان Dune توسط جهاد باتلرین توضیح داده می شود که شاهد نابودی همه «ماشین های متفکر» بود. در دنیای خودمان، O3 OpenAI اخیراً به عملکرد غیرمنتظره ای فراتر از انسان در معیار ARC-AGI در میان بسیاری دیگر دست یافته است. همانطور که مدل‌های هوش مصنوعی هوشمندتر و هوشمندتر می‌شوند، احتمال یک فاجعه مرتبط با هوش مصنوعی افزایش می‌یابد. با فرض اینکه بشریت بر آن غلبه کند، آینده چگونه خواهد بود؟ آیا یک ممنوعیت کلی برای همه رایانه‌ها، کسب و کار معمول یا چیزی در این بین وجود خواهد داشت؟

سودمندی و خطر هوش مصنوعی دست به دست هم می دهند

آیا واقعاً یک فاجعه هوش مصنوعی رخ خواهد داد؟ حتی در میان مغزهای برتر بشریت، نظرات دوگانه است. پیش‌بینی‌های نابودی هوش مصنوعی بر روی درام و جزییات سبک هستند، بنابراین اجازه دهید در عوض سناریویی از یک فاجعه جهانی هوش مصنوعی را به شما ارائه دهم که در حال حاضر با فناوری هوش مصنوعی فعلی قابل قبول است.

مایکروسافت اخیرا Recall را منتشر کرده است، فناوری که فقط می‌تواند به عنوان جاسوس‌افزار تعبیه شده در سیستم عامل شما توصیف شود. Recall از هر کاری که در رایانه خود انجام می دهید اسکرین شات می گیرد. با دسترسی به این نوع داده ها، یک مدل استدلال در سطح O3 OpenAI می تواند به طور مستقیم جریان کار همه کارشناسان موضوعی که از ویندوز استفاده می کنند بیاموزد. اگر بتواند معیار ARC را شکست دهد و در معیار تقریبا غیرممکن Frontier Math امتیاز 25% کسب کند، نه تنها می‌تواند جریان کار مبتنی بر صفحه‌گسترده و فرم‌محور اکثر کارگران از راه دور جهان را بیاموزد، بلکه می‌تواند یاد بگیرد که چگونه کارشناسان امنیت سایبری، محققان کلاهبرداری، ارائه دهندگان مراقبت های بهداشتی، کارآگاهان پلیس، و پرسنل نظامی کار می کنند و فکر می کنند. این دستگاه اطلاعات کامل و کامل خودی را در مورد تمام روش‌ها و ابزارهای واقعی مورد استفاده و نحوه پرواز در زیر رادار برای انجام هر کاری که می‌خواهد داشته باشد. آیا این یک تهدید وجودی برای بشریت است؟ شاید هنوز کاملاً نه. آیا می تواند آسیب واقعی به اقتصاد و سیستم های اساسی جهان وارد کند؟ قطعا.

ما در طول بقیه تحلیل ها به این سناریو باز خواهیم گشت – که با منابع کافی، هر سازمانی قادر خواهد بود یک هوش مصنوعی فوق بشری بسازد که در یادگیری انجام هر کار یقه سفید در عین حال بسیار مفید است. زمان بسیار خطرناک است زیرا به طور همزمان یاد گرفت که متخصصان انسانی چگونه به تهدیدات فکر می کنند و چگونه پاسخ می دهند.

سناریوهای احتمالی

ارائه دهندگان هوش مصنوعی “خود تنظیمی”.

وضعیت فعلی جهان ما وضعیتی است که در آن سازمان‌های تولیدکننده سیستم‌های هوش مصنوعی «خود تنظیم می‌شوند». ما باید تحلیل خود را با وضعیت فعلی شروع کنیم. اگر وضعیت کنونی پایدار باشد، ممکن است دیگر چیزی برای بحث وجود نداشته باشد.

همه سیستم‌های هوش مصنوعی موجود در حال حاضر، حتی سیستم‌های «متن باز» که می‌توانید به صورت محلی روی رایانه‌تان اجرا کنید، از پاسخ دادن به برخی درخواست‌ها خودداری می‌کنند. ایجاد مدل‌های هوش مصنوعی بسیار گران است و هیچ سازمانی که این پول را خرج می‌کند نمی‌خواهد توضیح دهد که چرا مدلش آزادانه دستورالعمل‌های ایجاد مواد مخدر یا سلاح‌های غیرقانونی را به اشتراک می‌گذارد.

در عین حال، تمام مدل‌های اصلی هوش مصنوعی که تاکنون برای عموم منتشر شده است، برای حذف یا دور زدن این محدودیت‌های داخلی، با درخواست‌های جیلبریک آزادانه و بدون عواقب در اینترنت به اشتراک گذاشته شده یا می‌توانند جیلبریک شوند.

از منظر تئوری بازی، یک ارائه‌دهنده هوش مصنوعی انگیزه‌ای دارد که به اندازه کافی تلاش کند تا نرده‌هایی را برای پوشاندن باسن خود بگذارد، اما هیچ انگیزه واقعی برای فراتر رفتن از آن، و هیچ قدرت واقعی برای جلوگیری از انتشار اطلاعات فرار از زندان در اینترنت وجود ندارد. . در حال حاضر، هر فرد بالغ با هوش متوسط ​​می تواند این نرده های محافظ را دور بزند.

سرمایه گذاری در ایمنی سایر سازمان ها: صفر سایر سازمان ها: حداقل سایر سازمان ها: گسترده
سازمان شما: صفر کل صنعت توسط دولت های جهان تعطیل شده است سازمان شما توسط دولت شما بسته شده است سازمان شما توسط دولت شما بسته شده است
سازمان شما: حداقل سازمان شما به عنوان نمونه ای از هوش مصنوعی مسئول نگهداری می شود، سایر سازمان ها تعطیل یا سانسور می شوند رقابت بر اساس ویژگی ها، نه بر اساس ایمنی سازمان شما از نظر ویژگی ها با سایر سازمان ها رقابت می کند
سازمان شما: گسترده است سازمان شما به عنوان نمونه ای از هوش مصنوعی مسئول نگهداری می شود، سایر سازمان ها تعطیل یا سانسور می شوند سایر سازمان ها از نظر ویژگی ها از شما پیشی می گیرند احتمالاً به هر حال جیلبریک پیدا شده و پخش می شود

از تجزیه و تحلیل بالا مشخص است که اگر یک فاجعه هوش مصنوعی در راه باشد، صنعت هیچ انگیزه یا توانایی برای جلوگیری از آن ندارد. یک ارائه‌دهنده هوش مصنوعی همیشه این انگیزه را دارد که فقط حداقل‌ها را برای ایمنی هوش مصنوعی انجام دهد، صرف نظر از اینکه دیگران چه می‌کنند – این استراتژی غالب است.

ممنوعیت جهانی محاسبات

در این مرحله، ما فرض می کنیم که حداقل تلاش ارائه دهندگان هوش مصنوعی نتوانسته است فاجعه جهانی هوش مصنوعی را مهار کند. با این حال، بشریت جان سالم به در برده است، و اکنون زمان یک وضعیت جدید فرا رسیده است. ما اکنون به شدیدترین واکنش نگاه می کنیم – همه رایانه ها نابود و ممنوع شده اند. این سناریوی “تلماسه” است.

جناح های دیگر: محاسبات را توسعه ندهید گروه های دیگر: محاسبات را مخفیانه توسعه دهید
جناح شما: محاسبات را توسعه نمی دهد موسیقی متن فیلم حماسی هانس زیمر جناح شما به سرعت از نظر اقتصادی و نظامی عقب می افتد
جناح شما: مخفیانه کامپیوتر را توسعه می دهد جناح شما به سرعت از نظر اقتصادی و نظامی جلو می رود یک وضعیت جدید برای جلوگیری از فاجعه هوش مصنوعی مورد نیاز است

یک استراتژی غالب برای هر جناحی وجود دارد که به دلیل مزایای بسیار زیاد رایانه ها در برنامه های نظامی و تجاری، توسعه محاسبات به صورت مخفیانه است.

ممنوعیت جهانی هوش مصنوعی

اگر ما با این ماشین‌های فکر لعنتی گیر کرده باشیم، می‌توانیم تحریم کنیم فقط کار هوش مصنوعی؟ خوب، اجرای این امر دشوار خواهد بود. آموزش مدل‌های هوش مصنوعی به مراکز داده بسیار بزرگ نیاز دارد، اما اجرای آن‌ها تقریباً در هر دستگاهی قابل انجام است. چند هزار یا نه میلیون‌ها نفر از LLAMA یا Mistral محلی روی لپ‌تاپ خود کار می‌کنند؟ آیا این مدل ها مشمول تحریم می شوند؟ اگر بله، از چه مکانیزمی می‌توانیم برای حذف همه آن‌ها استفاده کنیم؟ هر کارت microSD حاوی یک مدل AI منبع باز می تواند کل ممنوعیت را لغو کند.

و اگر ملتی تصمیم بگیرد که این ممنوعیت را رعایت نکند چه؟ تا چه حد می تواند بر سایر کشورها برتری داشته باشد؟ در حالی که رقبای آنها قادر به استفاده از هوش مصنوعی نیستند، شرکت های آن کشور چقدر می توانند از دولت خود کمک مخفی دریافت کنند؟

تحلیل تئوری بازی ها اساساً همان ممنوعیت محاسباتی بالا است. مزایای هوش مصنوعی به اندازه مزایای محاسبات به طور کلی زیاد نیست، اما همچنان به اندازه کافی قابل توجه است که بتواند برتری واقعی نسبت به سایر جناح ها یا کشورها داشته باشد.

مقررات بین المللی

گاهی اوقات شباهتی بین هوش مصنوعی فوق بشری و سلاح های هسته ای ایجاد می شود. من فکر می‌کنم موازی آن در این است که قدرتمندترین دولت‌ها از نظر اقتصادی و نظامی می‌توانند آنچه را که می‌خواهند انجام دهند. آنها می توانند هر چقدر که بخواهند سلاح هسته ای بسازند و تا آنجا که بخواهند می توانند از هوش مصنوعی فوق بشری استفاده کنند. معاهدات و قوانین بین‌المللی معمولاً توسط این دولت‌های قدرتمند تحمیل می‌شوند، نه آنها. تا زمانی که هیچ خطوطی که تهاجم همه جانبه یک ائتلاف را تضمین می کند عبور نکند، مقررات بین المللی بی معنی است. و عملاً غیرممکن خواهد بود که ثابت کنیم خطی کشیده شده است زیرا استفاده از هوش مصنوعی برخلاف استفاده از سلاح های هسته ای به طور پیش فرض مخفی است. به نظر نمی رسد راهی برای جلوگیری از استفاده نخبگان جهان از هوش مصنوعی فوق بشری بدون هیچ محدودیتی غیر از خودخواسته وجود داشته باشد.

من پیش‌بینی می‌کنم که «نقض‌های مهار» هوش مصنوعی مافوق بشری که توسط نخبگان جهان استفاده می‌شود، گهگاه رخ می‌دهد و هیچ راهی برای جلوگیری از آن‌ها وجود ندارد.

ممنوعیت جهانی تراشه های با کارایی بالا

O3 OpenAI بیش از 300 هزار دلار هزینه محاسباتی را صرف کرد تا مجموعه 100 مشکل ARC را شکست دهد. مصرف انرژی باید جزء بزرگی از آن باشد. در حالی که قانون مور پیش‌بینی می‌کند که تمام هزینه‌های محاسباتی در طول زمان کاهش می‌یابد، اگر از انجام این کار جلوگیری شود چه؟

ممنوعیت توسعه و فروش تراشه های با کارایی بالا؟ کشورهای دیگر: ممنوعیت کشورهای دیگر: تحریم نکنید
کشور شما: ممنوعیت ها هوش مصنوعی ابرانسان با مصرف انرژی قابل تشخیص است کشورهای دیگر ممکن است هوش مصنوعی غیرقابل شناسایی غیرقابل شناسایی را تولید کنند و به طور بالقوه حمله و نابودی کارخانه های تولید تراشه آنها را به موضوع بقای انسان تبدیل کنند.
کشور شما: تحریم نمی کند کشور شما ممکن است به تولید انبوه هوش مصنوعی مافوق بشری غیرقابل کشف بپردازد و خطر تهاجم دیگران را به دنبال داشته باشد همه به تولید انبوه هوش مصنوعی مافوق بشری غیرقابل کشف می پردازند

من پیش‌بینی می‌کنم که دولت‌های جهان توسعه، ساخت و فروش تراشه‌های محاسباتی را که می‌توانند مدل‌های هوش مصنوعی مافوق بشری (سطح OpenAI O3 یا بالاتر) را به شیوه‌ای کارآمد الکتریکی اجرا کنند که می‌تواند آنها را غیرقابل شناسایی کند، ممنوع کنند. هیچ نقطه ضعف واقعی برای ممنوعیت وجود ندارد، زیرا شما همچنان می توانید با کشورهایی که مخفیانه تراشه های با راندمان بالا تولید می کنند رقابت کنید – فقط قبض برق بالاتری خواهید داشت. نکته مثبت، مانع از تکثیر هوش مصنوعی فوق بشری است که احتمالاً همه دولت ها به آن علاقه مند هستند. این ممنوعیت همچنین بسیار قابل اجرا است، زیرا در حال حاضر تعداد کمی در دنیا امکاناتی وجود دارد که می توانند چنین تراشه های رایانه ای پیشرفته ای را تولید کنند، و این کار را نمی کند. پیدا کردن آنها و واداشتن آنها به رعایت یا نابود کردن آنها دشوار نیست. اگر کشور دیگر همکاری نمی کند، حتی یک جنگ آشکار ضروری نیست – این تأسیسات فقط باید مخفیانه تخریب شود. همچنین مزایای اخلاقی عالی وجود دارد (“به خاطر بقای بشریت است”). تصور می‌کنم تأثیرات بر استفاده‌های غیر هوش مصنوعی از تراشه‌های محاسباتی بسیار کم خواهد بود، زیرا ما صادقانه بیشتر قدرت محاسباتی خود را هدر می‌دهیم.

جداسازی سخت افزار

در حالی که ممنوعیت تراشه های با کارایی بالا از محاسبات کافی برای اجرای یک هوش مصنوعی فوق بشری برای اجرای مخفیانه در یک مکان منفرد جلوگیری می کند، مانع از استفاده از محاسبات توزیع شده برای اجرای یک هوش مصنوعی فوق بشری نمی شود. اگر محاسبات به طور مخفیانه گسترده شود، حتی تراشه های الکتریکی ناکارآمد نیز می توانند یکی را اجرا کنند.

در عین حال، هوش مصنوعی «رسمی» مافوق بشری وجود دارد که توسط دولت‌ها، شرکت‌ها یا دولت‌های متخاصم اداره می‌شوند که نگران آن‌ها هستند. چه روشی ممکن است برای محافظت از خود یا سازمانتان در برابر آنها وجود داشته باشد؟

این دو عامل حتی می‌توانند در یک بدافزار هوش مصنوعی مافوق بشری ترکیب شوند که رایانه‌ها را آلوده می‌کند تا خودش را روی آن‌ها اجرا کند، شبیه به روشی که امروزه هکرها رایانه‌ها را برای استخراج ارزهای دیجیتال آلوده می‌کنند.

همه این خطرات با سخت افزار شبکه امکان پذیر می شود. اینترنت یکی از نمونه های آن است. پس چرا فقط سخت افزار را ایزوله نکنیم؟ خوب، به این سادگی نیست. مقاله 2013 اریک بایرز The Air Gap: SCADA's Enduring Security Myth درباره غیرعملی بودن سیستم های کامپیوتری واقعاً ایزوله یا “شکاف هوا” صحبت می کند:

به همان اندازه که بخواهیم خلاف این را وانمود کنیم، سیستم‌های کنترل صنعتی مدرن به رژیم غذایی ثابتی از اطلاعات الکترونیکی از دنیای خارج نیاز دارند. قطع اتصال شبکه با یک شکاف هوایی به سادگی مسیرهای جدیدی مانند لپ تاپ موبایل و درایو فلش USB را ایجاد می کند که مدیریت آنها دشوارتر است و به همین راحتی آلوده می شوند.

من کاملاً معتقدم بایرس که یک سیستم کاملاً با شکاف هوا غیرعملی است. با این حال، سیستم‌های رایانه‌ای پس از یک فاجعه هوش مصنوعی ممکن است بر خلاف روند مدرن که همه چیز را تا حد امکان به فضای ابری فشار می‌دهد، به سمتی متمایل شوند که تا حد امکان دارای شکاف هوا باشند.

تهدید امنیت سایبری انسانی متوسط ​​(مدرن) تهدید بالای امنیت سایبری فوق بشری (آینده احتمالی)
شکاف هوایی دقیق فقط رابط انسانی غیر عملی هنوز غیر عملی
حداقل مصرف اطلاعات توسط انسان بررسی شده و از نظر فیزیکی محافظت شده است از نظر اقتصادی غیر قابل توجیه ممکن است لازم باشد
اتصال به اینترنت همیشه روشن برای رقابت و سرعت اجرا لازم است ممکن است منجر به حملات سایبری مداوم و موثر علیه سازمان شود

این می تواند نشان دهنده بازگشت از فضای ابری به اتاق سرور داخلی یا مرکز داده و همچنین پایان کار از راه دور باشد. به عنوان یک کارمند، باید شخصاً به یک ترمینال قدیمی (فقط مانیتور، صفحه کلید و ماوس متصل به اتاق سرور) مراجعه کنید.

بسته به اندازه شرکت، این اتاق سرور داخلی می تواند هوش مصنوعی مرکزی شرکت را نیز در خود جای دهد. محدودیت‌های شبکه همچنین می‌تواند از پخش شدن آن در صورت خرابکاری و جلوگیری از تماس آن با سایر هوش مصنوعی جلوگیری کند. محدودیت های شبکه یک هدف دوگانه را برای جلوگیری از بروز شر بالقوه به همان اندازه در خدمت خواهد بود.

این امکان وجود دارد که بسیاری از کارهای فکری یا دیجیتالی که ممکن است در حال حاضر در یک شرکت بزرگ انجام دهید، مانند برنامه نویسی، شیمی، طراحی، و کار با صفحه گسترده، به جای آن توسط هوش مصنوعی مرکزی انجام شود.

شرکت‌های کوچک‌تری که توانایی خرید مراکز داده هوش مصنوعی خود را ندارند، ممکن است بتوانند خدمات هوش مصنوعی را از تعداد معدودی از فروشندگان مورد تایید دولت خریداری کنند. با این حال، این فروشندگان، اهداف بزرگ آشکار برای هوش مصنوعی مخرب خواهند بود. ممکن است روند اشتغال یقه سفید از کسب و کارهای بزرگ در درجه اول به مشاغل کوچک تغییر کند که هزینه های هوش مصنوعی داخلی و خدمات مرکزی برای آنها گران است.

روبات ها

هواپیماهای جنگی و ماشین‌ها شاید مرگبارترین ماشین‌هایی باشند که بشر تا به حال ساخته است، و با این حال اینها ماشین‌هایی هستند که ما در سریع‌ترین زمان ممکن با کنترل کامل کامپیوتری می‌سازیم. در عین حال، پهپادهای نظامی و خودروهای بدون راننده هنوز برای زیرساخت ها و تعمیر و نگهداری کاملاً به انسان وابسته هستند.

اگر ربات ها بتوانند به جای آن از زیرساخت ها و تعمیر و نگهداری مراقبت کنند چه می شد؟ این امکان پذیر است اما سخت افزار یک بازی کاملاً متفاوت از نرم افزار است. سخت افزار بسیار بسیار سخت است (هاها). پیشرفت در هوش مصنوعی و شبیه‌سازی‌هایی مانند IsaacSim احتمالاً احتمالات جدیدی را باز می‌کند، اما اکنون با آن فاصله داریم. تعویض کارگران یقه آبی نسبت به یقه‌سفیدها سخت‌تر است و مزیت آن نیز به مراتب کمتر مشخص است. شایان ذکر است که حواس انسان کاملاً باورنکردنی است. برای مثال، نوک انگشت انسان می‌تواند ناهمواری‌هایی را در حدود یک دهم میلی‌متر تشخیص دهد. بازوها و دست های انسان فوق العاده ماهر و پر از نورون های بازخوردی هستند. چند موتور و حسگر از این دست را می‌توانید در یک ربات قرار دهید، قبل از اینکه هزینه آن بیشتر از استخدام یک انسان باشد؟ من فکر نمی کنم جایگزینی کامل یقه آبی در اینجا روی زمین برای مدت طولانی منطقی باشد.

اما فضای بیرونی داستان متفاوتی است. نگهداری از یک انسان در فضای بیرونی بسیار پرهزینه تر و مستعد شکست نسبت به نگهداری یک ربات در بیرون است. من انتظار دارم که خیلی قبل از اینکه ببینیم روبات‌هایی که جایگزین انسان‌ها روی زمین می‌شوند، پیشرفت‌هایی در رباتیک خارج از زمین ببینیم.

نتیجه گیری

در اینجا سه ​​پیش‌بینی کلیدی از بحث بالا آمده است:

  1. حملات توسط هوش مصنوعی مخرب ابرانسانی و نقض آن در آینده یک امر عادی خواهد بود.
  2. قانون مور به اجبار متوقف خواهد شد و تولیدکنندگان مجاز به تولید تراشه های فراتر از تعداد معینی از محاسبات در واحد انرژی مصرف شده نخواهند بود.
  3. روند حرکت همه چیز به سمت ابر معکوس خواهد شد و برنامه‌های کاربردی حیاتی با بررسی‌های دقیق دریافت داده‌ها به اتاق‌های سرور داخلی بازمی‌گردند. کار از راه دور به پایان می رسد و کارمندان باید به جای لپ تاپ، از طریق پایانه های داخلی به سیستم های حیاتی متصل شوند. 4. جایگزینی برای کارگران یقه آبی برای مدت طولانی، اگر هرگز، در راه نیست. این امکان وجود دارد که حتی کارگران یقه سفید نیز بتوانند به کار خود ادامه دهند و شاید مشاغل از هر دو نوع بیش از همیشه وجود داشته باشد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا