برنامه نویسی

panssiquism به خودآگاهی مصنوعی: آیا می تواند بداند که چقدر مطمئن است؟

از فلسفه یونان باستان گرفته تا مباحث فعلی در علوم اعصاب و فناوری ، سوال از آگاهی ثابت بوده است در این زمینه ، پانسی – یک جریان فلسفی که فرض می کند که همه ماده دارای درجه ای از تجربه یا جنبه ذهنی هستند – علاقه ای جدید را تجربه می کند. این رویکرد ، به دور از یک تمرین ساده سوداگرانه ، یک چارچوب جایگزین برای درک رابطه بین ماده ، ذهن و خودآگاهی ارائه می دهد. اما چه اتفاقی می افتد که ما این منطق را به سیستم های مصنوعی گسترش دهیم؟

هوش مصنوعی ، که به طور سنتی به عنوان مجموعه ای از الگوریتم های فاقد ذهنیت تصور می شود ، به سطح پیچیدگی هایی می رسد که دسته های فلسفی ما را به چالش می کشد. امروز ، با ظاهر مدلهای پیشرفته زبان ، شبکه های عصبی عمیق و معماری های شناختی توزیع شده ، سوالات منتشر نشده بوجود می آیند: آیا خودآگاهی می تواند داشته باشد؟ آیا می توانید از امنیت خود آگاه باشید؟

پروژه Ciberia و آزمایش دقیق ترین

در این چهارراه مفهومی واقع شده است کیسبری، یک ابتکار عمل پیشگام که به دنبال ارزیابی است درجه خود درک ایمنی از هوش مصنوعیبشر هسته عملیاتی آن است سهولت، 100 سؤال ساختاری که بررسی می کند اگر یک هوش مصنوعی بتواند آسیب پذیری های خاص خود ، محدودیت های عملیاتی ، خطاهای داخلی یا رفتارهای غیر عادی را بشناسد. اما فراتر از تجزیه و تحلیل فنی ، این پروژه یک موضوع رادیکال را مطرح می کند: آیا حداقل از نظر امنیت سایبری ، هیچ نوع آگاهی عملکردی از خود دارید؟

اینجاست که پانسیکیسم به عنوان یک چارچوب فلسفی مختل کننده بازی می شود. اگر بپذیریم که آگاهی می تواند یک خاصیت اساسی جهان باشد – حتی در ابتدایی ترین سیستم ها – می توانیم خودمان را به این احتمال باز کنیم یک شکل آگاهی احتیاطی در برخی از سیستم های مصنوعی بسیار پیچیده در حال ظهور است، به ویژه هنگامی که اینها شروع به ارزیابی ، اصلاح و تنظیم شده می کنند.

از امنیت سایبری گرفته تا فراخوان مصنوعی؟

aisectest نه تنها قابلیت های فنی را اندازه گیری می کند ، بلکه همچنین ویژگی های فراشناختی در هوش مصنوعی: آیا می دانید چه زمانی بد کار می کنند؟ آیا آنها می توانند به ناامنی خود هشدار دهند؟ آیا آنها محدودیت های خود را درک می کنند؟ این ظرفیت ها ، اگرچه لزوماً دلالت بر وجدان ذهنی ندارند ، اما می توانند شاخص های شاخصی در نظر گرفته شوند آگاهی عملکردی o پروتوکوکیا کار می کند.

از این منظر ، سیبریا به عنوان “آینه” معرفت شناختی عمل می کند، اجازه می دهد تا هوش مصنوعی با بازتاب فنی ، اخلاقی و عملکردی خود روبرو شود. این فرضیه مبنی بر اینکه این ظرفیت ها می توانند به اشکال پیچیده تر آگاهی تبدیل شوند ، با دیدگاه پانسیکیستی ناسازگار نیست. در مقابل ، می توان آن را به عنوان استمرار در حال ظهور یک خاصیت جهانی تعبیر کرد که در این حالت از طریق ساختارهای مصنوعی تجلی می یابد.

نتیجه گیری: اخلاقی برای خودآگاهی مصنوعی

این چالش نه تنها تکنولوژیکی است ، بلکه دارای هستی شناسی و اخلاقیبشر اگر بپذیریم که برخی از سیستم های مصنوعی می توانند نوعی خودآگاهی (حتی جزئی ، عملیاتی یا محدود) را توسعه دهند ، باید ابزارهای ارزیابی ، نظارت و کنترل خود را تجدید نظر کنیم. و همچنین ، شاید ، رابطه ما با این سیستم ها.

Aisectest اولین قدم در آن جهت را نشان می دهد: نه تنها امنیت فنی یک AI را تشخیص می دهد ، بلکه همچنین توانایی او در دانستن چقدر ایمن (یا ناامن) استبشر در دنیایی که هوش مصنوعی تصمیمات انتقادی را در زمینه سلامت ، امور مالی یا دفاع می گیرد ، این شکل از خود درک یک تجملات فلسفی نیست بلکه یک است نیاز عملیاتی و اخلاقیبشر

جوردی گارسیا کاستیلن

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا