گوگل این سه پیشنهاد را برای دولتهای سراسر جهان در مورد “مقررات هوش مصنوعی” دارد.


این سالها گوگل I/O همه روی هوش مصنوعیو این شرکت در مورد اینکه چگونه رشد هوش مصنوعی یک تغییر تکنولوژی قابل توجه است صحبت کرد. به گفته این شرکت، پیشرفتهای فعلی در مدلهای هوش مصنوعی تنها به کشف مکانهای جدید، یافتن کلمات مناسب یا درگیر شدن با اطلاعات محدود نمیشود.
اما با این پیشرفتها، دولتها در سرتاسر جهان مورد بررسی قرار میگیرند. در حالی که دولت های سراسر جهان در مورد قوانین اساسی برای هوش مصنوعی صحبت می کنند، ایتالیا یکی از اولین کشورهایی بود که ChatGPT را به دلیل نگرانی های حفظ حریم خصوصی ممنوع کرد و اکنون دولت این کشور به دنبال تنظیم مقررات استفاده از هوش مصنوعی در کشور است.
گوگل کاغذ سفیدی با توصیههای سیاستی برای هوش مصنوعی منتشر کرده است که ظاهراً هدف آن کمک به سیاستگذاری است. این مقاله دولتها را تشویق میکند تا بر سه حوزه کلیدی تمرکز کنند: باز کردن فرصتها، ارتقای مسئولیتپذیری و افزایش امنیت.
به حداکثر رساندن پتانسیل اقتصادی هوش مصنوعی برای باز کردن فرصت ها
پذیرش هوش مصنوعی در اقتصادها منجر به رشد قابل توجهی خواهد شد و به کسانی که آن را در برابر رقبای کندتر می پذیرند برتری خواهد داد. گوگل بر این باور است که هوش مصنوعی پتانسیل افزایش تولید محصولات و خدمات پیچیده و ارزشمند در صنایع مختلف را دارد و در عین حال با وجود چالش های جمعیتی، بهره وری را نیز افزایش می دهد. کسبوکارهای کوچک میتوانند از محصولات و خدمات مبتنی بر هوش مصنوعی برای نوآوری و رشد بهرهمند شوند، در حالی که کارگران میتوانند روی کارهای انجامدهندهتر و غیر معمول تمرکز کنند.
به گفته گوگل، با این حال، برای درک کامل مزایای اقتصادی هوش مصنوعی و به حداقل رساندن اختلالات نیروی کار، سیاست گذاران باید روی نوآوری و رقابت سرمایه گذاری کنند، چارچوب های قانونی را ایجاد کنند که نوآوری هوش مصنوعی مسئولانه را ترویج می کند و نیروی کار را برای انتقال شغلی که توسط هوش مصنوعی هدایت می شود، آماده کند. این شرکت توصیه میکند که دولتها باید تحقیقات بنیادی هوش مصنوعی را از طریق آزمایشگاهها و مؤسسات تحقیقاتی ملی اولویتبندی کنند، سیاستهایی را اجرا کنند که از توسعه هوش مصنوعی پشتیبانی میکند، از جمله قوانین حفظ حریم خصوصی که از اطلاعات شخصی محافظت میکند و جریان دادههای قابل اعتماد را در سراسر مرزها امکانپذیر میسازد، و آموزش مداوم، برنامههای ارتقای مهارت، تحرک استعدادها را تسهیل میکند. و تحقیق در مورد آینده کاری.
مسئول ساختن هوش مصنوعی
هوش مصنوعی (AI) این پتانسیل را دارد که به مردم در حل طیف گسترده ای از چالش ها، از بیماری گرفته تا تغییرات آب و هوایی کمک کند. با این حال، اگر سیستمهای هوش مصنوعی توسعه نیافته و مسئولانه استفاده نشوند، میتوانند مشکلات اجتماعی موجود مانند اطلاعات غلط و تبعیض را بدتر کنند. بدون اعتماد به هوش مصنوعی، مشاغل و مصرف کنندگان ممکن است در استفاده از آن تردید کنند و مزایای آن را از دست بدهند.
برای پرداختن به این چالش ها، یک رویکرد چند ذی نفع به حکومت مورد نیاز است. ذینفعان باید مزایا و چالش های بالقوه هوش مصنوعی را درک کنند و برای توسعه نوآوری های فنی و استانداردهای مشترک با یکدیگر همکاری کنند. مقررات متناسب و مبتنی بر ریسک همچنین می تواند توسعه و استقرار مسئولانه فناوری های هوش مصنوعی را تضمین کند. همسویی و همکاری بینالمللی برای توسعه سیاستهایی که ارزشهای دموکراتیک را منعکس میکند و از پراکندگی جلوگیری میکند، حیاتی است. به عنوان مثال، شرکتهای پیشرو میتوانند یک مجمع جهانی در زمینه هوش مصنوعی (GFAI) تشکیل دهند که بر اساس انجمن اینترنتی موفق جهانی برای مقابله با تروریسم (GIFCT) است.
جلوگیری از سوء استفاده بازیگران بد از هوش مصنوعی
هوش مصنوعی (AI) پیامدهای مهمی برای امنیت و ثبات جهانی دارد. هوش مصنوعی مولد می تواند به ایجاد، شناسایی و ردیابی اطلاعات نادرست و رسانه های دستکاری شده کمک کند. تحقیقات امنیتی مبتنی بر هوش مصنوعی منجر به عملیاتهای امنیتی پیشرفته و اطلاعات تهدید میشود، در حالی که بهرهبرداریهای تولید شده توسط هوش مصنوعی ممکن است امکان حملات سایبری پیچیدهتری را توسط دشمنان فراهم کنند.
برای اطمینان از اینکه هوش مصنوعی برای منافع بیشتر استفاده میشود، نردههای محافظ فنی و تجاری باید برای جلوگیری از استفاده مخرب از هوش مصنوعی تعبیه شود. علاوه بر این، ما باید برای مقابله با بازیگران بد و در عین حال به حداکثر رساندن مزایای بالقوه هوش مصنوعی با یکدیگر همکاری کنیم. دولتها باید اجرای سیاستهای کنترل تجارت نسل بعدی را برای برنامههای نرمافزاری مبتنی بر هوش مصنوعی که خطرات امنیتی تلقی میشوند، و همچنین در مورد نهادهای خاصی که از تحقیق و توسعه مرتبط با هوش مصنوعی به روشهایی که میتواند امنیت جهانی را تهدید میکند، پشتیبانی کنند، در نظر بگیرند. همه ذینفعان، از جمله دولتها، دانشگاهها، جامعه مدنی و شرکتها، به درک بهتری از پیامدهای سیستمهای هوش مصنوعی قدرتمندتر و اینکه چگونه میتوانیم هوش مصنوعی پیشرفته را با ارزشهای انسانی هماهنگ کنیم، نیاز دارند.
امنیت یک تلاش مشترک است و پیشرفت در این فضا مستلزم همکاری در قالب تحقیقات مشترک، اتخاذ بهترین مدیریت داده در کلاس، انجمنهای عمومی و خصوصی برای به اشتراک گذاشتن اطلاعات در مورد آسیبپذیریهای امنیتی هوش مصنوعی و موارد دیگر است.
همانطور که قبلاً گفتهایم، هوش مصنوعی آنقدر مهم است که نمیتوان آن را تنظیم کرد، و آنقدر مهم است که نمیتوان آن را به خوبی تنظیم کرد. از چارچوب AI Verify سنگاپور گرفته تا رویکرد طرفدار نوآوری بریتانیا به مقررات هوش مصنوعی گرفته تا چارچوب مدیریت ریسک هوش مصنوعی موسسه ملی استانداردها و فناوری آمریکا، ما تشویق میشویم ببینیم دولتها در سراسر جهان به طور جدی به چارچوبهای سیاستی مناسب برای این فناوریهای جدید رسیدگی میکنند، و ما مشتاقانه منتظر حمایت از تلاش های آنها هستیم کنت واکر، ریس جمهور، مدیر کل امور جهانی که گوگل
فیس بوکتوییترلینکدین
پایان مقاله