شبکه های اجتماعی

گوگل این سه پیشنهاد را برای دولت‌های سراسر جهان در مورد “مقررات هوش مصنوعی” دارد.

گوگل این سه پیشنهاد را برای دولت‌های سراسر جهان در مورد

این سالها گوگل I/O همه روی هوش مصنوعیو این شرکت در مورد اینکه چگونه رشد هوش مصنوعی یک تغییر تکنولوژی قابل توجه است صحبت کرد. به گفته این شرکت، پیشرفت‌های فعلی در مدل‌های هوش مصنوعی تنها به کشف مکان‌های جدید، یافتن کلمات مناسب یا درگیر شدن با اطلاعات محدود نمی‌شود.

اما با این پیشرفت‌ها، دولت‌ها در سرتاسر جهان مورد بررسی قرار می‌گیرند. در حالی که دولت های سراسر جهان در مورد قوانین اساسی برای هوش مصنوعی صحبت می کنند، ایتالیا یکی از اولین کشورهایی بود که ChatGPT را به دلیل نگرانی های حفظ حریم خصوصی ممنوع کرد و اکنون دولت این کشور به دنبال تنظیم مقررات استفاده از هوش مصنوعی در کشور است.

گوگل کاغذ سفیدی با توصیه‌های سیاستی برای هوش مصنوعی منتشر کرده است که ظاهراً هدف آن کمک به سیاست‌گذاری است. این مقاله دولت‌ها را تشویق می‌کند تا بر سه حوزه کلیدی تمرکز کنند: باز کردن فرصت‌ها، ارتقای مسئولیت‌پذیری و افزایش امنیت.

به حداکثر رساندن پتانسیل اقتصادی هوش مصنوعی برای باز کردن فرصت ها
پذیرش هوش مصنوعی در اقتصادها منجر به رشد قابل توجهی خواهد شد و به کسانی که آن را در برابر رقبای کندتر می پذیرند برتری خواهد داد. گوگل بر این باور است که هوش مصنوعی پتانسیل افزایش تولید محصولات و خدمات پیچیده و ارزشمند در صنایع مختلف را دارد و در عین حال با وجود چالش های جمعیتی، بهره وری را نیز افزایش می دهد. کسب‌وکارهای کوچک می‌توانند از محصولات و خدمات مبتنی بر هوش مصنوعی برای نوآوری و رشد بهره‌مند شوند، در حالی که کارگران می‌توانند روی کارهای انجام‌دهنده‌تر و غیر معمول تمرکز کنند.

به گفته گوگل، با این حال، برای درک کامل مزایای اقتصادی هوش مصنوعی و به حداقل رساندن اختلالات نیروی کار، سیاست گذاران باید روی نوآوری و رقابت سرمایه گذاری کنند، چارچوب های قانونی را ایجاد کنند که نوآوری هوش مصنوعی مسئولانه را ترویج می کند و نیروی کار را برای انتقال شغلی که توسط هوش مصنوعی هدایت می شود، آماده کند. این شرکت توصیه می‌کند که دولت‌ها باید تحقیقات بنیادی هوش مصنوعی را از طریق آزمایشگاه‌ها و مؤسسات تحقیقاتی ملی اولویت‌بندی کنند، سیاست‌هایی را اجرا کنند که از توسعه هوش مصنوعی پشتیبانی می‌کند، از جمله قوانین حفظ حریم خصوصی که از اطلاعات شخصی محافظت می‌کند و جریان داده‌های قابل اعتماد را در سراسر مرزها امکان‌پذیر می‌سازد، و آموزش مداوم، برنامه‌های ارتقای مهارت، تحرک استعدادها را تسهیل می‌کند. و تحقیق در مورد آینده کاری.

مسئول ساختن هوش مصنوعی
هوش مصنوعی (AI) این پتانسیل را دارد که به مردم در حل طیف گسترده ای از چالش ها، از بیماری گرفته تا تغییرات آب و هوایی کمک کند. با این حال، اگر سیستم‌های هوش مصنوعی توسعه نیافته و مسئولانه استفاده نشوند، می‌توانند مشکلات اجتماعی موجود مانند اطلاعات غلط و تبعیض را بدتر کنند. بدون اعتماد به هوش مصنوعی، مشاغل و مصرف کنندگان ممکن است در استفاده از آن تردید کنند و مزایای آن را از دست بدهند.

برای پرداختن به این چالش ها، یک رویکرد چند ذی نفع به حکومت مورد نیاز است. ذینفعان باید مزایا و چالش های بالقوه هوش مصنوعی را درک کنند و برای توسعه نوآوری های فنی و استانداردهای مشترک با یکدیگر همکاری کنند. مقررات متناسب و مبتنی بر ریسک همچنین می تواند توسعه و استقرار مسئولانه فناوری های هوش مصنوعی را تضمین کند. همسویی و همکاری بین‌المللی برای توسعه سیاست‌هایی که ارزش‌های دموکراتیک را منعکس می‌کند و از پراکندگی جلوگیری می‌کند، حیاتی است. به عنوان مثال، شرکت‌های پیشرو می‌توانند یک مجمع جهانی در زمینه هوش مصنوعی (GFAI) تشکیل دهند که بر اساس انجمن اینترنتی موفق جهانی برای مقابله با تروریسم (GIFCT) است.

جلوگیری از سوء استفاده بازیگران بد از هوش مصنوعی
هوش مصنوعی (AI) پیامدهای مهمی برای امنیت و ثبات جهانی دارد. هوش مصنوعی مولد می تواند به ایجاد، شناسایی و ردیابی اطلاعات نادرست و رسانه های دستکاری شده کمک کند. تحقیقات امنیتی مبتنی بر هوش مصنوعی منجر به عملیات‌های امنیتی پیشرفته و اطلاعات تهدید می‌شود، در حالی که بهره‌برداری‌های تولید شده توسط هوش مصنوعی ممکن است امکان حملات سایبری پیچیده‌تری را توسط دشمنان فراهم کنند.

برای اطمینان از اینکه هوش مصنوعی برای منافع بیشتر استفاده می‌شود، نرده‌های محافظ فنی و تجاری باید برای جلوگیری از استفاده مخرب از هوش مصنوعی تعبیه شود. علاوه بر این، ما باید برای مقابله با بازیگران بد و در عین حال به حداکثر رساندن مزایای بالقوه هوش مصنوعی با یکدیگر همکاری کنیم. دولت‌ها باید اجرای سیاست‌های کنترل تجارت نسل بعدی را برای برنامه‌های نرم‌افزاری مبتنی بر هوش مصنوعی که خطرات امنیتی تلقی می‌شوند، و همچنین در مورد نهادهای خاصی که از تحقیق و توسعه مرتبط با هوش مصنوعی به روش‌هایی که می‌تواند امنیت جهانی را تهدید می‌کند، پشتیبانی کنند، در نظر بگیرند. همه ذینفعان، از جمله دولت‌ها، دانشگاه‌ها، جامعه مدنی و شرکت‌ها، به درک بهتری از پیامدهای سیستم‌های هوش مصنوعی قدرتمندتر و اینکه چگونه می‌توانیم هوش مصنوعی پیشرفته را با ارزش‌های انسانی هماهنگ کنیم، نیاز دارند.

امنیت یک تلاش مشترک است و پیشرفت در این فضا مستلزم همکاری در قالب تحقیقات مشترک، اتخاذ بهترین مدیریت داده در کلاس، انجمن‌های عمومی و خصوصی برای به اشتراک گذاشتن اطلاعات در مورد آسیب‌پذیری‌های امنیتی هوش مصنوعی و موارد دیگر است.

همانطور که قبلاً گفته‌ایم، هوش مصنوعی آنقدر مهم است که نمی‌توان آن را تنظیم کرد، و آنقدر مهم است که نمی‌توان آن را به خوبی تنظیم کرد. از چارچوب AI Verify سنگاپور گرفته تا رویکرد طرفدار نوآوری بریتانیا به مقررات هوش مصنوعی گرفته تا چارچوب مدیریت ریسک هوش مصنوعی موسسه ملی استانداردها و فناوری آمریکا، ما تشویق می‌شویم ببینیم دولت‌ها در سراسر جهان به طور جدی به چارچوب‌های سیاستی مناسب برای این فناوری‌های جدید رسیدگی می‌کنند، و ما مشتاقانه منتظر حمایت از تلاش های آنها هستیم کنت واکر، ریس جمهور، مدیر کل امور جهانی که گوگل

فیس بوکتوییترلینکدین



پایان مقاله

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا