دریابید که چرا هوش مصنوعی مسئولیت پذیر مهم است

چند سال پیش، هوش مصنوعی یک مفهوم انتزاعی بود. اما از زمان رونق برنامه های هوش مصنوعی مولد مانند ChatGPT، Bard، Bing Chat و غیره، این موضوع تغییر کرده است. اکنون، ما می توانیم با چت ربات های هوش مصنوعی تعامل داشته باشیم و قدرت واقعی آنها را در عمل ببینیم.
هوش مصنوعی به سرعت در حال تکامل است. توسعه در مدل های زبان بزرگ (LLM) مشهود است و به رشد خود ادامه خواهد داد. این رشد نشاندهنده آن چیزی است که هر فناوری نوظهوری دارد، مزایا و معایب. برای تجارت، مزایای زیر را دارد.
- کاهش زمان صرف شده برای انجام کارهای تکراری.
- برقراری ارتباط با مشتریان از طریق ربات های چت.
- پتانسیل بازار انبوه از آنجایی که در بسیاری از صنایع قابل استفاده است.
- تصمیم گیری سریعتر و هوشمندانه تر.
هوش مصنوعی علی رغم پتانسیل ایجاد تغییرات اساسی در زندگی ما می تواند مضر باشد. این نکته کلیدی در Google I/O 2023 بود و پیشرفتها در مدلهای زبانی همچنان دستور کار هوش مصنوعی را پیش میبرد. اجازه دهید سناریوهای استفاده مضر را بررسی کنیم.
سناریوهای استفاده بد از هوش مصنوعی
نظارت اجتماعی
دولت چین از فناوری تشخیص چهره هوش مصنوعی برای ردیابی حرکات شهروندان استفاده می کند. داده ها الگوهایی مانند؛
- مکان هایی که بازدید می کنید
- دیدگاه های سیاسی
- روابط شخصی و غیره، حریم خصوصی را بیشتر نقض می کند.
https://www.youtube.com/watch?v=7gSU_Xes3GQ
در ایالات متحده، هوش مصنوعی نقاط داغ جرم و جنایت را بر اساس نرخ دستگیری پیشبینی میکند و جعبه تعصب پاندورا را باز میکند. الگوریتمهای پیشبینی تعصب نسبت به مناطق جوامع اقلیت نشان میدهند. گزارش های اخیر ادعا می کنند که فناوری تشخیص چهره نمی تواند افراد سیاه پوست را متمایز کند. معنی آن چیست؟ پروفایل نژادی
تقلبی عمیق
Deep Fake یک فناوری هوش مصنوعی است که از یادگیری عمیق برای ساختن تصاویر و ویدیوهای رویدادهای جعلی استفاده می کند. چهرهها را بر روی بدن افراد دیگر ترسیم میکند، حرکات لب را همگامسازی میکند و صداها را مطابقت میدهد. در فوریه 2023، ویدئویی از جو بایدن، رئیس جمهور ایالات متحده، در حال پاسخگویی به خبرنگاران در فضای مجازی منتشر شد. بررسی ویدئویی جعلی عمیق جو بایدن را در زیر مشاهده کنید.
https://www.youtube.com/watch?v=DmPDLQNYCbU
بعداً عکس هایی از دستگیری خیالی دونالد ترامپ نیز منتشر شد. این روایت اطلاعات نادرست را به مردم منتقل می کند، که ممکن است هرگز متوجه جعلی یا واقعی بودن این ویدیوها یا تصاویر نشوند. بسیاری از ویدئوهای جعلی عمیق ممکن است در آستانه انتخابات عمومی 2024 ایالات متحده ظاهر شوند.
معایب هوش مصنوعی
صبر کنید، ایرادات بیشتری برای هوش مصنوعی وجود دارد.
از دست دادن شغل
هوش مصنوعی مورد استفاده در ماشین ها وظایف را سریعتر و کارآمدتر از انسان ها انجام می دهد. هوش مصنوعی مشاغل جدیدی ایجاد می کند و برخی را به خود اختصاص می دهد.
تعصب ناعادلانه
انسان ها (که هوش مصنوعی را توسعه می دهند) به طور طبیعی مغرضانه هستند. الگوریتمها از دادههای انتخاب شده توسط انسانها یاد میگیرند و از این رو نتایج مغرضانه را برمیگردانند.
فیشینگ صوتی
هوش مصنوعی از طریق یادگیری ماشینی می تواند صدای افراد را بیاموزد. در سال 2023، مجموعهای از همکاریهای «ناموجود» منتشر شد. اگر این مورد در دستان اشتباه قرار گیرد، میتوان از فیشینگ صوتی سوء استفاده کرد.
جعل هویت
از طریق یادگیری صدا، جعل هویت به پناهگاه جنایتکاران تبدیل می شود. مجرمان می توانند از آن برای درخواست لطف، انجام معاملات و غیره استفاده کنند. اخیراً گزارش هایی مبنی بر کلاهبرداری تماس صوتی با هوش مصنوعی منتشر شده است.
اطلاعات نادرست و اطلاعات نادرست
در آوریل 2023، یک عکس واقعی از فرود بر ماه ظاهر شد. همانطور که واقع بینانه به نظر می رسید، تصویری بود که توسط هوش مصنوعی تولید شده بود. تصاویر و رسانه های ویدئویی تولید شده توسط هوش مصنوعی می توانند اطلاعات نادرست را منتشر کنند.
در این تصویر چه خبر است؟
08:42 – 30 آوریل 2023
اثرات زیست محیطی
بر اساس گزارشها، مجموعه دادههای منابع فشرده مدلهای زبان بزرگ، انتشار بالایی تولید میکنند. کارشناسان می گویند که یک مرکز داده با اندازه متوسط روزانه 360000 گالن آب برای خنک کردن استفاده می کند.
آنچه آزمایشگاههای هوش مصنوعی برای اطمینان از هوش مصنوعی مسئول انجام میدهند
- در حال توسعه سیستم هایی که فریب آنها توسط صداهای تولید شده توسط هوش مصنوعی دشوار است.
- افزایش آگاهی کاربران برای شک و تردید نسبت به صدا یا ویدیویی که منابع آن را نمی توانند تأیید کنند.
- اتحاد ملی امنیت سایبری راهنمایی در مورد نحوه شناسایی کلاهبرداری های صوتی تولید شده توسط هوش مصنوعی و خطرات صدای تولید شده توسط هوش مصنوعی دارد.
- ایجاد تیمهای هوش مصنوعی مسئول برای اطمینان از توسعه و استفاده مسئولانه محصولات و خدمات هوش مصنوعی.
- دستورالعمل های اخلاق هوش مصنوعی برای اطمینان از استفاده اخلاقی از محصولات و خدمات هوش مصنوعی.
محققان همچنین در حال کار بر روی سیستم هایی هستند که می توانند صدای تولید شده توسط هوش مصنوعی را تشخیص دهند. محققان دانشگاه واشنگتن سیستمی با دقت 94 درصد توسعه داده اند.
اصول گوگل که توسعه و پذیرش هوش مصنوعی را هدایت می کند
در 7 ژوئن 2018، گوگل هفت اصل را برای هدایت توسعه و ارزیابی برنامه های کاربردی هوش مصنوعی ارائه کرد.
از نظر اجتماعی سودمند باشید
توسعه هوش مصنوعی باید کاربران را در نظر بگیرد و ضمن به حداقل رساندن خطرات، از نیازهای آنها بهره مند شود. اطلاعات باکیفیت و دقیق باید با استفاده از هوش مصنوعی در دسترس باشد و در عین حال همچنان به هنجارهای فرهنگی، اجتماعی و قانونی در کشورهایی که Google در آنها فعالیت میکند احترام بگذارد.
از ایجاد یا تقویت تعصبات ناعادلانه خودداری کنید
گوگل به دنبال جلوگیری از تأثیرات ناعادلانه بر مردم است. از سوگیری هایی مانند نژاد، قومیت، جنسیت، ملیت، درآمد، گرایش جنسی، توانایی و اعتقادات سیاسی یا مذهبی جلوگیری می کند.
برای ایمنی ساخته و آزمایش شود
هوش مصنوعی باید برای جلوگیری از نتایج ناخواسته ای که خطرات آسیب را ایجاد می کند توسعه یابد. آزمایش و نظارت بر عملکرد آنها پس از استقرار حیاتی است.
در برابر مردم پاسخگو باشید
گوگل سیستم های هوش مصنوعی طراحی خواهد کرد که بازخورد مناسب کاربران را بپذیرند. فناوریهای هوش مصنوعی آن تحت هدایت و کنترل انسانی مناسب خواهند بود.
اصول طراحی حریم خصوصی را بگنجانید
حریم خصوصی کاربر در خط مقدم است. Google از اعلامیه و رضایت کاربر اطمینان حاصل می کند و با پادمان های حفظ حریم خصوصی ساخته می شود. شفافیت و کنترل مناسب بر استفاده از داده ها را فراهم می کند.
استانداردهای عالی برتری علمی را رعایت کنید
ابزارهای هوش مصنوعی باید با در نظر گرفتن استانداردهای بالای برتری علمی توسعه داده شوند. دانش هوش مصنوعی از طریق انتشار مطالب آموزشی، بهترین شیوه ها و تحقیقات به اشتراک گذاشته خواهد شد.
برای استفاده هایی که با این اصول مطابقت دارد در دسترس قرار گیرد
Google برنامه های مضر یا سوء استفاده را محدود می کند. قبل از استقرار، برنامه ها بر اساس ارزیابی می شوند.
- هدف و کاربرد اولیه
- طبیعت و منحصر به فرد بودن
- مقیاس و ماهیت مشارکت گوگل
گام هایی که گوگل برای اطمینان از هوش مصنوعی مسئول انجام می دهد
در Google IO 2023، James Manyika در مورد رویکرد جسورانه و مسئولانه گوگل در استفاده از هوش مصنوعی صحبت کرد.
https://www.youtube.com/watch?v=hLau4-NHMFo
اطلاعات نادرست باعث توسعه ابزارهایی برای ارزیابی اطلاعات شده است. ارزیابی به شرح زیر انجام خواهد شد؛
- را “درباره این تصویر” این ویژگی نشان می دهد که کجا و چه زمانی تصاویر مشابه در جستجوی تصویر Google ظاهر شده اند. یعنی در رسانه های اجتماعی، مقالات و غیره.
- گوگل ابزارهایی برای کمک به افراد برای تأیید صحت صدا و تصویر دارد. به عنوان مثال، “دستیار صوتی قلب” می تواند به افراد کمک کند تا صحت ضبط های صوتی را تأیید کنند.
- فراداده تصویر. سازندگان میتوانند متادیتا را به تصاویر اضافه کنند تا نشان دهند که توسط هوش مصنوعی تولید شدهاند. Google Images این را به کاربران نشان می دهد.
- واترمارکینگ تصاویر برای نشان دادن تصاویر تولید شده توسط هوش مصنوعی.
- نرده های محافظ برای کمک به جلوگیری از سوء استفاده از مترجم جهانی که می تواند برای ایجاد جعلی عمیق استفاده شود.
- گوگل ارائه می دهد دسترسی مجاز به شرکایی که مایل به استفاده از مترجم جهانی هستند.
- تست خصمانه خودکار. مدلهای زبان بزرگ از API Perspective برای تشخیص سمیت در مدلهای خود استفاده میکنند.
نتیجه
در حالی که توسعه هوش مصنوعی ادامه خواهد داشت، باید بدانیم که هر سکه دو روی دارد. هوش مصنوعی بخشی از زندگی روزمره ما است، بنابراین باید آن را در آغوش بگیریم و سازگار شویم تا جایگزین نشویم.
گوگل و آزمایشگاههای هوش مصنوعی در حال کار بر روی راهحلهایی (با هدایت اصولی) برای محافظت از کاربران و جلوگیری از اطلاعات نادرست هستند که بر افراد ساده لوح تأثیر میگذارد. از طریق فعالیت های مجرمانه، هر کسی ممکن است پول، هویت و غیره خود را از دست بدهد. همه ما باید مراقب باشیم و در دریای هوش مصنوعی هوشیار باشیم.
ممنون که خواندید 🥳. شما می توانید با خرید یک فنجان قهوه از من حمایت کنید ☕. برای کسب و کار، از طریق ایمیل من در اینجا 📧 تماس بگیرید.
تو را در بعدی می بینم
آرامش ☮️✌️