سازمانهای اروپایی حمایت از مصرفکننده خواستار بررسی ChatGPT و سایرین شدند
گروه لابی گفت محتوای تولید شده توسط چت بات ها که درست و قابل اعتماد به نظر می رسد اما اغلب از نظر واقعی نادرست است، می تواند مصرف کنندگان را گمراه کند و همچنین منجر به تبلیغات فریبنده شود.
سازمان مصرفکننده اروپا (BEUC) به گروه نگرانیهای مربوط به ChatGPT و دیگر چتباتهای هوش مصنوعی پیوسته و از آژانسهای حمایت از مصرفکننده اتحادیه اروپا میخواهد این فناوری و آسیبهای احتمالی برای افراد را بررسی کنند.
محبوبیت روزافزون ChatGPT’s Open AI با پشتیبانی مایکروسافت، که میتواند انسانها را تقلید کند و متن و تصاویر را بر اساس درخواستها ایجاد کند، سایرین مانند Google Alphabet، بخش ابری آمازون AWS و Meta Platforms را برانگیخت تا ابزارهای مشابهی را اعلام کنند.
BEUC، گروه چتر 46 سازمان مصرفکننده از 32 کشور، نگرانیهای خود را در نامههای جداگانهای در اوایل این ماه به شبکه مقامات ایمنی مصرفکننده (شبکه CSN) و شبکه مقامات حمایت از مصرفکننده (شبکه CPC) اعلام کرد.
گروه لابی گفت محتوای تولید شده توسط ربات های چت که به نظر درست و قابل اعتماد به نظر می رسد اما اغلب از نظر واقعی نادرست است، می تواند مصرف کنندگان را گمراه کند و همچنین منجر به تبلیغات فریبنده شود. در این بیانیه آمده است که مصرف کنندگان جوان و کودکان در برابر چنین خطراتی آسیب پذیرتر هستند.
اورسولا پاچل، معاون مدیر کل BEUC، «بنابراین BEUC از شما میخواهد خطراتی را که این سیستمهای هوش مصنوعی برای مصرفکنندگان ایجاد میکنند، بررسی کنید تا حضور آنها در بازارهای مصرف را شناسایی کنید و بررسی کنید که چه اقدامات اصلاحی باید برای جلوگیری از آسیب مصرفکننده انجام شود». در نامه ای به شبکه CPC و کمیسیون اروپا نوشت.
این گروه همچنین از شبکه ایمنی مصرف کننده خواست تا تبادل اطلاعات و بررسی خطرات ایمنی این محصولات را آغاز کند.
ماسک، دیگران نامه سرگشاده می نویسند
ماه گذشته، ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعت خواستار توقف شش ماهه در سیستمهای آموزشی قدرتمندتر از OpenAIآنها در نامه ای سرگشاده با اشاره به خطرات احتمالی برای جامعه و بشریت گفتند که مدل تازه راه اندازی شده GPT-4.
نامه ای که توسط موسسه غیرانتفاعی Future of Life صادر شده و توسط بیش از 1000 نفر از جمله ماسک، مدیر عامل هوش مصنوعی پایداری عماد مستاک، محققان DeepMind متعلق به آلفابت، و همچنین یوشوا بنجیو و استوارت راسل از افراد سنگین وزن هوش مصنوعی امضا شده است، خواستار توقف توسعه هوش مصنوعی پیشرفته تا زمانی که پروتکل های ایمنی مشترک برای چنین طرح هایی توسط کارشناسان مستقل توسعه، اجرا و ممیزی شود.
در این نامه آمده است: «سیستمهای قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل کنترل خواهد بود».
در این نامه همچنین خطرات احتمالی برای جامعه و تمدن توسط سیستمهای هوش مصنوعی رقابتی انسان در قالب اختلالات اقتصادی و سیاسی شرح داده شده است و از توسعهدهندگان خواسته شده است تا با سیاستگذاران در زمینه حاکمیت و مقامات نظارتی همکاری کنند.
فیس بوکتوییترلینکدین