شبکه های اجتماعی

سازمان‌های اروپایی حمایت از مصرف‌کننده خواستار بررسی ChatGPT و سایرین شدند

گروه لابی گفت محتوای تولید شده توسط چت بات ها که درست و قابل اعتماد به نظر می رسد اما اغلب از نظر واقعی نادرست است، می تواند مصرف کنندگان را گمراه کند و همچنین منجر به تبلیغات فریبنده شود.

سازمان مصرف‌کننده اروپا (BEUC) به گروه نگرانی‌های مربوط به ChatGPT و دیگر چت‌بات‌های هوش مصنوعی پیوسته و از آژانس‌های حمایت از مصرف‌کننده اتحادیه اروپا می‌خواهد این فناوری و آسیب‌های احتمالی برای افراد را بررسی کنند.

محبوبیت روزافزون ChatGPT’s Open AI با پشتیبانی مایکروسافت، که می‌تواند انسان‌ها را تقلید کند و متن و تصاویر را بر اساس درخواست‌ها ایجاد کند، سایرین مانند Google Alphabet، بخش ابری آمازون AWS و Meta Platforms را برانگیخت تا ابزارهای مشابهی را اعلام کنند.

BEUC، گروه چتر 46 سازمان مصرف‌کننده از 32 کشور، نگرانی‌های خود را در نامه‌های جداگانه‌ای در اوایل این ماه به شبکه مقامات ایمنی مصرف‌کننده (شبکه CSN) و شبکه مقامات حمایت از مصرف‌کننده (شبکه CPC) اعلام کرد.

گروه لابی گفت محتوای تولید شده توسط ربات های چت که به نظر درست و قابل اعتماد به نظر می رسد اما اغلب از نظر واقعی نادرست است، می تواند مصرف کنندگان را گمراه کند و همچنین منجر به تبلیغات فریبنده شود. در این بیانیه آمده است که مصرف کنندگان جوان و کودکان در برابر چنین خطراتی آسیب پذیرتر هستند.

اورسولا پاچل، معاون مدیر کل BEUC، «بنابراین BEUC از شما می‌خواهد خطراتی را که این سیستم‌های هوش مصنوعی برای مصرف‌کنندگان ایجاد می‌کنند، بررسی کنید تا حضور آن‌ها در بازارهای مصرف را شناسایی کنید و بررسی کنید که چه اقدامات اصلاحی باید برای جلوگیری از آسیب مصرف‌کننده انجام شود». در نامه ای به شبکه CPC و کمیسیون اروپا نوشت.

این گروه همچنین از شبکه ایمنی مصرف کننده خواست تا تبادل اطلاعات و بررسی خطرات ایمنی این محصولات را آغاز کند.

ماسک، دیگران نامه سرگشاده می نویسند
ماه گذشته، ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعت خواستار توقف شش ماهه در سیستم‌های آموزشی قدرتمندتر از OpenAIآنها در نامه ای سرگشاده با اشاره به خطرات احتمالی برای جامعه و بشریت گفتند که مدل تازه راه اندازی شده GPT-4.

نامه ای که توسط موسسه غیرانتفاعی Future of Life صادر شده و توسط بیش از 1000 نفر از جمله ماسک، مدیر عامل هوش مصنوعی پایداری عماد مستاک، محققان DeepMind متعلق به آلفابت، و همچنین یوشوا بنجیو و استوارت راسل از افراد سنگین وزن هوش مصنوعی امضا شده است، خواستار توقف توسعه هوش مصنوعی پیشرفته تا زمانی که پروتکل های ایمنی مشترک برای چنین طرح هایی توسط کارشناسان مستقل توسعه، اجرا و ممیزی شود.

در این نامه آمده است: «سیستم‌های قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آن‌ها مثبت و خطرات آن‌ها قابل کنترل خواهد بود».

در این نامه همچنین خطرات احتمالی برای جامعه و تمدن توسط سیستم‌های هوش مصنوعی رقابتی انسان در قالب اختلالات اقتصادی و سیاسی شرح داده شده است و از توسعه‌دهندگان خواسته شده است تا با سیاست‌گذاران در زمینه حاکمیت و مقامات نظارتی همکاری کنند.

فیس بوکتوییترلینکدین


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا