توهم AI: چگونه می توان خرابی های متن تولید شده با ابزارهای AI را اصلاح کرد؟

تصور کنید که برای یک ابزار اطلاعاتی مصنوعی اطلاعاتی بخواهید و او با اعتماد به نفس پاسخ می دهد … اما او کاملاً اشتباه است.
نه برای قصد بد ، بلکه به دلیل “توهم”. بله ، توهمات منحصر به فرد برای مغز انسان نیست ، از این اصطلاح برای توصیف پاسخ های اختراع شده توسط سیستم های عمومی AI مانند چتپپ ، جمینی یا برد استفاده می شود.
اما این به چه معنی است؟
“توهم” در هوش مصنوعی چیست؟
بر خلاف توهم انسانی ، که شامل دیدن ، گوش دادن یا احساس چیزی است که وجود ندارد ، توهم IA خطاهای متنی است که به نظر می رسد درست است ، اطلاعاتی است که توسط این مدل هنگام تلاش برای “پر کردن شکاف ها” بر اساس الگوهای زبانی انجام می شود.
متداول ترین “توهم” استفاده از استنادهایی است که هرگز وجود نداشته است. داده های آماری بدون منبع قابل اعتماد ؛ عناوین کتاب نسبت به نویسندگان اشتباه ؛ از حقایق قابل قبول ، اما بدون هیچ پایه واقعی.
ویرایشگر سردبیر آتنا ، آنتونلا کاروالو دو الیویرا ، توضیح می دهد: “این اشتباهات اتفاق می افتد زیرا هوش مصنوعی نمی فهمد چه می گوید ، فقط پیش بینی می کند که کدام کلمه براساس داده های قبلی به وجود می آید.”
چرا “هالوسینا” است؟
مدل های زبان بر اساس احتمال آماری کار می کنند ، نه با دانش واقعی ، آنها آگاه نیستند ، و نه منابع واقعی را بررسی می کنند (مگر اینکه به بانکهای اطلاعاتی به روز شده متصل شوند).
بنابراین آنها نمی دانند چگونه برخی از خطاها را شناسایی کنند یا اطلاعات ذهنی یا پیچیده تری را تأیید کنند ، به ویژه در زمینه های حساس تر مانند تحقیقات دانشگاهی ، پزشکی ، حقوق یا روزنامه نگاری ، و این یک خطر جدی است.
نکاتی برای تصحیح (یا اجتناب از) توهمات هوش مصنوعی؟:
-
همیشه به صورت دستی محتوای تولید شده را مرور کنید ، AI یک دستیار است ، نه یک نویسنده نهایی.
-
از منابع معتبر برای بررسی ، مانند داده های رسمی ، مقالات علمی یا وسایل نقلیه روزنامه نگاری مرجع استفاده کنید.
-
از استفاده از IA برای نامگذاری نویسندگان ، کتاب ها و داده های دقیق بدون کنفرانس خودداری کنید.
-
از ابزارهایی با دسترسی به به روز شده در صورت وجود استفاده کنید ، یا از آنها بخواهید که منبع را نقل کنند و آنها را بررسی کنند.
-
در صورت امکان ، با نظارت تخصصی ، به ویژه در مناطق فنی ترکیب شوید.
مسئولیت هنوز انسانی است
“رشد عظیم این ابزارها نمی تواند حساسیت را کنار بگذارد ، کاربر باید بداند که هوش مصنوعی می تواند اشتباه کند و اغلب در زمینه های فنی تر از دست می رود.”
آنتونلا کاروالو د Oliveira هشدار می دهد: “ترکیب هوش مصنوعی با بررسی انسان ، ما چابک تر و در عین حال مسئول هستیم.”