پارادوکس داده های مصنوعی: آیا ما تسلیم تفکر خودکار هستیم؟

به اطراف نگاه کن همه چیزهایی که امروز مصرف می کنیم – از اخبار تا دانش فنی – توسط هوش مصنوعی شکل گرفته است. ما به ندرت متوقف می شویم که آن را در نظر بگیریم ، اما هر جستجوی گوگل ، هر پیشنهاد کوپیلوت ، هر مقاله ای که به صورت آنلاین می خوانیم یک چیز مشترک دارد: هوش مصنوعی در ایجاد آن نقش دارد. و این سؤال نگران کننده است: آیا ما با هوش مصنوعی در حال تحول هستیم ، یا به سادگی اجازه می دهیم که آن را برای ما فکر کند؟
فوری به یک هنجار جدید تبدیل شده است. یادگیری هرگونه رشته یک بار تلاش لازم – جستجوی ، اشتباه کردن ، فرضیات زیر سوال بردن. اکنون ، یک سریع Chatgpt یک پاسخ ساختاری را در چند ثانیه ارائه می دهد. اما آیا ما واقعاً می دانیم که چه چیزی مصرف می کنیم ، یا فقط آن را با ارزش چهره می پذیریم؟
این یک معضل انتزاعی نیست ؛ در حال حاضر اتفاق می افتد. توسعه دهندگان کد تولید شده توسط AI را بدون تأیید آن کپی می کنند ، با فرض اینکه “باید درست باشد”. طراحان از ابزارهای هوش مصنوعی برای تولید رابط ها استفاده می کنند بدون اینکه این سوال را بپرسند که آیا آنها واقعاً قابل استفاده هستند. روزنامه نگاران مقالات تولید شده توسط AI را بدون تأیید صحت داده ها منتشر می کنند.
روزنامه نگاری نمونه بارز این تغییر است. به گفته رویترز ، 30 ٪ از محتوای اخبار دیجیتال در حال حاضر تولید شده است. بلومبرگ و واشنگتن پست از سیستم های خودکار برای تهیه داستان استفاده می کنند. اما چه اتفاقی می افتد که هوش مصنوعی بدون مداخله انسانی شروع به تغذیه بر روی محتوای خود می کند؟ چه اتفاقی برای تنوع فکری می افتد؟ چه مدت تا زمانی که ما از منابع سؤال می کنیم فقط به این دلیل که همه چیز به نظر می رسد یکسان است – با همان لحن ، با استفاده از همان کلمات ، با همان تعصبات نامرئی همراه است؟
اینجاست که داده های مصنوعی به یک نگرانی تبدیل می شوند. گارتنر تخمین می زند که تا سال 2024 ، 60 ٪ از داده های مورد استفاده در پروژه های AI قبلاً به صورت مصنوعی تولید شده است. این بدان معنی است که هوش مصنوعی از اطلاعاتی که خود ایجاد کرده است در حال یادگیری است. به نظر می رسد کارآمد است ، اما از نظر خطرناک خود مرجع است. یک مطالعه آکسفورد نشان داد که مدل های AI پس از تنها سه چرخه آموزشی روی داده های مصنوعی ، 38 ٪ از دقت خود را از دست می دهند. به عبارت دیگر ، هوش مصنوعی می تواند اشتباهات خود را تقویت کند – بدون اینکه کسی متوجه شود.
بنابراین بیایید به سؤال اصلی برگردیم: آیا ما واقعاً AI را آموزش می دهیم ، یا ما فقط کنترل خود را تسلیم می کنیم؟
- هنگامی که توسعه دهندگان از Copilot برای نوشتن کد استفاده می کنند ، آیا آنها آن را مرور و درک می کنند ، یا فقط آن را بدون تردید کپی و اجرا می کنند؟
- هنگامی که شرکت ها از AI برای فیلتر کردن Résumés استفاده می کنند ، آیا کسی بررسی می کند که آیا این مدل به دلیل تعصبات پنهان ، نامزدهای واجد شرایط را ناعادلانه رد می کند؟
- هنگامی که سازندگان محتوا برای نوشتن مقاله به هوش مصنوعی تکیه می کنند ، آیا آنها اطلاعات را تأیید می کنند ، یا فرض می کنند “AI می داند چه کاری انجام می دهد” و بدون سؤال منتشر می کنند؟
خطر واقعی این نیست که هوش مصنوعی ما را جایگزین کند – این بدان معناست که ما شکایت خواهیم کرد و از هر چیزی سؤال خواهیم کرد. هوش مصنوعی به طرز انتقادی فکر نمی کند. این به سادگی از الگوهای تقلید می کند و آنچه را پیدا می کند تولید می کند. اگر به چالش کشیدن خروجی های آن متوقف شویم ، اگر هر پاسخی را بدون تأیید ، تجزیه و تحلیل یا شک و تردید بپذیریم ، پس هوش مصنوعی نیازی به جایگزینی ما نخواهد داشت. ما خودمان را بی ربط خواهیم کرد.
راه حل این نیست که هوش مصنوعی را رد کنید بلکه استفاده از آن با مسئولیت پذیری است. درخواست پاسخ کافی نیست – ما باید آنها را تجزیه و تحلیل کنیم ، به چالش بکشیم و آنها را اصلاح کنیم. پذیرش تصمیمات هوش مصنوعی کافی نیست – ما باید تحقیق کنیم ، مقابله کنیم و آنها را بهبود بخشیم. تفکر انتقادی تنها مزیت واقعی ما نسبت به ماشین آلات است. اگر آن را از دست بدهیم ، پس بله – عاقلی برنده خواهد شد.