برنامه نویسی

از طریق آینه سیاه: چگونه ناآگاهی ما از کدنویسی هوش مصنوعی واقعیت را شکل می دهد

بیایید ابتدا به گرداب مغزی هوش مصنوعی شیرجه بزنیم، جایی که جهان به آرامی – اما مطمئنا – توسط الگوریتم‌هایی تغییر شکل می‌دهد که اکثر ما نمی‌توانیم برای نجات جان خود کدنویسی کنیم. این فقط یکی دیگر از اپدیت های دست پران درباره ربات های دزد کار نیست. نه، این یک فرو رفتن عمیق در یک بحران خزنده اجتماعی است: حضور ناکافی فاحش افرادی که می‌دانند مدل‌های هوش مصنوعی چگونه ساخته می‌شوند، آموزش می‌دهند، و کار می‌کنند، و پیامدهای ناراحت‌کننده این ناآگاهی.

افراد معمولی هر روز با هوش مصنوعی تعامل دارند – موتورهای جستجو، فیدهای رسانه های اجتماعی، سیستم های توصیه – اما از آنها بپرسید که این سیستم ها چگونه کار می کنند، و احتمالاً یک نگاه خالی یا کمی تکنولوژی در مورد “الگوریتم ها” و “داده ها” خواهید داشت. ” حقیقت این است: تنها بخش کوچکی از بشریت می‌دانند چگونه این مدل‌های هوش مصنوعی را طراحی، کدنویسی و آموزش دهند. و آن گروه کوچک، عمدتاً همگن، اکنون لنزهایی را که از طریق آن جهان را تجربه می کنیم، دیکته می کند.

بگذار آن غرق شود.

ما در حال بررسی واقعیت از طریق الگوریتم‌هایی هستیم که توسط تعدادی کدنویس نوشته شده‌اند، که به نوبه خود توسط منافع شرکت و سیاست‌های داده مبهم هدایت می‌شوند. تصمیمات آنها – خواه آگاهانه یا تصادفی – به اخباری که می بینیم، محصولاتی که می خریم و حتی درک ما از حقیقت را شکل می دهد. هوش مصنوعی دیگر ابزاری خنثی نیست. این دروازه بان دانش مدرن است.

پیامدها سرسام آور هستند. تعصبات تعبیه شده در مدل های هوش مصنوعی اطلاعات غلط را تقویت می کند، صداها را به حاشیه می برد و رفتار مصرف کننده را دستکاری می کند. بدتر از آن، اکثر مردم حتی متوجه نمی شوند که این اتفاق می افتد. اگر در حال حاضر اقدامی نکنیم – در حالی که هوش مصنوعی هنوز در سنین نوجوانی خود است – خطر ایجاد آینده ای را داریم که در آن یک نخبه دیجیتال تصمیم می گیرد بقیه ما چگونه فکر کنیم، عمل کنیم و باور کنیم.

مشکل در اعداد

بیایید یک بازی اعداد بازی کنیم. در سطح جهانی، تنها حدود 0.5 درصد از مردم می دانند که چگونه کدنویسی کنند. زیرمجموعه کسانی که یادگیری ماشین را می فهمند؟ هنوز کوچکتر آنهایی که الگوریتم‌هایی را شکل می‌دهند که نتیجه جستجوی بعدی Google شما، ویدیوی پیشنهادی YouTube یا فید خبری انتخابی شما را تعیین می‌کنند؟ کوچک.

غول‌های فناوری مانند Google، Meta و OpenAI هزاران متخصص هوش مصنوعی را استخدام می‌کنند، اما استعدادها را از همان مراکز فناوری جذب می‌کنند و اغلب سرعت را بر اخلاقیات ترجیح می‌دهند. نتیجه؟ یک حلقه بازخورد که در آن مدل‌های هوش مصنوعی بر روی داده‌هایی آموزش می‌بینند که سوگیری‌های سازندگان و همگنی محیط‌هایشان را منعکس می‌کنند.

نتیجه: دیدن از طریق یک واقعیت فیلتر شده

این را در نظر بگیرید: الگوریتم‌ها تصمیم می‌گیرند که بدانید چه چیزی برای شما «مهم» است. خبرگزاری ها به معیارهای تعامل توجه می کنند، نه حقیقت. پلتفرم های رسانه های اجتماعی بیشتر از آنچه قبلاً به آن اعتقاد دارید به شما می خورند. هوش مصنوعی فقط اطلاعات را سازماندهی نمی کند، بلکه آن را ویرایش می کند.

اگر یک مدل اساساً بر روی داده های غربی و انگلیسی زبان آموزش داده شود، برای دیدگاه های غیر غربی چه اتفاقی می افتد؟ اگر سازندگان تنوع و اخلاق را در اولویت قرار نمی‌دهند، چرا مدل‌هایشان؟ و اگر کاربر معمولی نمی داند هوش مصنوعی چگونه کار می کند، چگونه می تواند دستکاری را تشخیص دهد؟

چگونه این مشکل را قبل از اینکه خیلی دیر شود برطرف کنیم؟

سواد هوش مصنوعی اجباری در آموزش:

کدنویسی و علم داده باید به اندازه خواندن و ریاضیات اساسی باشد. لازم نیست همه مهندس یادگیری ماشین باشند، اما درک اینکه چگونه الگوریتم‌ها بر زندگی روزمره تأثیر می‌گذارند باید به دانش عمومی تبدیل شود.

مدل‌های AI منبع باز:

مدل‌های متن‌باز بیشتر به معنای توجه بیشتر به کد است و قدرت انحصاری Big Tech را کاهش می‌دهد. شفافیت باعث ایجاد مسئولیت می شود.

تنوع در فناوری:

فناوری نیاز به تنوع دارد – نه به عنوان یک شیرین کاری روابط عمومی بلکه به عنوان یک تغییر اساسی. پس زمینه بیشتر به معنای دیدگاه های بیشتر و مدل های بهتر است.

مقررات اخلاقی برای هوش مصنوعی:

دولت ها باید مقرراتی را اجرا کنند که نیاز به توضیح در تصمیمات هوش مصنوعی دارد. اگر یک الگوریتم تصمیم بگیرد که چه وام هایی دریافت می کنید یا چه اخباری را می بینید، شایسته است بدانید چرا.

مشارکت عمومی در سیاست هوش مصنوعی:

سیاست هوش مصنوعی نباید به لابی‌گران فناوری و سیاستمداران سپرده شود. انجمن‌های عمومی، هیئت‌های منصفه شهروندی و بحث‌های قابل دسترس باید نحوه اداره هوش مصنوعی را شکل دهند.

نتیجه گیری: فراخوانی به سلاح

ما در آستانه آینده ای ایستاده ایم که توسط الگوریتم ها دیکته شده است، اکثر آنها در اتاق های تاریک توسط افرادی ساخته شده اند که به دنیایی که شما در آن زندگی می کنید فکر نمی کنند. یا این چرخه جهل را می شکنیم، یا خود را به دنیایی تسلیم می کنیم که در آن افکار، ترجیحات و باورهای ما توسط یک دست الگوریتمی نامرئی به ما داده می شود.

بنابراین، چه چیزی قرار است باشد؟

آیا قرار است عقب بنشینیم و به چند مهندس و مدیر اجازه دهیم واقعیت ما را برنامه ریزی کنند، یا می خواهیم پرده را از بین ببریم و در آینده ای که در اطراف ما رمزگذاری می شود، حرفی برای گفتن بخواهیم؟

زیرا اگر این کار را نکنیم، به زودی، دنیایی که می‌بینیم، دنیایی که هست نخواهد بود – فقط جهانی که اجازه داریم ببینیم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا