از طریق آینه سیاه: چگونه ناآگاهی ما از کدنویسی هوش مصنوعی واقعیت را شکل می دهد

بیایید ابتدا به گرداب مغزی هوش مصنوعی شیرجه بزنیم، جایی که جهان به آرامی – اما مطمئنا – توسط الگوریتمهایی تغییر شکل میدهد که اکثر ما نمیتوانیم برای نجات جان خود کدنویسی کنیم. این فقط یکی دیگر از اپدیت های دست پران درباره ربات های دزد کار نیست. نه، این یک فرو رفتن عمیق در یک بحران خزنده اجتماعی است: حضور ناکافی فاحش افرادی که میدانند مدلهای هوش مصنوعی چگونه ساخته میشوند، آموزش میدهند، و کار میکنند، و پیامدهای ناراحتکننده این ناآگاهی.
افراد معمولی هر روز با هوش مصنوعی تعامل دارند – موتورهای جستجو، فیدهای رسانه های اجتماعی، سیستم های توصیه – اما از آنها بپرسید که این سیستم ها چگونه کار می کنند، و احتمالاً یک نگاه خالی یا کمی تکنولوژی در مورد “الگوریتم ها” و “داده ها” خواهید داشت. ” حقیقت این است: تنها بخش کوچکی از بشریت میدانند چگونه این مدلهای هوش مصنوعی را طراحی، کدنویسی و آموزش دهند. و آن گروه کوچک، عمدتاً همگن، اکنون لنزهایی را که از طریق آن جهان را تجربه می کنیم، دیکته می کند.
بگذار آن غرق شود.
ما در حال بررسی واقعیت از طریق الگوریتمهایی هستیم که توسط تعدادی کدنویس نوشته شدهاند، که به نوبه خود توسط منافع شرکت و سیاستهای داده مبهم هدایت میشوند. تصمیمات آنها – خواه آگاهانه یا تصادفی – به اخباری که می بینیم، محصولاتی که می خریم و حتی درک ما از حقیقت را شکل می دهد. هوش مصنوعی دیگر ابزاری خنثی نیست. این دروازه بان دانش مدرن است.
پیامدها سرسام آور هستند. تعصبات تعبیه شده در مدل های هوش مصنوعی اطلاعات غلط را تقویت می کند، صداها را به حاشیه می برد و رفتار مصرف کننده را دستکاری می کند. بدتر از آن، اکثر مردم حتی متوجه نمی شوند که این اتفاق می افتد. اگر در حال حاضر اقدامی نکنیم – در حالی که هوش مصنوعی هنوز در سنین نوجوانی خود است – خطر ایجاد آینده ای را داریم که در آن یک نخبه دیجیتال تصمیم می گیرد بقیه ما چگونه فکر کنیم، عمل کنیم و باور کنیم.
مشکل در اعداد
بیایید یک بازی اعداد بازی کنیم. در سطح جهانی، تنها حدود 0.5 درصد از مردم می دانند که چگونه کدنویسی کنند. زیرمجموعه کسانی که یادگیری ماشین را می فهمند؟ هنوز کوچکتر آنهایی که الگوریتمهایی را شکل میدهند که نتیجه جستجوی بعدی Google شما، ویدیوی پیشنهادی YouTube یا فید خبری انتخابی شما را تعیین میکنند؟ کوچک.
غولهای فناوری مانند Google، Meta و OpenAI هزاران متخصص هوش مصنوعی را استخدام میکنند، اما استعدادها را از همان مراکز فناوری جذب میکنند و اغلب سرعت را بر اخلاقیات ترجیح میدهند. نتیجه؟ یک حلقه بازخورد که در آن مدلهای هوش مصنوعی بر روی دادههایی آموزش میبینند که سوگیریهای سازندگان و همگنی محیطهایشان را منعکس میکنند.
نتیجه: دیدن از طریق یک واقعیت فیلتر شده
این را در نظر بگیرید: الگوریتمها تصمیم میگیرند که بدانید چه چیزی برای شما «مهم» است. خبرگزاری ها به معیارهای تعامل توجه می کنند، نه حقیقت. پلتفرم های رسانه های اجتماعی بیشتر از آنچه قبلاً به آن اعتقاد دارید به شما می خورند. هوش مصنوعی فقط اطلاعات را سازماندهی نمی کند، بلکه آن را ویرایش می کند.
اگر یک مدل اساساً بر روی داده های غربی و انگلیسی زبان آموزش داده شود، برای دیدگاه های غیر غربی چه اتفاقی می افتد؟ اگر سازندگان تنوع و اخلاق را در اولویت قرار نمیدهند، چرا مدلهایشان؟ و اگر کاربر معمولی نمی داند هوش مصنوعی چگونه کار می کند، چگونه می تواند دستکاری را تشخیص دهد؟
چگونه این مشکل را قبل از اینکه خیلی دیر شود برطرف کنیم؟
سواد هوش مصنوعی اجباری در آموزش:
کدنویسی و علم داده باید به اندازه خواندن و ریاضیات اساسی باشد. لازم نیست همه مهندس یادگیری ماشین باشند، اما درک اینکه چگونه الگوریتمها بر زندگی روزمره تأثیر میگذارند باید به دانش عمومی تبدیل شود.
مدلهای AI منبع باز:
مدلهای متنباز بیشتر به معنای توجه بیشتر به کد است و قدرت انحصاری Big Tech را کاهش میدهد. شفافیت باعث ایجاد مسئولیت می شود.
تنوع در فناوری:
فناوری نیاز به تنوع دارد – نه به عنوان یک شیرین کاری روابط عمومی بلکه به عنوان یک تغییر اساسی. پس زمینه بیشتر به معنای دیدگاه های بیشتر و مدل های بهتر است.
مقررات اخلاقی برای هوش مصنوعی:
دولت ها باید مقرراتی را اجرا کنند که نیاز به توضیح در تصمیمات هوش مصنوعی دارد. اگر یک الگوریتم تصمیم بگیرد که چه وام هایی دریافت می کنید یا چه اخباری را می بینید، شایسته است بدانید چرا.
مشارکت عمومی در سیاست هوش مصنوعی:
سیاست هوش مصنوعی نباید به لابیگران فناوری و سیاستمداران سپرده شود. انجمنهای عمومی، هیئتهای منصفه شهروندی و بحثهای قابل دسترس باید نحوه اداره هوش مصنوعی را شکل دهند.
نتیجه گیری: فراخوانی به سلاح
ما در آستانه آینده ای ایستاده ایم که توسط الگوریتم ها دیکته شده است، اکثر آنها در اتاق های تاریک توسط افرادی ساخته شده اند که به دنیایی که شما در آن زندگی می کنید فکر نمی کنند. یا این چرخه جهل را می شکنیم، یا خود را به دنیایی تسلیم می کنیم که در آن افکار، ترجیحات و باورهای ما توسط یک دست الگوریتمی نامرئی به ما داده می شود.
بنابراین، چه چیزی قرار است باشد؟
آیا قرار است عقب بنشینیم و به چند مهندس و مدیر اجازه دهیم واقعیت ما را برنامه ریزی کنند، یا می خواهیم پرده را از بین ببریم و در آینده ای که در اطراف ما رمزگذاری می شود، حرفی برای گفتن بخواهیم؟
زیرا اگر این کار را نکنیم، به زودی، دنیایی که میبینیم، دنیایی که هست نخواهد بود – فقط جهانی که اجازه داریم ببینیم.