شبکه های اجتماعی

کریستوفر نولان کارگردان Oppenheimer یک هشدار هوش مصنوعی برای Silicon Valley دارد

کریستوفر نولان کارگردان Oppenheimer یک هشدار هوش مصنوعی برای Silicon Valley دارد

اوپنهایمر قرار است اواخر این هفته اکران شود و قبل از اکران، کارگردان این مستند بلند، کریستوفر نولان، هشداری برای شرکت‌های فناوری و مهندسان شاغل در آن‌ها دارد. او بدون نام بردن گفت که سیلیکون ولی باید پاسخگویی را یاد بگیرد.

The Verge به نقل از نولان در پاسخ به این سوال که سیلیکون ولی باید از این فیلم چه چیزهایی بیاموزد، گفت: «فکر می‌کنم چیزی که می‌خواهم آن‌ها را از بین ببرند، مفهوم مسئولیت‌پذیری است.

نولان بعد از نمایش فیلم اوپنهایمر در هتل ویتبی نیویورک صحبت می کرد. این فیلم بر اساس پرومتئوس آمریکایی، بیوگرافی 2005 توسط کای برد و مارتین جی شروین در مورد جولیوس رابرت اوپنهایمر، فیزیکدانی است که اغلب به دلیل بازی در نقش محوری در پروژه منهتن به عنوان “پدر بمب اتمی” شناخته می شود.

این پروژه تحقیق و توسعه ای است که در طول جنگ جهانی دوم انجام شد و منجر به ایجاد اولین سلاح هسته ای شد.

به طور گسترده گفته شده است که اوپنهایمر از کشف خود پشیمان شد زیرا وی ویرانی های ناشی از بمباران اتمی هیروشیما و ناکازاکی را دید. او ظاهراً قدرت مخرب بمب و تهدیدی برای بشریت را درک کرده است.

این چیزی است که نولان برای گفتن دارد
او با اشاره به نوآوری‌های فناوری شرکت‌ها در سیلیکون ولی تصریح کرد: «وقتی از طریق فناوری نوآوری می‌کنید، باید مطمئن شوید که مسئولیت پذیری وجود دارد.

«ظهور شرکت‌ها در 15 سال گذشته درباره کلماتی مانند «الگوریتم» که معنی آن‌ها را به معنای ریاضی معنی‌دار نمی‌دانند. آنها فقط نمی خواهند مسئولیت کاری که این الگوریتم انجام می دهد را بر عهده بگیرند.

هشدار هوش مصنوعی
هوش مصنوعی (AI) آخرین فناوری است که توسط رهبران، مبتکران، دانشمندان و منتقدان به طور مفصل مورد بحث قرار گرفته است. به نظر می رسد در بحث درباره تأثیرات منفی هوش مصنوعی، تعداد «آری و نه» برابر است.

و برای هوش مصنوعی اعمال شد؟ این یک احتمال وحشتناک است. وحشتناک. حداقل به این دلیل که سیستم‌های هوش مصنوعی وارد زیرساخت‌های دفاعی می‌شوند، در نهایت آنها با سلاح‌های هسته‌ای متهم می‌شوند و اگر به مردم اجازه دهیم که بگویند که این یک موجودیت مجزا از شخصی است که استفاده، برنامه‌نویسی، و استفاده از هوش مصنوعی را دارد، آنگاه ما محکوم به فنا،” او گفت.

نولان خاطرنشان کرد: «این باید در مورد مسئولیت‌پذیری باشد. ما باید مردم را در قبال کارهایی که با ابزارهایی که در اختیار دارند، انجام می‌دهند، مسئول بدانیم.

چندین شرکت مانند گوگل، اپل، متا مادر فیسبوک و توییتر از جمله بر الگوریتم هایی تکیه می کنند که کاربران را در نظر می گیرند. [some] داده ها برای ارائه تجربیات مناسب

نولان تاکید کرد: «وقتی با محققان برجسته در زمینه هوش مصنوعی صحبت می‌کنم، آنها به معنای واقعی کلمه در حال حاضر به آن به عنوان لحظه اوپنهایمر خود اشاره می‌کنند.

نولان با اشاره به اینکه شرکت های دره سیلیکون می گویند در مورد نتیجه چنین نوآوری فکر می کنند، گفت: “آنها به داستان او نگاه می کنند تا بگویند چه مسئولیت هایی برای دانشمندان در حال توسعه فناوری های جدید است که ممکن است عواقب ناخواسته ای داشته باشد.”

«آنها می گویند که دارند. و این … مفید است. که حداقل در گفتگو وجود دارد. و امیدوارم این روند فکری ادامه پیدا کند. من نمی گویم داستان اوپنهایمر هیچ پاسخ آسانی برای این سؤالات ارائه می دهد. نولان گفت، اما حداقل این یک داستان هشدار دهنده است.

نولان در برابر کاهش حقوق و تهدیدات هوش مصنوعی
اخیراً، نولان، همراه با چندین ستاره دیگر از فهرست A مانند کیلیان مورفی، مت دیمون و امیلی بلانت، حمایت خود را از اولین انصراف در صنعت توسط انجمن بازیگران سینما- فدراسیون هنرمندان تلویزیون و رادیو آمریکا و انجمن نویسندگان آمریکا گسترش دادند. .

این گروه برای اولین بار در 63 سال گذشته، به دلیل کاهش دستمزد و استفاده از فناوری هوش مصنوعی توسط استودیوها، دست از کار کشیدند. آنها به دنبال محافظت هستند تا شرکت ها نتوانند بدون اجازه از تصاویر خود استفاده کنند.

فیس بوکتوییترلینکدین



پایان مقاله

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا