کریستوفر نولان کارگردان Oppenheimer یک هشدار هوش مصنوعی برای Silicon Valley دارد


اوپنهایمر قرار است اواخر این هفته اکران شود و قبل از اکران، کارگردان این مستند بلند، کریستوفر نولان، هشداری برای شرکتهای فناوری و مهندسان شاغل در آنها دارد. او بدون نام بردن گفت که سیلیکون ولی باید پاسخگویی را یاد بگیرد.
The Verge به نقل از نولان در پاسخ به این سوال که سیلیکون ولی باید از این فیلم چه چیزهایی بیاموزد، گفت: «فکر میکنم چیزی که میخواهم آنها را از بین ببرند، مفهوم مسئولیتپذیری است.
نولان بعد از نمایش فیلم اوپنهایمر در هتل ویتبی نیویورک صحبت می کرد. این فیلم بر اساس پرومتئوس آمریکایی، بیوگرافی 2005 توسط کای برد و مارتین جی شروین در مورد جولیوس رابرت اوپنهایمر، فیزیکدانی است که اغلب به دلیل بازی در نقش محوری در پروژه منهتن به عنوان “پدر بمب اتمی” شناخته می شود.
این پروژه تحقیق و توسعه ای است که در طول جنگ جهانی دوم انجام شد و منجر به ایجاد اولین سلاح هسته ای شد.
به طور گسترده گفته شده است که اوپنهایمر از کشف خود پشیمان شد زیرا وی ویرانی های ناشی از بمباران اتمی هیروشیما و ناکازاکی را دید. او ظاهراً قدرت مخرب بمب و تهدیدی برای بشریت را درک کرده است.
این چیزی است که نولان برای گفتن دارد
او با اشاره به نوآوریهای فناوری شرکتها در سیلیکون ولی تصریح کرد: «وقتی از طریق فناوری نوآوری میکنید، باید مطمئن شوید که مسئولیت پذیری وجود دارد.
«ظهور شرکتها در 15 سال گذشته درباره کلماتی مانند «الگوریتم» که معنی آنها را به معنای ریاضی معنیدار نمیدانند. آنها فقط نمی خواهند مسئولیت کاری که این الگوریتم انجام می دهد را بر عهده بگیرند.
هشدار هوش مصنوعی
هوش مصنوعی (AI) آخرین فناوری است که توسط رهبران، مبتکران، دانشمندان و منتقدان به طور مفصل مورد بحث قرار گرفته است. به نظر می رسد در بحث درباره تأثیرات منفی هوش مصنوعی، تعداد «آری و نه» برابر است.
و برای هوش مصنوعی اعمال شد؟ این یک احتمال وحشتناک است. وحشتناک. حداقل به این دلیل که سیستمهای هوش مصنوعی وارد زیرساختهای دفاعی میشوند، در نهایت آنها با سلاحهای هستهای متهم میشوند و اگر به مردم اجازه دهیم که بگویند که این یک موجودیت مجزا از شخصی است که استفاده، برنامهنویسی، و استفاده از هوش مصنوعی را دارد، آنگاه ما محکوم به فنا،” او گفت.
نولان خاطرنشان کرد: «این باید در مورد مسئولیتپذیری باشد. ما باید مردم را در قبال کارهایی که با ابزارهایی که در اختیار دارند، انجام میدهند، مسئول بدانیم.
چندین شرکت مانند گوگل، اپل، متا مادر فیسبوک و توییتر از جمله بر الگوریتم هایی تکیه می کنند که کاربران را در نظر می گیرند. [some] داده ها برای ارائه تجربیات مناسب
نولان تاکید کرد: «وقتی با محققان برجسته در زمینه هوش مصنوعی صحبت میکنم، آنها به معنای واقعی کلمه در حال حاضر به آن به عنوان لحظه اوپنهایمر خود اشاره میکنند.
نولان با اشاره به اینکه شرکت های دره سیلیکون می گویند در مورد نتیجه چنین نوآوری فکر می کنند، گفت: “آنها به داستان او نگاه می کنند تا بگویند چه مسئولیت هایی برای دانشمندان در حال توسعه فناوری های جدید است که ممکن است عواقب ناخواسته ای داشته باشد.”
«آنها می گویند که دارند. و این … مفید است. که حداقل در گفتگو وجود دارد. و امیدوارم این روند فکری ادامه پیدا کند. من نمی گویم داستان اوپنهایمر هیچ پاسخ آسانی برای این سؤالات ارائه می دهد. نولان گفت، اما حداقل این یک داستان هشدار دهنده است.
نولان در برابر کاهش حقوق و تهدیدات هوش مصنوعی
اخیراً، نولان، همراه با چندین ستاره دیگر از فهرست A مانند کیلیان مورفی، مت دیمون و امیلی بلانت، حمایت خود را از اولین انصراف در صنعت توسط انجمن بازیگران سینما- فدراسیون هنرمندان تلویزیون و رادیو آمریکا و انجمن نویسندگان آمریکا گسترش دادند. .
این گروه برای اولین بار در 63 سال گذشته، به دلیل کاهش دستمزد و استفاده از فناوری هوش مصنوعی توسط استودیوها، دست از کار کشیدند. آنها به دنبال محافظت هستند تا شرکت ها نتوانند بدون اجازه از تصاویر خود استفاده کنند.
فیس بوکتوییترلینکدین
پایان مقاله