برنامه نویسی

DeepFake: بین شاهکار فنی و مسائل مربوط به اعتماد دیجیتال

این تصویر هرگز به اندازه امروز قابل انعطاف نبوده است. آنچه می بینیم دیگر لزوماً چیزی نیست که فیلمبرداری شده است و ظهور Deepfake این تحول را متبلور می کند. این فناوری با ترکیب هوش مصنوعی و پردازش ویدیو ، به شما امکان می دهد چهره ، حرکات یا صداهایی را با واقع گرایی ایجاد کنید که از ادراک مخالف است. اولین بار برای استفاده سرگرم کننده یا خلاقانه توسعه یافت ، به سرعت در حوزه های دیگر گسترش یافت: سیاست ، رسانه ، اجتماعی.

اگر شاهکار فنی تحت تأثیر قرار گیرد ، عمدتاً فیلترهای تحلیل ما را زیر سوال می برد. آیا هنوز هم می توانیم به یک فیلم اعتماد کنیم؟ به صورت؟ به یک احساسات؟ این متن اکتشافی از این مناطق خاکستری را ارائه می دهد ، جایی که شبیه سازی آنقدر خوب می شود که از شهود فرار می کند. در پشت اثر ، یک مسئله فرهنگی وجود دارد: آن شناخت ، یکپارچگی بازنمودها و مرز بین داستان های بصری و تغییر هویت.

نمونه ای از استفاده آموزشی از شبیه سازی بصری

مبانی فنی Deepfake

اصطلاح “Deepfake” ناشی از انقباض بین یادگیری عمیق و جعلی است. این روش تکنیکی از تولید یا اصلاح تصاویر (عکس یا فیلم) را با استفاده از الگوریتم های یادگیری خودکار ، به ویژه شبکه های عصبی و GAN (شبکه های مخالف) تعیین می کند. این ابزارها امکان ایجاد چهره ، اصلاح یک عبارت ، تنظیم صدا یا حتی بازآفرینی یک گفتمان کامل را فراهم می کنند ، در حالی که دارای درجه ای چشمگیر از رئالیسم هستند.

در قلب این مکانیک ، دو شبکه با هم رقابت می کنند. اولین محتوا (صورت ، صدا) تولید می کند ، دوم سعی می کند اگر نادرست است تشخیص دهد. در طول تکرار ، کیفیت Deepfakes بهبود می یابد تا زمانی که نتایج حاصل از آن تقریباً دست کم به چشم غیر مسلح باشد. این معماری دوئل ، ویژگی GAN ها است که به فناوری قدرت پالایش می دهد.

در ابتدا ، این مدل ها از زیرساخت های سنگین درخواست می کردند: ساعت آموزش در پایگاه داده های عظیم ، ظرفیت محاسبه ای که برای آزمایشگاه های تخصصی و دانش فنی بالا محفوظ است. اما امروز ، ابزارها دموکراتیک تر شده اند. برنامه های تلفن همراه به هر کاربر اجازه می دهد تا با چند کلیک صورت را تبادل کند. سیستم عامل ها خدمات خودکار ارائه می دهند. آموزش ها آزادانه گردش می کنند. دسترسی به حدی ساده شده است که سهام دیگر فنی نیست بلکه فرهنگی است.

عملکرد یک Deepfake بر اساس چندین مرحله انجام می شود: از استخراج از یک فیلم منبع ، آموزش یک مدل برای بازتولید این چهره ها در عبارات مختلف ، سپس تغییر مجدد آنها در یک فیلم هدف دیگر. سیالیت نتیجه به کیفیت داده های ورودی ، زمان آموزش مدل ، بلکه به تولید پس از تولید بستگی دارد: روشنایی ، هماهنگ سازی آزمایشگاهی ، میکرو بیان.

تصویر یک جدول زمانی ویرایش ویدیویی برای DeepFake

اما فراتر از عملکرد ، که باعث می شود Deepfake بسیار مفرد باشد ، توانایی آن در تقلید از انسان است. او بر خلاف سایر تکنیک های مونتاژ یا انیمیشن ، او به دنبال استایل یا کاریکاتور نیست. او سعی می کند با وفاداری ، ظرافت های یک نگاه ، چین های لبخند ، تنوع یک تمبر آوازی را بازتولید کند. این فاصله بین تصویر تولید شده و تصویر درک شده را از بین می برد و معیارهایی را که معمولاً به ما امکان می دهد واقعیت را از تولیدی متمایز کنیم.

کاربردهای خلاقانه و دوگانگی های بصری

Deepfake ، قبل از نگرانی ، ابتدا یک نوآوری جذاب برای سازندگان بصری بود. در سینما ، امکان جوان سازی یک بازیگر ، احیای یک شخص مفقود شده یا گسترش شخصیت یک شخصیت را فراهم می کند بدون اینکه به یک دو برابر دیجیتالی قابل درک بپردازد. در تبلیغات ، ضمن حفظ بیان اصلی ، امکان ترجمه نقاط بین المللی را با همگام سازی لب با زبان محلی فراهم می کند. در بازی های ویدیویی ، او تعامل بصری شخصی ، نزدیک به فیلم تعاملی را ارائه می دهد.

در این کاربردهای خلاقانه ، فناوری به عنوان ابزاری روایی عمل می کند. این احساسات را تقویت می کند ، غوطه وری را تسهیل می کند ، صحنه های ممکن را ایجاد می کند که قبلاً بدون اثرات گران قیمت غیر عملی هستند. برخی از موزه ها یا موسسات فرهنگی حتی از آواتارهای “Deepfaké” استفاده می کنند تا چهره های تاریخی صحبت کنند یا بازدید کنندگان را به دوره های نوشته شده صحبت کنند. این اثر همیشه نگران کننده نیست: همچنین می تواند آموزشی و حتی شاعرانه باشد.

اما دقیقاً این کارآیی بصری است که ابهام را به وجود می آورد. زیرا آنچه برای ایجاد استفاده می شود نیز می تواند برای منحرف شدن استفاده شود. ویدئویی که برای سرگرمی دستکاری شده است ، می تواند با تغییر کمی زمینه ، بی اطلاع باشد. چهره ای که در یک دنباله طنزآمیز قرار دارد می تواند به ابزاری برای تمسخر هدفمند ، افترا یا سردرگمی رسانه ای تبدیل شود. تغییر سریع است: آنچه جذاب می تواند به تخصیص تبدیل شود ، حتی در پاک کردن منبع.

برخی از سیستم عامل های ایجاد DeepFake فیلترهای نامرئی یا امضایی را نشان می دهند که نشان می دهد محتوا به صورت مصنوعی تولید می شود. اما این ابزارها به ندرت اجباری هستند. کاربر برای پنهان کردن منشأ پرونده ، اصلاح آن یا مجدداً مجدداً بدون برچسب مسابقه ، آزاد است. در محیطی که سرعت ترافیک بیش از تأیید حقایق باشد ، مرز بین داستان و شبیه سازی بیشتر و متخلخل تر می شود.

بنابراین ، استفاده از DeepFake نه به خودی خود خوب است و نه بد. همه اینها به متن ، قصد و نحوه درک محتوا بستگی دارد. مشکل از خود فناوری ناشی نمی شود ، بلکه از عدم وجود معیارها برای درک اثرات است. در جایی که مونتاژ کلاسیک اثری قابل مشاهده را ترک می کند ، Deepfake می خواهد نامرئی باشد. بنابراین برای پیش بینی برنامه های خود به عنوان منطقه ای که باید تحت نظارت ، متناسب سازی ، نظارت قرار گیرد ، ضروری می شود.

انحراف تصویر و قرار گرفتن در معرض رضایت نمی یابد

از جمله نگرانی های اصلی مرتبط با Deepfake ، تصرف تصویر دیگران در این زمینه است. اگر ویرایش ویدیو برای ده ها سال وجود داشته باشد ، تاکنون قابل شناسایی ، قابل توجه یا گزارش شده است. عمیق ، خود را از این سرنخ ها آزاد می کند. او نشان نمی دهد که او تغییر می کند: او جایگزین می شود. و این عدم وجود اثری قابل مشاهده ، راه را برای استفاده های مشکل ساز باز می کند ، به ویژه هنگامی که چهره های واقعی مرتبط با زمینه های ساختگی را شامل می شود.

بسیاری از چهره های عمومی اولین اهداف بودند: بازیگران ، چهره های سیاسی ، تأثیرگذار. تصویر آنها به صورت گسترده به صورت آنلاین در دسترس است ، به راحتی می توان پایگاه های آموزشی با کیفیت را تشکیل داد. نتیجه: فیلم هایی که این چهره ها اظهار نظر می کنند که هرگز تدوین نشده اند ، یا در موقعیت هایی که هرگز تجربه نکرده اند ظاهر می شوند. این تنها مسئله شهرت نیست. این یک تغییر در درک است که عموم یک فرد و بنابراین ، به طور بالقوه ، اعتبار وی.

اما فراتر از افراد مشهور ، این افراد ناشناس نیز هستند که می توانند بدون توافق خود خود را در معرض دید خود قرار دهند. از عکسهای ساده شبکه های اجتماعی ، فیلم های دستکاری شده می توانند تولید شوند. شخصیت خصوصی تصویر سپس شکسته می شود و شخص در روایتی پیش بینی می شود که کنترل نمی کند. این پدیده غیر معمول نیست: برخی از گزارش ها صدها هزار فیلم Deepfake را که در سیستم عامل های فیلتر در گردش هستند ، بیرون می کشد.

این تخصیص یک سؤال اصلی را ایجاد می کند: چه کسی به چهره ، یک عبارت ، یک صدا تعلق دارد؟ از نظر قانونی ، پاسخ طبق کشورها متفاوت است ، اما فناوری سریعتر از قوانین پیشرفت می کند. در انتظار هماهنگی چارچوب های قانونی ، اغلب قربانی است که نشان دهد یک محتوا نادرست است – که به تخصص ، زمان و دید نیاز دارد که همیشه ندارد.

برخی از سیستم عامل ها سعی می کنند با حذف محتوای گزارش شده ، تشخیص تغییرات خودکار یا ممنوعیت حساب های تولید کننده ، واکنش نشان دهند. اما اکوسیستم تا حد زیادی قابل نفوذ است. سپس آموزش شناخت شبیه سازی ها ، سؤال از فیلم های ویروسی و مستندسازی کاربردهای مشکل ساز بسیار مهم می شود. تجزیه و تحلیل بیشتر در مورد موارد واقعی ، چهره های منحرف شده و زمینه هایی که در آن این شیوه ها در حال توسعه هستند در این راهنمای کامل برای اعماق و کاربردهای مشکل ساز آنها در دسترس است.

تجسم خنثی چهره ای که توسط هوش مصنوعی ایجاد می شود

به سمت اخلاق شبیه سازی بصری

در مواجهه با ظهور محتوای دستکاری شده و دسترسی روزافزون ابزارهای تولید تصویر ، یک سؤال اجتناب ناپذیر می شود: چگونه می توان اخلاق شبیه سازی بصری را ایجاد کرد؟ ایده این نیست که فناوری را رد کنیم ، بلکه ساختار چارچوبی است که در آن می تواند بدون آسیب رساندن وجود داشته باشد. از آنجا که هر نوآوری نیاز به خواندن انتقادی ، زمان تخصیص و به ویژه محافظت های جمعی دارد.

اخلاق عمیق در ابتدا به شفافیت نیاز دارد. هنگامی که یک فیلم به صورت مصنوعی تولید می شود ، باید بتواند به این ترتیب شناسایی شود. این شامل ذکر های واضح ، علامت تجاری یا امضاهای نامرئی است که در پرونده ادغام شده اند. چندین پروژه منبع باز در حال توسعه این ابزارها هستند ، اما ادغام آنها در سیستم عامل ها حاشیه ای باقی مانده است. تا زمانی که انتخاب گزارش به خالق برود ، شبیه سازی می تواند قصد را پوشانده باشد.

سپس ، استفاده از DeepFake باید با منطق احترام لنگر زده شود. احترام به تصویر دیگران ، البته ، اما همچنین به تماشاگر احترام می گذارد. ارائه یک فیلم جعلی به عنوان معتبر ، دستکاری و در نتیجه دروغ است. در زمینه اشباع اطلاعاتی ، حفظ رابطه صادقانه با تصویر به یک عمل مسئولیت تبدیل می شود. DeepFake می تواند ابزاری خلاق باشد ، اما باید به این ترتیب مشخص شود.

رسانه ها نقش اساسی دارند. آنها با بررسی منابع آنها ، با تار کردن محتوای مشکوک ، با توضیح مکانیسم های تولید ، می توانند اثرات مسری را محدود کنند. آموزش بصری همچنین به یک اهرم اصلی تبدیل می شود: یادگیری تشخیص هماهنگ سازی آزمایشگاهی کاذب ، چشمک زن غیر طبیعی یا نورپردازی متناقض ، به همان روشی که خواندن انتقادی یک متن است ، به یک صلاحیت مفید تبدیل می شود.

سرانجام ، این اخلاق فقط می تواند بر روی چندین مورد ساخته شود. سیستم عامل ها ، سازندگان ، تماشاگران ، موسسات: همه در تعریف محدودیت ها شرکت می کنند. این فناوری چندانی نیست که مشکل ساز باشد ، بلکه روشی است که در آن در موارد استفاده روزانه قرار می گیرد. قبول اینکه یک تصویر شبیه سازی شده جدی نیست. آنچه این نیست که بتوانیم از کجا داستان شروع می شود.

نظارت بر Deepfake به معنای محدود کردن ایجاد نیست بلکه روشن کردن قصد است. در دنیایی که واقعیت قابل انعطاف است ، اخلاق بصری همان چیزی است که به ما امکان می دهد بدون اینکه به بی اعتمادی تعمیم یافته بیفتیم ، شفاف بمانیم. این یک وضعیت تعادل ، بین جذابیت ابزار و مسئولیت نگاه است.

DeepFake یک ابزار ساده تحول بصری نیست. او روشهای ما برای دیدن ، ایمان ، انتقال را زیر سوال می برد. بین شاهکار فنی و انحراف هویت ، او یک تنش معاصر را نشان می دهد: دنیایی که تصویر دیگر اثبات آن نیست ، بلکه یک ساخت و ساز است. به جای شیطنت کردن فناوری ، این مسئله درک مکانیسم ها ، استفاده ها و محدودیت های آن است. زیرا از طریق یک رویکرد مهم ، مسئول و مستند است که ما هنوز می توانیم به آنچه می بینیم اعتماد کنیم – یا حداقل بدانیم که چرا آن را می بینیم.

تصویر فنی عملکرد یک عمیق

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا