دیپ فیکس: خوب یا بد؟

دیپفیکها، مجموعهای از «یادگیری عمیق» و «جعلی»، به رسانههای دستکاری شدهای مانند ویدیو، عکس یا صدا اشاره میکنند که با استفاده از هوش مصنوعی (AI) برای تقلید از ظاهر و صدای افراد مختلف ایجاد شدهاند.
در سالهای اخیر، پیشرفتهای فناوری هوش مصنوعی، ایجاد قانعکنندهها را آسانتر کرده است دیپ فیک، نگرانی هایی را در مورد استفاده بالقوه آنها در فعالیت های مخرب مختلف ایجاد می کند.
به عنوان مثال، در جریان انتخابات ریاست جمهوری 2020 ایالات متحده، ویدئویی ظاهر شد که ظاهراً جو بایدن، نامزد دموکرات را نشان می دهد که در مورد حامیان حزب خود اظهارات تحقیرآمیزی می کند. با این حال، بعداً مشخص شد که این ویدیو یک دیپ جعلی است که توسط عوامل روسی برای ایجاد اختلاف در میان رای دهندگان آمریکایی ایجاد شده است (بی بی سی نیوز، 2020).
در اینجا نمونههای بیشتری وجود دارد که نشان میدهد چگونه از جعلی عمیق استفاده شده است:
- سرگرمی: در سال 2019، یک ویدیوی جعلی عمیق از بازیگر تام کروز ساخته و منتشر شد که او را در حال اجرای یک برنامه رقص نشان می دهد. این ویدئو در فضای مجازی منتشر شد و به طور گسترده در شبکه های اجتماعی به اشتراک گذاشته شد. (منبع: CNN)
- بازاریابی: در سال 2020، یک برند مد لوکس از یک ویدیوی جعلی عمیق برای تبلیغ محصولات خود استفاده کرد که شامل نسخه دیجیتال مدل کیت ماس بود. این ویدیو با استفاده از فناوری هوش مصنوعی ساخته شده است و برای نمایش جدیدترین مجموعه این برند در نظر گرفته شده است. (منبع: Adweek)
- تحصیلات: در سال 2019، دانشگاهی در ایالات متحده از فناوری عمیق جعلی برای ایجاد یک سخنرانی مجازی توسط دانشمند مشهوری که درگذشته بود استفاده کرد. هدف دسترسی دانش آموزان به دانش تاریخی و بینش شخصیت های برجسته بود. (منبع: EdSurge)
- روزنامه نگاری: در سال 2020، یک سازمان خبری از فناوری جعلی عمیق برای ایجاد یک مصاحبه شبیه سازی شده با یک شخصیت بحث برانگیز استفاده کرد که به خبرنگاران اجازه می داد بدون نیاز به تعامل واقعی سؤال بپرسند و پاسخ دریافت کنند. (منبع: Poynter)
- تبلیغات: در سال 2019، یک تولیدکننده خودرو از فناوری جعلی عمیق برای ایجاد یک آگهی تجاری با حضور یک تایید کننده سلبریتی بازسازی شده دیجیتالی استفاده کرد. هدف از این تبلیغ برای جذب جمعیت جوان تر و افزایش شناخت برند بود. (منبع: Ad Age)
- مراقبت های بهداشتی: در سال 2020، محققان از فناوری جعلی عمیق برای ایجاد داده های تصویربرداری پزشکی مصنوعی استفاده کردند که می تواند برای آموزش مدل های هوش مصنوعی و بهبود تشخیص بیماری استفاده شود. این فناوری پتانسیل ایجاد انقلابی در تجزیه و تحلیل تصویربرداری پزشکی را دارد. (منبع: طب طبیعت)
- امور مالی: در سال ۲۰۱۹، یک استارتآپ فینتک از فناوری جعلی عمیق برای ایجاد نماد دیجیتالی یک مدیر مدیریت ثروت استفاده کرد که به مشتریان اجازه میداد با آواتار تعامل داشته باشند و مشاوره سرمایهگذاری شخصیشده را دریافت کنند. (منبع: فایننشال تایمز)
- رسانههای اجتماعی: در سال 2020، یک پلتفرم رسانههای اجتماعی محبوب ویژگیای را معرفی کرد که به کاربران امکان میداد ویدیوهای جعلی عمیقی از خود بسازند و به آنها اجازه میداد قبل از خرید لباسها یا مدلهای موی مختلف را به صورت مجازی امتحان کنند. (منبع: TechCrunch)
- واقعیت مجازی: در سال 2019، یک شرکت بازی سازی از فناوری عمیق جعلی برای ایجاد شخصیت ها و محیط های فوق واقعی در یک بازی واقعیت مجازی استفاده کرد و تجربه ای همه جانبه را برای بازیکنان فراهم کرد. (منبع: VentureBeat)
در کتاب 2020s & The Future Beyond، کلی در مورد چگونگی فراتر رفتن فناوری می نویسد، و در اینجا یک نکته وجود دارد که نقطه اصلی را هدایت می کند.
طبق پیشبینی IBM، در دهه 2020، ما در دنیایی زندگی خواهیم کرد که حجم دانش هر 11 تا 12 ساعت دو برابر میشود. به گفته شرکت تحقیقاتی گارتنر، در اوایل دهه 2020، اینترنت اشیا (IoT) به اندازه تخمینی بیش از 20 میلیارد دستگاه فیزیکی متصل فعال در ارسال، دریافت و پردازش جریان اطلاعات رشد خواهد کرد. به گفته گارتنر، تا سال 2022، 70 درصد از شرکتها با فناوریهای همهجانبه برای استفاده مصرفکننده و سازمانی آزمایش خواهند کرد و 25 درصد آنها در تولید مستقر خواهند شد.
خطر تقلبی های عمیق چیست و چگونه آنها را کاهش دهیم یا برای آنها برنامه ریزی کنیم؟ این مقاله خطرات و چالشهای مرتبط با دیپفیکها، از جمله استفاده بالقوه آنها در اطلاعات نادرست، سرقت هویت و تجاوز به حریم خصوصی را بررسی میکند.
ریسک ها و چالش ها
- اطلاعات نادرست و اطلاعات نادرست
یکی از مهمترین خطرات دیپفیک، استفاده بالقوه آنها در انتشار اطلاعات نادرست و اطلاعات نادرست است. بازیگران مخرب میتوانند از دیپفیکها برای ایجاد کلیپهای خبری جعلی، ویدیوهای اصلاحشده، یا ضبطهای صوتی تغییریافته استفاده کنند که معتبر به نظر میرسند اما در واقع برای فریب مخاطب طراحی شدهاند.
به عنوان مثال، در دسامبر 2022، یک ویدیوی جعلی عمیق از یک بازیگر مشهور در رسانه های اجتماعی منتشر شد که به نظر می رسید او را در یک موقعیت سازشکارانه نشان می دهد. این ویدیو به سرعت در فضای مجازی پخش شد و در نتیجه شهرت این بازیگر به شدت آسیب دید. با این حال، بعداً مشخص شد که این ویدیو یک جعلی است که توسط یکی از کارمندان ناراضی سابق شرکت تولید این بازیگر ایجاد شده است.
به طور مشابه، دیپ فیک می تواند برای آسیب رساندن به شهرت یا ایجاد ناآرامی اجتماعی استفاده شود. در سال 2019، گروهی از بازیگران در هند از دیپ فیک برای ساختن یک ویدیوی ویروسی استفاده کردند که مدعی حمله مرد مسلمان به یک زن هندو بود که منجر به خشونت عمومی گسترده شد (نیویورک تایمز، 2019).
این نمونهها پتانسیل دیپفیکها را برای تضعیف اعتماد به رسانهها و نهادها، فرسایش گفتمان مدنی و تهدید ثبات جهانی نشان میدهند.
- سرقت هویت و کلاهبرداری
یکی دیگر از خطرات دیپ فیک توانایی آنها در تسهیل سرقت هویت و کلاهبرداری مالی است. کلاهبرداران با ایجاد ویدیوهای قانعکننده یا ضبطهای صوتی از افراد سرشناس، میتوانند قربانیان را فریب دهند تا اطلاعات حساس را فاش کنند یا مبالغ زیادی را انتقال دهند.
به عنوان مثال، در سال 2020، گروهی از مجرمان از دیپ فیک استفاده کردند تا با جعل هویت مدیر عامل شرکت در یک سری ایمیل، یک شرکت انرژی بریتانیا را از 40000 پوند فریب دهند (The Guardian، 2020).
علاوه بر این، دیپ فیک می تواند برای باج گیری از افراد مشهور، سیاستمداران، یا مدیران تجاری با تهدید به انتشار فیلم های مخرب یا شرم آور استفاده شود.
در یک مورد قابل توجه، یک هکر تهدید کرد که یک ویدیوی جعلی عمیق از یک بازیگر مشهور که در حال انجام اقدامات آشکار است را منتشر خواهد کرد، مگر اینکه او باج بدهد (فوربس، 2020). این موارد پتانسیل دیپفیکها را برای تشدید انواع جرایم سایبری و اخاذی نشان میدهد.
- تهاجم به حریم خصوصی
Deepfakes همچنین می تواند تهدید قابل توجهی برای حریم خصوصی افراد باشد. با توانایی ایجاد فیلمها و ضبطهای صوتی بسیار واقعی، بازیگران مخرب میتوانند مخفیانه از افرادی که درگیر فعالیتهای خصوصی هستند، مانند لحظات صمیمی یا بحثهای تجاری محرمانه، فیلم یا ضبط کنند.
سپس این ضبطها میتوانند به بیرون درز کنند یا به صورت آنلاین فروخته شوند و صدمات جبرانناپذیری به شهرت و روابط قربانی وارد کنند.
علاوه بر این، دیپفیکها میتوانند برای جعل شواهد علیه افراد در تحقیقات جنایی مورد استفاده قرار گیرند، که باعث میشود آنها را برای جنایاتی که مرتکب نشدهاند، متهم کنند.
- از دست دادن اعتماد به رسانه ها و نهادها
همانطور که دیپ فیک ها رایج تر می شوند، ممکن است تشخیص اینکه چه چیزی واقعی است و چه چیزی نیست، برای افراد دشوارتر می شود.
این می تواند منجر به از دست دادن اعتماد به رسانه ها و نهادها و از بین رفتن کلی ایمان به صحت اطلاعات شود.
ملاحظات اخلاقی
استفاده از دیپ فیک ملاحظات اخلاقی مختلفی را مطرح می کند، به ویژه در مورد استفاده بالقوه آنها در زمینه هایی مانند سیاست، سرگرمی و روزنامه نگاری.
به عنوان مثال، آیا استفاده از دیپ فیک برای ایجاد کلیپ های خبری جعلی یا فیلم های دستکاری شده برای منافع سیاسی مناسب است؟ آیا بازیگران باید مجاز به استفاده از دیپ فیک برای تغییر عملکرد خود در فیلم ها و برنامه های تلویزیونی باشند؟
چگونه بین امکانات خلاقانه ارائه شده توسط دیپ فیک و نیاز به حفظ استانداردهای اخلاقی تعادل ایجاد کنیم؟
مقررات و اجرا
مانند هر فناوری نوظهوری، نیاز به مقررات و اجرای قوانین برای اطمینان از استفاده مسئولانه و اخلاقی از دیپ فیک وجود دارد.
با این حال، فقدان دستورالعملها و چارچوبهای قانونی روشن در مورد استفاده از دیپ فیک، مسئولیتپذیری افراد و سازمانها را در قبال اقدامات خود دشوار میسازد.
در نهایت، تلاش های آموزشی برای افزایش آگاهی در مورد خطرات دیپ فیک و نحوه شناسایی و کاهش اثرات منفی آن ضروری است.
این شامل آموزش مهارتهای تفکر انتقادی، سواد رسانهای و اهمیت تأیید اطلاعات قبل از پذیرش صحت آن است.
نتیجه
ظهور دیپ فیک هم یک فرصت و هم یک چالش برای جامعه است. در حالی که آنها امکانات هیجان انگیزی برای خلاقیت و نوآوری ارائه می دهند، خطرات قابل توجهی را برای دامنه توجه جمعی، اعتماد به رسانه ها و موسسات و حریم خصوصی فردی ما ایجاد می کنند.
با درک این خطرات و برداشتن گامهایی برای کاهش آنها، میتوانیم از قدرت دیپ فیک استفاده کنیم و در عین حال اثرات منفی آنها را به حداقل برسانیم.
اگر این پست را هیجانانگیز میدانید، پستهای هیجانانگیز بیشتری را در بلاگ Learnhub بیابید. ما همه چیزهای فنی از رایانش ابری گرفته تا Frontend Dev، Cybersecurity، AI و Blockchain را می نویسیم.