برنامه نویسی

دیپ فیکس: خوب یا بد؟

دیپ‌فیک‌ها، مجموعه‌ای از «یادگیری عمیق» و «جعلی»، به رسانه‌های دستکاری شده‌ای مانند ویدیو، عکس یا صدا اشاره می‌کنند که با استفاده از هوش مصنوعی (AI) برای تقلید از ظاهر و صدای افراد مختلف ایجاد شده‌اند.

در سال‌های اخیر، پیشرفت‌های فناوری هوش مصنوعی، ایجاد قانع‌کننده‌ها را آسان‌تر کرده است دیپ فیک، نگرانی هایی را در مورد استفاده بالقوه آنها در فعالیت های مخرب مختلف ایجاد می کند.

به عنوان مثال، در جریان انتخابات ریاست جمهوری 2020 ایالات متحده، ویدئویی ظاهر شد که ظاهراً جو بایدن، نامزد دموکرات را نشان می دهد که در مورد حامیان حزب خود اظهارات تحقیرآمیزی می کند. با این حال، بعداً مشخص شد که این ویدیو یک دیپ جعلی است که توسط عوامل روسی برای ایجاد اختلاف در میان رای دهندگان آمریکایی ایجاد شده است (بی بی سی نیوز، 2020).

در اینجا نمونه‌های بیشتری وجود دارد که نشان می‌دهد چگونه از جعلی عمیق استفاده شده است:

  • سرگرمی: در سال 2019، یک ویدیوی جعلی عمیق از بازیگر تام کروز ساخته و منتشر شد که او را در حال اجرای یک برنامه رقص نشان می دهد. این ویدئو در فضای مجازی منتشر شد و به طور گسترده در شبکه های اجتماعی به اشتراک گذاشته شد. (منبع: CNN)
  • بازاریابی: در سال 2020، یک برند مد لوکس از یک ویدیوی جعلی عمیق برای تبلیغ محصولات خود استفاده کرد که شامل نسخه دیجیتال مدل کیت ماس ​​بود. این ویدیو با استفاده از فناوری هوش مصنوعی ساخته شده است و برای نمایش جدیدترین مجموعه این برند در نظر گرفته شده است. (منبع: Adweek)
  • تحصیلات: در سال 2019، دانشگاهی در ایالات متحده از فناوری عمیق جعلی برای ایجاد یک سخنرانی مجازی توسط دانشمند مشهوری که درگذشته بود استفاده کرد. هدف دسترسی دانش آموزان به دانش تاریخی و بینش شخصیت های برجسته بود. (منبع: EdSurge)
  • روزنامه نگاری: در سال 2020، یک سازمان خبری از فناوری جعلی عمیق برای ایجاد یک مصاحبه شبیه سازی شده با یک شخصیت بحث برانگیز استفاده کرد که به خبرنگاران اجازه می داد بدون نیاز به تعامل واقعی سؤال بپرسند و پاسخ دریافت کنند. (منبع: Poynter)
  • تبلیغات: در سال 2019، یک تولیدکننده خودرو از فناوری جعلی عمیق برای ایجاد یک آگهی تجاری با حضور یک تایید کننده سلبریتی بازسازی شده دیجیتالی استفاده کرد. هدف از این تبلیغ برای جذب جمعیت جوان تر و افزایش شناخت برند بود. (منبع: Ad Age)
  • مراقبت های بهداشتی: در سال 2020، محققان از فناوری جعلی عمیق برای ایجاد داده های تصویربرداری پزشکی مصنوعی استفاده کردند که می تواند برای آموزش مدل های هوش مصنوعی و بهبود تشخیص بیماری استفاده شود. این فناوری پتانسیل ایجاد انقلابی در تجزیه و تحلیل تصویربرداری پزشکی را دارد. (منبع: طب طبیعت)
  • امور مالی: در سال ۲۰۱۹، یک استارت‌آپ فین‌تک از فناوری جعلی عمیق برای ایجاد نماد دیجیتالی یک مدیر مدیریت ثروت استفاده کرد که به مشتریان اجازه می‌داد با آواتار تعامل داشته باشند و مشاوره سرمایه‌گذاری شخصی‌شده را دریافت کنند. (منبع: فایننشال تایمز)
  • رسانه‌های اجتماعی: در سال 2020، یک پلتفرم رسانه‌های اجتماعی محبوب ویژگی‌ای را معرفی کرد که به کاربران امکان می‌داد ویدیوهای جعلی عمیقی از خود بسازند و به آن‌ها اجازه می‌داد قبل از خرید لباس‌ها یا مدل‌های موی مختلف را به صورت مجازی امتحان کنند. (منبع: TechCrunch)
  • واقعیت مجازی: در سال 2019، یک شرکت بازی سازی از فناوری عمیق جعلی برای ایجاد شخصیت ها و محیط های فوق واقعی در یک بازی واقعیت مجازی استفاده کرد و تجربه ای همه جانبه را برای بازیکنان فراهم کرد. (منبع: VentureBeat)

در کتاب 2020s & The Future Beyond، کلی در مورد چگونگی فراتر رفتن فناوری می نویسد، و در اینجا یک نکته وجود دارد که نقطه اصلی را هدایت می کند.

طبق پیش‌بینی IBM، در دهه 2020، ما در دنیایی زندگی خواهیم کرد که حجم دانش هر 11 تا 12 ساعت دو برابر می‌شود. به گفته شرکت تحقیقاتی گارتنر، در اوایل دهه 2020، اینترنت اشیا (IoT) به اندازه تخمینی بیش از 20 میلیارد دستگاه فیزیکی متصل فعال در ارسال، دریافت و پردازش جریان اطلاعات رشد خواهد کرد. به گفته گارتنر، تا سال 2022، 70 درصد از شرکت‌ها با فناوری‌های همهجانبه برای استفاده مصرف‌کننده و سازمانی آزمایش خواهند کرد و 25 درصد آن‌ها در تولید مستقر خواهند شد.

خطر تقلبی های عمیق چیست و چگونه آنها را کاهش دهیم یا برای آنها برنامه ریزی کنیم؟ این مقاله خطرات و چالش‌های مرتبط با دیپ‌فیک‌ها، از جمله استفاده بالقوه آنها در اطلاعات نادرست، سرقت هویت و تجاوز به حریم خصوصی را بررسی می‌کند.

ریسک ها و چالش ها

  • اطلاعات نادرست و اطلاعات نادرست

یکی از مهم‌ترین خطرات دیپ‌فیک، استفاده بالقوه آنها در انتشار اطلاعات نادرست و اطلاعات نادرست است. بازیگران مخرب می‌توانند از دیپ‌فیک‌ها برای ایجاد کلیپ‌های خبری جعلی، ویدیوهای اصلاح‌شده، یا ضبط‌های صوتی تغییریافته استفاده کنند که معتبر به نظر می‌رسند اما در واقع برای فریب مخاطب طراحی شده‌اند.

به عنوان مثال، در دسامبر 2022، یک ویدیوی جعلی عمیق از یک بازیگر مشهور در رسانه های اجتماعی منتشر شد که به نظر می رسید او را در یک موقعیت سازشکارانه نشان می دهد. این ویدیو به سرعت در فضای مجازی پخش شد و در نتیجه شهرت این بازیگر به شدت آسیب دید. با این حال، بعداً مشخص شد که این ویدیو یک جعلی است که توسط یکی از کارمندان ناراضی سابق شرکت تولید این بازیگر ایجاد شده است.

به طور مشابه، دیپ فیک می تواند برای آسیب رساندن به شهرت یا ایجاد ناآرامی اجتماعی استفاده شود. در سال 2019، گروهی از بازیگران در هند از دیپ فیک برای ساختن یک ویدیوی ویروسی استفاده کردند که مدعی حمله مرد مسلمان به یک زن هندو بود که منجر به خشونت عمومی گسترده شد (نیویورک تایمز، 2019).

این نمونه‌ها پتانسیل دیپ‌فیک‌ها را برای تضعیف اعتماد به رسانه‌ها و نهادها، فرسایش گفتمان مدنی و تهدید ثبات جهانی نشان می‌دهند.

  • سرقت هویت و کلاهبرداری

یکی دیگر از خطرات دیپ فیک توانایی آنها در تسهیل سرقت هویت و کلاهبرداری مالی است. کلاهبرداران با ایجاد ویدیوهای قانع‌کننده یا ضبط‌های صوتی از افراد سرشناس، می‌توانند قربانیان را فریب دهند تا اطلاعات حساس را فاش کنند یا مبالغ زیادی را انتقال دهند.

به عنوان مثال، در سال 2020، گروهی از مجرمان از دیپ فیک استفاده کردند تا با جعل هویت مدیر عامل شرکت در یک سری ایمیل، یک شرکت انرژی بریتانیا را از 40000 پوند فریب دهند (The Guardian، 2020).

علاوه بر این، دیپ فیک می تواند برای باج گیری از افراد مشهور، سیاستمداران، یا مدیران تجاری با تهدید به انتشار فیلم های مخرب یا شرم آور استفاده شود.

در یک مورد قابل توجه، یک هکر تهدید کرد که یک ویدیوی جعلی عمیق از یک بازیگر مشهور که در حال انجام اقدامات آشکار است را منتشر خواهد کرد، مگر اینکه او باج بدهد (فوربس، 2020). این موارد پتانسیل دیپ‌فیک‌ها را برای تشدید انواع جرایم سایبری و اخاذی نشان می‌دهد.

  • تهاجم به حریم خصوصی

Deepfakes همچنین می تواند تهدید قابل توجهی برای حریم خصوصی افراد باشد. با توانایی ایجاد فیلم‌ها و ضبط‌های صوتی بسیار واقعی، بازیگران مخرب می‌توانند مخفیانه از افرادی که درگیر فعالیت‌های خصوصی هستند، مانند لحظات صمیمی یا بحث‌های تجاری محرمانه، فیلم یا ضبط کنند.

سپس این ضبط‌ها می‌توانند به بیرون درز کنند یا به صورت آنلاین فروخته شوند و صدمات جبران‌ناپذیری به شهرت و روابط قربانی وارد کنند.

علاوه بر این، دیپ‌فیک‌ها می‌توانند برای جعل شواهد علیه افراد در تحقیقات جنایی مورد استفاده قرار گیرند، که باعث می‌شود آن‌ها را برای جنایاتی که مرتکب نشده‌اند، متهم کنند.

  • از دست دادن اعتماد به رسانه ها و نهادها

همانطور که دیپ فیک ها رایج تر می شوند، ممکن است تشخیص اینکه چه چیزی واقعی است و چه چیزی نیست، برای افراد دشوارتر می شود.

این می تواند منجر به از دست دادن اعتماد به رسانه ها و نهادها و از بین رفتن کلی ایمان به صحت اطلاعات شود.

ملاحظات اخلاقی

استفاده از دیپ فیک ملاحظات اخلاقی مختلفی را مطرح می کند، به ویژه در مورد استفاده بالقوه آنها در زمینه هایی مانند سیاست، سرگرمی و روزنامه نگاری.

به عنوان مثال، آیا استفاده از دیپ فیک برای ایجاد کلیپ های خبری جعلی یا فیلم های دستکاری شده برای منافع سیاسی مناسب است؟ آیا بازیگران باید مجاز به استفاده از دیپ فیک برای تغییر عملکرد خود در فیلم ها و برنامه های تلویزیونی باشند؟

چگونه بین امکانات خلاقانه ارائه شده توسط دیپ فیک و نیاز به حفظ استانداردهای اخلاقی تعادل ایجاد کنیم؟

مقررات و اجرا

مانند هر فناوری نوظهوری، نیاز به مقررات و اجرای قوانین برای اطمینان از استفاده مسئولانه و اخلاقی از دیپ فیک وجود دارد.

با این حال، فقدان دستورالعمل‌ها و چارچوب‌های قانونی روشن در مورد استفاده از دیپ فیک، مسئولیت‌پذیری افراد و سازمان‌ها را در قبال اقدامات خود دشوار می‌سازد.

در نهایت، تلاش های آموزشی برای افزایش آگاهی در مورد خطرات دیپ فیک و نحوه شناسایی و کاهش اثرات منفی آن ضروری است.

این شامل آموزش مهارت‌های تفکر انتقادی، سواد رسانه‌ای و اهمیت تأیید اطلاعات قبل از پذیرش صحت آن است.

نتیجه

ظهور دیپ فیک هم یک فرصت و هم یک چالش برای جامعه است. در حالی که آنها امکانات هیجان انگیزی برای خلاقیت و نوآوری ارائه می دهند، خطرات قابل توجهی را برای دامنه توجه جمعی، اعتماد به رسانه ها و موسسات و حریم خصوصی فردی ما ایجاد می کنند.

با درک این خطرات و برداشتن گام‌هایی برای کاهش آن‌ها، می‌توانیم از قدرت دیپ فیک استفاده کنیم و در عین حال اثرات منفی آن‌ها را به حداقل برسانیم.

اگر این پست را هیجان‌انگیز می‌دانید، پست‌های هیجان‌انگیز بیشتری را در بلاگ Learnhub بیابید. ما همه چیزهای فنی از رایانش ابری گرفته تا Frontend Dev، Cybersecurity، AI و Blockchain را می نویسیم.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا