ارز دیجیتال

با پیشرفت های هوش مصنوعی، انتظار افزایش کلاهبرداری های رمزنگاری را داشته باشید

با پیشرفت های هوش مصنوعی، انتظار افزایش کلاهبرداری های رمزنگاری
منبع تصویر: Pixabay

نگرانی های فزاینده ای وجود دارد که کلاهبرداران از آن استفاده خواهند کرد هوش مصنوعی (AI) به منظور توسعه روش های جدید تقلب و فریب با ادامه پیشرفت فناوری.

یکی از راه های اصلی که کلاهبرداران از هوش مصنوعی استفاده می کنند، از طریق پلتفرم های رسانه های اجتماعی است. با استفاده از ابزارهای مبتنی بر هوش مصنوعی، کلاهبرداران می توانند دسترسی خود را تقویت کنند و یک پایگاه هواداران به ظاهر وفادار متشکل از هزاران نفر ایجاد کنند.

از این اکانت ها و تعاملات جعلی می توان برای ایجاد توهم اعتبار و محبوبیت به پروژه های کلاهبرداری آنها استفاده کرد.

کلاهبرداران حتی ممکن است از چت ربات های مبتنی بر هوش مصنوعی یا دستیاران مجازی برای تعامل با افراد، ارائه مشاوره سرمایه گذاری، تبلیغ توکن های جعلی و پیشنهادات اولیه سکه یا ارائه فرصت های سرمایه گذاری با بازده بالا استفاده کنند.

استفاده از هوش مصنوعی می‌تواند اثبات کار اجتماعی را به چالش بکشد، که فرض می‌کند پروژه‌های رمزنگاری با دنبال‌کنندگان بیشتر و وفادارتر آنلاین باید قانونی باشند.

از آنجایی که هوش مصنوعی کلاهبرداری از افراد را برای پروژه ها آسان تر می کند، کاربران باید قبل از سرمایه گذاری در یک پروژه احتیاط و دقت لازم را به خرج دهند.

یکی از نمونه هایی از اینکه کلاهبرداران چگونه از هوش مصنوعی استفاده می کنند، استفاده از کلاهبرداری های «قصابی خوک» است. نمونه‌های هوش مصنوعی می‌توانند چندین روز را صرف دوستی با شخصی، معمولاً یک فرد مسن یا آسیب‌پذیر کنند، تا در نهایت به کلاهبرداری از او بپردازند.

هوش مصنوعی به کلاهبرداران اجازه می‌دهد تا فعالیت‌ها را خودکار و مقیاس کنند

پیشرفت فناوری‌های هوش مصنوعی، کلاهبرداران را قادر می‌سازد تا فعالیت‌های متقلبانه را خودکار و مقیاس‌پذیر کنند و به طور بالقوه افراد آسیب‌پذیر را در حوزه رمزنگاری هدف قرار دهند.

علاوه بر این، با استفاده از پلتفرم‌های رسانه‌های اجتماعی و محتوای تولید شده توسط هوش مصنوعی، کلاهبرداران می‌توانند طرح‌های پیچیده پمپاژ و تخلیه را تنظیم کنند، به طور مصنوعی ارزش توکن‌ها را افزایش دهند و دارایی‌های آن‌ها را برای سود قابل توجه فروختند و سرمایه‌گذاران زیادی را با ضرر و زیان مواجه کنند.

مدت‌هاست که به سرمایه‌گذاران هشدار داده شده است که مراقب کلاه‌برداری‌های رمزنگاری عمیق جعلی باشند، که از فناوری‌های هوش مصنوعی برای ایجاد محتوای آنلاین بسیار واقعی استفاده می‌کنند که چهره‌ها را در فیلم‌ها و عکس‌ها عوض می‌کند یا حتی محتوای صوتی را تغییر می‌دهد تا به نظر برسد که اینفلوئنسرها یا دیگر شخصیت‌های معروف آن را تأیید می‌کنند. پروژه های کلاهبرداری

همانطور که گزارش شده است، دفتر تحقیقات فدرال هشدار جدی در مورد تهدید فزاینده استفاده از “دیپ فیک” در اخاذی سایبری صادر کرده است.

در اوایل این ماه، FBI اعلام کرد که بازیگران مخرب برای دستکاری عکس‌ها یا ویدیوها، که اغلب از حساب‌های رسانه‌های اجتماعی یا اینترنت باز به‌دست می‌آیند، استفاده می‌کنند و تصاویری با مضمون جنسی ایجاد می‌کنند که معتبر به نظر می‌رسند.

هفته گذشته، توییتر همچنین حساب یک ربات هوش مصنوعی معروف «توضیح این باب» را که با سکه میم مرتبط است، به حالت تعلیق درآورد. الون ماسک آن را “کلاهبرداری” نامید.

حساب توییتر خودکار «توضیح این باب» از آخرین مدل بزرگ چندوجهی OpenAI GPT-4 برای درک و پاسخ به توییت‌های کسانی که حساب را برچسب‌گذاری کرده بودند، استفاده کرد.

در حالی که استفاده‌های مثبتی از هوش مصنوعی در صنعت ارزهای دیجیتال وجود دارد، مانند خودکارسازی جنبه‌های خسته‌کننده و یکنواخت توسعه کریپتو، کاربران باید مراقب باشند و هنگام سرمایه‌گذاری در پروژه‌های جدید احتیاط کنند.

کاربر توییتر GarageID گفت: “مجرمان سایبری از هوش مصنوعی در کلاهبرداری های رمزنگاری استفاده می کنند، ربات های پیشرفته ای را ایجاد می کنند که جعل هویت اعضای خانواده هستند، نگرانی هایی را در مورد امنیت صنعت کریپتو ایجاد می کنند و یک طرز فکر شکاک را ترویج می کنند.”

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا