با پیشرفت های هوش مصنوعی، انتظار افزایش کلاهبرداری های رمزنگاری را داشته باشید


نگرانی های فزاینده ای وجود دارد که کلاهبرداران از آن استفاده خواهند کرد هوش مصنوعی (AI) به منظور توسعه روش های جدید تقلب و فریب با ادامه پیشرفت فناوری.
یکی از راه های اصلی که کلاهبرداران از هوش مصنوعی استفاده می کنند، از طریق پلتفرم های رسانه های اجتماعی است. با استفاده از ابزارهای مبتنی بر هوش مصنوعی، کلاهبرداران می توانند دسترسی خود را تقویت کنند و یک پایگاه هواداران به ظاهر وفادار متشکل از هزاران نفر ایجاد کنند.
از این اکانت ها و تعاملات جعلی می توان برای ایجاد توهم اعتبار و محبوبیت به پروژه های کلاهبرداری آنها استفاده کرد.
کلاهبرداران حتی ممکن است از چت ربات های مبتنی بر هوش مصنوعی یا دستیاران مجازی برای تعامل با افراد، ارائه مشاوره سرمایه گذاری، تبلیغ توکن های جعلی و پیشنهادات اولیه سکه یا ارائه فرصت های سرمایه گذاری با بازده بالا استفاده کنند.
استفاده از هوش مصنوعی میتواند اثبات کار اجتماعی را به چالش بکشد، که فرض میکند پروژههای رمزنگاری با دنبالکنندگان بیشتر و وفادارتر آنلاین باید قانونی باشند.
از آنجایی که هوش مصنوعی کلاهبرداری از افراد را برای پروژه ها آسان تر می کند، کاربران باید قبل از سرمایه گذاری در یک پروژه احتیاط و دقت لازم را به خرج دهند.
یکی از نمونه هایی از اینکه کلاهبرداران چگونه از هوش مصنوعی استفاده می کنند، استفاده از کلاهبرداری های «قصابی خوک» است. نمونههای هوش مصنوعی میتوانند چندین روز را صرف دوستی با شخصی، معمولاً یک فرد مسن یا آسیبپذیر کنند، تا در نهایت به کلاهبرداری از او بپردازند.
هوش مصنوعی به کلاهبرداران اجازه میدهد تا فعالیتها را خودکار و مقیاس کنند
پیشرفت فناوریهای هوش مصنوعی، کلاهبرداران را قادر میسازد تا فعالیتهای متقلبانه را خودکار و مقیاسپذیر کنند و به طور بالقوه افراد آسیبپذیر را در حوزه رمزنگاری هدف قرار دهند.
علاوه بر این، با استفاده از پلتفرمهای رسانههای اجتماعی و محتوای تولید شده توسط هوش مصنوعی، کلاهبرداران میتوانند طرحهای پیچیده پمپاژ و تخلیه را تنظیم کنند، به طور مصنوعی ارزش توکنها را افزایش دهند و داراییهای آنها را برای سود قابل توجه فروختند و سرمایهگذاران زیادی را با ضرر و زیان مواجه کنند.
مدتهاست که به سرمایهگذاران هشدار داده شده است که مراقب کلاهبرداریهای رمزنگاری عمیق جعلی باشند، که از فناوریهای هوش مصنوعی برای ایجاد محتوای آنلاین بسیار واقعی استفاده میکنند که چهرهها را در فیلمها و عکسها عوض میکند یا حتی محتوای صوتی را تغییر میدهد تا به نظر برسد که اینفلوئنسرها یا دیگر شخصیتهای معروف آن را تأیید میکنند. پروژه های کلاهبرداری
همانطور که گزارش شده است، دفتر تحقیقات فدرال هشدار جدی در مورد تهدید فزاینده استفاده از “دیپ فیک” در اخاذی سایبری صادر کرده است.
در اوایل این ماه، FBI اعلام کرد که بازیگران مخرب برای دستکاری عکسها یا ویدیوها، که اغلب از حسابهای رسانههای اجتماعی یا اینترنت باز بهدست میآیند، استفاده میکنند و تصاویری با مضمون جنسی ایجاد میکنند که معتبر به نظر میرسند.
هفته گذشته، توییتر همچنین حساب یک ربات هوش مصنوعی معروف «توضیح این باب» را که با سکه میم مرتبط است، به حالت تعلیق درآورد. الون ماسک آن را “کلاهبرداری” نامید.
حساب توییتر خودکار «توضیح این باب» از آخرین مدل بزرگ چندوجهی OpenAI GPT-4 برای درک و پاسخ به توییتهای کسانی که حساب را برچسبگذاری کرده بودند، استفاده کرد.
در حالی که استفادههای مثبتی از هوش مصنوعی در صنعت ارزهای دیجیتال وجود دارد، مانند خودکارسازی جنبههای خستهکننده و یکنواخت توسعه کریپتو، کاربران باید مراقب باشند و هنگام سرمایهگذاری در پروژههای جدید احتیاط کنند.
کاربر توییتر GarageID گفت: “مجرمان سایبری از هوش مصنوعی در کلاهبرداری های رمزنگاری استفاده می کنند، ربات های پیشرفته ای را ایجاد می کنند که جعل هویت اعضای خانواده هستند، نگرانی هایی را در مورد امنیت صنعت کریپتو ایجاد می کنند و یک طرز فکر شکاک را ترویج می کنند.”