برنامه نویسی

نمای کلی از هوش مصنوعی تولیدی و پیش بینی برای امنیت برنامه

هوش مصنوعی با اجازه افزایش کشف اشکال ، اتوماسیون تست و حتی اسکن سطح حمله مستقل ، امنیت را در برنامه های نرم افزاری متحول می کند. در این مقاله بحث کاملی در مورد چگونگی استفاده از رویکردهای تولیدی و پیش بینی مبتنی بر هوش مصنوعی در حوزه امنیتی برنامه ، که برای کارشناسان امنیت سایبری و ذینفعان به طور یکسان طراحی شده است ، ارائه می دهد. ما تکامل هوش مصنوعی را در APPSEC ، ویژگی های فعلی آن ، محدودیت ها ، ظهور سیستم های AI مبتنی بر عامل و جهت های آینده بررسی خواهیم کرد. بیایید اکتشافات خود را از طریق گذشته ، چشم انداز فعلی و چشم انداز امنیت کاربردی AI محور آغاز کنیم.

تکامل و ریشه های هوش مصنوعی برای امنیت برنامه

مبانی کشف آسیب پذیری خودکار
مدتها قبل از اینکه یادگیری ماشین به یک موضوع مرسوم تبدیل شود ، تیم های امنیتی به دنبال خودکار سازی کشف آسیب پذیری بودند. در اواخر دهه 1980 ، کار پیشگامانه دانشگاهی بارتون میلر در آزمایش فازی ، اثربخشی اتوماسیون را نشان داد. تلاش دانشگاه او در سال 1988 به طور تصادفی ورودی هایی را برای سقوط برنامه های یونیکس ایجاد کرد – “فازی” کشف کرد که بخش قابل توجهی از برنامه های ابزار با داده های تصادفی می تواند خراب شود. این رویکرد ساده جعبه سیاه پایه و اساس تکنیک های آزمایش امنیتی بعدی را هموار کرد. تا دهه 1990 و اوایل دهه 2000 ، پزشکان از اسکریپت های اتوماسیون و اسکنر استفاده کردند تا نقص های گسترده ای را پیدا کنند. ابزارهای بررسی کد منبع اولیه مانند GREP پیشرفته ، جستجوی کد برای توابع خطرناک یا اعتبارنامه های سخت. اگرچه این تاکتیک های تطبیق الگوی مفید بودند ، اما اغلب پرچم های نادرست زیادی را به همراه داشتند ، زیرا هر کد آینه ای که یک الگوی را آینه می کند بدون در نظر گرفتن زمینه گزارش می شود.

پیشرفت برنامه مبتنی بر AI
از اواسط دهه 2000 تا 2010 ، تحقیقات دانشگاهی و سیستم عامل های تجاری پیشرفته و از قوانین استاتیک به تفسیر آگاه متن تغییر یافته است. ML به تدریج راه خود را وارد AppSec کرد. نمونه های اولیه شامل شبکه های عصبی برای تشخیص ناهنجاری در ترافیک شبکه و مدل های احتمالی برای هرزنامه یا فیشینگ – نه کاملاً APPSEC ، بلکه نشانگر روند است. در همین حال ، ابزارهای تجزیه و تحلیل استاتیک با معاینه مبتنی بر جریان و چک های مبتنی بر CFG بهتر شدند تا نحوه حرکت داده ها از طریق یک برنامه نظارت کنند.

یک مفهوم قابل توجه که به وجود آمد ، نمودار ویژگی کد (CPG) ، ادغام نحو ، جریان کنترل و جریان داده ها به یک نمودار واحد بود. این رویکرد تجزیه و تحلیل آسیب پذیری متنی تر را تسهیل کرد و بعداً جایزه IEEE “آزمون زمان” را بدست آورد. سیستم عامل های تجزیه و تحلیل با ارائه کد به عنوان گره و لبه ها ، می توانند نقص های چند وجهی را فراتر از مسابقات کلمات کلیدی ساده شناسایی کنند.

در سال 2016 ، Cyber ​​Grand Challenge DARPA سیستم عامل های هک کردن کاملاً خودکار را نشان داد – قادر به یافتن ، اثبات و پچ سوراخ های امنیتی در زمان واقعی و فاقد مداخله انسان است. مجری برتر ، “ضرب و شتم” ، تجزیه و تحلیل پیشرفته ، اجرای نمادین و برخی برنامه های هوش مصنوعی خاص برای رقابت در برابر هکرهای انسانی. این رویداد یک لحظه مهم در دفاع از سایبری خودگردان بود.

نقاط عطف قابل توجه شکار اشکال AI محور
با افزایش تکنیک های بهتر ML و داده های آموزش بیشتر ، راه حل های امنیتی هوش مصنوعی افزایش یافته است. شرکت های بزرگ و شرکت های کوچکتر در کنار هم به پیشرفت رسیده اند. یک جهش قابل توجه شامل مدل های یادگیری ماشین است که آسیب پذیری ها و سوء استفاده های نرم افزاری را پیش بینی می کند. نمونه ای از سیستم امتیاز دهی پیش بینی بهره برداری (EPSS) است که از هزاران ویژگی برای پیش بینی استفاده می کند که آسیب پذیری ها در طبیعت هدف قرار می گیرند. این رویکرد به پزشکان Infosec کمک می کند تا نقاط ضعف بالاترین خطر را در اولویت قرار دهند.

در تجزیه و تحلیل کد ، مدل های یادگیری عمیق با کد های بزرگ کد آموزش داده شده اند تا ساختارهای ناامن را نشان دهند. مایکروسافت ، الفبای و اشخاص اضافی فاش کرده اند که LLM های تولیدی (مدل های بزرگ زبان) با ایجاد موارد آزمایش جدید ، وظایف امنیتی را تقویت می کنند. برای یک مورد ، تیم امنیتی Google از LLMS برای تولید مهار آزمایش برای کتابخانه های OSS ، افزایش پوشش و یافتن اشکالات بیشتر با تلاش کمتر انسانی استفاده کرد.

ابزارها و تکنیک های هوش مصنوعی امروزی در AppSec

دفاعی نرم افزاری امروز AI را در دو قالب اصلی اعمال می کند: هوش مصنوعی تولیدی ، تولید مصنوعات جدید (مانند تست ها ، کد یا سوءاستفاده ها) و هوش مصنوعی پیش بینی شده ، داده های اسکن را برای مشخص کردن یا پیش بینی آسیب پذیری ها. این قابلیت ها هر جنبه ای از چرخه حیات امنیتی ، از تجزیه و تحلیل کد تا ارزیابی پویا را پوشش می دهد.

چگونه AI مولد قدرت فازی و بهره برداری می کند
AI تولیدی داده های جدید مانند حمله یا بخش های کد را که از آسیب پذیری ها پرده برداشت می کند ، خروجی می کند. این در فازی های محور AI مشهود است. فازی سازی سنتی از داده های تصادفی یا جهشی استفاده می کند ، بر روی مدل های تولیدی می توانند آزمایش های هدفمند تری ایجاد کنند. تیم OSS-Fuzz Google LLMS را برای ایجاد خودکار پوشش فازی برای مخازن منبع باز اجرا کرد و یافته های نقص را تقویت کرد.

به همین ترتیب ، هوش مصنوعی تولیدی می تواند در ساخت اسکریپت های بهره برداری کمک کند. محققان با دقت نشان می دهند که AI پس از افشای آسیب پذیری ، ایجاد کد تظاهرات را امکان پذیر می کند. از طرف مخالف ، هکرهای اخلاقی ممکن است از هوش مصنوعی تولیدی برای گسترش کمپین های فیشینگ استفاده کنند. از نظر دفاعی ، سازمانها از تولید سوء استفاده از AI برای آزمایش بهتر دفاع و اجرای رفع استفاده می کنند.

پیش بینی AI محور در AppSec
هوش مصنوعی پیش بینی کننده اطلاعات را برای شناسایی نقاط ضعف امنیتی احتمالی تجزیه و تحلیل می کند. به جای قوانین یا امضاهای ثابت ، یک مدل می تواند از هزاران قطعه نرم افزاری آسیب پذیر در مقابل ایمن ، دانش را به دست آورد و الگویی را که یک سیستم مبتنی بر قانون از دست می دهد ، شناخت. این رویکرد به نشان دادن الگوهای مشکوک کمک می کند و بهره برداری از موضوعات تازه یافته را ارزیابی می کند.

اولویت بندی نقص ها یکی دیگر از برنامه های پیش بینی هوش مصنوعی است. سیستم امتیاز دهی پیش بینی بهره برداری یک تصویر است که در آن یک مدل یادگیری ماشین سفارش می دهد CVE را به احتمال زیاد از آنها در طبیعت مورد سوء استفاده قرار می دهد. این به متخصصان امنیتی کمک می کند تا در بخش برتر آسیب پذیری هایی که بیشترین خطر را دارند ، صفر شوند. برخی از ابزار ابزار APPSEC درخواست می کنند و داده های اشکال تاریخی را به مدل های ML می کشند و پیش بینی می کنند که کدام مناطق از یک سیستم به ویژه در معرض نقص های جدید است.

ادغام هوش مصنوعی با SAST ، DAST ، IAST
ابزارهای کلاسیک SAST ، ابزارهای DAST و آزمایش های سازنده بیشتر و بیشتر هوش مصنوعی را برای به روزرسانی عملکرد و اثربخشی ادغام می کنند.

SAST باینری ها را برای آسیب پذیری های امنیتی بدون اجرا اسکن می کند ، اما اگر زمینه کافی نداشته باشد ، غالباً باعث ایجاد تورنت از مثبت کاذب می شود. هوش مصنوعی از طریق تجزیه و تحلیل جریان کنترل یادگیری ماشین ، با ترسیم یافته ها و فیلتر کردن مواردی که واقعاً قابل بهره برداری نیستند ، کمک می کند. ابزارهای مثال QWIET AI و دیگران از نمودار خاصیت کد به علاوه ML برای ارزیابی مسیرهای بهره برداری استفاده می کنند و باعث کاهش چشمگیر نویز می شوند.

DAST برنامه زنده ، ارسال ورودی های آزمون و تجزیه و تحلیل پاسخ ها را اسکن می کند. هوش مصنوعی با اجازه اکتشاف هوشمند و تولید بارز هوشمند ، باعث پیشرفت می شود. ماژول خودمختار می تواند گردش کار چند مرحله ای ، پیچیدگی های آبگرم و API را با دقت بیشتری تفسیر کند ، پوشش را افزایش داده و آسیب پذیری های از دست رفته را کاهش دهد.

گزینه های امنیتی IAST را مشاهده کنید ، که برای رعایت تماس های عملکرد و جریان داده ها به زمان اجرا وارد برنامه می شود ، می تواند حجم تله متری تولید کند. یک مدل هوش مصنوعی می تواند این نتیجه را تفسیر کند ، و جریان های خطرناکی را مشاهده می کند که در آن ورودی کاربر یک عملکرد مهم را بدون فیلتر لمس می کند. با ترکیب IAST با ML ، آلارم های کاذب حذف می شوند و فقط خطرات معتبر نشان داده می شود.

مقایسه رویکردهای اسکن در AppSec
سیستم های اسکن کد مدرن معمولاً چندین روش را با جوانب مثبت/منفی خود مخلوط می کنند:

Grepping (تطبیق الگوی): اساسی ترین روش ، جستجوی کلمات کلیدی یا الگوهای شناخته شده (به عنوان مثال ، توابع مشکوک). به دلیل عدم وجود زمینه ، سریع اما بسیار مستعد به مثبت کاذب و مسائل از دست رفته است.

امضاها (قوانین/اکتشافی): اسکن اکتشافی که در آن متخصصان امنیتی آسیب پذیری های شناخته شده را رمزگذاری می کنند. برای کلاسهای اشکال مشترک مفید است اما برای کلاسهای ضعف جدید یا جدید انعطاف پذیر نیست.

نمودارهای خاصیت کد (CPG): یک رویکرد معنایی مدرن تر ، متحد کردن AST ، نمودار کنترل جریان و DFG به یک نمایش. ابزارها نمودار را برای مسیرهای داده خطرناک تجزیه و تحلیل می کنند. همراه با ML ، می تواند الگوهای روز صفر را تشخیص داده و نویز را از طریق اعتبارسنجی مسیر داده از بین ببرد.

در اجرای واقعی ، ارائه دهندگان این روش ها را با هم ترکیب می کنند. آنها هنوز هم برای موضوعات شناخته شده به امضاها متکی هستند ، اما آنها را با تجزیه و تحلیل AI محور برای زمینه و ML برای اولویت بندی هشدارها تقویت می کنند.

هوش مصنوعی در امنیت بومی و وابستگی
از آنجا که شرکت ها از معماری های کانتینر شده استفاده می کردند ، امنیت کتابخانه کانتینر و منبع باز بسیار مهم شد. هوش مصنوعی در اینجا نیز کمک می کند:

امنیت کانتینر: اسکنرهای تصویر مبتنی بر AI پرونده های کانتینر را برای آسیب پذیری های شناخته شده ، غلط های نادرست یا اعتبار حساس بررسی می کنند. برخی از راه حل ها ارزیابی می کنند که آیا آسیب پذیری ها در استقرار قابل دسترسی هستند و باعث کاهش سر و صدای هشدار می شوند. در همین حال ، تشخیص ناهنجاری مبتنی بر هوش مصنوعی در زمان اجرا می تواند رفتار غیرمعمول کانتینر (به عنوان مثال ، تماس های شبکه غیر منتظره) را پرچم گذاری کند ، و این باعث می شود که ابزارهای سنتی از دست ندهند.

خطرات زنجیره تأمین: با میلیون ها کتابخانه منبع باز در NPM ، PYPI ، Maven و غیره ، بررسی دستی غیرممکن است. هوش مصنوعی می تواند رفتار بسته را برای شاخص های مخرب ، در معرض دیدگاه های پشتی قرار دهد. مدل های یادگیری ماشین همچنین می توانند احتمال اینکه یک مؤلفه خاص را به خطر بیندازد ، در شهرت نگهدارنده به خطر بیفتد. این به تیم ها اجازه می دهد تا مشکوک ترین عناصر زنجیره تأمین را در اولویت قرار دهند. به موازات ، هوش مصنوعی می تواند ناهنجاری ها را در خطوط لوله ساخت و ساز تماشا کند و تأیید کند که فقط کد مجاز و وابستگی ها مستقر شده است.

موانع و اشکالاتی

در حالی که AI ویژگی های قدرتمندی را برای امنیت کاربرد ارائه می دهد ، اما همه آنها درمانی نیست. تیم ها باید مشکلات ، مانند طبقه بندی نادرست ، بررسی امکان سنجی ، تعصب در مدل ها و رسیدگی به تهدیدهای روز صفر را درک کنند.

مثبت کاذب و منفی های دروغین
کلیه تست های امنیتی خودکار با مثبت کاذب (پرچم گذاری کد خوش خیم) و منفی کاذب (آسیب پذیری های واقعی از دست رفته) می پردازد. هوش مصنوعی می تواند با افزودن بررسی های قابل دسترسی ، پرچم های مبهم را کاهش دهد ، اما منابع جدید خطایی را به خطر می اندازد. یک مدل ممکن است به طرز حیرت انگیزی ادعا کند یا اگر به درستی آموزش دیده نباشد ، از یک اشکال جدی غافل شوید. از این رو ، بررسی دستی اغلب برای تأیید نتایج دقیق ضروری است.

تعیین تأثیر در دنیای واقعی
حتی اگر هوش مصنوعی یک مسیر کد مشکل ساز را پرچم گذاری کند ، این تضمین نمی کند که هکرها در واقع می توانند به آن برسند. ارزیابی بهره برداری در دنیای واقعی پیچیده است. برخی از ابزارها برای نشان دادن یا نفی امکان استفاده از بهره برداری تلاش می کنند. با این حال ، بررسی های استثماری تمام عیار در راه حل های تجاری کمتر گسترده است. بنابراین ، بسیاری از یافته های محور AI هنوز هم نیاز به تجزیه و تحلیل تخصصی برای طبقه بندی شدت کم دارند.

داده ها و طبقه بندی داده ها
سیستم های هوش مصنوعی از داده های تاریخی یاد می گیرند. اگر این داده ها به سمت برخی از آسیب پذیری های خاص یا فاقد نمونه هایی از تهدیدهای غیر معمول باشد ، AI ممکن است در پیش بینی آنها نتواند. بیاموزید که علاوه بر این ، اگر مجموعه آموزش نتیجه گیری کند که این موارد مستعد سوءاستفاده هستند ، ممکن است یک سیستم از فروشندگان خاصی چشم پوشی کند. طراوت های مکرر داده ها ، مجموعه داده های متنوع و بررسی های منظم برای کاهش این مسئله بسیار مهم است.

رسیدگی به آسیب پذیری های روز صفر و تهدیدهای در حال تحول
یادگیری ماشین با الگویی که قبلاً پردازش کرده است ، برتری دارد. اگر با دانش موجود مطابقت نداشته باشد ، یک نوع آسیب پذیری کاملاً جدید می تواند از هوش مصنوعی خودداری کند. بازیگران تهدید همچنین از هوش مصنوعی مخالف برای پیشی از ابزارهای دفاعی استفاده می کنند. از این رو ، راه حل های مبتنی بر هوش مصنوعی باید به طور مداوم به روز شود. برخی از توسعه دهندگان برای دستیابی به رفتارهای عجیب و غریب که رویکردهای مبتنی بر امضا ممکن است از دست ندهند ، تشخیص ناهنجاری یا یادگیری بدون نظارت را اتخاذ می کنند. با این حال ، حتی این روش های اکتشافی می توانند روزهای صفر هوشمندانه مبدل را از دست بدهند یا آلارم کاذب تولید کنند.

ظهور عوامل هوش مصنوعی خودمختار

یک اصطلاح اخیر در جامعه هوش مصنوعی عامل AI است – سیستم های هوشمند که فقط خروجی تولید نمی کنند ، بلکه می توانند وظایف خود را به صورت خودمختار انجام دهند. در APPSEC ، این به هوش مصنوعی اشاره دارد که می تواند روشهای چند مرحله ای را کنترل کند ، با بازخورد در زمان واقعی سازگار شود و با حداقل نظارت انسانی تصمیم گیری کند.

AI عامل چیست؟
راه حل های عامل AI به وظایف گسترده ای مانند “یافتن آسیب پذیری در این نرم افزار” اختصاص داده می شود ، و سپس آنها نحوه انجام این کار را تعیین می کنند: جمع آوری داده ها ، انجام اسکن و تنظیم استراتژی ها در پاسخ به یافته ها. پیامدها قابل توجه است: ما از AI به عنوان یک یاور به عنوان یک موجود خودمختار حرکت می کنیم.

ابزارهای عامل برای حملات و دفاع
استفاده تهاجمی (تیم قرمز): AI عامل AI می تواند آزمایش های نفوذ را به صورت خودمختار آغاز کند. شرکت هایی مانند FireCompass یک هوش مصنوعی را تبلیغ می کنند که آسیب پذیری ها را ذکر می کند ، صنایع دستی به کتابهای بازی حمله می کند و سازش را نشان می دهد – همه به تنهایی. به موازات ، منبع باز “Pentestgpt” یا راه حل های قابل مقایسه از منطق LLM محور به ابزارهای زنجیره ای برای نفوذ چند مرحله ای استفاده می کنند.

استفاده دفاعی (تیم آبی): از طرف دفاعی ، عوامل هوش مصنوعی می توانند شبکه ها را بررسی کنند و به طور مستقل به وقایع مشکوک پاسخ دهند (به عنوان مثال ، جدا کردن یک میزبان به خطر افتاده ، به روزرسانی قوانین فایروال یا تجزیه و تحلیل سیاههها). برخی از سیستم عامل های ارکستراسیون امنیتی در حال آزمایش با “کتابهای پخش عامل” هستند که در آن هوش مصنوعی به جای پیروی از گردش کار استاتیک تصمیم گیری می کند.

ارزیابی های امنیتی خود هدایت شده
آزمایش نفوذ کاملاً خود محور ، جاه طلبی برای بسیاری از افراد در زمینه APPSEC است. ابزارهایی که به طور سیستماتیک آسیب پذیری ها را کشف می کنند ، سکانس های حمله کاردستی را نشان می دهند و تقریباً به طور خودکار آنها را نشان می دهند ، به واقعیت تبدیل می شوند. موفقیت های مربوط به Grand Challenge Cyber ​​Grand Darpa و عامل جدید عامل AI نشان می دهد که حملات چند مرحله ای با راه حل های خودمختار قابل زنجیره است.

چالش های عامل AI
با استقلال عالی در معرض خطر قرار می گیرد. یک سیستم خودمختار ممکن است سهواً باعث ایجاد آسیب در یک زیرساخت بحرانی شود ، یا یک حزب مخرب ممکن است مدل AI را برای سوار کردن اقدامات مخرب دستکاری کند. نگهبان های قوی ، تقسیم بندی و بررسی های نظارتی برای کارهای بالقوه مضر بسیار مهم هستند. با این وجود ، هوش مصنوعی عامل نشان دهنده جهت آینده در دفاع سایبر است.

جایی که AI در امنیت برنامه هدایت می شود

نقش AI در دفاع سایبر فقط تسریع خواهد شد. ما انتظار داریم که در 1-3 سال آینده و بیش از 5-10 سال آینده ، با نگرانی های حاکمیتی و ملاحظات مسئول ، تحولات اساسی داشته باشیم.

آینده نزدیک هوش مصنوعی در امنیت
طی دو سال آینده ، شرکت ها به طور معمول برنامه نویسی و امنیت با کمک هوش مصنوعی را اتخاذ می کنند. IDE های توسعه دهنده شامل ارزیابی های APPSEC است که توسط مدل های هوش مصنوعی هدایت می شود تا در مورد موضوعات بالقوه در زمان واقعی هشدار دهند. فازی مبتنی بر هوش مصنوعی استاندارد خواهد شد. چک های خودکار در حال انجام با AI APATIC ، تست های قلم سالانه یا سه ماهه را تکمیل می کند. انتظار می رود به عنوان به حداقل رساندن سر و صدا به عنوان حلقه های بازخورد مدل های اطلاعاتی دستگاه را تصفیه کنید.

مجرمان سایبری همچنین از هوش مصنوعی تولیدی برای فیشینگ استفاده می کنند ، بنابراین اقدامات متقابل دفاعی باید سازگار شود. ما شاهد کلاهبرداری های اجتماعی خواهیم بود که بسیار جلا هستند و به فیلترهای جدید ML برای مبارزه با محتوای تولید شده AI نیاز دارند.

تنظیم کننده ها و نهادهای حاکمیتی ممکن است چارچوب هایی را برای استفاده مسئول هوش مصنوعی در امنیت سایبری معرفی کنند. به عنوان مثال ، قوانین ممکن است نیاز داشته باشد که سازمان ها برای اطمینان از نظارت ، خروجی های AI را دنبال کنند.

افق گسترده برای امنیت هوش مصنوعی
در مدت زمان طولانی ، AI ممکن است توسعه نرم افزار را به طور کامل بازنگری کند ، احتمالاً منجر به:

توسعه AI-Augmented: انسانها با هوش مصنوعی همکاری می کنند که اکثر کد را تولید می کند ، و ذاتاً امنیت را همانطور که می گذرد ، اجرا می کند.

ترمیم آسیب پذیری خودکار: ابزارهایی که فقط نقص ها را نشان نمی دهند بلکه آنها را به صورت خودمختار وصله می کنند و زنده ماندن هر اصلاحیه را تأیید می کنند.

دفاع مداوم و مداوم: سیستم های اسکن کننده اتوماتیک را به طور شبانه روزی ، پیش بینی حملات ، استقرار کاهش در پرواز و مبارزه با هوش مصنوعی مخالف در زمان واقعی.

معماری ایمن به طراحی: تجزیه و تحلیل طرح محور AI محور اطمینان از برنامه های کاربردی با حداقل بردارهای بهره برداری از ابتدا ساخته شده است.

ما همچنین پیش بینی می کنیم که خود هوش مصنوعی با قوانین انطباق برای استفاده از هوش مصنوعی در صنایع با تأثیر بالا ، کاملاً تنظیم می شود. این ممکن است نیاز به AI قابل ردیابی و حسابرسی خطوط لوله هوش مصنوعی داشته باشد.

نظارت و استفاده اخلاقی از هوش مصنوعی برای AppSec
با تبدیل شدن AI در امنیت برنامه ، چارچوب های انطباق سازگار می شوند. ممکن است ببینیم:

بررسی های انطباق با هوش مصنوعی: حسابرسی خودکار برای اطمینان از دستورالعمل ها (به عنوان مثال ، PCI DSS ، SOC 2) به طور مداوم برآورده می شوند.

مدیریت مدلهای هوش مصنوعی: الزاماتی که شرکت ها داده های آموزش را ردیابی می کنند ، انصاف مدل را نشان می دهند و یافته های AI محور را برای مقامات ثبت می کنند.

نظارت پاسخ به حادثه: اگر یک عامل هوش مصنوعی یک سیستم قفل سیستم را انجام دهد ، کدام طرف مسئول است؟ تعریف مسئولیت برای اقدامات هوش مصنوعی موضوعی دشوار است که سیاستگذاران با آن مقابله می کنند.

استقرار مسئول در میان تهدیدهای محور AI
جدا از انطباق ، سوالات اجتماعی وجود دارد. استفاده از هوش مصنوعی برای نظارت بر کارمندان می تواند منجر به نقض حریم خصوصی شود. اگر هوش مصنوعی مغرضانه باشد ، تکیه فقط به هوش مصنوعی برای تصمیمات متمرکز بر ایمنی می تواند غیر منطقی باشد. در همین حال ، مجرمان از هوش مصنوعی برای ماسک کد مخرب استفاده می کنند. مسمومیت با داده ها و استثمار هوش مصنوعی می تواند سیستم های AI دفاعی را فاسد کند.

هوش مصنوعی مخالف بیانگر یک تهدید رو به رشد است ، جایی که بازیگران تهدید به طور خاص خطوط لوله ML را هدف قرار می دهند یا از اطلاعات دستگاه برای فرار از تشخیص استفاده می کنند. اطمینان از امنیت مدل های هوش مصنوعی ، جنبه اساسی دفاع سایبری در سالهای آینده خواهد بود.

پایان

روشهای محور AI در انقلابی در امنیت کاربردها آغاز شده است. ما مسیر تکاملی ، راه حل های مدرن ، چالش ها ، استفاده از سیستم خودمختار و چشم اندازهای طولانی مدت را مورد بررسی قرار داده ایم. مهمترین چیز این است که AI به عنوان یک متحد توانا برای تیم های امنیتی عمل می کند ، به نقاط ضعف کمک می کند ، زودتر از آن ، بزرگترین تهدیدها را رتبه بندی می کند و کارهای خسته کننده را اداره می کند.

با این حال ، معصوم نیست. پرچم های فریبنده ، تعصبات و نقاط ضعف روز صفر هنوز هم نیاز به تخصص انسانی دارند. نبرد مداوم بین هکرها و مدافعان ادامه دارد. هوش مصنوعی صرفاً جدیدترین عرصه برای آن درگیری است. سازمان هایی که هوش مصنوعی را با مسئولیت پذیری اتخاذ می کنند-ادغام آن با دانش تیمی ، حاکمیت قوی و تازه های مدل منظم-برای موفقیت در چشم انداز همیشه در حال تغییر APPSEC آماده هستند.

در نهایت ، وعده هوش مصنوعی یک اکوسیستم نرم افزاری ایمن تر است ، که در آن نقص های امنیتی زود هنگام تشخیص داده می شوند و به سرعت اصلاح می شوند ، و جایی که مدافعان می توانند با چابکی مخالفان مطابقت داشته باشند. با ادامه تحقیقات ، مشارکت و رشد در تکنیک های هوش مصنوعی ، این دید ممکن است نزدیکتر از آنچه فکر می کنیم باشد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا