برنامه نویسی

مدلهای بزرگ زبان بزرگ (LLMS) – جامعه Dev

در چشم انداز به سرعت در حال تحول هوش مصنوعی (AI) ، اطمینان از یکپارچگی و محرمانه بودن مدلهای بزرگ زبان (LLMS) مهم است. مفهوم LLM “بی اعتماد” که بدون نیاز به اعتماد به هر طرف واحد عمل می کند ، به طور فزاینده ای قابل توجه است. با استفاده از LLM ها در محیط های اعدام قابل اعتماد (TEES) ، می توانیم به اجرای ضد دستکاری دست یابیم و محرمانه بودن داده ها را حفظ کنیم ، به افراد و مشاغل توانمند سازی کنیم تا LLM های سفارشی را با امنیت پیشرفته ایجاد کنند. سوالات مختلفی به ذهن خطور می شود. یکی از آنها می پرسد از TEE بیش از سایر فن آوری های محاسباتی قابل اثبات استفاده خواهد کرد؟ بر خلاف فن آوری های محاسباتی قابل اثبات تر مانند ZKPS و FHE ، که از نظر خوش بینانه 3-5 سال از پیاده سازی های عملی فاصله دارند ، زیرساخت های مبتنی بر TEE امروز آماده است.

درک محیط های اعدام قابل اعتماد (TEES)

تجدید نظر در مورد استفاده از محیط های اعدام قابل اعتماد (TEES) ، تبدیل آن از یک محیط “قابل اعتماد” به “مورد اعتماد به دلیل تأیید” یا محیط اجرای بی اعتماد ، ضروری است. این امر با ادغام قراردادهای هوشمند ، بدوی های رمزنگاری و شبکه گسترده استفاده می شود. فن آوری ها ، با استفاده از امنیت تعبیه شده Tee برای کنترل عملیات در TEE و اطمینان از انطباق از طریق مکانیسم های اجماع blockchain ، با ترکیب فناوری blockchain و Tees ، Web3 و AI می توانند محیط های محاسباتی بی اعتماد را در جایی که محاسبات ایمن ، قابل اثبات و شفاف هستند ، تضمین کنند.“این سخنان دیوید آتترن در مورد محیط اعدام قابل اعتماد (TEE) است

بوها اعدام قابل اعتماد محیط زیست (TEE) یک منطقه امن در یک پردازنده است که تضمین می کند کد و داده های بارگذاری شده در داخل در مورد محرمانه بودن و یکپارچگی محافظت می شود. این بدان معناست که اشخاص غیرمجاز نمی توانند به داده ها و کد های موجود در TEE دسترسی یا تغییر دهند. Tees اجرای منزوی ، یکپارچگی برنامه ها و محرمانه بودن دارایی های آنها را فراهم می کند و آنها را برای محاسبات ایمن ضروری می کند.

نقش Tees در Ai

ادغام Tees در گردش کار AI چندین مزیت ارائه می دهد:

  • محرمانه بودن: داده های پردازش شده در یک TEE محرمانه هستند و اطمینان حاصل می کنند که از اطلاعات حساس در طول آموزش مدل AI و استنباط محافظت می شود.

  • یکپارچگی: TEES تضمین می کند که مدل AI و محاسبات آن را نمی توان با آن دستکاری کرد و یکپارچگی مدل را حفظ کرد.

  • قابل اثبات: عملیات در یک TEE قابل اثبات است ، و اثبات این که محاسبات مطابق آنچه در نظر گرفته شده است انجام شده است.

مراحل زیر نشان می دهد که چگونه TEES از طریق رمزگذاری و تأیید به امنیت و تأیید می رسد.

منبع: Phoenixnap

منبع: Phoenixnap

این خصوصیات برای توسعه LLM های بدون اعتماد بسیار مهم است ، زیرا آنها اطمینان حاصل می کنند که این مدل به طور ایمن و همانطور که انتظار می رود عمل می کند.

سهم شبکه واحه در LLM های بدون اعتماد

شبکه Oasis برای تقویت امنیت و تأیید مدل AI از TEES استفاده می کند. با ادغام Tees با چارچوب Oasis Runtime Offchain Logic (ROFL) ، توسعه دهندگان می توانند مدل های AI غیر متمرکز را با پیشرفت قابل اثبات ایجاد کنند. این ادغام تضمین می کند که مدل های AI نه تنها در فرآیندهای توسعه و استقرار آنها شفاف هستند.

یک آزمایش در ادغام یک TEE با قابلیت GPU با شبکه OASIS برای تنظیم دقیق LLM در یک TEE وجود داشت

چارچوب منطق Offchain Logic (ROFL)

ROFL (منطق خارج از زنجیره Runtime) چارچوبی است که پشتیبانی از اجزای خارج از زنجیره را به زمان های اجرا مانند Oasis Sapphire اضافه می کند و باعث می شود رفتار غیر تعیین کننده و دسترسی به منابع شبکه از راه دور امکان پذیر شود. ROFL به اجزای خارج از زنجیره اجازه می دهد تا یکپارچه با قلمرو زنجیره ای ارتباط برقرار کنند و ترکیب کامل را در سیستم عامل های مختلف blockchain و پشته محاسبات خارج از زنجیره ایجاد کنند.

شرح تصویر

چارچوب ROFL امکان اجرای منطق خارج از زنجیره در TEES را فراهم می کند و محاسبات پیچیده ای را که قابل اثبات و محرمانه هستند امکان پذیر می کند. این امر به ویژه برای بار کاری هوش مصنوعی مفید است ، زیرا امکان آموزش و استقرار LLM ها در یک محیط امن را فراهم می کند ، و اطمینان می دهد که مدل ها ضد دست و پا می شوند و داده های پردازش شده محرمانه نگه داشته می شوند.

عوامل بی اعتماد و هوش مصنوعی خودمختار

با تکیه بر پایه و اساس Tees و چارچوب ROFL ، مفهوم مأمورین بی اعتماد پدیدار می شود. اینها نهادهای هوش مصنوعی خودمختار هستند که بدون مداخله انسانی عمل می کنند و اقدامات و تصمیمات آنها قابل اثبات و ایمن است. این عوامل با استفاده از LLM ها در TEES ، می توانند وظایفی را با درجه بالایی از اعتماد انجام دهند و آنها را برای برنامه هایی که نیاز به اقدامات سختگیرانه و محرمانه بودن دارند ، مناسب کنند.

با معرفی TDX به
ROFL برای اجرای TEE خود دامنه آنچه در داخل یک برنامه ROFL ممکن است بسیار گسترش یافته است. Extension Domain Trust Domain (Intel TDX) جدیدترین فناوری محرمانه محرمانه اینتل است که توسط اینتل در فوریه 2022 اعلام شده و در پیش نمایش عمومی توسط ارائه دهندگان ابر Microsoft Azure و Google Cloud Platform ارائه شده است.

این محیط اجرای قابل اعتماد مبتنی بر سخت افزار (TEE) استقرار دامنه های اعتماد (TD) را تسهیل می کند ، که ماشین های مجازی جدا شده سخت افزار (VM) هستند که برای محافظت از داده ها و برنامه های حساس از دسترسی غیرمجاز طراحی شده اند.

ماژول Intel TDX با اندازه گیری CPU ، Intel TDX را امکان پذیر می کند. این ماژول نرم افزاری در یک حالت داوری ایمن CPU جدید (SEAM) به عنوان مدیر ماشین مجازی مجازی (VMM) اجرا می شود و با استفاده از زیرساخت مجازی سازی موجود ، از ورود و خروج TD پشتیبانی می کند. این ماژول در یک فضای حافظه محفوظ که توسط ثبت دامنه درز (SEAMRR) مشخص شده است ، میزبانی می شود.

Intel TDX از پسوندهای سخت افزاری برای مدیریت و رمزگذاری حافظه استفاده می کند و از محرمانه بودن و یکپارچگی حالت CPU TD از حالت غیر Seam محافظت می کند

TDX به عنوان یک محیط محرمانه محرمانه مبتنی بر مجازی سازی عمل می کند ، که منجر به عملکرد بهتر و محدودیت حافظه کمتر می شود. این امکان را برای استقرار ساده برنامه های میراث بدون نیاز به تغییر در مدل برنامه نویسی فراهم می کند.

پایان

ادغام LLMS در TEES ، که توسط چارچوب هایی مانند ROFL در شبکه Oasis تسهیل می شود ، نشان دهنده پیشرفت قابل توجهی در ایجاد سیستم های AI بدون اعتماد است. این رویکرد تضمین می کند که مدل های هوش مصنوعی ایمن ، قابل اثبات و قادر به دستیابی به داده های حساس هستند ، از این طریق افراد و مشاغل را قادر می سازد تا LLM های سفارشی را با اعتماد به نفس توسعه دهند

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا