برنامه نویسی
روش جدید AI در حالی که 99 ٪ عملکرد را حفظ می کند ، مدل های زبان 3 برابر را سریعتر می کند

این یک خلاصه مقاله انگلیسی ساده از یک مقاله تحقیقاتی به نام روش جدید AI است که مدلهای زبان را در حالی که 99 ٪ عملکرد را حفظ می کنند ، سریعتر می کند. اگر این نوع تحلیل ها را دوست دارید ، باید به Aimodels.fyi بپیوندید یا ما را در توییتر دنبال کنید.
نمای کلی
- Distillm-2 یک روش تقطیر متضاد را برای مدلهای بزرگ زبان (LLMS) معرفی می کند
- برای ایجاد مدلهای کوچکتر و سریعتر ، یادگیری متضاد را با تقطیر دانش ترکیب می کند
- در حالی که به طور قابل توجهی کوچکتر است ، به عملکرد معلم 99 ٪ می رسد
- یک روش تقطیر ورود به سیستم متضاد با وزنی جدید را معرفی می کند
- سرعت 2-3 برابر در کارهای مختلف LLM را نشان می دهد
- از روشهای تقطیر قبلی در معیارهای مختلف بهتر عمل می کند
توضیح انگلیسی ساده
آموزش مدلهای بزرگ زبان گران است. هرچه آنها بزرگتر شوند ، قدرت محاسباتی بیشتری به شما نیاز دارند. اما اگر بتوانیم این مدل های بزرگ و قدرتمند را بگیریم و به نوعی آنها را به نسخه های کوچکتر که تقریباً کار می کنند ، فشرده کنیم؟
این دقیقاً همان چیزی است که [DistiLLM-2](https: // aimodels …
برای خواندن خلاصه کامل این مقاله اینجا را کلیک کنید