درک RAG (قسمت 4): بهینه سازی مولفه تولید

Summarize this content to 400 words in Persian Lang
مقدمه
در بخش اول از سری “درک RAG”، ما سه جزء اصلی RAG را بیان کردیم: نمایه سازی، بازیابی و تولید. در قسمتهای قبل، تکنیکهای بهبود نمایهسازی و بازیابی را مورد بحث قرار دادیم. این وبلاگ بر روی روشهایی برای تقویت مولفه تولید نسل افزوده بازیابی (RAG) تمرکز خواهد کرد. ما تکنیکهایی مانند بستهبندی مجدد اسناد، خلاصهسازی، و تنظیم دقیق مدلهای LLM برای تولید را بررسی خواهیم کرد، که همگی برای اصلاح اطلاعاتی که به فرآیند تولید وارد میشوند، حیاتی هستند.
آشنایی با بسته بندی مجدد اسناد
بسته بندی مجدد اسناد تکنیکی است که در گردش کار RAG برای بهبود عملکرد تولید پاسخ استفاده می شود. پس از مرحله رتبه بندی مجدد، که در آن K اسناد برتر بر اساس امتیاز مربوط به آنها انتخاب می شوند، بسته بندی مجدد اسناد ترتیب ارائه این اسناد به مدل LLM را بهینه می کند. این بازآرایی تضمین میکند که LLM میتواند با تمرکز بر مرتبطترین اطلاعات، پاسخهای دقیقتر و مرتبطتری ایجاد کند.
روش های مختلف بسته بندی مجدد
سه روش اصلی بسته بندی مجدد وجود دارد:
روش رو به جلو: در این رویکرد، اسناد به ترتیب نزولی بر اساس امتیاز مربوط به آنها بسته بندی می شوند. این بدان معنی است که مرتبط ترین اسناد، همانطور که در مرحله رتبه بندی مجدد تعیین می شود، در ابتدای ورودی قرار می گیرند.
روش معکوس: برعکس، روش معکوس اسناد را به ترتیب صعودی امتیازهای مربوط به آنها مرتب می کند. در اینجا ابتدا کمترین ارتباط و مرتبط ترین مدارک در انتها قرار می گیرد.
روش طرفین: روش sides به طور استراتژیک مرتبط ترین اسناد را در سر و انتهای دنباله ورودی قرار می دهد و اطمینان می دهد که اطلاعات حیاتی به طور برجسته برای LLM قرار دارند.
انتخاب بهترین روش بسته بندی مجدد
در مقاله پژوهشی، “جستجو برای بهترین روش ها در RAGEneration” نویسندگان عملکرد تکنیک های مختلف بسته بندی مجدد را برای تعیین موثرترین رویکرد ارزیابی کردند و روش “معکوس” به عنوان موثرترین روش بسته بندی مجدد ظاهر شد.
نتایج جستجو برای شیوههای بهینه RAG نشان میدهد که «Avg» (امتیاز میانگین) بر اساس امتیازات Acc، EM و RAG برای همه کارها محاسبه میشود، در حالی که میانگین تأخیر بر حسب ثانیه در هر پرسوجو اندازهگیری میشود. بهترین نمرات با پررنگ مشخص شده اند.
درک خلاصه سازی اسناد
خلاصه سازی در RAG شامل متراکم کردن اسناد بازیابی شده برای افزایش ارتباط و کارایی تولید پاسخ با حذف افزونگی و کاهش طول سریع قبل از ارسال آنها به مدل LLM برای تولید است. وظایف خلاصه سازی می تواند استخراجی یا انتزاعی باشد. روشهای استخراجی اسناد را به جملات تقسیم میکنند، سپس آنها را بر اساس اهمیت نمرهگذاری و رتبهبندی میکنند. کمپرسورهای انتزاعی اطلاعات را از چندین سند ترکیب میکنند تا آن را بازنویسی کنند و یک خلاصه منسجم ایجاد کنند. این وظایف می توانند مبتنی بر پرس و جو، با تمرکز بر اطلاعات مربوط به یک پرس و جو خاص، یا غیر مبتنی بر پرس و جو، با تمرکز بر فشرده سازی اطلاعات عمومی باشند.
هدف از خلاصه سازی در RAG
افزونگی را کاهش دهید: اسناد بازیابی شده می تواند حاوی جزئیات تکراری یا نامربوط باشد. خلاصه سازی به فیلتر کردن این اطلاعات غیر ضروری کمک می کند.
افزایش کارایی: اسناد یا درخواست های طولانی می توانند مدل زبان (LLM) را در طول استنتاج کند کنند. خلاصه سازی به ایجاد ورودی های مختصرتر کمک می کند و سرعت تولید پاسخ را افزایش می دهد.
عملکرد در مقابل شماره سند
در شکل بالا به وضوح می توان مشاهده کرد که با افزایش تعداد اسناد در اعلان، عملکرد LLM در وظایف پایین دستی کاهش می یابد. بنابراین، خلاصه کردن اسناد بازیابی شده برای حفظ عملکرد ضروری است.
تکنیک های خلاصه سازی
تکنیکهای خلاصهسازی متعددی وجود دارد که میتوان در چارچوبهای RAG از آنها استفاده کرد. در این وبلاگ به دو تکنیک از این دست می پردازیم:
RECOMP: تکنیکی است که اسناد بازیابی شده را با استفاده از یکی از دو روش فشرده سازی استخراجی یا انتزاعی بسته به مورد استفاده فشرده می کند. Extractive برای حفظ متن دقیق استفاده می شود، در حالی که abstractive خلاصه ها را ترکیب می کند. این تصمیم بر اساس نیازهای کار، طول سند، منابع محاسباتی و عملکرد است. کمپرسور استخراجی جملات کلیدی را با استفاده از یک مدل رمزگذار دوگانه برای رتبه بندی جملات بر اساس شباهت آنها به پرس و جو انتخاب می کند. از سوی دیگر، کمپرسور انتزاعی، خلاصههای جدیدی را با یک مدل رمزگذار-رمزگشا ایجاد میکند که بر روی مجموعه دادههای بزرگ حاوی جفتهای سند-خلاصه آموزش دیده است. این خلاصههای فشرده سپس به ورودی اصلی اضافه میشوند و مدل زبان را با زمینهای متمرکز و مختصر ارائه میکنند.
منبع
LongLLMLlingua: این تکنیک از ترکیبی از روشهای فشردهسازی درشت دانه و ریزدانه آگاهانه برای افزایش چگالی اطلاعات کلیدی و بهبود عملکرد مدل استفاده میکند.
در فشرده سازی درشت دانه، گیجی برای هر سند بازیابی شده با توجه به پرس و جو داده شده اندازه گیری می شود. سپس، تمام اسناد بر اساس امتیاز گیجی از پایین ترین به بالاترین رتبه بندی می شوند. اسنادی با گیجی کمتر به این سوال مربوط می شوند.
فرمول گیجی
در فرمول فوق، k نمایانگر سند یا دنباله در نظر گرفته شده است. N_k تعداد کلمات یا نشانه ها در سند یا دنباله k-ام است. p(x_doc_k، i) نشان دهنده احتمال i-امین کلمه یا نشانه x در سند k-ام مطابق مدل است.
فشردهسازی ریزدانه آگاهانه روشی برای اصلاح بیشتر اسناد یا قسمتهایی است که پس از فشردهسازی درشت دانه با تمرکز بر مرتبطترین بخشهای آن اسناد حفظ شدهاند. برای هر کلمه یا نشانه در اسناد حفظ شده، اهمیت با توجه به درخواست داده شده محاسبه می شود. سپس، نشانهها بر اساس امتیاز اهمیتشان، از مهمترین به کماهمیت رتبهبندی میشوند.
فرمول اهمیت
انتخاب بهترین تکنیک خلاصه سازی
در مقاله پژوهشی، “جستجو برای بهترین روش ها در بازیابی-نسل افزایش یافته” نویسندگان روشهای مختلف خلاصهسازی را بر روی سه مجموعه داده معیار ارزیابی کردند: NQ، TriviaQA، و HotpotQA. RECOMP برای عملکرد فوق العاده آن توصیه شد.
نتایج جستجو برای شیوههای بهینه RAG نشان میدهد که «Avg» (امتیاز میانگین) بر اساس امتیازات Acc، EM و RAG برای همه کارها محاسبه میشود، در حالی که میانگین تأخیر بر حسب ثانیه در هر پرسوجو اندازهگیری میشود. بهترین نمرات با پررنگ مشخص شده اند.
آشنایی با تنظیم دقیق ژنراتور
تنظیم دقیق فرآیند گرفتن یک مدل از پیش آموزشدیده و انجام تنظیمات بیشتر در پارامترهای آن در یک مجموعه داده کوچکتر و مختص کار برای بهبود عملکرد آن در آن کار خاص است. در اینجا، در این مورد، زمانی که یک پرس و جو با زمینه جفت شود، وظیفه تولید پاسخ خواهد بود. در مقاله پژوهشی “جستجو برای بهترین روش ها در بازیابی-نسل افزایش یافته” نویسندگان بر تنظیم دقیق ژنراتور تمرکز کردند. هدف آنها بررسی تأثیر تنظیم دقیق بود، به ویژه اینکه چگونه زمینه های مرتبط یا نامربوط بر عملکرد ژنراتور تأثیر می گذارد.
فرو رفتن عمیق در فرآیند تنظیم دقیق
برای فرآیند تنظیم دقیق، ورودی پرس و جو به سیستم RAG به عنوان “x” و “D” به عنوان زمینه های ورودی مشخص می شود. از دست دادن تنظیم دقیق برای ژنراتور به عنوان احتمال ورود به سیستم منفی خروجی حقیقت زمینی 'y' تعریف شد. لاگ احتمال منفی اندازه گیری می کند که چگونه توزیع احتمال پیش بینی شده با توزیع واقعی داده ها مطابقت دارد.
L (تابع ضرر) =−logP(y∣x,D)، در اینجا P(y∣x,D) احتمال خروجی حقیقت پایه y با توجه به پرس و جو x و زمینه های D است.
برای بررسی تأثیر تنظیم دقیق، بهویژه در زمینههای مرتبط و نامربوط، نویسندگان (d_{gold}) را به عنوان یک زمینه مرتبط با پرس و جو و (d_{تصادفی}) را به عنوان یک زمینه بهطور تصادفی بازیابی شده تعریف کردند. آنها مدل را با استفاده از ترکیبات مختلف (D) به شرح زیر آموزش دادند:
(D_g): زمینه افزوده شده شامل اسناد مربوط به پرس و جو است که با (D_g = {d_gold}) نشان داده شده است.
(D_r): متن حاوی یک سند نمونهبرداری تصادفی بود که با علامت (D_r = {d_random}) مشخص میشد.
(D_{gr}): زمینه افزوده شده شامل یک سند مرتبط و یک سند انتخابی تصادفی است که به صورت (D_{gr} = {d_gold}، d_{تصادفی}}) نشان داده شده است.
(D_{gg}): زمینه افزوده شده شامل دو کپی از یک سند مربوط به پرس و جو است که به صورت (D_{gg} = {d_{gold}, d_{gold}}) مشخص میشود.
در این مطالعه، Llama-2-7b به عنوان مدل پایه انتخاب شد. ژنراتور پایه LM بدون تنظیم دقیق به عنوان (M_b) و مدل تنظیم دقیق با زمینه های مختلف به عنوان (M_g)، (M_r)، (M_{gr}) و (M_{gg}) نامیده می شود. ). مدلها با استفاده از مجموعه دادههای مختلف QA و درک خواندن بهخوبی تنظیم شدند. پوشش حقیقت پایه به دلیل ماهیت کوتاه مدت پاسخ های تکلیف QA به عنوان معیار ارزیابی استفاده شد.
انتخاب بهترین روش زمینه برای تنظیم دقیق
پس از فرآیند آموزش، همه مدلهای آموزشدیده در مجموعههای اعتبارسنجی با (D_g)، (D_r)، (D_{gr})، و (D_{∅}) مورد ارزیابی قرار گرفتند، که در آن (D_{∅}) استنتاج بدون بازیابی را نشان میدهد.
نتایج تنظیم دقیق ژنراتور
نتایج نشان میدهد که مدلهایی که با ترکیبی از اسناد مرتبط و تصادفی ((M_{gr})) آموزش داده شدهاند، بهترین عملکرد را زمانی دارند که با زمینههای طلایی یا ترکیبی ارائه شوند. این یافته نشان میدهد که ترکیب زمینههای مرتبط و تصادفی در طول آموزش میتواند استحکام تولیدکننده را برای اطلاعات نامربوط افزایش دهد و در عین حال استفاده مؤثر از زمینههای مربوطه را تضمین کند.
نتیجه گیری
در این وبلاگ، روشهایی را برای بهبود بخش تولید سیستمهای RAG بررسی کردیم. بسته بندی مجدد اسناد با روش “طرفین”، با بهینه سازی ترتیب اسناد، دقت پاسخ را بهبود می بخشد. تکنیکهای خلاصهسازی مانند RECOMP و LongLLMLingua باعث کاهش افزونگی و افزایش کارایی میشوند و RECOMP عملکرد برتر را نشان میدهد. تنظیم دقیق ژنراتور عملکرد مدل را برای کارهای خاص با استفاده از مرتبط و نامربوط بهبود می بخشد.
مقدمه
در بخش اول از سری “درک RAG”، ما سه جزء اصلی RAG را بیان کردیم: نمایه سازی، بازیابی و تولید. در قسمتهای قبل، تکنیکهای بهبود نمایهسازی و بازیابی را مورد بحث قرار دادیم. این وبلاگ بر روی روشهایی برای تقویت مولفه تولید نسل افزوده بازیابی (RAG) تمرکز خواهد کرد. ما تکنیکهایی مانند بستهبندی مجدد اسناد، خلاصهسازی، و تنظیم دقیق مدلهای LLM برای تولید را بررسی خواهیم کرد، که همگی برای اصلاح اطلاعاتی که به فرآیند تولید وارد میشوند، حیاتی هستند.
آشنایی با بسته بندی مجدد اسناد
بسته بندی مجدد اسناد تکنیکی است که در گردش کار RAG برای بهبود عملکرد تولید پاسخ استفاده می شود. پس از مرحله رتبه بندی مجدد، که در آن K اسناد برتر بر اساس امتیاز مربوط به آنها انتخاب می شوند، بسته بندی مجدد اسناد ترتیب ارائه این اسناد به مدل LLM را بهینه می کند. این بازآرایی تضمین میکند که LLM میتواند با تمرکز بر مرتبطترین اطلاعات، پاسخهای دقیقتر و مرتبطتری ایجاد کند.
روش های مختلف بسته بندی مجدد
سه روش اصلی بسته بندی مجدد وجود دارد:
-
روش رو به جلو: در این رویکرد، اسناد به ترتیب نزولی بر اساس امتیاز مربوط به آنها بسته بندی می شوند. این بدان معنی است که مرتبط ترین اسناد، همانطور که در مرحله رتبه بندی مجدد تعیین می شود، در ابتدای ورودی قرار می گیرند.
-
روش معکوس: برعکس، روش معکوس اسناد را به ترتیب صعودی امتیازهای مربوط به آنها مرتب می کند. در اینجا ابتدا کمترین ارتباط و مرتبط ترین مدارک در انتها قرار می گیرد.
-
روش طرفین: روش sides به طور استراتژیک مرتبط ترین اسناد را در سر و انتهای دنباله ورودی قرار می دهد و اطمینان می دهد که اطلاعات حیاتی به طور برجسته برای LLM قرار دارند.
انتخاب بهترین روش بسته بندی مجدد
در مقاله پژوهشی، “جستجو برای بهترین روش ها در RAGEneration” نویسندگان عملکرد تکنیک های مختلف بسته بندی مجدد را برای تعیین موثرترین رویکرد ارزیابی کردند و روش “معکوس” به عنوان موثرترین روش بسته بندی مجدد ظاهر شد.
نتایج جستجو برای شیوههای بهینه RAG نشان میدهد که «Avg» (امتیاز میانگین) بر اساس امتیازات Acc، EM و RAG برای همه کارها محاسبه میشود، در حالی که میانگین تأخیر بر حسب ثانیه در هر پرسوجو اندازهگیری میشود. بهترین نمرات با پررنگ مشخص شده اند.
درک خلاصه سازی اسناد
خلاصه سازی در RAG شامل متراکم کردن اسناد بازیابی شده برای افزایش ارتباط و کارایی تولید پاسخ با حذف افزونگی و کاهش طول سریع قبل از ارسال آنها به مدل LLM برای تولید است. وظایف خلاصه سازی می تواند استخراجی یا انتزاعی باشد. روشهای استخراجی اسناد را به جملات تقسیم میکنند، سپس آنها را بر اساس اهمیت نمرهگذاری و رتبهبندی میکنند. کمپرسورهای انتزاعی اطلاعات را از چندین سند ترکیب میکنند تا آن را بازنویسی کنند و یک خلاصه منسجم ایجاد کنند. این وظایف می توانند مبتنی بر پرس و جو، با تمرکز بر اطلاعات مربوط به یک پرس و جو خاص، یا غیر مبتنی بر پرس و جو، با تمرکز بر فشرده سازی اطلاعات عمومی باشند.
هدف از خلاصه سازی در RAG
- افزونگی را کاهش دهید: اسناد بازیابی شده می تواند حاوی جزئیات تکراری یا نامربوط باشد. خلاصه سازی به فیلتر کردن این اطلاعات غیر ضروری کمک می کند.
- افزایش کارایی: اسناد یا درخواست های طولانی می توانند مدل زبان (LLM) را در طول استنتاج کند کنند. خلاصه سازی به ایجاد ورودی های مختصرتر کمک می کند و سرعت تولید پاسخ را افزایش می دهد.
عملکرد در مقابل شماره سند
در شکل بالا به وضوح می توان مشاهده کرد که با افزایش تعداد اسناد در اعلان، عملکرد LLM در وظایف پایین دستی کاهش می یابد. بنابراین، خلاصه کردن اسناد بازیابی شده برای حفظ عملکرد ضروری است.
تکنیک های خلاصه سازی
تکنیکهای خلاصهسازی متعددی وجود دارد که میتوان در چارچوبهای RAG از آنها استفاده کرد. در این وبلاگ به دو تکنیک از این دست می پردازیم:
- RECOMP: تکنیکی است که اسناد بازیابی شده را با استفاده از یکی از دو روش فشرده سازی استخراجی یا انتزاعی بسته به مورد استفاده فشرده می کند. Extractive برای حفظ متن دقیق استفاده می شود، در حالی که abstractive خلاصه ها را ترکیب می کند. این تصمیم بر اساس نیازهای کار، طول سند، منابع محاسباتی و عملکرد است. کمپرسور استخراجی جملات کلیدی را با استفاده از یک مدل رمزگذار دوگانه برای رتبه بندی جملات بر اساس شباهت آنها به پرس و جو انتخاب می کند. از سوی دیگر، کمپرسور انتزاعی، خلاصههای جدیدی را با یک مدل رمزگذار-رمزگشا ایجاد میکند که بر روی مجموعه دادههای بزرگ حاوی جفتهای سند-خلاصه آموزش دیده است. این خلاصههای فشرده سپس به ورودی اصلی اضافه میشوند و مدل زبان را با زمینهای متمرکز و مختصر ارائه میکنند.
منبع
- LongLLMLlingua: این تکنیک از ترکیبی از روشهای فشردهسازی درشت دانه و ریزدانه آگاهانه برای افزایش چگالی اطلاعات کلیدی و بهبود عملکرد مدل استفاده میکند.
در فشرده سازی درشت دانه، گیجی برای هر سند بازیابی شده با توجه به پرس و جو داده شده اندازه گیری می شود. سپس، تمام اسناد بر اساس امتیاز گیجی از پایین ترین به بالاترین رتبه بندی می شوند. اسنادی با گیجی کمتر به این سوال مربوط می شوند.
فرمول گیجی
در فرمول فوق، k نمایانگر سند یا دنباله در نظر گرفته شده است. N_k تعداد کلمات یا نشانه ها در سند یا دنباله k-ام است. p(x_doc_k، i) نشان دهنده احتمال i-امین کلمه یا نشانه x در سند k-ام مطابق مدل است.
فشردهسازی ریزدانه آگاهانه روشی برای اصلاح بیشتر اسناد یا قسمتهایی است که پس از فشردهسازی درشت دانه با تمرکز بر مرتبطترین بخشهای آن اسناد حفظ شدهاند. برای هر کلمه یا نشانه در اسناد حفظ شده، اهمیت با توجه به درخواست داده شده محاسبه می شود. سپس، نشانهها بر اساس امتیاز اهمیتشان، از مهمترین به کماهمیت رتبهبندی میشوند.
فرمول اهمیت
انتخاب بهترین تکنیک خلاصه سازی
در مقاله پژوهشی، “جستجو برای بهترین روش ها در بازیابی-نسل افزایش یافته” نویسندگان روشهای مختلف خلاصهسازی را بر روی سه مجموعه داده معیار ارزیابی کردند: NQ، TriviaQA، و HotpotQA. RECOMP برای عملکرد فوق العاده آن توصیه شد.
نتایج جستجو برای شیوههای بهینه RAG نشان میدهد که «Avg» (امتیاز میانگین) بر اساس امتیازات Acc، EM و RAG برای همه کارها محاسبه میشود، در حالی که میانگین تأخیر بر حسب ثانیه در هر پرسوجو اندازهگیری میشود. بهترین نمرات با پررنگ مشخص شده اند.
آشنایی با تنظیم دقیق ژنراتور
تنظیم دقیق فرآیند گرفتن یک مدل از پیش آموزشدیده و انجام تنظیمات بیشتر در پارامترهای آن در یک مجموعه داده کوچکتر و مختص کار برای بهبود عملکرد آن در آن کار خاص است. در اینجا، در این مورد، زمانی که یک پرس و جو با زمینه جفت شود، وظیفه تولید پاسخ خواهد بود. در مقاله پژوهشی “جستجو برای بهترین روش ها در بازیابی-نسل افزایش یافته” نویسندگان بر تنظیم دقیق ژنراتور تمرکز کردند. هدف آنها بررسی تأثیر تنظیم دقیق بود، به ویژه اینکه چگونه زمینه های مرتبط یا نامربوط بر عملکرد ژنراتور تأثیر می گذارد.
فرو رفتن عمیق در فرآیند تنظیم دقیق
برای فرآیند تنظیم دقیق، ورودی پرس و جو به سیستم RAG به عنوان “x” و “D” به عنوان زمینه های ورودی مشخص می شود. از دست دادن تنظیم دقیق برای ژنراتور به عنوان احتمال ورود به سیستم منفی خروجی حقیقت زمینی 'y' تعریف شد. لاگ احتمال منفی اندازه گیری می کند که چگونه توزیع احتمال پیش بینی شده با توزیع واقعی داده ها مطابقت دارد.
L (تابع ضرر) =−logP(y∣x,D)، در اینجا P(y∣x,D) احتمال خروجی حقیقت پایه y با توجه به پرس و جو x و زمینه های D است.
برای بررسی تأثیر تنظیم دقیق، بهویژه در زمینههای مرتبط و نامربوط، نویسندگان (d_{gold}) را به عنوان یک زمینه مرتبط با پرس و جو و (d_{تصادفی}) را به عنوان یک زمینه بهطور تصادفی بازیابی شده تعریف کردند. آنها مدل را با استفاده از ترکیبات مختلف (D) به شرح زیر آموزش دادند:
- (D_g): زمینه افزوده شده شامل اسناد مربوط به پرس و جو است که با (D_g = {d_gold}) نشان داده شده است.
- (D_r): متن حاوی یک سند نمونهبرداری تصادفی بود که با علامت (D_r = {d_random}) مشخص میشد.
- (D_{gr}): زمینه افزوده شده شامل یک سند مرتبط و یک سند انتخابی تصادفی است که به صورت (D_{gr} = {d_gold}، d_{تصادفی}}) نشان داده شده است.
- (D_{gg}): زمینه افزوده شده شامل دو کپی از یک سند مربوط به پرس و جو است که به صورت (D_{gg} = {d_{gold}, d_{gold}}) مشخص میشود.
در این مطالعه، Llama-2-7b به عنوان مدل پایه انتخاب شد. ژنراتور پایه LM بدون تنظیم دقیق به عنوان (M_b) و مدل تنظیم دقیق با زمینه های مختلف به عنوان (M_g)، (M_r)، (M_{gr}) و (M_{gg}) نامیده می شود. ). مدلها با استفاده از مجموعه دادههای مختلف QA و درک خواندن بهخوبی تنظیم شدند. پوشش حقیقت پایه به دلیل ماهیت کوتاه مدت پاسخ های تکلیف QA به عنوان معیار ارزیابی استفاده شد.
انتخاب بهترین روش زمینه برای تنظیم دقیق
پس از فرآیند آموزش، همه مدلهای آموزشدیده در مجموعههای اعتبارسنجی با (D_g)، (D_r)، (D_{gr})، و (D_{∅}) مورد ارزیابی قرار گرفتند، که در آن (D_{∅}) استنتاج بدون بازیابی را نشان میدهد.
نتایج تنظیم دقیق ژنراتور
نتایج نشان میدهد که مدلهایی که با ترکیبی از اسناد مرتبط و تصادفی ((M_{gr})) آموزش داده شدهاند، بهترین عملکرد را زمانی دارند که با زمینههای طلایی یا ترکیبی ارائه شوند. این یافته نشان میدهد که ترکیب زمینههای مرتبط و تصادفی در طول آموزش میتواند استحکام تولیدکننده را برای اطلاعات نامربوط افزایش دهد و در عین حال استفاده مؤثر از زمینههای مربوطه را تضمین کند.
نتیجه گیری
در این وبلاگ، روشهایی را برای بهبود بخش تولید سیستمهای RAG بررسی کردیم. بسته بندی مجدد اسناد با روش “طرفین”، با بهینه سازی ترتیب اسناد، دقت پاسخ را بهبود می بخشد. تکنیکهای خلاصهسازی مانند RECOMP و LongLLMLingua باعث کاهش افزونگی و افزایش کارایی میشوند و RECOMP عملکرد برتر را نشان میدهد. تنظیم دقیق ژنراتور عملکرد مدل را برای کارهای خاص با استفاده از مرتبط و نامربوط بهبود می بخشد.