برنامه نویسی

درک RAG (قسمت 4): بهینه سازی مولفه تولید

Summarize this content to 400 words in Persian Lang

مقدمه

در بخش اول از سری “درک RAG”، ما سه جزء اصلی RAG را بیان کردیم: نمایه سازی، بازیابی و تولید. در قسمت‌های قبل، تکنیک‌های بهبود نمایه‌سازی و بازیابی را مورد بحث قرار دادیم. این وبلاگ بر روی روش‌هایی برای تقویت مولفه تولید نسل افزوده بازیابی (RAG) تمرکز خواهد کرد. ما تکنیک‌هایی مانند بسته‌بندی مجدد اسناد، خلاصه‌سازی، و تنظیم دقیق مدل‌های LLM برای تولید را بررسی خواهیم کرد، که همگی برای اصلاح اطلاعاتی که به فرآیند تولید وارد می‌شوند، حیاتی هستند.

آشنایی با بسته بندی مجدد اسناد

بسته بندی مجدد اسناد تکنیکی است که در گردش کار RAG برای بهبود عملکرد تولید پاسخ استفاده می شود. پس از مرحله رتبه بندی مجدد، که در آن K اسناد برتر بر اساس امتیاز مربوط به آنها انتخاب می شوند، بسته بندی مجدد اسناد ترتیب ارائه این اسناد به مدل LLM را بهینه می کند. این بازآرایی تضمین می‌کند که LLM می‌تواند با تمرکز بر مرتبط‌ترین اطلاعات، پاسخ‌های دقیق‌تر و مرتبط‌تری ایجاد کند.

روش های مختلف بسته بندی مجدد

سه روش اصلی بسته بندی مجدد وجود دارد:

روش رو به جلو: در این رویکرد، اسناد به ترتیب نزولی بر اساس امتیاز مربوط به آنها بسته بندی می شوند. این بدان معنی است که مرتبط ترین اسناد، همانطور که در مرحله رتبه بندی مجدد تعیین می شود، در ابتدای ورودی قرار می گیرند.
روش معکوس: برعکس، روش معکوس اسناد را به ترتیب صعودی امتیازهای مربوط به آنها مرتب می کند. در اینجا ابتدا کمترین ارتباط و مرتبط ترین مدارک در انتها قرار می گیرد.
روش طرفین: روش sides به طور استراتژیک مرتبط ترین اسناد را در سر و انتهای دنباله ورودی قرار می دهد و اطمینان می دهد که اطلاعات حیاتی به طور برجسته برای LLM قرار دارند.

انتخاب بهترین روش بسته بندی مجدد

در مقاله پژوهشی، “جستجو برای بهترین روش ها در RAGEneration” نویسندگان عملکرد تکنیک های مختلف بسته بندی مجدد را برای تعیین موثرترین رویکرد ارزیابی کردند و روش “معکوس” به عنوان موثرترین روش بسته بندی مجدد ظاهر شد.

نتایج جستجو برای شیوه‌های بهینه RAG نشان می‌دهد که «Avg» (امتیاز میانگین) بر اساس امتیازات Acc، EM و RAG برای همه کارها محاسبه می‌شود، در حالی که میانگین تأخیر بر حسب ثانیه در هر پرس‌وجو اندازه‌گیری می‌شود. بهترین نمرات با پررنگ مشخص شده اند.

درک خلاصه سازی اسناد

خلاصه سازی در RAG شامل متراکم کردن اسناد بازیابی شده برای افزایش ارتباط و کارایی تولید پاسخ با حذف افزونگی و کاهش طول سریع قبل از ارسال آنها به مدل LLM برای تولید است. وظایف خلاصه سازی می تواند استخراجی یا انتزاعی باشد. روش‌های استخراجی اسناد را به جملات تقسیم می‌کنند، سپس آنها را بر اساس اهمیت نمره‌گذاری و رتبه‌بندی می‌کنند. کمپرسورهای انتزاعی اطلاعات را از چندین سند ترکیب می‌کنند تا آن را بازنویسی کنند و یک خلاصه منسجم ایجاد کنند. این وظایف می توانند مبتنی بر پرس و جو، با تمرکز بر اطلاعات مربوط به یک پرس و جو خاص، یا غیر مبتنی بر پرس و جو، با تمرکز بر فشرده سازی اطلاعات عمومی باشند.

هدف از خلاصه سازی در RAG

افزونگی را کاهش دهید: اسناد بازیابی شده می تواند حاوی جزئیات تکراری یا نامربوط باشد. خلاصه سازی به فیلتر کردن این اطلاعات غیر ضروری کمک می کند.

افزایش کارایی: اسناد یا درخواست های طولانی می توانند مدل زبان (LLM) را در طول استنتاج کند کنند. خلاصه سازی به ایجاد ورودی های مختصرتر کمک می کند و سرعت تولید پاسخ را افزایش می دهد.

عملکرد در مقابل شماره سند

در شکل بالا به وضوح می توان مشاهده کرد که با افزایش تعداد اسناد در اعلان، عملکرد LLM در وظایف پایین دستی کاهش می یابد. بنابراین، خلاصه کردن اسناد بازیابی شده برای حفظ عملکرد ضروری است.

تکنیک های خلاصه سازی

تکنیک‌های خلاصه‌سازی متعددی وجود دارد که می‌توان در چارچوب‌های RAG از آنها استفاده کرد. در این وبلاگ به دو تکنیک از این دست می پردازیم:

RECOMP: تکنیکی است که اسناد بازیابی شده را با استفاده از یکی از دو روش فشرده سازی استخراجی یا انتزاعی بسته به مورد استفاده فشرده می کند. Extractive برای حفظ متن دقیق استفاده می شود، در حالی که abstractive خلاصه ها را ترکیب می کند. این تصمیم بر اساس نیازهای کار، طول سند، منابع محاسباتی و عملکرد است. کمپرسور استخراجی جملات کلیدی را با استفاده از یک مدل رمزگذار دوگانه برای رتبه بندی جملات بر اساس شباهت آنها به پرس و جو انتخاب می کند. از سوی دیگر، کمپرسور انتزاعی، خلاصه‌های جدیدی را با یک مدل رمزگذار-رمزگشا ایجاد می‌کند که بر روی مجموعه داده‌های بزرگ حاوی جفت‌های سند-خلاصه آموزش دیده است. این خلاصه‌های فشرده سپس به ورودی اصلی اضافه می‌شوند و مدل زبان را با زمینه‌ای متمرکز و مختصر ارائه می‌کنند.

منبع

LongLLMLlingua: این تکنیک از ترکیبی از روش‌های فشرده‌سازی درشت دانه و ریزدانه آگاهانه برای افزایش چگالی اطلاعات کلیدی و بهبود عملکرد مدل استفاده می‌کند.

در فشرده سازی درشت دانه، گیجی برای هر سند بازیابی شده با توجه به پرس و جو داده شده اندازه گیری می شود. سپس، تمام اسناد بر اساس امتیاز گیجی از پایین ترین به بالاترین رتبه بندی می شوند. اسنادی با گیجی کمتر به این سوال مربوط می شوند.

فرمول گیجی

در فرمول فوق، k نمایانگر سند یا دنباله در نظر گرفته شده است. N_k تعداد کلمات یا نشانه ها در سند یا دنباله k-ام است. p(x_doc_k، i​) نشان دهنده احتمال i-امین کلمه یا نشانه x در سند k-ام مطابق مدل است.

فشرده‌سازی ریزدانه آگاهانه روشی برای اصلاح بیشتر اسناد یا قسمت‌هایی است که پس از فشرده‌سازی درشت دانه با تمرکز بر مرتبط‌ترین بخش‌های آن اسناد حفظ شده‌اند. برای هر کلمه یا نشانه در اسناد حفظ شده، اهمیت با توجه به درخواست داده شده محاسبه می شود. سپس، نشانه‌ها بر اساس امتیاز اهمیتشان، از مهم‌ترین به کم‌اهمیت رتبه‌بندی می‌شوند.

فرمول اهمیت

انتخاب بهترین تکنیک خلاصه سازی

در مقاله پژوهشی، “جستجو برای بهترین روش ها در بازیابی-نسل افزایش یافته” نویسندگان روش‌های مختلف خلاصه‌سازی را بر روی سه مجموعه داده معیار ارزیابی کردند: NQ، TriviaQA، و HotpotQA. RECOMP برای عملکرد فوق العاده آن توصیه شد.

نتایج جستجو برای شیوه‌های بهینه RAG نشان می‌دهد که «Avg» (امتیاز میانگین) بر اساس امتیازات Acc، EM و RAG برای همه کارها محاسبه می‌شود، در حالی که میانگین تأخیر بر حسب ثانیه در هر پرس‌وجو اندازه‌گیری می‌شود. بهترین نمرات با پررنگ مشخص شده اند.

آشنایی با تنظیم دقیق ژنراتور

تنظیم دقیق فرآیند گرفتن یک مدل از پیش آموزش‌دیده و انجام تنظیمات بیشتر در پارامترهای آن در یک مجموعه داده کوچکتر و مختص کار برای بهبود عملکرد آن در آن کار خاص است. در اینجا، در این مورد، زمانی که یک پرس و جو با زمینه جفت شود، وظیفه تولید پاسخ خواهد بود. در مقاله پژوهشی “جستجو برای بهترین روش ها در بازیابی-نسل افزایش یافته” نویسندگان بر تنظیم دقیق ژنراتور تمرکز کردند. هدف آنها بررسی تأثیر تنظیم دقیق بود، به ویژه اینکه چگونه زمینه های مرتبط یا نامربوط بر عملکرد ژنراتور تأثیر می گذارد.

فرو رفتن عمیق در فرآیند تنظیم دقیق

برای فرآیند تنظیم دقیق، ورودی پرس و جو به سیستم RAG به عنوان “x” و “D” به عنوان زمینه های ورودی مشخص می شود. از دست دادن تنظیم دقیق برای ژنراتور به عنوان احتمال ورود به سیستم منفی خروجی حقیقت زمینی 'y' تعریف شد. لاگ احتمال منفی اندازه گیری می کند که چگونه توزیع احتمال پیش بینی شده با توزیع واقعی داده ها مطابقت دارد.

L (تابع ضرر) =−logP(y∣x,D)، در اینجا P(y∣x,D) احتمال خروجی حقیقت پایه y با توجه به پرس و جو x و زمینه های D است.

برای بررسی تأثیر تنظیم دقیق، به‌ویژه در زمینه‌های مرتبط و نامربوط، نویسندگان (d_{gold}) را به عنوان یک زمینه مرتبط با پرس و جو و (d_{تصادفی}) را به عنوان یک زمینه به‌طور تصادفی بازیابی شده تعریف کردند. آنها مدل را با استفاده از ترکیبات مختلف (D) به شرح زیر آموزش دادند:

(D_g): زمینه افزوده شده شامل اسناد مربوط به پرس و جو است که با (D_g = {d_gold}) نشان داده شده است.

(D_r): متن حاوی یک سند نمونه‌برداری تصادفی بود که با علامت (D_r = {d_random}) مشخص می‌شد.

(D_{gr}): زمینه افزوده شده شامل یک سند مرتبط و یک سند انتخابی تصادفی است که به صورت (D_{gr} = {d_gold}، d_{تصادفی}}) نشان داده شده است.

(D_{gg}): زمینه افزوده شده شامل دو کپی از یک سند مربوط به پرس و جو است که به صورت (D_{gg} = {d_{gold}, d_{gold}}) مشخص می‌شود.

در این مطالعه، Llama-2-7b به عنوان مدل پایه انتخاب شد. ژنراتور پایه LM بدون تنظیم دقیق به عنوان (M_b) و مدل تنظیم دقیق با زمینه های مختلف به عنوان (M_g)، (M_r)، (M_{gr}) و (M_{gg}) نامیده می شود. ). مدل‌ها با استفاده از مجموعه داده‌های مختلف QA و درک خواندن به‌خوبی تنظیم شدند. پوشش حقیقت پایه به دلیل ماهیت کوتاه مدت پاسخ های تکلیف QA به عنوان معیار ارزیابی استفاده شد.

انتخاب بهترین روش زمینه برای تنظیم دقیق

پس از فرآیند آموزش، همه مدل‌های آموزش‌دیده در مجموعه‌های اعتبارسنجی با (D_g)، (D_r)، (D_{gr})، و (D_{∅}) مورد ارزیابی قرار گرفتند، که در آن (D_{∅}) استنتاج بدون بازیابی را نشان می‌دهد.

نتایج تنظیم دقیق ژنراتور

نتایج نشان می‌دهد که مدل‌هایی که با ترکیبی از اسناد مرتبط و تصادفی ((M_{gr})) آموزش داده شده‌اند، بهترین عملکرد را زمانی دارند که با زمینه‌های طلایی یا ترکیبی ارائه شوند. این یافته نشان می‌دهد که ترکیب زمینه‌های مرتبط و تصادفی در طول آموزش می‌تواند استحکام تولیدکننده را برای اطلاعات نامربوط افزایش دهد و در عین حال استفاده مؤثر از زمینه‌های مربوطه را تضمین کند.

نتیجه گیری

در این وبلاگ، روش‌هایی را برای بهبود بخش تولید سیستم‌های RAG بررسی کردیم. بسته بندی مجدد اسناد با روش “طرفین”، با بهینه سازی ترتیب اسناد، دقت پاسخ را بهبود می بخشد. تکنیک‌های خلاصه‌سازی مانند RECOMP و LongLLMLingua باعث کاهش افزونگی و افزایش کارایی می‌شوند و RECOMP عملکرد برتر را نشان می‌دهد. تنظیم دقیق ژنراتور عملکرد مدل را برای کارهای خاص با استفاده از مرتبط و نامربوط بهبود می بخشد.

مقدمه

در بخش اول از سری “درک RAG”، ما سه جزء اصلی RAG را بیان کردیم: نمایه سازی، بازیابی و تولید. در قسمت‌های قبل، تکنیک‌های بهبود نمایه‌سازی و بازیابی را مورد بحث قرار دادیم. این وبلاگ بر روی روش‌هایی برای تقویت مولفه تولید نسل افزوده بازیابی (RAG) تمرکز خواهد کرد. ما تکنیک‌هایی مانند بسته‌بندی مجدد اسناد، خلاصه‌سازی، و تنظیم دقیق مدل‌های LLM برای تولید را بررسی خواهیم کرد، که همگی برای اصلاح اطلاعاتی که به فرآیند تولید وارد می‌شوند، حیاتی هستند.

آشنایی با بسته بندی مجدد اسناد

بسته بندی مجدد اسناد تکنیکی است که در گردش کار RAG برای بهبود عملکرد تولید پاسخ استفاده می شود. پس از مرحله رتبه بندی مجدد، که در آن K اسناد برتر بر اساس امتیاز مربوط به آنها انتخاب می شوند، بسته بندی مجدد اسناد ترتیب ارائه این اسناد به مدل LLM را بهینه می کند. این بازآرایی تضمین می‌کند که LLM می‌تواند با تمرکز بر مرتبط‌ترین اطلاعات، پاسخ‌های دقیق‌تر و مرتبط‌تری ایجاد کند.

توضیحات تصویر

روش های مختلف بسته بندی مجدد

سه روش اصلی بسته بندی مجدد وجود دارد:

  1. روش رو به جلو: در این رویکرد، اسناد به ترتیب نزولی بر اساس امتیاز مربوط به آنها بسته بندی می شوند. این بدان معنی است که مرتبط ترین اسناد، همانطور که در مرحله رتبه بندی مجدد تعیین می شود، در ابتدای ورودی قرار می گیرند.

  2. روش معکوس: برعکس، روش معکوس اسناد را به ترتیب صعودی امتیازهای مربوط به آنها مرتب می کند. در اینجا ابتدا کمترین ارتباط و مرتبط ترین مدارک در انتها قرار می گیرد.

  3. روش طرفین: روش sides به طور استراتژیک مرتبط ترین اسناد را در سر و انتهای دنباله ورودی قرار می دهد و اطمینان می دهد که اطلاعات حیاتی به طور برجسته برای LLM قرار دارند.

توضیحات تصویر

انتخاب بهترین روش بسته بندی مجدد

در مقاله پژوهشی، “جستجو برای بهترین روش ها در RAGEneration” نویسندگان عملکرد تکنیک های مختلف بسته بندی مجدد را برای تعیین موثرترین رویکرد ارزیابی کردند و روش “معکوس” به عنوان موثرترین روش بسته بندی مجدد ظاهر شد.

توضیحات تصویر

نتایج جستجو برای شیوه‌های بهینه RAG نشان می‌دهد که «Avg» (امتیاز میانگین) بر اساس امتیازات Acc، EM و RAG برای همه کارها محاسبه می‌شود، در حالی که میانگین تأخیر بر حسب ثانیه در هر پرس‌وجو اندازه‌گیری می‌شود. بهترین نمرات با پررنگ مشخص شده اند.

درک خلاصه سازی اسناد

خلاصه سازی در RAG شامل متراکم کردن اسناد بازیابی شده برای افزایش ارتباط و کارایی تولید پاسخ با حذف افزونگی و کاهش طول سریع قبل از ارسال آنها به مدل LLM برای تولید است. وظایف خلاصه سازی می تواند استخراجی یا انتزاعی باشد. روش‌های استخراجی اسناد را به جملات تقسیم می‌کنند، سپس آنها را بر اساس اهمیت نمره‌گذاری و رتبه‌بندی می‌کنند. کمپرسورهای انتزاعی اطلاعات را از چندین سند ترکیب می‌کنند تا آن را بازنویسی کنند و یک خلاصه منسجم ایجاد کنند. این وظایف می توانند مبتنی بر پرس و جو، با تمرکز بر اطلاعات مربوط به یک پرس و جو خاص، یا غیر مبتنی بر پرس و جو، با تمرکز بر فشرده سازی اطلاعات عمومی باشند.

هدف از خلاصه سازی در RAG

  • افزونگی را کاهش دهید: اسناد بازیابی شده می تواند حاوی جزئیات تکراری یا نامربوط باشد. خلاصه سازی به فیلتر کردن این اطلاعات غیر ضروری کمک می کند.
  • افزایش کارایی: اسناد یا درخواست های طولانی می توانند مدل زبان (LLM) را در طول استنتاج کند کنند. خلاصه سازی به ایجاد ورودی های مختصرتر کمک می کند و سرعت تولید پاسخ را افزایش می دهد.

توضیحات تصویر
عملکرد در مقابل شماره سند

در شکل بالا به وضوح می توان مشاهده کرد که با افزایش تعداد اسناد در اعلان، عملکرد LLM در وظایف پایین دستی کاهش می یابد. بنابراین، خلاصه کردن اسناد بازیابی شده برای حفظ عملکرد ضروری است.

تکنیک های خلاصه سازی

تکنیک‌های خلاصه‌سازی متعددی وجود دارد که می‌توان در چارچوب‌های RAG از آنها استفاده کرد. در این وبلاگ به دو تکنیک از این دست می پردازیم:

  1. RECOMP: تکنیکی است که اسناد بازیابی شده را با استفاده از یکی از دو روش فشرده سازی استخراجی یا انتزاعی بسته به مورد استفاده فشرده می کند. Extractive برای حفظ متن دقیق استفاده می شود، در حالی که abstractive خلاصه ها را ترکیب می کند. این تصمیم بر اساس نیازهای کار، طول سند، منابع محاسباتی و عملکرد است. کمپرسور استخراجی جملات کلیدی را با استفاده از یک مدل رمزگذار دوگانه برای رتبه بندی جملات بر اساس شباهت آنها به پرس و جو انتخاب می کند. از سوی دیگر، کمپرسور انتزاعی، خلاصه‌های جدیدی را با یک مدل رمزگذار-رمزگشا ایجاد می‌کند که بر روی مجموعه داده‌های بزرگ حاوی جفت‌های سند-خلاصه آموزش دیده است. این خلاصه‌های فشرده سپس به ورودی اصلی اضافه می‌شوند و مدل زبان را با زمینه‌ای متمرکز و مختصر ارائه می‌کنند.

توضیحات تصویر
منبع

  1. LongLLMLlingua: این تکنیک از ترکیبی از روش‌های فشرده‌سازی درشت دانه و ریزدانه آگاهانه برای افزایش چگالی اطلاعات کلیدی و بهبود عملکرد مدل استفاده می‌کند.

در فشرده سازی درشت دانه، گیجی برای هر سند بازیابی شده با توجه به پرس و جو داده شده اندازه گیری می شود. سپس، تمام اسناد بر اساس امتیاز گیجی از پایین ترین به بالاترین رتبه بندی می شوند. اسنادی با گیجی کمتر به این سوال مربوط می شوند.

توضیحات تصویر

فرمول گیجی

در فرمول فوق، k نمایانگر سند یا دنباله در نظر گرفته شده است. N_k تعداد کلمات یا نشانه ها در سند یا دنباله k-ام است. p(x_doc_k، i​) نشان دهنده احتمال i-امین کلمه یا نشانه x در سند k-ام مطابق مدل است.

فشرده‌سازی ریزدانه آگاهانه روشی برای اصلاح بیشتر اسناد یا قسمت‌هایی است که پس از فشرده‌سازی درشت دانه با تمرکز بر مرتبط‌ترین بخش‌های آن اسناد حفظ شده‌اند. برای هر کلمه یا نشانه در اسناد حفظ شده، اهمیت با توجه به درخواست داده شده محاسبه می شود. سپس، نشانه‌ها بر اساس امتیاز اهمیتشان، از مهم‌ترین به کم‌اهمیت رتبه‌بندی می‌شوند.

توضیحات تصویر
فرمول اهمیت

انتخاب بهترین تکنیک خلاصه سازی

در مقاله پژوهشی، “جستجو برای بهترین روش ها در بازیابی-نسل افزایش یافته” نویسندگان روش‌های مختلف خلاصه‌سازی را بر روی سه مجموعه داده معیار ارزیابی کردند: NQ، TriviaQA، و HotpotQA. RECOMP برای عملکرد فوق العاده آن توصیه شد.

توضیحات تصویر

نتایج جستجو برای شیوه‌های بهینه RAG نشان می‌دهد که «Avg» (امتیاز میانگین) بر اساس امتیازات Acc، EM و RAG برای همه کارها محاسبه می‌شود، در حالی که میانگین تأخیر بر حسب ثانیه در هر پرس‌وجو اندازه‌گیری می‌شود. بهترین نمرات با پررنگ مشخص شده اند.

آشنایی با تنظیم دقیق ژنراتور

تنظیم دقیق فرآیند گرفتن یک مدل از پیش آموزش‌دیده و انجام تنظیمات بیشتر در پارامترهای آن در یک مجموعه داده کوچکتر و مختص کار برای بهبود عملکرد آن در آن کار خاص است. در اینجا، در این مورد، زمانی که یک پرس و جو با زمینه جفت شود، وظیفه تولید پاسخ خواهد بود. در مقاله پژوهشی “جستجو برای بهترین روش ها در بازیابی-نسل افزایش یافته” نویسندگان بر تنظیم دقیق ژنراتور تمرکز کردند. هدف آنها بررسی تأثیر تنظیم دقیق بود، به ویژه اینکه چگونه زمینه های مرتبط یا نامربوط بر عملکرد ژنراتور تأثیر می گذارد.

فرو رفتن عمیق در فرآیند تنظیم دقیق

برای فرآیند تنظیم دقیق، ورودی پرس و جو به سیستم RAG به عنوان “x” و “D” به عنوان زمینه های ورودی مشخص می شود. از دست دادن تنظیم دقیق برای ژنراتور به عنوان احتمال ورود به سیستم منفی خروجی حقیقت زمینی 'y' تعریف شد. لاگ احتمال منفی اندازه گیری می کند که چگونه توزیع احتمال پیش بینی شده با توزیع واقعی داده ها مطابقت دارد.

L (تابع ضرر) =−logP(y∣x,D)، در اینجا P(y∣x,D) احتمال خروجی حقیقت پایه y با توجه به پرس و جو x و زمینه های D است.

برای بررسی تأثیر تنظیم دقیق، به‌ویژه در زمینه‌های مرتبط و نامربوط، نویسندگان (d_{gold}) را به عنوان یک زمینه مرتبط با پرس و جو و (d_{تصادفی}) را به عنوان یک زمینه به‌طور تصادفی بازیابی شده تعریف کردند. آنها مدل را با استفاده از ترکیبات مختلف (D) به شرح زیر آموزش دادند:

  • (D_g): زمینه افزوده شده شامل اسناد مربوط به پرس و جو است که با (D_g = {d_gold}) نشان داده شده است.
  • (D_r): متن حاوی یک سند نمونه‌برداری تصادفی بود که با علامت (D_r = {d_random}) مشخص می‌شد.
  • (D_{gr}): زمینه افزوده شده شامل یک سند مرتبط و یک سند انتخابی تصادفی است که به صورت (D_{gr} = {d_gold}، d_{تصادفی}}) نشان داده شده است.
  • (D_{gg}): زمینه افزوده شده شامل دو کپی از یک سند مربوط به پرس و جو است که به صورت (D_{gg} = {d_{gold}, d_{gold}}) مشخص می‌شود.

در این مطالعه، Llama-2-7b به عنوان مدل پایه انتخاب شد. ژنراتور پایه LM بدون تنظیم دقیق به عنوان (M_b) و مدل تنظیم دقیق با زمینه های مختلف به عنوان (M_g)، (M_r)، (M_{gr}) و (M_{gg}) نامیده می شود. ). مدل‌ها با استفاده از مجموعه داده‌های مختلف QA و درک خواندن به‌خوبی تنظیم شدند. پوشش حقیقت پایه به دلیل ماهیت کوتاه مدت پاسخ های تکلیف QA به عنوان معیار ارزیابی استفاده شد.

انتخاب بهترین روش زمینه برای تنظیم دقیق

پس از فرآیند آموزش، همه مدل‌های آموزش‌دیده در مجموعه‌های اعتبارسنجی با (D_g)، (D_r)، (D_{gr})، و (D_{∅}) مورد ارزیابی قرار گرفتند، که در آن (D_{∅}) استنتاج بدون بازیابی را نشان می‌دهد.

توضیحات تصویر
نتایج تنظیم دقیق ژنراتور

نتایج نشان می‌دهد که مدل‌هایی که با ترکیبی از اسناد مرتبط و تصادفی ((M_{gr})) آموزش داده شده‌اند، بهترین عملکرد را زمانی دارند که با زمینه‌های طلایی یا ترکیبی ارائه شوند. این یافته نشان می‌دهد که ترکیب زمینه‌های مرتبط و تصادفی در طول آموزش می‌تواند استحکام تولیدکننده را برای اطلاعات نامربوط افزایش دهد و در عین حال استفاده مؤثر از زمینه‌های مربوطه را تضمین کند.

نتیجه گیری

در این وبلاگ، روش‌هایی را برای بهبود بخش تولید سیستم‌های RAG بررسی کردیم. بسته بندی مجدد اسناد با روش “طرفین”، با بهینه سازی ترتیب اسناد، دقت پاسخ را بهبود می بخشد. تکنیک‌های خلاصه‌سازی مانند RECOMP و LongLLMLingua باعث کاهش افزونگی و افزایش کارایی می‌شوند و RECOMP عملکرد برتر را نشان می‌دهد. تنظیم دقیق ژنراتور عملکرد مدل را برای کارهای خاص با استفاده از مرتبط و نامربوط بهبود می بخشد.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا