توانمندسازی LLMS: MCP Manager ، یک میانی زنگ زنگ برای تعامل API از طریق پروتکل زمینه مدل

سلام جامعه dev!
من از به اشتراک گذاشتن یک پروژه جدید منبع باز که ساخته ام ، هیجان زده ام: مدیر MCPبشر این ابزار که در زنگ زدگی توسعه یافته است ، به عنوان یک قطعه مهم از میان افزار که به منظور فعال کردن مدل های بزرگ زبان (LLMS) با استفاده از پروتکل Model Context (MCP) امکان تعامل و تماس با API های خارجی را فراهم می کند ، عمل می کند.
چالش
در حالی که LLM ها در درک و تولید متن فوق العاده قدرتمند هستند ، وصل کردن آنها با اطمینان و ایمن به سیستم های خارجی برای انجام اقدامات هنوز یک چالش مهم است. روشهای موجود می توانند موقت باشند ، فاقد استاندارد سازی باشند یا نیاز به ادغام های سفارشی پیچیده داشته باشند.
تنها ادغام هایی که توانستم پیدا کنم اختصاصی یا پرداخت شده است. تنها گزینه واقعی کلود برای دسک تاپ است ، اما محدود به مدل های آنتروپیک است.
راه حل: MCP Manager + پروتکل زمینه مدل
MCP Manager روشی استاندارد را برای LLMS (در ابتدا پشتیبانی از Google Gemini و Azure Openai) برای ایجاد تماس های API فراهم می کند. جریان مانند این کار می کند:
- LLM تعیین می کند که یک عمل خارجی بر اساس سریع/متن آن مورد نیاز است
- LLM با استفاده از قابلیت های تماس ابزار/عملکرد خود ، این هدف را به مدیر MCP ارتباط می دهد
- MCP Manager این درخواست را دریافت می کند و با استفاده از پروتکل زمینه Model (MCP) ، با یک پس زمینه “سرور MCP” ارتباط برقرار می کند
- سرور MCP ، که وظیفه دانستن و تعامل با API های خارجی خاص را بر عهده دارد ، تماس API مورد نیاز را انجام می دهد
- پاسخ API از طریق MCP Server و MCP Manager ارسال می شود و به LLM باز می گردد
- LLM می تواند تصمیم بگیرد که پاسخ به کاربر یا ادامه کار توابع را برای برآورده کردن نیازهای کاربر چاپ کند
این رویکرد قصد LLM را از ویژگی های اجرای API جدا می کند و یک معماری پاک کننده و قابل حفظ تر برای ساختن برنامه های کاربردی LLM که با دنیای واقعی تعامل دارند فراهم می کند.
چرا زنگ زد؟
ساختمان MCP Manager در Rust چندین مزیت مهم برای یک ابزار میان افزار ارائه می دهد:
- عملکرد: رسیدگی کارآمد درخواست ها و ارتباطات.
- قابلیت اطمینان و ایمنی: سیستم قوی و مدل مالکیت Rust از اشکالات رایج جلوگیری می کند ، برای ابزارهای سطح سیستم بسیار مهم است. فقط وقتی برنامه را می گوییم برنامه را خراب می کند
- همزمانی: پشتیبانی عالی Rust برای برنامه نویسی همزمان برای دستیابی به تعامل چند LLM یا پاسخ های API ایده آل است
وضعیت فعلی و آینده:
در حال حاضر ، MCP Manager v0.1.0 از ادغام با Google Gemini و Azure OpenAI پشتیبانی می کند و فقط با اجرای سرور محلی MCP کار می کند.
پشتیبانی از سرورهای MCP از راه دور برای فعال کردن معماری های توزیع شده بیشتر برنامه ریزی شده است ، اما این ویژگی هنوز اجرا نشده است.
درگیر شدن
مدیر MCP کاملاً منبع باز است و من به توسعه مشترک اعتقاد دارم. این که آیا شما یک توسعه دهنده زنگ زدگی ، علاقه مندان به AI/LLM یا شخصی که به AI یا API علاقه مند هستید ، کمک های شما بسیار استقبال می شود!
- کد را کاوش کنید: ببینید چگونه MCP یکپارچه شده است و چگونه ادغام LLM کار می کند
- مشارکت: به اضافه کردن پشتیبانی برای LLM های بیشتر ، تقویت ادغام MCP ، بهبود اسناد یا پیشنهاد ویژگی های جدید کمک کنید
- بازخورد ارائه دهید: نظرات خود را در مورد جهت پروژه و موارد استفاده بالقوه به اشتراک بگذارید
مخازن را ببینید: https://gitlab.com/dmaxter/mcp-manager
بیایید بحث کنیم که چگونه می توانیم پل های قوی بین LLMS و دنیای خارجی بسازیم! منتظر افکار و مشارکتهای خود هستید.