برنامه نویسی

17 پروژه برای تیم ها برای ساخت ویژگی های AI 100 برابر سریعتر

Summarize this content to 400 words in Persian Lang
مهندسی سریع و هوش مصنوعی در حال رونق است، تقریباً هر تیم استارتاپی هوش مصنوعی را برای آسان کردن کارها برای کاربران خود ادغام می کند.

امروز، ما ۱۷ پروژه را برای به حداکثر رساندن بهره‌وری شما برای توسعه‌دهندگانی که با هوش مصنوعی می‌سازند، پوشش می‌دهیم.

ابزارهای مربوط به مهندسی سریع، ویرایشگرهای کد، عوامل و بسیاری چیزهای هیجان انگیز دیگر را خواهید یافت.

این لیست شما را شگفت زده خواهد کرد.

1. Latitude LLM – پلت فرم مهندسی سریع برای ساخت و اصلاح دستورات با هوش مصنوعی.

Latitude پلتفرم مهندسی سریع منبع باز برای ساخت، ارزیابی و اصلاح دستورات شما با هوش مصنوعی است. می‌توانید با استفاده از SDK یا API، درخواست‌ها را در پلتفرم ایجاد و تکرار کنید.

بهترین بخش این است که هر بار که یک درخواست اجرا می شود، به طور خودکار کل زمینه، خروجی و سایر ابرداده های مربوط به ارزیابی و اشکال زدایی را ثبت می کند.

داشبورد اینگونه به نظر می رسد.

✅ پشتیبانی از ویژگی های پیشرفته مانند پارامترها، قطعات، منطق و موارد دیگر وجود دارد.

✅ شما کنترل نسخه برای درخواست‌ها، مدیر اعلان مشارکتی و حتی ارزیابی‌ها را به صورت دسته‌ای یا بلادرنگ دریافت می‌کنید.

یک جریان کاربر اساسی می تواند باشد:

-→ ایجاد یک پروژه جدید.

-← اولین درخواست خود را با استفاده از ویرایشگر بنویسید.

-← درخواست خود را با استفاده از زمین بازی با ورودی های مختلف آزمایش کنید و پاسخ های حالت را ببینید.

-← قبل از استقرار، می توانید یک مجموعه داده را آپلود کنید و یک ارزیابی دسته ای برای ارزیابی عملکرد درخواست خود در سناریوهای مختلف اجرا کنید. این ویدیو را تماشا کنید تا ببینید چگونه ارزیابی ها می توانند نتایج درخواست های شما را تجزیه و تحلیل کنند.

-← می توانید درخواست خود را به عنوان نقطه پایانی برای ادغام آسان با برنامه های خود مستقر کنید.

-← از بخش Logs برای بررسی عملکرد درخواست خود در طول زمان استفاده کنید.

-← درخواست خود را اصلاح کنید و اعضای تیم را برای همکاری به فضای کاری Latitude خود دعوت کنید.

برای کسب اطلاعات بیشتر، این نسخه ی نمایشی سریع را تماشا کنید.

می‌توانید اسناد و مفاهیم مرتبط مانند درخواست‌ها، گزارش‌ها و ارزیابی‌ها را بخوانید.

می توانید با استفاده از نسخه ابری یا میزبانی خود از این راهنمای شروع سریع استفاده کنید.

آنها 536 ستاره در GitHub دارند و بسیار سریع در حال رشد هستند.

Star Latitude LLM ⭐️

2. LiveKit Agents – برنامه های هوش مصنوعی چندوجهی در زمان واقعی بسازید.

LiveKit Agents یک چارچوب سرتاسری است که توسعه دهندگان را قادر می سازد دستیارهای صوتی هوشمند و چندوجهی (عوامل AI) بسازند که می توانند کاربران را از طریق کانال های صوتی، ویدیویی و داده درگیر کنند.

بگذارید با کلمات ساده توضیح دهم.

چارچوب Agents به شما امکان می دهد برنامه های سرور مبتنی بر هوش مصنوعی بسازید که می توانند در زمان واقعی ببینند، بشنوند و صحبت کنند. نماینده شما از طریق یک جلسه LiveKit با دستگاه های کاربر نهایی متصل می شود. در طول آن جلسه، نماینده شما می‌تواند متن، صدا، تصاویر یا ویدئو را از دستگاه کاربر پردازش کند و یک مدل هوش مصنوعی هر ترکیبی از همان روش‌های خروجی را تولید کند و آنها را به کاربر بازگرداند.

✅ آنها از بسیاری از SDK ها از جمله Swift، Android، Flutter، Rust، Unity، Node، Go، PHP، React و غیره پشتیبانی می کنند.

می توانید با پیپ شروع کنید.

pip install livekit-agents

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

آنها همچنین پلاگین های زیادی دارند که پردازش ورودی جریان یا تولید خروجی را آسان می کند. به عنوان مثال، پلاگین هایی برای تبدیل متن به گفتار یا اجرای استنتاج با LLM های محبوب وجود دارد. یکی از نمونه های پلاگین این است:

pip install livekit-plugins-openai

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

آنها همچنین اگر از React استفاده می کنید، کامپوننت ها و نمونه های منبع باز React را برای ساخت با LiveKit ارائه می دهند.

می توانید اسناد را بخوانید و لیست تمام افزونه های موجود را ببینید. اگر می خواهید امتحان کنید، می توانید آن را در cloud.livekit.io انجام دهید.

اگر به دنبال چند برنامه نمونه با کد هستید، این موارد را بررسی کنید:

⚡ یک عامل صوتی پایه با استفاده از خط لوله STT، LLM، و TTS

⚡ عامل صدای فوق العاده سریع با استفاده از Cerebras میزبان Llama 3.1

این یکی از هیجان‌انگیزترین پروژه‌هایی از بیش از 1000 پروژه‌ای است که من تا به حال در منبع باز دیده‌ام.

آنها 3.2 هزار ستاره در GitHub دارند و در حال رشد هستند.

Star LiveKit Agents ⭐️

3. Julep – برنامه های هوش مصنوعی حالت دار بسازید.

Julep پلتفرمی برای ایجاد عوامل هوش مصنوعی است که تعاملات گذشته را به یاد می آورند و می توانند وظایف پیچیده را انجام دهند.

تصور کنید که می خواهید یک عامل هوش مصنوعی بسازید که می تواند بیشتر از پاسخ دادن به سوالات ساده انجام دهد. باید کارهای پیچیده را انجام دهد، تعاملات گذشته را به خاطر بسپارد و شاید حتی از ابزارها یا APIهای دیگر استفاده کند. دقیقا همان جایی است که جولپ وارد می شود.

می‌توانید از آن برای ایجاد وظایف چند مرحله‌ای استفاده کنید که شامل تصمیم‌گیری، حلقه‌ها، پردازش موازی و بسیاری موارد دیگر می‌شود.

✅ به‌طور خودکار مراحل ناموفق را دوباره امتحان می‌کند، پیام‌ها را دوباره ارسال می‌کند، و به طور کلی وظایف شما را بدون مشکل اجرا می‌کند.

✅ می توانید از فروشگاه اسناد Julep برای ساختن سیستمی برای بازیابی و استفاده از داده های خود استفاده کنید.

مدل ذهنی ژولپ

برای شروع، می توانید از npm یا pip استفاده کنید.

npm install @julep/sdk

or

pip install julep

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

همچنین یک مثال سریع وجود دارد که توصیه می‌کنم آن را مطالعه کنید که در آن یک نماینده نمونه موضوعی را انتخاب می‌کند، 100 عبارت جستجوی مرتبط ایجاد می‌کند، جستجوها را به طور همزمان انجام می‌دهد، نتایج را خلاصه می‌کند و خلاصه را در Discord به اشتراک می‌گذارد. با کد مناسب 🙂

این نسخه ی نمایشی سریع را تماشا کنید و نمونه برنامه های بیشتری را برای درک بیشتر بررسی کنید.

می‌توانید اسناد دقیق را بخوانید که دارای راهنمای شروع سریع پایتون، راهنمای شروع سریع Nodejs، آموزش‌ها و راهنماهای نحوه کار است.

ممکن است بگویید شبیه Langchain است اما هر دو مفاهیم کمی متفاوت دارند. به عنوان مثال، LangChain برای ایجاد دنباله ای از اعلان ها و مدیریت تعاملات با مدل های هوش مصنوعی عالی است. دارای یک اکوسیستم بزرگ با تعداد زیادی ادغام از پیش ساخته شده است که اجرای سریع کارها را آسان تر می کند.

از طرف دیگر جولپ بیشتر در مورد ساخت عوامل هوش مصنوعی مداوم است که می توانند چیزها را به خاطر بسپارند. هنگامی که به وظایف پیچیده ای نیاز دارید که شامل مراحل متعدد، تصمیم گیری و ادغام با ابزارها یا API های مختلف مستقیماً در فرآیند عامل است، می درخشد. در مورد مقایسه دقیق بیشتر بخوانید.

Julep دارای 1.3k ستاره در GitHub است و در حال رشد است.

ستاره جولپ ⭐️

4. WebUI را باز کنید – محبوب ترین رابط هوش مصنوعی (از Ollama، OpenAI API… پشتیبانی می کند)، به صورت آفلاین اجرا می شود.

Open WebUI یک رابط کاربری چت خود میزبان کاربرپسند عالی است که برای کار کاملا آفلاین طراحی شده است.

این می تواند به شما کمک کند تا ویژگی هایی را با سرعتی بسازید که هرگز نمی توانید تصور کنید.

می توانید از pip برای نصب سریع آن استفاده کنید. راهنمای نصب کامل را بررسی کنید.

# install Open WebUI

pip install open-webui

# run Open WebUI

open-webui serve

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

بیایید برخی از ویژگی های عالی را ببینیم.

✅ می توانید URL API OpenAI را برای پیوند با LMStudio، GroqCloud، Mistral، OpenRouter و موارد دیگر سفارشی کنید.

✅ با پشتیبانی بین المللی سازی (i18n) ما می توانید از آن به زبان دلخواه خود استفاده کنید.

✅ گزینه‌ای از ویژگی‌های تماس صوتی و ویدیویی بدون هندزفری وجود دارد که کمی انعطاف‌پذیری بیشتری می‌دهد.

✅ وب‌سایت رسمی آن‌ها اطلاعات واضحی در مورد دسته‌ای از مدل‌ها، درخواست‌ها، ابزارها و عملکردهای جامعه دارد.

✅ می توانید اسناد را مستقیماً در چت بارگیری کنید یا فایل هایی را به کتابخانه اسناد خود اضافه کنید و با استفاده از آن به آنها دسترسی داشته باشید # دستور قبل از پرس و جو

✅ می توانید با استفاده از ارائه دهندگانی مانند SearXNG، Google PSE، Brave Search، serpstack، serper، Serply، DuckDuckGo، TavilySearch و SearchApi تا نتایج را مستقیماً به تجربه چت خود تزریق کنید.

همچنین برای کسب اطلاعات بیشتر توصیه می‌کنیم این راهنما را تماشا کنید.

می‌توانید اسنادی را که شامل راهنمای شروع، سؤالات متداول (توصیه می‌شود مطالعه کنید) و آموزش‌ها را بخوانید.

با استفاده از Svelte، Python و TypeScript ساخته شده است.

آنها 41.6000 ستاره در GitHub دارند که در مورد محبوبیت بسیار زیاد می گوید.

ستاره باز WebUI ⭐️

5. Quivr – چارچوب RAG برای ساخت مغز دوم GenAI.

Quivr، مغز دوم شما، از قدرت GenerativeAI برای دستیار شخصی شما استفاده می کند. می توانید آن را به عنوان Obsidian اما توربوشارژ با قدرت های هوش مصنوعی در نظر بگیرید.

این پلتفرمی است که به شما کمک می کند دستیارهای هوش مصنوعی بسازید که به آنها گفته می شود Brain. این دستیارها با موارد تخصصی طراحی شده اند، مانند برخی از آنها که می توانند به منابع داده خاصی متصل شوند و به کاربران اجازه می دهند مستقیماً با داده ها تعامل داشته باشند.

در حالی که سایرین به عنوان ابزارهای تخصصی برای موارد استفاده خاص، با فناوری Rag، عمل می کنند. این ابزارها ورودی های خاصی را برای تولید خروجی های عملی مانند خلاصه، ترجمه و موارد دیگر پردازش می کنند.

یک نسخه ی نمایشی سریع از Quivr را تماشا کنید!

برخی از ویژگی های شگفت انگیز عبارتند از:

✅ بر اساس منبع داده ای که می خواهید با آن تعامل داشته باشید، می توانید نوع مغز مورد نظر خود را انتخاب کنید.

✅ آنها همچنین یک ویژگی قدرتمند برای به اشتراک گذاشتن مغز شما با دیگران ارائه می دهند. این را می توان با اشتراک گذاری با افراد از طریق ایمیل آنها و اعطای حقوق خاص به آنها انجام داد.

✅ Quivr به صورت آفلاین کار می کند، بنابراین می توانید در هر زمان و هر مکان به داده های خود دسترسی داشته باشید.

✅ می توانید با مغز خود به مکالمات گذشته خود دسترسی داشته باشید و ادامه دهید.

✅ اما بهترین موردی که من دوست داشتم این است که می توانید یک ربات Slack نصب کنید. به این دمو مراجعه کنید تا ببینید چه کاری می توانید انجام دهید. خیلی باحاله

به هر حال، در مورد همه چیزهای عالی که می توانید با Quivr انجام دهید بخوانید.

می توانید راهنمای نصب و فیلم نصب 60 ثانیه ای را بخوانید. برای اطلاعات دیگر به اسناد مراجعه کنید.

آنها همچنین راهنماهایی در مورد نحوه استقرار Quivr با Vercel، Porter، AWS و Digital Ocean ارائه کرده‌اند.

دارای بیش از 36.3 هزار ستاره در GitHub با بیش از 300 نسخه.

ستاره کویور ⭐️

6. Dify – موتور نوآوری برای برنامه های GenAI.

Dify یک پلت فرم منبع باز برای ساخت اپلیکیشن های هوش مصنوعی است.

رابط بصری آن گردش کار هوش مصنوعی، خط لوله RAG، قابلیت‌های عامل، مدیریت مدل، ویژگی‌های مشاهده‌پذیری و موارد دیگر را ترکیب می‌کند و به شما امکان می‌دهد به سرعت از نمونه اولیه به تولید برسید.

آنها Backend-as-a-Service و LLMOps را برای بهبود توسعه راه حل های هوش مصنوعی مولد ترکیب می کنند. می توانید از ابر استفاده کنید یا آن را خود میزبانی کنید (به اسناد مراجعه کنید).

حتی می‌توانید جریان‌های کاری قدرتمند هوش مصنوعی را روی یک بوم بصری بسازید و آزمایش کنید.

بیایید برخی از ویژگی های عالی را ببینیم:

✅ Dify بیش از 50 ابزار داخلی را برای عوامل هوش مصنوعی، مانند جستجوی Google، DALL·E، Stable Diffusion و WolframAlpha ارائه می‌کند.

✅ شما می توانید گزارش ها و عملکرد برنامه را در طول زمان نظارت و تجزیه و تحلیل کنید.

✅ می‌توانید از خط لوله RAG برای استخراج متن از فایل‌های PDF، PPT و سایر قالب‌های سند رایج استفاده کنید.

✅ گزینه‌های یکپارچه‌سازی زیادی از ده‌ها ارائه‌دهنده استنتاج و راه‌حل‌های خود میزبانی در دسترس است که شامل GPT، Mistral، Llama3 و هر مدل سازگار با OpenAI API است. لیست کامل ارائه دهندگان مدل پشتیبانی شده را می توانید در اینجا بیابید.

✅ شما می توانید عامل های هوش مصنوعی را تنها با چند کلیک ایجاد کنید و به آنها اجازه دهید به طور مستقل از ابزارها و داده های تعریف شده سازمانی برای حل وظایف پیچیده استفاده کنند.

می توانید اسناد را بخوانید.

دو مورد از موارد استفاده چشمگیر که من دوست داشتم:

⚡ ساختن یک دستیار هوش مصنوعی مفهومی

⚡ با Dify یک ربات MidJourney Prompt ایجاد کنید

Dify دارای 47.7 هزار ستاره در GitHub است و مشارکت کنندگان زیادی دارد.

Star Dify ⭐️

7. Micro Agent – عامل هوش مصنوعی که کد (در واقع مفید) را برای شما می نویسد.

ابزارهای کدنویسی با کمک هوش مصنوعی مانند GitHub Copilot و ChatGPT کد چندان قابل اعتمادی تولید نمی کنند و اغلب به درستی کار نمی کنند، اشکالات، موارد لبه یا حتی ارجاع به API های موجود را پیدا می کنید.

این می تواند منجر به یک حلقه خسته کننده از امتحان کد تولید شده، یافتن مشکلات، بازگشت به هوش مصنوعی برای رفع مشکل و تکرار شود.

زمان صرف شده برای رفع اشکال می تواند کل زمان صرفه جویی شده با استفاده از ابزارهای هوش مصنوعی را در وهله اول خنثی کند.

Micro Agent از هوش مصنوعی برای کاهش مشکلات تولید کد غیرقابل اعتماد استفاده می کند.

به آن یک اعلان بدهید و یک تست ایجاد می‌کند و سپس روی کد تکرار می‌شود تا همه موارد تست قبول شوند.

با استفاده از این دستور می توانید آن را نصب کنید.

npm install -g @builder.io/micro-agent

# Next, set your OpenAI API key when prompted or manually using this.
micro-agent config set OPENAI_KEY=

# Then you can run to start a new coding task
micro-agent

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

Micro Agent از شما می خواهد تا عملکرد مورد نظر خود را توصیف کنید، تست ها را تولید کنید و شروع به نوشتن کد به زبان دلخواه خود کنید تا تست ها را با موفقیت پشت سر بگذارید. هنگامی که تمام تست ها سبز شدند، یک تابع کاملا کاربردی و با پشتوانه تست آماده استفاده خواهید داشت.

بیایید برخی از شگفت انگیزترین موارد استفاده را بررسی کنیم:

⚡ نسخه نمایشی 30 ثانیه ای Micro Agent که تست ها و کدهای یک تابع TypeScript را ایجاد می کند که آناگرام ها را از آرایه ای از رشته ها با هم گروه بندی می کند.

⚡ استفاده از Micro Agent برای تولید یک تجزیه کننده ساده HTML به AST (در دو تکرار به دست آمد).

⚡ تطبیق تست واحد.

⚡ تطبیق بصری (تجربی).

⚡ ادغام با Figma.

Micro Agent همچنین می‌تواند با Visual Copilot ادغام شود تا مستقیماً با Figma ارتباط برقرار کند تا از بالاترین وفاداری ممکن در طراحی کد اطمینان حاصل کند!

Visual Copilot مستقیماً به Figma متصل می شود تا به تبدیل کامل پیکسلی، نقشه برداری دقیق توکن طراحی و استفاده دقیق از اجزای شما در خروجی تولید شده کمک کند.

سپس، Micro Agent می‌تواند خروجی Visual Copilot را بگیرد و تنظیمات نهایی را روی کد انجام دهد تا مطمئن شود که TSC، پرز، تست‌ها و مطابقت کامل با طراحی شما از جمله ترفندهای نهایی را دارد. واقعا شگفت انگیز 🙂

می توانید اسناد و وبلاگ رسمی را بخوانید که در آن تیم درباره همه چیز در مورد عامل میکرو صحبت کردند.

این منبع باز با 2.8 هزار ستاره در GitHub است.

مامور میکرو ستاره ⭐️

8. Cline – عامل کدنویسی مستقل درست در IDE شما.

این مفهوم بسیار شبیه به Cursor است که در آن Cline یک عامل کدنویسی مستقل است که قادر به ایجاد/ویرایش فایل‌ها، اجرای دستورات و موارد دیگر با اجازه شما در هر مرحله از راه است.

این یک افزونه VSCode است و می توانید آن را در بازار پیدا کنید. 84k+ نصب دارد.

Cline بر روی قابلیت های کدگذاری عاملی کلود 3.5 Sonnet کار می کند.

✅ Cline از ارائه دهندگان API مانند OpenRouter، Anthropic، OpenAI، Google Gemini، AWS Bedrock، Azure و GCP Vertex پشتیبانی می کند. همچنین می توانید هر API سازگار با OpenAI را پیکربندی کنید یا از یک مدل محلی از طریق Olama استفاده کنید.

✅ با استفاده از چهار دستور مختلف می توانید زمینه را اضافه کنید.

@url: یک URL برای واکشی و تبدیل افزونه به نشانه گذاری در URL جایگذاری کنید، زمانی که می خواهید جدیدترین اسناد را به Cline بدهید مفید است.
@problems: خطاها و هشدارهای فضای کاری (پنل “مشکلات”) را برای رفع مشکل Cline اضافه کنید.

✅ از یک مرورگر بدون هد برای بازرسی هر وب سایتی مانند لوکال هاست استفاده می کند و به آن اجازه می دهد اسکرین شات ها و گزارش های کنسول را بگیرد. این به او استقلال می‌دهد تا باگ‌های بصری و مشکلات زمان اجرا را بدون نیاز به نگه‌داشتن و کپی پیست کردن لاگ‌های خطا، برطرف کند.

✅ حتی می توانید دستورات را در ترمینال اجرا کنید تا کارهای عالی انجام دهید.

می توانید اسناد را بخوانید.

Cline دارای 7k ستاره در GitHub است.

استار کلاین ⭐️

9. GPT Crawler – GPT سفارشی خود را از یک URL ایجاد کنید.

با GPT Crawler، می‌توانید هر سایتی را برای تولید فایل‌های دانش بخزید تا GPT سفارشی خود را از یک یا چند URL بسازید.

هدف این است که سایت Docs تعاملی باشد، مردم می توانند با استفاده از یک رابط چت به سادگی پاسخ هایی را که به دنبال آن هستند بیابند.

این نسخه ی نمایشی سریع را تماشا کنید!

شما باید خزنده را پیکربندی کنید و سپس به سادگی آن را اجرا کنید. پس از اتمام خزیدن، یک صفحه جدید خواهید داشت output.json فایلی که شامل عنوان، URL و متن استخراج شده از تمام صفحات خزیده شده است.

اکنون می توانید با ایجاد یک GPT جدید، آن را مستقیماً در ChatGPT آپلود کنید. پس از آپلود، این دستیار GPT تمام اطلاعات آن اسناد را در اختیار خواهد داشت و می‌تواند به سوالات نامحدودی درباره آنها پاسخ دهد.

این به طور رسمی یک دستیار در ChatGPT است.

می توانید اسناد مربوط به نحوه شروع را مطالعه کنید. شما می توانید تمام دستورالعمل ها را در وبلاگ رسمی پیدا کنید.

اگر تعجب می کنید که Mitosis چگونه این اجزا را کامپایل می کند، این آموزش سریع را تماشا کنید.

آنها 18.6 هزار ستاره در GitHub دارند.

Star GPT Crawler ⭐️

10. Composio – مجموعه ابزار آماده تولید برای عوامل هوش مصنوعی.

Composio تنها ابزار مورد نیاز برای ساختن نرم افزار پیچیده اتوماسیون هوش مصنوعی است. این به مدل‌های هوش مصنوعی اجازه می‌دهد تا به ابزارها و برنامه‌های شخص ثالث دسترسی داشته باشند تا تعامل خود را با آنها خودکار کنند.

به عنوان مثال، می‌توانید GitHub را از طریق Composio به مدل GPT متصل کنید و بررسی PRها، حل مشکلات، نوشتن موارد آزمایشی و موارد دیگر را خودکار کنید.

می‌توانید گردش‌های کاری پیچیده دنیای واقعی را با استفاده از بیش از ۹۰ ابزار و گزینه‌های یکپارچه‌سازی مانند GitHub، Jira، Slack و Gmail خودکار کنید.

همچنین می‌توانید اقداماتی مانند ارسال ایمیل، شبیه‌سازی کلیک‌ها، ثبت سفارش و موارد دیگر را فقط با افزودن مشخصات OpenAPI برنامه‌های خود به Composio خودکار کنید.

اینگونه می توانید از این استفاده کنید.

# install it
pip install composio-core

# Add a GitHub integration
composio add github

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

در اینجا نحوه استفاده از ادغام GitHub برای ستاره گذاری یک مخزن آورده شده است.

from openai import OpenAI
from composio_openai import ComposioToolSet, App

openai_client = OpenAI(api_key=”******OPENAIKEY******”)

# Initialise the Composio Tool Set
composio_toolset = ComposioToolSet(api_key=”**\\*\\***COMPOSIO_API_KEY**\\*\\***”)

## Step 4
# Get GitHub tools that are pre-configured
actions = composio_toolset.get_actions(actions=[Action.GITHUB_ACTIVITY_STAR_REPO_FOR_AUTHENTICATED_USER])

## Step 5
my_task = “Star a repo ComposioHQ/composio on GitHub”

# Create a chat completion request to decide on the action
response = openai_client.chat.completions.create(
model=”gpt-4-turbo”,
tools=actions, # Passing actions we fetched earlier.
messages=[
{“role”: “system”, “content”: “You are a helpful assistant.”},
{“role”: “user”, “content”: my_task}
] )

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

می توانید اسناد و نمونه ها را بخوانید.

Composio دارای 9k ستاره در GitHub است.

ترکیب ستاره ⭐️

11. Langflow – سازنده برنامه کم کد برای RAG و برنامه های هوش مصنوعی چند عاملی.

Langflow برای تسهیل توسعه هوش مصنوعی در سناریوهای دنیای واقعی طراحی شده است. این برنامه مبتنی بر پایتون است و برای هر مدل، API یا پایگاه داده ای آگنوستیک است.

این یک نوع نمودار پویا است که در آن هر گره یک واحد اجرایی است. می توانید دمو را تماشا کنید.

✅ می توانید با استفاده از براکت های فرفری {} از ورودی های پویا استفاده کنید.

✅ شما می توانید با تنظیم آسان LLM ها از صفحات گسترده، از پتانسیل کامل LLM استفاده کنید.

✅ شما می توانید از سطح فراتر رفته و اجزای خود را کدنویسی کنید.

✅ اجزای سطح بالاتر به طور طبیعی از بلوک های سازنده هوش مصنوعی می آیند. ساخته های خود را ذخیره و به اشتراک بگذارید.

گزینه های ادغام بسیار بزرگ هستند، بنابراین می توانید تقریباً هر چیزی را بسازید. آنها همچنین بلوک های ساختمانی قابل ترکیبی را ارائه می دهند که مانند اجزای از پیش ساخته شده هستند که می توانند به روش های متعددی برای ایجاد برنامه های هوش مصنوعی ترکیب شوند.

می‌توانید اسنادی را بخوانید که حاوی راهنمای شروع سریع و زمین بازی است که در آن می‌توانید مستقیماً تنظیمات اولیه را انجام دهید و نتایج مختلف را با مدل‌ها مشاهده کنید.

Lanflow دارای 31.2k ستاره در GitHub است.

ستاره لانگ فلو ⭐️

12. OpenLLM – LLM ها را به عنوان نقطه پایانی API سازگار با OpenAI در فضای ابری اجرا کنید

OpenLLM به توسعه دهندگان این امکان را می دهد که هر LLM منبع باز را به عنوان نقطه پایانی API سازگار با OpenAI با یک فرمان واحد اجرا کنند.

⚡ لیست کامل llama3، qwen2، gemma و بسیاری از نسخه های کوانتیزه شده را پشتیبانی کنید.⚡ API سازگار با OpenAI و شامل ChatGPT مانند UI.⚡ رمزگشایی سریع LLM با باطن استنتاج پیشرفته.⚡ آماده برای استقرار ابر در سطح سازمانی (Kubernetes، Docker و BentoCloud).

با دستور زیر شروع کنید.

pip install openllm # or pip3 install openllm
openllm hello

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

OpenLLM یک رابط کاربری چت (UI) در نقطه پایانی /chat برای سرور LLM فراهم می کند. شما می توانید از رابط کاربری چت در http://localhost:3000/chat و مکالمات مختلفی را با مدل شروع کنید.

همانطور که قبلاً گفتم، OpenLLM از استقرار ابری LLM از طریق BentoML، چارچوب ارائه مدل یکپارچه و BentoCloud، یک پلت فرم استنتاج هوش مصنوعی برای تیم‌های هوش مصنوعی سازمانی پشتیبانی می‌کند.

اگر نمی دانید، BentoCloud یک زیرساخت کاملاً مدیریت شده بهینه شده برای استنتاج LLM با مقیاس خودکار، هماهنگ سازی مدل، قابلیت مشاهده ارائه می دهد، که فقط یک روش فانتزی برای گفتن است که به شما امکان می دهد هر مدل هوش مصنوعی را در فضای ابری اجرا کنید.

پس از تکمیل استقرار، می توانید استنتاج مدل را در کنسول BentoCloud اجرا کنید:

می توانید در مورد مدل های پشتیبانی شده و نحوه راه اندازی سرور LLM مطالعه کنید.

اسناد را کاوش کنید زیرا می توانید با استفاده از یک مدل در CLI نیز چت کنید openllm run و مشخص کردن نسخه مدل – openllm run llama3:8b.

اگر عاشق کاوش در مسیرهای پیاده‌روی هستید، این دمو توسط متیو را تماشا کنید!

آنها 9.9 هزار ستاره در GitHub دارند که تقریباً به مرز 10 هزار رسیده است 🙂

ستاره OpenLLM ⭐️

13. مهندس GPT – هوش مصنوعی آنچه را که می خواهید می سازد.

GPT-engineer به شما امکان می‌دهد نرم‌افزار را به زبان طبیعی مشخص کنید، بنشینید و تماشا کنید که یک AI کد را می‌نویسد و اجرا می‌کند، و می‌توانید از هوش مصنوعی بخواهید که بهبودهایی را اعمال کند.

به جرات می توان گفت مهندس است که نیازی به مدرک ندارد 😅

این یک پروژه تجاری برای تولید خودکار برنامه های وب است. این دارای یک رابط کاربری برای کاربران غیر فنی است که به یک پایگاه کد کنترل شده با git متصل هستند.

من می دانم که این احساس گیج کننده است، بنابراین نسخه ی نمایشی زیر را تماشا کنید تا بفهمید چگونه می توانید از GPT Engineer استفاده کنید.

می توانید با نصب نسخه پایدار با استفاده از این دستور شروع به کار کنید.

python -m pip install gpt-engineer

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

به‌طور پیش‌فرض، gpt-engineer انتظار ورودی متن را از طریق یک فایل سریع دارد. همچنین می‌تواند ورودی‌های تصویر را برای مدل‌های دارای قابلیت دید بپذیرد. این می تواند برای افزودن نمودارهای UX یا معماری به عنوان زمینه اضافی برای مهندس GPT مفید باشد. در مورد تمام ویژگی های عالی بخوانید.

اگر می خواهید یک راهنما کامل داشته باشید، این نسخه ی نمایشی عالی توسط دیوید را تماشا کنید!

توصیه می کنم برای درک چشم انداز کلی، نقشه راه را بررسی کنید.

آنها 52.2k ستاره در GitHub دارند و در GitHub هستند v0.3 آزاد کردن

مهندس ستاره GPT ⭐️

14. Void – جایگزین منبع باز برای مکان نما.

همانطور که می‌دانید، پروژه‌های زیادی مانند PearAI و Zed پس از راه‌اندازی Cursor به بازار آمدند، اما بیشتر آنها فقط فورک‌های VSCode هستند و واقعاً اکوسیستم را چندان بهبود نمی‌بخشند.

اگر می‌خواهید تغییر دهید، من مکان‌نما (نه منبع باز)، Continue (مشابه مکان‌نما) و Void را توصیه می‌کنم که یک جایگزین منبع باز برای مکان‌نما است.

من Void را پوشش می دهم زیرا توسط YCombinator پشتیبانی می شود بنابراین آنها را به اندازه کافی معتبر می کند. آنها آن را منتشر نکرده اند، اما شما به راحتی می توانید دسترسی اولیه برای امتحان آن را دریافت کنید.

این ویژگی های نحوی هوش مصنوعی بسیار شبیه به مکان نما دارد.

✅ با هوش مصنوعی می توانید جستجوهای هوشمندانه انجام دهید.

✅ می توانید اعلان های زیربنایی را مشاهده و ویرایش کنید.

✅ آگاهی زمینه، ادغام شخص ثالث، نسل دقیق تنظیم شده وجود دارد و حتی می توانید Ollama را به صورت محلی میزبانی کنید تا دیگر هرگز اعتبار API تمام نشود.

همانطور که قبلاً گفتم، Void یک فورک از VS Code است، بنابراین شما می توانید تنها با یک کلیک روی تمام تم ها، صفحه کلیدها و تنظیمات خود منتقل کنید.

من قبلاً Continue را پوشش داده‌ام، بنابراین این بار از آن صرفنظر کردم، اما قطعاً مکان‌نما را تا زمانی که Void کاملاً منتشر شود ترجیح می‌دهم.

Void دارای 7.5 هزار ستاره در GitHub است و هنوز در مرحله انتشار اولیه است.

ستاره خالی ⭐️

15. Unsloth – Finetune Llama 3، Mistral، Phi و Gemma LLMs 2-5 برابر سریعتر با 80% حافظه کمتر.

Unsloth تنظیم دقیق مدل‌های زبان بزرگ مانند Llama-3، Mistral، Phi-3 و Gemma را 2 برابر سریع‌تر می‌کند، 70 درصد حافظه کمتری مصرف می‌کند و دقت آن کاهش نمی‌یابد!

✅ تنظیم دقیق چیست؟

اگر می‌خواهیم یک مدل زبان برای یادگیری یک مهارت جدید، یک زبان جدید، یک زبان برنامه‌نویسی جدید، یا به سادگی می‌خواهیم که مدل زبان یاد بگیرد که چگونه دستورالعمل‌هایی مانند نحوه عملکرد ChatGPT را دنبال کند و به آنها پاسخ دهد، تنظیمات دقیق را انجام می‌دهیم!

تنظیم دقیق فرآیند به روز رسانی واقعی است brains الگوی زبان از طریق فرآیندی به نام انتشار پسین. اما، تنظیم دقیق می تواند بسیار کند و منابع بسیار فشرده شود.

Unsloth را می توان به صورت محلی یا از طریق سرویس GPU دیگری مانند Google Colab نصب کرد. بیشتر آنها از Unsloth از طریق رابط Google Colab استفاده می کنند که یک GPU رایگان برای آموزش ارائه می دهد.

برخی از موارد برجسته:

✅ متن باز 5 برابر سریعتر تمرین می کند و نسخه حرفه ای ادعا می کند 30 برابر سریعتر است.

✅هیچ روش تقریبی استفاده نمی شود که باعث کاهش 0% دقت می شود.

✅ بدون تغییر سخت افزار، روی لینوکس و ویندوز از طریق WSL کار می کند.

می توانید دستورالعمل نصب و جداول معیار عملکرد را در وب سایت مطالعه کنید.

می‌توانید اسناد و تمام مدل‌های آپلود شده را مستقیماً در Hugging Face بخوانید.

آنها همچنین راهنمای دقیقی در مورد نحوه تنظیم Llama-3 و صادرات به Ollama ارائه کرده اند.

Unsloth دارای بیش از 16.8k ستاره در GitHub است.

ستاره بیکار ⭐️

16. جستجو – مغز دوم هوش مصنوعی شما.

Khoj منبع باز، AI کمکی برای جستجو است. بدون نیاز به بررسی نتایج آنلاین یا یادداشت های خود به راحتی پاسخ ها را دریافت کنید.

Khoj می‌تواند Word، PDF، org-mode، نشانه‌گذاری، فایل‌های متن ساده، پروژه‌های GitHub و حتی صفحات Notion شما را درک کند.

این به عنوان یک برنامه دسکتاپ، بسته Emacs، پلاگین Obsidian، برنامه وب و هوش مصنوعی Whatsapp در دسترس است. ابسیدین با خوج ممکن است قوی ترین ترکیب ترکیبی باشد!

با دستورات زیر می توانید با خوج به صورت محلی در چند دقیقه شروع کنید.

$ pip install khoj-assistant
$ khoj

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

آن را در عمل تماشا کنید!

برخی از ویژگی های هیجان انگیز:

✅ می توانید یادداشت ها و اسناد خود را برای گسترش مغز دیجیتال خود به اشتراک بگذارید.

✅ عوامل هوش مصنوعی شما به اینترنت دسترسی دارند و به شما این امکان را می‌دهند که اطلاعات بی‌درنگ را ترکیب کنید.

✅ یک جستجوی معنایی سریع و دقیق در بالای اسناد خود دریافت خواهید کرد.

✅ عوامل شما می توانند تصاویر عمیقا شخصی ایجاد کنند و صحبت شما را درک کنند.

به عنوان مثال، گفتن: “یک تصویر از خانه رویایی من، بر اساس علایق من ایجاد کنید”. این را ترسیم خواهد کرد!

تمام ویژگی‌ها از جمله چت قابل اشتراک‌گذاری، چت آنلاین، خلاصه‌سازی فایل و جزئیات کامل را در دسته‌های مختلف بخوانید.

می‌توانید اسناد را بخوانید و می‌توانید Khoj Cloud را امتحان کنید تا سریع آن را امتحان کنید.

توضیحات کامل را در YouTube تماشا کنید!

این دارای 12.8 هزار ستاره در GitHub است و توسط YCombinator پشتیبانی می شود.

جستجوی ستاره ⭐️

17. ابزارهای سریع – ابزارهایی برای آزمایش سریع.

این پروژه مجموعه ای از ابزارهای خود میزبان منبع باز برای آزمایش، آزمایش و ارزیابی LLM ها، پایگاه های داده برداری و درخواست ها دارد. ایده اصلی این است که توسعه دهندگان را قادر می سازد تا با استفاده از رابط های آشنا مانند کد، نوت بوک و زمین بازی محلی ارزیابی کنند.

تنها در چند خط کد، می‌توانید اعلان‌ها و پارامترهای خود را در مدل‌های مختلف آزمایش کنید (خواه از مدل‌های OpenAI، Anthropic یا LLaMA استفاده می‌کنید). حتی می توانید دقت بازیابی پایگاه های داده برداری را ارزیابی کنید.

با پیپ شروع کنید.

pip install prompttools

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

آنها نمونه های نوت بوکی را ارائه می دهند که می توانید اجرا کنید.

می توانید اسناد را بخوانید و زمین بازی آنها را بررسی کنید.

ابزارهای سریع دارای 2.7 هزار ستاره در GitHub هستند.

Star Prompt Tools ⭐️

با ابزارهای مناسب، ساخت ویژگی‌های هوش مصنوعی بسیار آسان‌تر است و تیم شما می‌تواند کار با کیفیت را سریع‌تر ارائه دهد.

آیا فکر می کنید این پروژه ها به تیم ها کمک می کند تا ویژگی های هوش مصنوعی را حداقل سریعتر از قبل بسازند؟

روز خوبی داشته باشید! تا دفعه بعد

اگر این را دوست داشتید، لطفا برای اطلاعات بیشتر من را دنبال کنید 🙂

برای محتوای بیشتر مانند این Latitude را دنبال کنید.

مهندسی سریع و هوش مصنوعی در حال رونق است، تقریباً هر تیم استارتاپی هوش مصنوعی را برای آسان کردن کارها برای کاربران خود ادغام می کند.

امروز، ما ۱۷ پروژه را برای به حداکثر رساندن بهره‌وری شما برای توسعه‌دهندگانی که با هوش مصنوعی می‌سازند، پوشش می‌دهیم.

ابزارهای مربوط به مهندسی سریع، ویرایشگرهای کد، عوامل و بسیاری چیزهای هیجان انگیز دیگر را خواهید یافت.

این لیست شما را شگفت زده خواهد کرد.


فهرست مطالب

1. Latitude LLM – پلت فرم مهندسی سریع برای ساخت و اصلاح دستورات با هوش مصنوعی.

عرض جغرافیایی llm

Latitude پلتفرم مهندسی سریع منبع باز برای ساخت، ارزیابی و اصلاح دستورات شما با هوش مصنوعی است. می‌توانید با استفاده از SDK یا API، درخواست‌ها را در پلتفرم ایجاد و تکرار کنید.

عرض جغرافیایی llm

بهترین بخش این است که هر بار که یک درخواست اجرا می شود، به طور خودکار کل زمینه، خروجی و سایر ابرداده های مربوط به ارزیابی و اشکال زدایی را ثبت می کند.

داشبورد اینگونه به نظر می رسد.

داشبورد

✅ پشتیبانی از ویژگی های پیشرفته مانند پارامترها، قطعات، منطق و موارد دیگر وجود دارد.

سریع

✅ شما کنترل نسخه برای درخواست‌ها، مدیر اعلان مشارکتی و حتی ارزیابی‌ها را به صورت دسته‌ای یا بلادرنگ دریافت می‌کنید.

درخواست می کند

یک جریان کاربر اساسی می تواند باشد:

-→ ایجاد یک پروژه جدید.

-← اولین درخواست خود را با استفاده از ویرایشگر بنویسید.

-← درخواست خود را با استفاده از زمین بازی با ورودی های مختلف آزمایش کنید و پاسخ های حالت را ببینید.

-← قبل از استقرار، می توانید یک مجموعه داده را آپلود کنید و یک ارزیابی دسته ای برای ارزیابی عملکرد درخواست خود در سناریوهای مختلف اجرا کنید. این ویدیو را تماشا کنید تا ببینید چگونه ارزیابی ها می توانند نتایج درخواست های شما را تجزیه و تحلیل کنند.

-← می توانید درخواست خود را به عنوان نقطه پایانی برای ادغام آسان با برنامه های خود مستقر کنید.

-← از بخش Logs برای بررسی عملکرد درخواست خود در طول زمان استفاده کنید.

-← درخواست خود را اصلاح کنید و اعضای تیم را برای همکاری به فضای کاری Latitude خود دعوت کنید.

برای کسب اطلاعات بیشتر، این نسخه ی نمایشی سریع را تماشا کنید.

https://www.youtube.com/watch?v=jPVn9kf4GrE

می‌توانید اسناد و مفاهیم مرتبط مانند درخواست‌ها، گزارش‌ها و ارزیابی‌ها را بخوانید.

می توانید با استفاده از نسخه ابری یا میزبانی خود از این راهنمای شروع سریع استفاده کنید.

آنها 536 ستاره در GitHub دارند و بسیار سریع در حال رشد هستند.

Star Latitude LLM ⭐️


2. LiveKit Agents – برنامه های هوش مصنوعی چندوجهی در زمان واقعی بسازید.

لایو کیت

LiveKit Agents یک چارچوب سرتاسری است که توسعه دهندگان را قادر می سازد دستیارهای صوتی هوشمند و چندوجهی (عوامل AI) بسازند که می توانند کاربران را از طریق کانال های صوتی، ویدیویی و داده درگیر کنند.

بگذارید با کلمات ساده توضیح دهم.

چارچوب Agents به شما امکان می دهد برنامه های سرور مبتنی بر هوش مصنوعی بسازید که می توانند در زمان واقعی ببینند، بشنوند و صحبت کنند. نماینده شما از طریق یک جلسه LiveKit با دستگاه های کاربر نهایی متصل می شود. در طول آن جلسه، نماینده شما می‌تواند متن، صدا، تصاویر یا ویدئو را از دستگاه کاربر پردازش کند و یک مدل هوش مصنوعی هر ترکیبی از همان روش‌های خروجی را تولید کند و آنها را به کاربر بازگرداند.

✅ آنها از بسیاری از SDK ها از جمله Swift، Android، Flutter، Rust، Unity، Node، Go، PHP، React و غیره پشتیبانی می کنند.

sdks

ویژگی

می توانید با پیپ شروع کنید.

pip install livekit-agents
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

عوامل livekit

آنها همچنین پلاگین های زیادی دارند که پردازش ورودی جریان یا تولید خروجی را آسان می کند. به عنوان مثال، پلاگین هایی برای تبدیل متن به گفتار یا اجرای استنتاج با LLM های محبوب وجود دارد. یکی از نمونه های پلاگین این است:

pip install livekit-plugins-openai
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

آنها همچنین اگر از React استفاده می کنید، کامپوننت ها و نمونه های منبع باز React را برای ساخت با LiveKit ارائه می دهند.

واکنش زنده کیت

می توانید اسناد را بخوانید و لیست تمام افزونه های موجود را ببینید. اگر می خواهید امتحان کنید، می توانید آن را در cloud.livekit.io انجام دهید.

اگر به دنبال چند برنامه نمونه با کد هستید، این موارد را بررسی کنید:

⚡ یک عامل صوتی پایه با استفاده از خط لوله STT، LLM، و TTS

عامل صدای پایه

⚡ عامل صدای فوق العاده سریع با استفاده از Cerebras میزبان Llama 3.1

فوق العاده سریع

این یکی از هیجان‌انگیزترین پروژه‌هایی از بیش از 1000 پروژه‌ای است که من تا به حال در منبع باز دیده‌ام.

آنها 3.2 هزار ستاره در GitHub دارند و در حال رشد هستند.

Star LiveKit Agents ⭐️


3. Julep – برنامه های هوش مصنوعی حالت دار بسازید.

جولپ

Julep پلتفرمی برای ایجاد عوامل هوش مصنوعی است که تعاملات گذشته را به یاد می آورند و می توانند وظایف پیچیده را انجام دهند.

تصور کنید که می خواهید یک عامل هوش مصنوعی بسازید که می تواند بیشتر از پاسخ دادن به سوالات ساده انجام دهد. باید کارهای پیچیده را انجام دهد، تعاملات گذشته را به خاطر بسپارد و شاید حتی از ابزارها یا APIهای دیگر استفاده کند. دقیقا همان جایی است که جولپ وارد می شود.

می‌توانید از آن برای ایجاد وظایف چند مرحله‌ای استفاده کنید که شامل تصمیم‌گیری، حلقه‌ها، پردازش موازی و بسیاری موارد دیگر می‌شود.

✅ به‌طور خودکار مراحل ناموفق را دوباره امتحان می‌کند، پیام‌ها را دوباره ارسال می‌کند، و به طور کلی وظایف شما را بدون مشکل اجرا می‌کند.

✅ می توانید از فروشگاه اسناد Julep برای ساختن سیستمی برای بازیابی و استفاده از داده های خود استفاده کنید.

مدل ذهنی ژولپ

مدل ذهنی ژولپ

برای شروع، می توانید از npm یا pip استفاده کنید.

npm install @julep/sdk 

or

pip install julep
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

همچنین یک مثال سریع وجود دارد که توصیه می‌کنم آن را مطالعه کنید که در آن یک نماینده نمونه موضوعی را انتخاب می‌کند، 100 عبارت جستجوی مرتبط ایجاد می‌کند، جستجوها را به طور همزمان انجام می‌دهد، نتایج را خلاصه می‌کند و خلاصه را در Discord به اشتراک می‌گذارد. با کد مناسب 🙂

این نسخه ی نمایشی سریع را تماشا کنید و نمونه برنامه های بیشتری را برای درک بیشتر بررسی کنید.

https://www.youtube.com/watch?v=LhQMBAehL_Q

می‌توانید اسناد دقیق را بخوانید که دارای راهنمای شروع سریع پایتون، راهنمای شروع سریع Nodejs، آموزش‌ها و راهنماهای نحوه کار است.

ممکن است بگویید شبیه Langchain است اما هر دو مفاهیم کمی متفاوت دارند. به عنوان مثال، LangChain برای ایجاد دنباله ای از اعلان ها و مدیریت تعاملات با مدل های هوش مصنوعی عالی است. دارای یک اکوسیستم بزرگ با تعداد زیادی ادغام از پیش ساخته شده است که اجرای سریع کارها را آسان تر می کند.

از طرف دیگر جولپ بیشتر در مورد ساخت عوامل هوش مصنوعی مداوم است که می توانند چیزها را به خاطر بسپارند. هنگامی که به وظایف پیچیده ای نیاز دارید که شامل مراحل متعدد، تصمیم گیری و ادغام با ابزارها یا API های مختلف مستقیماً در فرآیند عامل است، می درخشد. در مورد مقایسه دقیق بیشتر بخوانید.

Julep دارای 1.3k ستاره در GitHub است و در حال رشد است.

ستاره جولپ ⭐️


4. WebUI را باز کنید – محبوب ترین رابط هوش مصنوعی (از Ollama، OpenAI API… پشتیبانی می کند)، به صورت آفلاین اجرا می شود.

WebUI را باز کنید

Open WebUI یک رابط کاربری چت خود میزبان کاربرپسند عالی است که برای کار کاملا آفلاین طراحی شده است.

این می تواند به شما کمک کند تا ویژگی هایی را با سرعتی بسازید که هرگز نمی توانید تصور کنید.

WebUI را باز کنید

می توانید از pip برای نصب سریع آن استفاده کنید. راهنمای نصب کامل را بررسی کنید.


# install Open WebUI

pip install open-webui

# run Open WebUI

open-webui serve
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

webui را باز کنید

بیایید برخی از ویژگی های عالی را ببینیم.

✅ می توانید URL API OpenAI را برای پیوند با LMStudio، GroqCloud، Mistral، OpenRouter و موارد دیگر سفارشی کنید.

✅ با پشتیبانی بین المللی سازی (i18n) ما می توانید از آن به زبان دلخواه خود استفاده کنید.

✅ گزینه‌ای از ویژگی‌های تماس صوتی و ویدیویی بدون هندزفری وجود دارد که کمی انعطاف‌پذیری بیشتری می‌دهد.

✅ وب‌سایت رسمی آن‌ها اطلاعات واضحی در مورد دسته‌ای از مدل‌ها، درخواست‌ها، ابزارها و عملکردهای جامعه دارد.

وب سایت رسمی

✅ می توانید اسناد را مستقیماً در چت بارگیری کنید یا فایل هایی را به کتابخانه اسناد خود اضافه کنید و با استفاده از آن به آنها دسترسی داشته باشید # دستور قبل از پرس و جو

✅ می توانید با استفاده از ارائه دهندگانی مانند SearXNG، Google PSE، Brave Search، serpstack، serper، Serply، DuckDuckGo، TavilySearch و SearchApi تا نتایج را مستقیماً به تجربه چت خود تزریق کنید.

همچنین برای کسب اطلاعات بیشتر توصیه می‌کنیم این راهنما را تماشا کنید.

https://www.youtube.com/watch?v=16fWf0VVeIo

می‌توانید اسنادی را که شامل راهنمای شروع، سؤالات متداول (توصیه می‌شود مطالعه کنید) و آموزش‌ها را بخوانید.

با استفاده از Svelte، Python و TypeScript ساخته شده است.

آنها 41.6000 ستاره در GitHub دارند که در مورد محبوبیت بسیار زیاد می گوید.

ستاره باز WebUI ⭐️


5. Quivr – چارچوب RAG برای ساخت مغز دوم GenAI.

quivr

Quivr، مغز دوم شما، از قدرت GenerativeAI برای دستیار شخصی شما استفاده می کند. می توانید آن را به عنوان Obsidian اما توربوشارژ با قدرت های هوش مصنوعی در نظر بگیرید.

این پلتفرمی است که به شما کمک می کند دستیارهای هوش مصنوعی بسازید که به آنها گفته می شود Brain. این دستیارها با موارد تخصصی طراحی شده اند، مانند برخی از آنها که می توانند به منابع داده خاصی متصل شوند و به کاربران اجازه می دهند مستقیماً با داده ها تعامل داشته باشند.

در حالی که سایرین به عنوان ابزارهای تخصصی برای موارد استفاده خاص، با فناوری Rag، عمل می کنند. این ابزارها ورودی های خاصی را برای تولید خروجی های عملی مانند خلاصه، ترجمه و موارد دیگر پردازش می کنند.

یک نسخه ی نمایشی سریع از Quivr را تماشا کنید!

quivr gif

برخی از ویژگی های شگفت انگیز عبارتند از:

✅ بر اساس منبع داده ای که می خواهید با آن تعامل داشته باشید، می توانید نوع مغز مورد نظر خود را انتخاب کنید.

✅ آنها همچنین یک ویژگی قدرتمند برای به اشتراک گذاشتن مغز شما با دیگران ارائه می دهند. این را می توان با اشتراک گذاری با افراد از طریق ایمیل آنها و اعطای حقوق خاص به آنها انجام داد.

به اشتراک گذاری مغز

✅ Quivr به صورت آفلاین کار می کند، بنابراین می توانید در هر زمان و هر مکان به داده های خود دسترسی داشته باشید.

✅ می توانید با مغز خود به مکالمات گذشته خود دسترسی داشته باشید و ادامه دهید.

✅ اما بهترین موردی که من دوست داشتم این است که می توانید یک ربات Slack نصب کنید. به این دمو مراجعه کنید تا ببینید چه کاری می توانید انجام دهید. خیلی باحاله

https://www.youtube.com/watch?v=1yMe21vIl9E

به هر حال، در مورد همه چیزهای عالی که می توانید با Quivr انجام دهید بخوانید.

می توانید راهنمای نصب و فیلم نصب 60 ثانیه ای را بخوانید. برای اطلاعات دیگر به اسناد مراجعه کنید.

آمار

آنها همچنین راهنماهایی در مورد نحوه استقرار Quivr با Vercel، Porter، AWS و Digital Ocean ارائه کرده‌اند.

دارای بیش از 36.3 هزار ستاره در GitHub با بیش از 300 نسخه.

ستاره کویور ⭐️


6. Dify – موتور نوآوری برای برنامه های GenAI.

آتش

Dify یک پلت فرم منبع باز برای ساخت اپلیکیشن های هوش مصنوعی است.

رابط بصری آن گردش کار هوش مصنوعی، خط لوله RAG، قابلیت‌های عامل، مدیریت مدل، ویژگی‌های مشاهده‌پذیری و موارد دیگر را ترکیب می‌کند و به شما امکان می‌دهد به سرعت از نمونه اولیه به تولید برسید.

آنها Backend-as-a-Service و LLMOps را برای بهبود توسعه راه حل های هوش مصنوعی مولد ترکیب می کنند. می توانید از ابر استفاده کنید یا آن را خود میزبانی کنید (به اسناد مراجعه کنید).

حتی می‌توانید جریان‌های کاری قدرتمند هوش مصنوعی را روی یک بوم بصری بسازید و آزمایش کنید.

بوم بصری dify

بیایید برخی از ویژگی های عالی را ببینیم:

✅ Dify بیش از 50 ابزار داخلی را برای عوامل هوش مصنوعی، مانند جستجوی Google، DALL·E، Stable Diffusion و WolframAlpha ارائه می‌کند.

✅ شما می توانید گزارش ها و عملکرد برنامه را در طول زمان نظارت و تجزیه و تحلیل کنید.

✅ می‌توانید از خط لوله RAG برای استخراج متن از فایل‌های PDF، PPT و سایر قالب‌های سند رایج استفاده کنید.

✅ گزینه‌های یکپارچه‌سازی زیادی از ده‌ها ارائه‌دهنده استنتاج و راه‌حل‌های خود میزبانی در دسترس است که شامل GPT، Mistral، Llama3 و هر مدل سازگار با OpenAI API است. لیست کامل ارائه دهندگان مدل پشتیبانی شده را می توانید در اینجا بیابید.

✅ شما می توانید عامل های هوش مصنوعی را تنها با چند کلیک ایجاد کنید و به آنها اجازه دهید به طور مستقل از ابزارها و داده های تعریف شده سازمانی برای حل وظایف پیچیده استفاده کنند.

عوامل ai

می توانید اسناد را بخوانید.

دو مورد از موارد استفاده چشمگیر که من دوست داشتم:

⚡ ساختن یک دستیار هوش مصنوعی مفهومی

⚡ با Dify یک ربات MidJourney Prompt ایجاد کنید

Dify دارای 47.7 هزار ستاره در GitHub است و مشارکت کنندگان زیادی دارد.

Star Dify ⭐️


7. Micro Agent – عامل هوش مصنوعی که کد (در واقع مفید) را برای شما می نویسد.

عامل میکرو

ابزارهای کدنویسی با کمک هوش مصنوعی مانند GitHub Copilot و ChatGPT کد چندان قابل اعتمادی تولید نمی کنند و اغلب به درستی کار نمی کنند، اشکالات، موارد لبه یا حتی ارجاع به API های موجود را پیدا می کنید.

این می تواند منجر به یک حلقه خسته کننده از امتحان کد تولید شده، یافتن مشکلات، بازگشت به هوش مصنوعی برای رفع مشکل و تکرار شود.

زمان صرف شده برای رفع اشکال می تواند کل زمان صرفه جویی شده با استفاده از ابزارهای هوش مصنوعی را در وهله اول خنثی کند.

Micro Agent از هوش مصنوعی برای کاهش مشکلات تولید کد غیرقابل اعتماد استفاده می کند.

به آن یک اعلان بدهید و یک تست ایجاد می‌کند و سپس روی کد تکرار می‌شود تا همه موارد تست قبول شوند.

چگونه کار می کند

با استفاده از این دستور می توانید آن را نصب کنید.

npm install -g @builder.io/micro-agent

# Next, set your OpenAI API key when prompted or manually using this.
micro-agent config set OPENAI_KEY=

# Then you can run to start a new coding task
micro-agent
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

Micro Agent از شما می خواهد تا عملکرد مورد نظر خود را توصیف کنید، تست ها را تولید کنید و شروع به نوشتن کد به زبان دلخواه خود کنید تا تست ها را با موفقیت پشت سر بگذارید. هنگامی که تمام تست ها سبز شدند، یک تابع کاملا کاربردی و با پشتوانه تست آماده استفاده خواهید داشت.

بیایید برخی از شگفت انگیزترین موارد استفاده را بررسی کنیم:

⚡ نسخه نمایشی 30 ثانیه ای Micro Agent که تست ها و کدهای یک تابع TypeScript را ایجاد می کند که آناگرام ها را از آرایه ای از رشته ها با هم گروه بندی می کند.

آناگرام گروهی

⚡ استفاده از Micro Agent برای تولید یک تجزیه کننده ساده HTML به AST (در دو تکرار به دست آمد).

micro agent html to ast parser

⚡ تطبیق تست واحد.

تطبیق واحد

⚡ تطبیق بصری (تجربی).

تطبیق بصری

⚡ ادغام با Figma.

Micro Agent همچنین می‌تواند با Visual Copilot ادغام شود تا مستقیماً با Figma ارتباط برقرار کند تا از بالاترین وفاداری ممکن در طراحی کد اطمینان حاصل کند!

Visual Copilot مستقیماً به Figma متصل می شود تا به تبدیل کامل پیکسلی، نقشه برداری دقیق توکن طراحی و استفاده دقیق از اجزای شما در خروجی تولید شده کمک کند.

سپس، Micro Agent می‌تواند خروجی Visual Copilot را بگیرد و تنظیمات نهایی را روی کد انجام دهد تا مطمئن شود که TSC، پرز، تست‌ها و مطابقت کامل با طراحی شما از جمله ترفندهای نهایی را دارد. واقعا شگفت انگیز 🙂

خلبان بصری

می توانید اسناد و وبلاگ رسمی را بخوانید که در آن تیم درباره همه چیز در مورد عامل میکرو صحبت کردند.

این منبع باز با 2.8 هزار ستاره در GitHub است.

مامور میکرو ستاره ⭐️


8. Cline – عامل کدنویسی مستقل درست در IDE شما.

cline

این مفهوم بسیار شبیه به Cursor است که در آن Cline یک عامل کدنویسی مستقل است که قادر به ایجاد/ویرایش فایل‌ها، اجرای دستورات و موارد دیگر با اجازه شما در هر مرحله از راه است.

این یک افزونه VSCode است و می توانید آن را در بازار پیدا کنید. 84k+ نصب دارد.

Cline بر روی قابلیت های کدگذاری عاملی کلود 3.5 Sonnet کار می کند.

✅ Cline از ارائه دهندگان API مانند OpenRouter، Anthropic، OpenAI، Google Gemini، AWS Bedrock، Azure و GCP Vertex پشتیبانی می کند. همچنین می توانید هر API سازگار با OpenAI را پیکربندی کنید یا از یک مدل محلی از طریق Olama استفاده کنید.

cline از مدل ها پشتیبانی می کند

✅ با استفاده از چهار دستور مختلف می توانید زمینه را اضافه کنید.

  • @url: یک URL برای واکشی و تبدیل افزونه به نشانه گذاری در URL جایگذاری کنید، زمانی که می خواهید جدیدترین اسناد را به Cline بدهید مفید است.

  • @problems: خطاها و هشدارهای فضای کاری (پنل “مشکلات”) را برای رفع مشکل Cline اضافه کنید.

زمینه کلین

✅ از یک مرورگر بدون هد برای بازرسی هر وب سایتی مانند لوکال هاست استفاده می کند و به آن اجازه می دهد اسکرین شات ها و گزارش های کنسول را بگیرد. این به او استقلال می‌دهد تا باگ‌های بصری و مشکلات زمان اجرا را بدون نیاز به نگه‌داشتن و کپی پیست کردن لاگ‌های خطا، برطرف کند.

مرورگر بدون سر

✅ حتی می توانید دستورات را در ترمینال اجرا کنید تا کارهای عالی انجام دهید.

می توانید اسناد را بخوانید.

Cline دارای 7k ستاره در GitHub است.

استار کلاین ⭐️


9. GPT Crawler – GPT سفارشی خود را از یک URL ایجاد کنید.

خزنده gpt

با GPT Crawler، می‌توانید هر سایتی را برای تولید فایل‌های دانش بخزید تا GPT سفارشی خود را از یک یا چند URL بسازید.

خزنده gpt

هدف این است که سایت Docs تعاملی باشد، مردم می توانند با استفاده از یک رابط چت به سادگی پاسخ هایی را که به دنبال آن هستند بیابند.

این نسخه ی نمایشی سریع را تماشا کنید!

دمو گیف

شما باید خزنده را پیکربندی کنید و سپس به سادگی آن را اجرا کنید. پس از اتمام خزیدن، یک صفحه جدید خواهید داشت output.json فایلی که شامل عنوان، URL و متن استخراج شده از تمام صفحات خزیده شده است.

اکنون می توانید با ایجاد یک GPT جدید، آن را مستقیماً در ChatGPT آپلود کنید. پس از آپلود، این دستیار GPT تمام اطلاعات آن اسناد را در اختیار خواهد داشت و می‌تواند به سوالات نامحدودی درباره آنها پاسخ دهد.

آپلود سفارشی

این به طور رسمی یک دستیار در ChatGPT است.

دستیار

می توانید اسناد مربوط به نحوه شروع را مطالعه کنید. شما می توانید تمام دستورالعمل ها را در وبلاگ رسمی پیدا کنید.

اگر تعجب می کنید که Mitosis چگونه این اجزا را کامپایل می کند، این آموزش سریع را تماشا کنید.

https://www.youtube.com/watch?v=XQIuv34-K_8

آنها 18.6 هزار ستاره در GitHub دارند.

Star GPT Crawler ⭐️


10. Composio – مجموعه ابزار آماده تولید برای عوامل هوش مصنوعی.

ترکیب

Composio تنها ابزار مورد نیاز برای ساختن نرم افزار پیچیده اتوماسیون هوش مصنوعی است. این به مدل‌های هوش مصنوعی اجازه می‌دهد تا به ابزارها و برنامه‌های شخص ثالث دسترسی داشته باشند تا تعامل خود را با آنها خودکار کنند.

به عنوان مثال، می‌توانید GitHub را از طریق Composio به مدل GPT متصل کنید و بررسی PRها، حل مشکلات، نوشتن موارد آزمایشی و موارد دیگر را خودکار کنید.

می‌توانید گردش‌های کاری پیچیده دنیای واقعی را با استفاده از بیش از ۹۰ ابزار و گزینه‌های یکپارچه‌سازی مانند GitHub، Jira، Slack و Gmail خودکار کنید.

ادغام

همچنین می‌توانید اقداماتی مانند ارسال ایمیل، شبیه‌سازی کلیک‌ها، ثبت سفارش و موارد دیگر را فقط با افزودن مشخصات OpenAPI برنامه‌های خود به Composio خودکار کنید.

https://www.youtube.com/watch?v=ujxKzS0b5qg

اینگونه می توانید از این استفاده کنید.

# install it
pip install composio-core

# Add a GitHub integration
composio add github
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

در اینجا نحوه استفاده از ادغام GitHub برای ستاره گذاری یک مخزن آورده شده است.

from openai import OpenAI
from composio_openai import ComposioToolSet, App

openai_client = OpenAI(api_key="******OPENAIKEY******")

# Initialise the Composio Tool Set
composio_toolset = ComposioToolSet(api_key="**\\*\\***COMPOSIO_API_KEY**\\*\\***")

## Step 4
# Get GitHub tools that are pre-configured
actions = composio_toolset.get_actions(actions=[Action.GITHUB_ACTIVITY_STAR_REPO_FOR_AUTHENTICATED_USER])

## Step 5
my_task = "Star a repo ComposioHQ/composio on GitHub"

# Create a chat completion request to decide on the action
response = openai_client.chat.completions.create(
model="gpt-4-turbo",
tools=actions, # Passing actions we fetched earlier.
messages=[
    {"role": "system", "content": "You are a helpful assistant."},
    {"role": "user", "content": my_task}
  ]
)
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

می توانید اسناد و نمونه ها را بخوانید.

گزینه ها

Composio دارای 9k ستاره در GitHub است.

ترکیب ستاره ⭐️


11. Langflow – سازنده برنامه کم کد برای RAG و برنامه های هوش مصنوعی چند عاملی.

langflow

Langflow برای تسهیل توسعه هوش مصنوعی در سناریوهای دنیای واقعی طراحی شده است. این برنامه مبتنی بر پایتون است و برای هر مدل، API یا پایگاه داده ای آگنوستیک است.

این یک نوع نمودار پویا است که در آن هر گره یک واحد اجرایی است. می توانید دمو را تماشا کنید.

✅ می توانید با استفاده از براکت های فرفری {} از ورودی های پویا استفاده کنید.

ورودی های پویا

✅ شما می توانید با تنظیم آسان LLM ها از صفحات گسترده، از پتانسیل کامل LLM استفاده کنید.

تنظیم دقیق

✅ شما می توانید از سطح فراتر رفته و اجزای خود را کدنویسی کنید.

اجزای خودتان

✅ اجزای سطح بالاتر به طور طبیعی از بلوک های سازنده هوش مصنوعی می آیند. ساخته های خود را ذخیره و به اشتراک بگذارید.

اجزای گروه

گزینه های ادغام بسیار بزرگ هستند، بنابراین می توانید تقریباً هر چیزی را بسازید. آنها همچنین بلوک های ساختمانی قابل ترکیبی را ارائه می دهند که مانند اجزای از پیش ساخته شده هستند که می توانند به روش های متعددی برای ایجاد برنامه های هوش مصنوعی ترکیب شوند.

گزینه ادغام

می‌توانید اسنادی را بخوانید که حاوی راهنمای شروع سریع و زمین بازی است که در آن می‌توانید مستقیماً تنظیمات اولیه را انجام دهید و نتایج مختلف را با مدل‌ها مشاهده کنید.

Lanflow دارای 31.2k ستاره در GitHub است.

ستاره لانگ فلو ⭐️


12. OpenLLM – LLM ها را به عنوان نقطه پایانی API سازگار با OpenAI در فضای ابری اجرا کنید

llm را باز کنید

OpenLLM به توسعه دهندگان این امکان را می دهد که هر LLM منبع باز را به عنوان نقطه پایانی API سازگار با OpenAI با یک فرمان واحد اجرا کنند.

⚡ لیست کامل llama3، qwen2، gemma و بسیاری از نسخه های کوانتیزه شده را پشتیبانی کنید.
⚡ API سازگار با OpenAI و شامل ChatGPT مانند UI.
⚡ رمزگشایی سریع LLM با باطن استنتاج پیشرفته.
⚡ آماده برای استقرار ابر در سطح سازمانی (Kubernetes، Docker و BentoCloud).

با دستور زیر شروع کنید.

pip install openllm  # or pip3 install openllm
openllm hello
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

OpenLLM یک رابط کاربری چت (UI) در نقطه پایانی /chat برای سرور LLM فراهم می کند. شما می توانید از رابط کاربری چت در http://localhost:3000/chat و مکالمات مختلفی را با مدل شروع کنید.

llm را باز کنید

همانطور که قبلاً گفتم، OpenLLM از استقرار ابری LLM از طریق BentoML، چارچوب ارائه مدل یکپارچه و BentoCloud، یک پلت فرم استنتاج هوش مصنوعی برای تیم‌های هوش مصنوعی سازمانی پشتیبانی می‌کند.

مدل ها

اگر نمی دانید، BentoCloud یک زیرساخت کاملاً مدیریت شده بهینه شده برای استنتاج LLM با مقیاس خودکار، هماهنگ سازی مدل، قابلیت مشاهده ارائه می دهد، که فقط یک روش فانتزی برای گفتن است که به شما امکان می دهد هر مدل هوش مصنوعی را در فضای ابری اجرا کنید.

کنسول ابری بنتو

پس از تکمیل استقرار، می توانید استنتاج مدل را در کنسول BentoCloud اجرا کنید:

می توانید در مورد مدل های پشتیبانی شده و نحوه راه اندازی سرور LLM مطالعه کنید.

اسناد را کاوش کنید زیرا می توانید با استفاده از یک مدل در CLI نیز چت کنید openllm run و مشخص کردن نسخه مدل – openllm run llama3:8b.

اگر عاشق کاوش در مسیرهای پیاده‌روی هستید، این دمو توسط متیو را تماشا کنید!

https://www.youtube.com/watch?v=8nZZ2oQhx4E

آنها 9.9 هزار ستاره در GitHub دارند که تقریباً به مرز 10 هزار رسیده است 🙂

ستاره OpenLLM ⭐️


13. مهندس GPT – هوش مصنوعی آنچه را که می خواهید می سازد.

مهندس gpt

GPT-engineer به شما امکان می‌دهد نرم‌افزار را به زبان طبیعی مشخص کنید، بنشینید و تماشا کنید که یک AI کد را می‌نویسد و اجرا می‌کند، و می‌توانید از هوش مصنوعی بخواهید که بهبودهایی را اعمال کند.

به جرات می توان گفت مهندس است که نیازی به مدرک ندارد 😅

این یک پروژه تجاری برای تولید خودکار برنامه های وب است. این دارای یک رابط کاربری برای کاربران غیر فنی است که به یک پایگاه کد کنترل شده با git متصل هستند.

من می دانم که این احساس گیج کننده است، بنابراین نسخه ی نمایشی زیر را تماشا کنید تا بفهمید چگونه می توانید از GPT Engineer استفاده کنید.

گیف دمو

می توانید با نصب نسخه پایدار با استفاده از این دستور شروع به کار کنید.

python -m pip install gpt-engineer
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

به‌طور پیش‌فرض، gpt-engineer انتظار ورودی متن را از طریق یک فایل سریع دارد. همچنین می‌تواند ورودی‌های تصویر را برای مدل‌های دارای قابلیت دید بپذیرد. این می تواند برای افزودن نمودارهای UX یا معماری به عنوان زمینه اضافی برای مهندس GPT مفید باشد. در مورد تمام ویژگی های عالی بخوانید.

اگر می خواهید یک راهنما کامل داشته باشید، این نسخه ی نمایشی عالی توسط دیوید را تماشا کنید!

https://www.youtube.com/watch?v=gWy-pJ2ofEM

توصیه می کنم برای درک چشم انداز کلی، نقشه راه را بررسی کنید.

نقشه راه

آنها 52.2k ستاره در GitHub دارند و در GitHub هستند v0.3 آزاد کردن

مهندس ستاره GPT ⭐️


14. Void – جایگزین منبع باز برای مکان نما.

باطل

همانطور که می‌دانید، پروژه‌های زیادی مانند PearAI و Zed پس از راه‌اندازی Cursor به بازار آمدند، اما بیشتر آنها فقط فورک‌های VSCode هستند و واقعاً اکوسیستم را چندان بهبود نمی‌بخشند.

اگر می‌خواهید تغییر دهید، من مکان‌نما (نه منبع باز)، Continue (مشابه مکان‌نما) و Void را توصیه می‌کنم که یک جایگزین منبع باز برای مکان‌نما است.

من Void را پوشش می دهم زیرا توسط YCombinator پشتیبانی می شود بنابراین آنها را به اندازه کافی معتبر می کند. آنها آن را منتشر نکرده اند، اما شما به راحتی می توانید دسترسی اولیه برای امتحان آن را دریافت کنید.

این ویژگی های نحوی هوش مصنوعی بسیار شبیه به مکان نما دارد.

✅ با هوش مصنوعی می توانید جستجوهای هوشمندانه انجام دهید.

✅ می توانید اعلان های زیربنایی را مشاهده و ویرایش کنید.

✅ آگاهی زمینه، ادغام شخص ثالث، نسل دقیق تنظیم شده وجود دارد و حتی می توانید Ollama را به صورت محلی میزبانی کنید تا دیگر هرگز اعتبار API تمام نشود.

مکان نما

همانطور که قبلاً گفتم، Void یک فورک از VS Code است، بنابراین شما می توانید تنها با یک کلیک روی تمام تم ها، صفحه کلیدها و تنظیمات خود منتقل کنید.

من قبلاً Continue را پوشش داده‌ام، بنابراین این بار از آن صرفنظر کردم، اما قطعاً مکان‌نما را تا زمانی که Void کاملاً منتشر شود ترجیح می‌دهم.

Void دارای 7.5 هزار ستاره در GitHub است و هنوز در مرحله انتشار اولیه است.

ستاره خالی ⭐️


15. Unsloth – Finetune Llama 3، Mistral، Phi و Gemma LLMs 2-5 برابر سریعتر با 80% حافظه کمتر.

تنبل

Unsloth تنظیم دقیق مدل‌های زبان بزرگ مانند Llama-3، Mistral، Phi-3 و Gemma را 2 برابر سریع‌تر می‌کند، 70 درصد حافظه کمتری مصرف می‌کند و دقت آن کاهش نمی‌یابد!

✅ تنظیم دقیق چیست؟

اگر می‌خواهیم یک مدل زبان برای یادگیری یک مهارت جدید، یک زبان جدید، یک زبان برنامه‌نویسی جدید، یا به سادگی می‌خواهیم که مدل زبان یاد بگیرد که چگونه دستورالعمل‌هایی مانند نحوه عملکرد ChatGPT را دنبال کند و به آنها پاسخ دهد، تنظیمات دقیق را انجام می‌دهیم!

تنظیم دقیق فرآیند به روز رسانی واقعی است brains الگوی زبان از طریق فرآیندی به نام انتشار پسین. اما، تنظیم دقیق می تواند بسیار کند و منابع بسیار فشرده شود.

Unsloth را می توان به صورت محلی یا از طریق سرویس GPU دیگری مانند Google Colab نصب کرد. بیشتر آنها از Unsloth از طریق رابط Google Colab استفاده می کنند که یک GPU رایگان برای آموزش ارائه می دهد.

Fineune به صورت رایگان

برخی از موارد برجسته:

✅ متن باز 5 برابر سریعتر تمرین می کند و نسخه حرفه ای ادعا می کند 30 برابر سریعتر است.

✅هیچ روش تقریبی استفاده نمی شود که باعث کاهش 0% دقت می شود.

✅ بدون تغییر سخت افزار، روی لینوکس و ویندوز از طریق WSL کار می کند.

آمار مدل unsloth

می توانید دستورالعمل نصب و جداول معیار عملکرد را در وب سایت مطالعه کنید.

تنبل

می‌توانید اسناد و تمام مدل‌های آپلود شده را مستقیماً در Hugging Face بخوانید.

آنها همچنین راهنمای دقیقی در مورد نحوه تنظیم Llama-3 و صادرات به Ollama ارائه کرده اند.

Unsloth دارای بیش از 16.8k ستاره در GitHub است.

ستاره بیکار ⭐️


16. جستجو – مغز دوم هوش مصنوعی شما.

جستجو کنید

Khoj منبع باز، AI کمکی برای جستجو است. بدون نیاز به بررسی نتایج آنلاین یا یادداشت های خود به راحتی پاسخ ها را دریافت کنید.

Khoj می‌تواند Word، PDF، org-mode، نشانه‌گذاری، فایل‌های متن ساده، پروژه‌های GitHub و حتی صفحات Notion شما را درک کند.

نوع اسناد

این به عنوان یک برنامه دسکتاپ، بسته Emacs، پلاگین Obsidian، برنامه وب و هوش مصنوعی Whatsapp در دسترس است. ابسیدین با خوج ممکن است قوی ترین ترکیب ترکیبی باشد!

با دستورات زیر می توانید با خوج به صورت محلی در چند دقیقه شروع کنید.

$ pip install khoj-assistant
$ khoj
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

آن را در عمل تماشا کنید!

برخی از ویژگی های هیجان انگیز:

✅ می توانید یادداشت ها و اسناد خود را برای گسترش مغز دیجیتال خود به اشتراک بگذارید.

✅ عوامل هوش مصنوعی شما به اینترنت دسترسی دارند و به شما این امکان را می‌دهند که اطلاعات بی‌درنگ را ترکیب کنید.

✅ یک جستجوی معنایی سریع و دقیق در بالای اسناد خود دریافت خواهید کرد.

✅ عوامل شما می توانند تصاویر عمیقا شخصی ایجاد کنند و صحبت شما را درک کنند.

به عنوان مثال، گفتن: “یک تصویر از خانه رویایی من، بر اساس علایق من ایجاد کنید”. این را ترسیم خواهد کرد!

تولید تصویر

تمام ویژگی‌ها از جمله چت قابل اشتراک‌گذاری، چت آنلاین، خلاصه‌سازی فایل و جزئیات کامل را در دسته‌های مختلف بخوانید.

می‌توانید اسناد را بخوانید و می‌توانید Khoj Cloud را امتحان کنید تا سریع آن را امتحان کنید.

توضیحات کامل را در YouTube تماشا کنید!

https://www.youtube.com/watch?v=Lnx2K4TOnC4

این دارای 12.8 هزار ستاره در GitHub است و توسط YCombinator پشتیبانی می شود.

جستجوی ستاره ⭐️


17. ابزارهای سریع – ابزارهایی برای آزمایش سریع.

ابزارهای سریع

این پروژه مجموعه ای از ابزارهای خود میزبان منبع باز برای آزمایش، آزمایش و ارزیابی LLM ها، پایگاه های داده برداری و درخواست ها دارد. ایده اصلی این است که توسعه دهندگان را قادر می سازد تا با استفاده از رابط های آشنا مانند کد، نوت بوک و زمین بازی محلی ارزیابی کنند.

تنها در چند خط کد، می‌توانید اعلان‌ها و پارامترهای خود را در مدل‌های مختلف آزمایش کنید (خواه از مدل‌های OpenAI، Anthropic یا LLaMA استفاده می‌کنید). حتی می توانید دقت بازیابی پایگاه های داده برداری را ارزیابی کنید.

ابزارهای سریع

با پیپ شروع کنید.

pip install prompttools
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

آنها نمونه های نوت بوکی را ارائه می دهند که می توانید اجرا کنید.

می توانید اسناد را بخوانید و زمین بازی آنها را بررسی کنید.

ابزارهای سریع دارای 2.7 هزار ستاره در GitHub هستند.

Star Prompt Tools ⭐️


با ابزارهای مناسب، ساخت ویژگی‌های هوش مصنوعی بسیار آسان‌تر است و تیم شما می‌تواند کار با کیفیت را سریع‌تر ارائه دهد.

آیا فکر می کنید این پروژه ها به تیم ها کمک می کند تا ویژگی های هوش مصنوعی را حداقل سریعتر از قبل بسازند؟

روز خوبی داشته باشید! تا دفعه بعد

اگر این را دوست داشتید،
لطفا برای اطلاعات بیشتر من را دنبال کنید 🙂
پروفایل توییتر با نام کاربری Anmol_Codes پروفایل گیت هاب با نام کاربری Anmol-Baranwal پروفایل لینکدین با نام کاربری Anmol-Baranwal

برای محتوای بیشتر مانند این Latitude را دنبال کنید.

تصویر عرض جغرافیایی

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا