17 پروژه برای تیم ها برای ساخت ویژگی های AI 100 برابر سریعتر

Summarize this content to 400 words in Persian Lang
مهندسی سریع و هوش مصنوعی در حال رونق است، تقریباً هر تیم استارتاپی هوش مصنوعی را برای آسان کردن کارها برای کاربران خود ادغام می کند.
امروز، ما ۱۷ پروژه را برای به حداکثر رساندن بهرهوری شما برای توسعهدهندگانی که با هوش مصنوعی میسازند، پوشش میدهیم.
ابزارهای مربوط به مهندسی سریع، ویرایشگرهای کد، عوامل و بسیاری چیزهای هیجان انگیز دیگر را خواهید یافت.
این لیست شما را شگفت زده خواهد کرد.
1. Latitude LLM – پلت فرم مهندسی سریع برای ساخت و اصلاح دستورات با هوش مصنوعی.
Latitude پلتفرم مهندسی سریع منبع باز برای ساخت، ارزیابی و اصلاح دستورات شما با هوش مصنوعی است. میتوانید با استفاده از SDK یا API، درخواستها را در پلتفرم ایجاد و تکرار کنید.
بهترین بخش این است که هر بار که یک درخواست اجرا می شود، به طور خودکار کل زمینه، خروجی و سایر ابرداده های مربوط به ارزیابی و اشکال زدایی را ثبت می کند.
داشبورد اینگونه به نظر می رسد.
✅ پشتیبانی از ویژگی های پیشرفته مانند پارامترها، قطعات، منطق و موارد دیگر وجود دارد.
✅ شما کنترل نسخه برای درخواستها، مدیر اعلان مشارکتی و حتی ارزیابیها را به صورت دستهای یا بلادرنگ دریافت میکنید.
یک جریان کاربر اساسی می تواند باشد:
-→ ایجاد یک پروژه جدید.
-← اولین درخواست خود را با استفاده از ویرایشگر بنویسید.
-← درخواست خود را با استفاده از زمین بازی با ورودی های مختلف آزمایش کنید و پاسخ های حالت را ببینید.
-← قبل از استقرار، می توانید یک مجموعه داده را آپلود کنید و یک ارزیابی دسته ای برای ارزیابی عملکرد درخواست خود در سناریوهای مختلف اجرا کنید. این ویدیو را تماشا کنید تا ببینید چگونه ارزیابی ها می توانند نتایج درخواست های شما را تجزیه و تحلیل کنند.
-← می توانید درخواست خود را به عنوان نقطه پایانی برای ادغام آسان با برنامه های خود مستقر کنید.
-← از بخش Logs برای بررسی عملکرد درخواست خود در طول زمان استفاده کنید.
-← درخواست خود را اصلاح کنید و اعضای تیم را برای همکاری به فضای کاری Latitude خود دعوت کنید.
برای کسب اطلاعات بیشتر، این نسخه ی نمایشی سریع را تماشا کنید.
میتوانید اسناد و مفاهیم مرتبط مانند درخواستها، گزارشها و ارزیابیها را بخوانید.
می توانید با استفاده از نسخه ابری یا میزبانی خود از این راهنمای شروع سریع استفاده کنید.
آنها 536 ستاره در GitHub دارند و بسیار سریع در حال رشد هستند.
Star Latitude LLM ⭐️
2. LiveKit Agents – برنامه های هوش مصنوعی چندوجهی در زمان واقعی بسازید.
LiveKit Agents یک چارچوب سرتاسری است که توسعه دهندگان را قادر می سازد دستیارهای صوتی هوشمند و چندوجهی (عوامل AI) بسازند که می توانند کاربران را از طریق کانال های صوتی، ویدیویی و داده درگیر کنند.
بگذارید با کلمات ساده توضیح دهم.
چارچوب Agents به شما امکان می دهد برنامه های سرور مبتنی بر هوش مصنوعی بسازید که می توانند در زمان واقعی ببینند، بشنوند و صحبت کنند. نماینده شما از طریق یک جلسه LiveKit با دستگاه های کاربر نهایی متصل می شود. در طول آن جلسه، نماینده شما میتواند متن، صدا، تصاویر یا ویدئو را از دستگاه کاربر پردازش کند و یک مدل هوش مصنوعی هر ترکیبی از همان روشهای خروجی را تولید کند و آنها را به کاربر بازگرداند.
✅ آنها از بسیاری از SDK ها از جمله Swift، Android، Flutter، Rust، Unity، Node، Go، PHP، React و غیره پشتیبانی می کنند.
می توانید با پیپ شروع کنید.
pip install livekit-agents
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
آنها همچنین پلاگین های زیادی دارند که پردازش ورودی جریان یا تولید خروجی را آسان می کند. به عنوان مثال، پلاگین هایی برای تبدیل متن به گفتار یا اجرای استنتاج با LLM های محبوب وجود دارد. یکی از نمونه های پلاگین این است:
pip install livekit-plugins-openai
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
آنها همچنین اگر از React استفاده می کنید، کامپوننت ها و نمونه های منبع باز React را برای ساخت با LiveKit ارائه می دهند.
می توانید اسناد را بخوانید و لیست تمام افزونه های موجود را ببینید. اگر می خواهید امتحان کنید، می توانید آن را در cloud.livekit.io انجام دهید.
اگر به دنبال چند برنامه نمونه با کد هستید، این موارد را بررسی کنید:
⚡ یک عامل صوتی پایه با استفاده از خط لوله STT، LLM، و TTS
⚡ عامل صدای فوق العاده سریع با استفاده از Cerebras میزبان Llama 3.1
این یکی از هیجانانگیزترین پروژههایی از بیش از 1000 پروژهای است که من تا به حال در منبع باز دیدهام.
آنها 3.2 هزار ستاره در GitHub دارند و در حال رشد هستند.
Star LiveKit Agents ⭐️
3. Julep – برنامه های هوش مصنوعی حالت دار بسازید.
Julep پلتفرمی برای ایجاد عوامل هوش مصنوعی است که تعاملات گذشته را به یاد می آورند و می توانند وظایف پیچیده را انجام دهند.
تصور کنید که می خواهید یک عامل هوش مصنوعی بسازید که می تواند بیشتر از پاسخ دادن به سوالات ساده انجام دهد. باید کارهای پیچیده را انجام دهد، تعاملات گذشته را به خاطر بسپارد و شاید حتی از ابزارها یا APIهای دیگر استفاده کند. دقیقا همان جایی است که جولپ وارد می شود.
میتوانید از آن برای ایجاد وظایف چند مرحلهای استفاده کنید که شامل تصمیمگیری، حلقهها، پردازش موازی و بسیاری موارد دیگر میشود.
✅ بهطور خودکار مراحل ناموفق را دوباره امتحان میکند، پیامها را دوباره ارسال میکند، و به طور کلی وظایف شما را بدون مشکل اجرا میکند.
✅ می توانید از فروشگاه اسناد Julep برای ساختن سیستمی برای بازیابی و استفاده از داده های خود استفاده کنید.
مدل ذهنی ژولپ
برای شروع، می توانید از npm یا pip استفاده کنید.
npm install @julep/sdk
or
pip install julep
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
همچنین یک مثال سریع وجود دارد که توصیه میکنم آن را مطالعه کنید که در آن یک نماینده نمونه موضوعی را انتخاب میکند، 100 عبارت جستجوی مرتبط ایجاد میکند، جستجوها را به طور همزمان انجام میدهد، نتایج را خلاصه میکند و خلاصه را در Discord به اشتراک میگذارد. با کد مناسب 🙂
این نسخه ی نمایشی سریع را تماشا کنید و نمونه برنامه های بیشتری را برای درک بیشتر بررسی کنید.
میتوانید اسناد دقیق را بخوانید که دارای راهنمای شروع سریع پایتون، راهنمای شروع سریع Nodejs، آموزشها و راهنماهای نحوه کار است.
ممکن است بگویید شبیه Langchain است اما هر دو مفاهیم کمی متفاوت دارند. به عنوان مثال، LangChain برای ایجاد دنباله ای از اعلان ها و مدیریت تعاملات با مدل های هوش مصنوعی عالی است. دارای یک اکوسیستم بزرگ با تعداد زیادی ادغام از پیش ساخته شده است که اجرای سریع کارها را آسان تر می کند.
از طرف دیگر جولپ بیشتر در مورد ساخت عوامل هوش مصنوعی مداوم است که می توانند چیزها را به خاطر بسپارند. هنگامی که به وظایف پیچیده ای نیاز دارید که شامل مراحل متعدد، تصمیم گیری و ادغام با ابزارها یا API های مختلف مستقیماً در فرآیند عامل است، می درخشد. در مورد مقایسه دقیق بیشتر بخوانید.
Julep دارای 1.3k ستاره در GitHub است و در حال رشد است.
ستاره جولپ ⭐️
4. WebUI را باز کنید – محبوب ترین رابط هوش مصنوعی (از Ollama، OpenAI API… پشتیبانی می کند)، به صورت آفلاین اجرا می شود.
Open WebUI یک رابط کاربری چت خود میزبان کاربرپسند عالی است که برای کار کاملا آفلاین طراحی شده است.
این می تواند به شما کمک کند تا ویژگی هایی را با سرعتی بسازید که هرگز نمی توانید تصور کنید.
می توانید از pip برای نصب سریع آن استفاده کنید. راهنمای نصب کامل را بررسی کنید.
# install Open WebUI
pip install open-webui
# run Open WebUI
open-webui serve
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
بیایید برخی از ویژگی های عالی را ببینیم.
✅ می توانید URL API OpenAI را برای پیوند با LMStudio، GroqCloud، Mistral، OpenRouter و موارد دیگر سفارشی کنید.
✅ با پشتیبانی بین المللی سازی (i18n) ما می توانید از آن به زبان دلخواه خود استفاده کنید.
✅ گزینهای از ویژگیهای تماس صوتی و ویدیویی بدون هندزفری وجود دارد که کمی انعطافپذیری بیشتری میدهد.
✅ وبسایت رسمی آنها اطلاعات واضحی در مورد دستهای از مدلها، درخواستها، ابزارها و عملکردهای جامعه دارد.
✅ می توانید اسناد را مستقیماً در چت بارگیری کنید یا فایل هایی را به کتابخانه اسناد خود اضافه کنید و با استفاده از آن به آنها دسترسی داشته باشید # دستور قبل از پرس و جو
✅ می توانید با استفاده از ارائه دهندگانی مانند SearXNG، Google PSE، Brave Search، serpstack، serper، Serply، DuckDuckGo، TavilySearch و SearchApi تا نتایج را مستقیماً به تجربه چت خود تزریق کنید.
همچنین برای کسب اطلاعات بیشتر توصیه میکنیم این راهنما را تماشا کنید.
میتوانید اسنادی را که شامل راهنمای شروع، سؤالات متداول (توصیه میشود مطالعه کنید) و آموزشها را بخوانید.
با استفاده از Svelte، Python و TypeScript ساخته شده است.
آنها 41.6000 ستاره در GitHub دارند که در مورد محبوبیت بسیار زیاد می گوید.
ستاره باز WebUI ⭐️
5. Quivr – چارچوب RAG برای ساخت مغز دوم GenAI.
Quivr، مغز دوم شما، از قدرت GenerativeAI برای دستیار شخصی شما استفاده می کند. می توانید آن را به عنوان Obsidian اما توربوشارژ با قدرت های هوش مصنوعی در نظر بگیرید.
این پلتفرمی است که به شما کمک می کند دستیارهای هوش مصنوعی بسازید که به آنها گفته می شود Brain. این دستیارها با موارد تخصصی طراحی شده اند، مانند برخی از آنها که می توانند به منابع داده خاصی متصل شوند و به کاربران اجازه می دهند مستقیماً با داده ها تعامل داشته باشند.
در حالی که سایرین به عنوان ابزارهای تخصصی برای موارد استفاده خاص، با فناوری Rag، عمل می کنند. این ابزارها ورودی های خاصی را برای تولید خروجی های عملی مانند خلاصه، ترجمه و موارد دیگر پردازش می کنند.
یک نسخه ی نمایشی سریع از Quivr را تماشا کنید!
برخی از ویژگی های شگفت انگیز عبارتند از:
✅ بر اساس منبع داده ای که می خواهید با آن تعامل داشته باشید، می توانید نوع مغز مورد نظر خود را انتخاب کنید.
✅ آنها همچنین یک ویژگی قدرتمند برای به اشتراک گذاشتن مغز شما با دیگران ارائه می دهند. این را می توان با اشتراک گذاری با افراد از طریق ایمیل آنها و اعطای حقوق خاص به آنها انجام داد.
✅ Quivr به صورت آفلاین کار می کند، بنابراین می توانید در هر زمان و هر مکان به داده های خود دسترسی داشته باشید.
✅ می توانید با مغز خود به مکالمات گذشته خود دسترسی داشته باشید و ادامه دهید.
✅ اما بهترین موردی که من دوست داشتم این است که می توانید یک ربات Slack نصب کنید. به این دمو مراجعه کنید تا ببینید چه کاری می توانید انجام دهید. خیلی باحاله
به هر حال، در مورد همه چیزهای عالی که می توانید با Quivr انجام دهید بخوانید.
می توانید راهنمای نصب و فیلم نصب 60 ثانیه ای را بخوانید. برای اطلاعات دیگر به اسناد مراجعه کنید.
آنها همچنین راهنماهایی در مورد نحوه استقرار Quivr با Vercel، Porter، AWS و Digital Ocean ارائه کردهاند.
دارای بیش از 36.3 هزار ستاره در GitHub با بیش از 300 نسخه.
ستاره کویور ⭐️
6. Dify – موتور نوآوری برای برنامه های GenAI.
Dify یک پلت فرم منبع باز برای ساخت اپلیکیشن های هوش مصنوعی است.
رابط بصری آن گردش کار هوش مصنوعی، خط لوله RAG، قابلیتهای عامل، مدیریت مدل، ویژگیهای مشاهدهپذیری و موارد دیگر را ترکیب میکند و به شما امکان میدهد به سرعت از نمونه اولیه به تولید برسید.
آنها Backend-as-a-Service و LLMOps را برای بهبود توسعه راه حل های هوش مصنوعی مولد ترکیب می کنند. می توانید از ابر استفاده کنید یا آن را خود میزبانی کنید (به اسناد مراجعه کنید).
حتی میتوانید جریانهای کاری قدرتمند هوش مصنوعی را روی یک بوم بصری بسازید و آزمایش کنید.
بیایید برخی از ویژگی های عالی را ببینیم:
✅ Dify بیش از 50 ابزار داخلی را برای عوامل هوش مصنوعی، مانند جستجوی Google، DALL·E، Stable Diffusion و WolframAlpha ارائه میکند.
✅ شما می توانید گزارش ها و عملکرد برنامه را در طول زمان نظارت و تجزیه و تحلیل کنید.
✅ میتوانید از خط لوله RAG برای استخراج متن از فایلهای PDF، PPT و سایر قالبهای سند رایج استفاده کنید.
✅ گزینههای یکپارچهسازی زیادی از دهها ارائهدهنده استنتاج و راهحلهای خود میزبانی در دسترس است که شامل GPT، Mistral، Llama3 و هر مدل سازگار با OpenAI API است. لیست کامل ارائه دهندگان مدل پشتیبانی شده را می توانید در اینجا بیابید.
✅ شما می توانید عامل های هوش مصنوعی را تنها با چند کلیک ایجاد کنید و به آنها اجازه دهید به طور مستقل از ابزارها و داده های تعریف شده سازمانی برای حل وظایف پیچیده استفاده کنند.
می توانید اسناد را بخوانید.
دو مورد از موارد استفاده چشمگیر که من دوست داشتم:
⚡ ساختن یک دستیار هوش مصنوعی مفهومی
⚡ با Dify یک ربات MidJourney Prompt ایجاد کنید
Dify دارای 47.7 هزار ستاره در GitHub است و مشارکت کنندگان زیادی دارد.
Star Dify ⭐️
7. Micro Agent – عامل هوش مصنوعی که کد (در واقع مفید) را برای شما می نویسد.
ابزارهای کدنویسی با کمک هوش مصنوعی مانند GitHub Copilot و ChatGPT کد چندان قابل اعتمادی تولید نمی کنند و اغلب به درستی کار نمی کنند، اشکالات، موارد لبه یا حتی ارجاع به API های موجود را پیدا می کنید.
این می تواند منجر به یک حلقه خسته کننده از امتحان کد تولید شده، یافتن مشکلات، بازگشت به هوش مصنوعی برای رفع مشکل و تکرار شود.
زمان صرف شده برای رفع اشکال می تواند کل زمان صرفه جویی شده با استفاده از ابزارهای هوش مصنوعی را در وهله اول خنثی کند.
Micro Agent از هوش مصنوعی برای کاهش مشکلات تولید کد غیرقابل اعتماد استفاده می کند.
به آن یک اعلان بدهید و یک تست ایجاد میکند و سپس روی کد تکرار میشود تا همه موارد تست قبول شوند.
با استفاده از این دستور می توانید آن را نصب کنید.
npm install -g @builder.io/micro-agent
# Next, set your OpenAI API key when prompted or manually using this.
micro-agent config set OPENAI_KEY=
# Then you can run to start a new coding task
micro-agent
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
Micro Agent از شما می خواهد تا عملکرد مورد نظر خود را توصیف کنید، تست ها را تولید کنید و شروع به نوشتن کد به زبان دلخواه خود کنید تا تست ها را با موفقیت پشت سر بگذارید. هنگامی که تمام تست ها سبز شدند، یک تابع کاملا کاربردی و با پشتوانه تست آماده استفاده خواهید داشت.
بیایید برخی از شگفت انگیزترین موارد استفاده را بررسی کنیم:
⚡ نسخه نمایشی 30 ثانیه ای Micro Agent که تست ها و کدهای یک تابع TypeScript را ایجاد می کند که آناگرام ها را از آرایه ای از رشته ها با هم گروه بندی می کند.
⚡ استفاده از Micro Agent برای تولید یک تجزیه کننده ساده HTML به AST (در دو تکرار به دست آمد).
⚡ تطبیق تست واحد.
⚡ تطبیق بصری (تجربی).
⚡ ادغام با Figma.
Micro Agent همچنین میتواند با Visual Copilot ادغام شود تا مستقیماً با Figma ارتباط برقرار کند تا از بالاترین وفاداری ممکن در طراحی کد اطمینان حاصل کند!
Visual Copilot مستقیماً به Figma متصل می شود تا به تبدیل کامل پیکسلی، نقشه برداری دقیق توکن طراحی و استفاده دقیق از اجزای شما در خروجی تولید شده کمک کند.
سپس، Micro Agent میتواند خروجی Visual Copilot را بگیرد و تنظیمات نهایی را روی کد انجام دهد تا مطمئن شود که TSC، پرز، تستها و مطابقت کامل با طراحی شما از جمله ترفندهای نهایی را دارد. واقعا شگفت انگیز 🙂
می توانید اسناد و وبلاگ رسمی را بخوانید که در آن تیم درباره همه چیز در مورد عامل میکرو صحبت کردند.
این منبع باز با 2.8 هزار ستاره در GitHub است.
مامور میکرو ستاره ⭐️
8. Cline – عامل کدنویسی مستقل درست در IDE شما.
این مفهوم بسیار شبیه به Cursor است که در آن Cline یک عامل کدنویسی مستقل است که قادر به ایجاد/ویرایش فایلها، اجرای دستورات و موارد دیگر با اجازه شما در هر مرحله از راه است.
این یک افزونه VSCode است و می توانید آن را در بازار پیدا کنید. 84k+ نصب دارد.
Cline بر روی قابلیت های کدگذاری عاملی کلود 3.5 Sonnet کار می کند.
✅ Cline از ارائه دهندگان API مانند OpenRouter، Anthropic، OpenAI، Google Gemini، AWS Bedrock، Azure و GCP Vertex پشتیبانی می کند. همچنین می توانید هر API سازگار با OpenAI را پیکربندی کنید یا از یک مدل محلی از طریق Olama استفاده کنید.
✅ با استفاده از چهار دستور مختلف می توانید زمینه را اضافه کنید.
@url: یک URL برای واکشی و تبدیل افزونه به نشانه گذاری در URL جایگذاری کنید، زمانی که می خواهید جدیدترین اسناد را به Cline بدهید مفید است.
@problems: خطاها و هشدارهای فضای کاری (پنل “مشکلات”) را برای رفع مشکل Cline اضافه کنید.
✅ از یک مرورگر بدون هد برای بازرسی هر وب سایتی مانند لوکال هاست استفاده می کند و به آن اجازه می دهد اسکرین شات ها و گزارش های کنسول را بگیرد. این به او استقلال میدهد تا باگهای بصری و مشکلات زمان اجرا را بدون نیاز به نگهداشتن و کپی پیست کردن لاگهای خطا، برطرف کند.
✅ حتی می توانید دستورات را در ترمینال اجرا کنید تا کارهای عالی انجام دهید.
می توانید اسناد را بخوانید.
Cline دارای 7k ستاره در GitHub است.
استار کلاین ⭐️
9. GPT Crawler – GPT سفارشی خود را از یک URL ایجاد کنید.
با GPT Crawler، میتوانید هر سایتی را برای تولید فایلهای دانش بخزید تا GPT سفارشی خود را از یک یا چند URL بسازید.
هدف این است که سایت Docs تعاملی باشد، مردم می توانند با استفاده از یک رابط چت به سادگی پاسخ هایی را که به دنبال آن هستند بیابند.
این نسخه ی نمایشی سریع را تماشا کنید!
شما باید خزنده را پیکربندی کنید و سپس به سادگی آن را اجرا کنید. پس از اتمام خزیدن، یک صفحه جدید خواهید داشت output.json فایلی که شامل عنوان، URL و متن استخراج شده از تمام صفحات خزیده شده است.
اکنون می توانید با ایجاد یک GPT جدید، آن را مستقیماً در ChatGPT آپلود کنید. پس از آپلود، این دستیار GPT تمام اطلاعات آن اسناد را در اختیار خواهد داشت و میتواند به سوالات نامحدودی درباره آنها پاسخ دهد.
این به طور رسمی یک دستیار در ChatGPT است.
می توانید اسناد مربوط به نحوه شروع را مطالعه کنید. شما می توانید تمام دستورالعمل ها را در وبلاگ رسمی پیدا کنید.
اگر تعجب می کنید که Mitosis چگونه این اجزا را کامپایل می کند، این آموزش سریع را تماشا کنید.
آنها 18.6 هزار ستاره در GitHub دارند.
Star GPT Crawler ⭐️
10. Composio – مجموعه ابزار آماده تولید برای عوامل هوش مصنوعی.
Composio تنها ابزار مورد نیاز برای ساختن نرم افزار پیچیده اتوماسیون هوش مصنوعی است. این به مدلهای هوش مصنوعی اجازه میدهد تا به ابزارها و برنامههای شخص ثالث دسترسی داشته باشند تا تعامل خود را با آنها خودکار کنند.
به عنوان مثال، میتوانید GitHub را از طریق Composio به مدل GPT متصل کنید و بررسی PRها، حل مشکلات، نوشتن موارد آزمایشی و موارد دیگر را خودکار کنید.
میتوانید گردشهای کاری پیچیده دنیای واقعی را با استفاده از بیش از ۹۰ ابزار و گزینههای یکپارچهسازی مانند GitHub، Jira، Slack و Gmail خودکار کنید.
همچنین میتوانید اقداماتی مانند ارسال ایمیل، شبیهسازی کلیکها، ثبت سفارش و موارد دیگر را فقط با افزودن مشخصات OpenAPI برنامههای خود به Composio خودکار کنید.
اینگونه می توانید از این استفاده کنید.
# install it
pip install composio-core
# Add a GitHub integration
composio add github
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
در اینجا نحوه استفاده از ادغام GitHub برای ستاره گذاری یک مخزن آورده شده است.
from openai import OpenAI
from composio_openai import ComposioToolSet, App
openai_client = OpenAI(api_key=”******OPENAIKEY******”)
# Initialise the Composio Tool Set
composio_toolset = ComposioToolSet(api_key=”**\\*\\***COMPOSIO_API_KEY**\\*\\***”)
## Step 4
# Get GitHub tools that are pre-configured
actions = composio_toolset.get_actions(actions=[Action.GITHUB_ACTIVITY_STAR_REPO_FOR_AUTHENTICATED_USER])
## Step 5
my_task = “Star a repo ComposioHQ/composio on GitHub”
# Create a chat completion request to decide on the action
response = openai_client.chat.completions.create(
model=”gpt-4-turbo”,
tools=actions, # Passing actions we fetched earlier.
messages=[
{“role”: “system”, “content”: “You are a helpful assistant.”},
{“role”: “user”, “content”: my_task}
]
)
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
می توانید اسناد و نمونه ها را بخوانید.
Composio دارای 9k ستاره در GitHub است.
ترکیب ستاره ⭐️
11. Langflow – سازنده برنامه کم کد برای RAG و برنامه های هوش مصنوعی چند عاملی.
Langflow برای تسهیل توسعه هوش مصنوعی در سناریوهای دنیای واقعی طراحی شده است. این برنامه مبتنی بر پایتون است و برای هر مدل، API یا پایگاه داده ای آگنوستیک است.
این یک نوع نمودار پویا است که در آن هر گره یک واحد اجرایی است. می توانید دمو را تماشا کنید.
✅ می توانید با استفاده از براکت های فرفری {} از ورودی های پویا استفاده کنید.
✅ شما می توانید با تنظیم آسان LLM ها از صفحات گسترده، از پتانسیل کامل LLM استفاده کنید.
✅ شما می توانید از سطح فراتر رفته و اجزای خود را کدنویسی کنید.
✅ اجزای سطح بالاتر به طور طبیعی از بلوک های سازنده هوش مصنوعی می آیند. ساخته های خود را ذخیره و به اشتراک بگذارید.
گزینه های ادغام بسیار بزرگ هستند، بنابراین می توانید تقریباً هر چیزی را بسازید. آنها همچنین بلوک های ساختمانی قابل ترکیبی را ارائه می دهند که مانند اجزای از پیش ساخته شده هستند که می توانند به روش های متعددی برای ایجاد برنامه های هوش مصنوعی ترکیب شوند.
میتوانید اسنادی را بخوانید که حاوی راهنمای شروع سریع و زمین بازی است که در آن میتوانید مستقیماً تنظیمات اولیه را انجام دهید و نتایج مختلف را با مدلها مشاهده کنید.
Lanflow دارای 31.2k ستاره در GitHub است.
ستاره لانگ فلو ⭐️
12. OpenLLM – LLM ها را به عنوان نقطه پایانی API سازگار با OpenAI در فضای ابری اجرا کنید
OpenLLM به توسعه دهندگان این امکان را می دهد که هر LLM منبع باز را به عنوان نقطه پایانی API سازگار با OpenAI با یک فرمان واحد اجرا کنند.
⚡ لیست کامل llama3، qwen2، gemma و بسیاری از نسخه های کوانتیزه شده را پشتیبانی کنید.⚡ API سازگار با OpenAI و شامل ChatGPT مانند UI.⚡ رمزگشایی سریع LLM با باطن استنتاج پیشرفته.⚡ آماده برای استقرار ابر در سطح سازمانی (Kubernetes، Docker و BentoCloud).
با دستور زیر شروع کنید.
pip install openllm # or pip3 install openllm
openllm hello
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
OpenLLM یک رابط کاربری چت (UI) در نقطه پایانی /chat برای سرور LLM فراهم می کند. شما می توانید از رابط کاربری چت در http://localhost:3000/chat و مکالمات مختلفی را با مدل شروع کنید.
همانطور که قبلاً گفتم، OpenLLM از استقرار ابری LLM از طریق BentoML، چارچوب ارائه مدل یکپارچه و BentoCloud، یک پلت فرم استنتاج هوش مصنوعی برای تیمهای هوش مصنوعی سازمانی پشتیبانی میکند.
اگر نمی دانید، BentoCloud یک زیرساخت کاملاً مدیریت شده بهینه شده برای استنتاج LLM با مقیاس خودکار، هماهنگ سازی مدل، قابلیت مشاهده ارائه می دهد، که فقط یک روش فانتزی برای گفتن است که به شما امکان می دهد هر مدل هوش مصنوعی را در فضای ابری اجرا کنید.
پس از تکمیل استقرار، می توانید استنتاج مدل را در کنسول BentoCloud اجرا کنید:
می توانید در مورد مدل های پشتیبانی شده و نحوه راه اندازی سرور LLM مطالعه کنید.
اسناد را کاوش کنید زیرا می توانید با استفاده از یک مدل در CLI نیز چت کنید openllm run و مشخص کردن نسخه مدل – openllm run llama3:8b.
اگر عاشق کاوش در مسیرهای پیادهروی هستید، این دمو توسط متیو را تماشا کنید!
آنها 9.9 هزار ستاره در GitHub دارند که تقریباً به مرز 10 هزار رسیده است 🙂
ستاره OpenLLM ⭐️
13. مهندس GPT – هوش مصنوعی آنچه را که می خواهید می سازد.
GPT-engineer به شما امکان میدهد نرمافزار را به زبان طبیعی مشخص کنید، بنشینید و تماشا کنید که یک AI کد را مینویسد و اجرا میکند، و میتوانید از هوش مصنوعی بخواهید که بهبودهایی را اعمال کند.
به جرات می توان گفت مهندس است که نیازی به مدرک ندارد 😅
این یک پروژه تجاری برای تولید خودکار برنامه های وب است. این دارای یک رابط کاربری برای کاربران غیر فنی است که به یک پایگاه کد کنترل شده با git متصل هستند.
من می دانم که این احساس گیج کننده است، بنابراین نسخه ی نمایشی زیر را تماشا کنید تا بفهمید چگونه می توانید از GPT Engineer استفاده کنید.
می توانید با نصب نسخه پایدار با استفاده از این دستور شروع به کار کنید.
python -m pip install gpt-engineer
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
بهطور پیشفرض، gpt-engineer انتظار ورودی متن را از طریق یک فایل سریع دارد. همچنین میتواند ورودیهای تصویر را برای مدلهای دارای قابلیت دید بپذیرد. این می تواند برای افزودن نمودارهای UX یا معماری به عنوان زمینه اضافی برای مهندس GPT مفید باشد. در مورد تمام ویژگی های عالی بخوانید.
اگر می خواهید یک راهنما کامل داشته باشید، این نسخه ی نمایشی عالی توسط دیوید را تماشا کنید!
توصیه می کنم برای درک چشم انداز کلی، نقشه راه را بررسی کنید.
آنها 52.2k ستاره در GitHub دارند و در GitHub هستند v0.3 آزاد کردن
مهندس ستاره GPT ⭐️
14. Void – جایگزین منبع باز برای مکان نما.
همانطور که میدانید، پروژههای زیادی مانند PearAI و Zed پس از راهاندازی Cursor به بازار آمدند، اما بیشتر آنها فقط فورکهای VSCode هستند و واقعاً اکوسیستم را چندان بهبود نمیبخشند.
اگر میخواهید تغییر دهید، من مکاننما (نه منبع باز)، Continue (مشابه مکاننما) و Void را توصیه میکنم که یک جایگزین منبع باز برای مکاننما است.
من Void را پوشش می دهم زیرا توسط YCombinator پشتیبانی می شود بنابراین آنها را به اندازه کافی معتبر می کند. آنها آن را منتشر نکرده اند، اما شما به راحتی می توانید دسترسی اولیه برای امتحان آن را دریافت کنید.
این ویژگی های نحوی هوش مصنوعی بسیار شبیه به مکان نما دارد.
✅ با هوش مصنوعی می توانید جستجوهای هوشمندانه انجام دهید.
✅ می توانید اعلان های زیربنایی را مشاهده و ویرایش کنید.
✅ آگاهی زمینه، ادغام شخص ثالث، نسل دقیق تنظیم شده وجود دارد و حتی می توانید Ollama را به صورت محلی میزبانی کنید تا دیگر هرگز اعتبار API تمام نشود.
همانطور که قبلاً گفتم، Void یک فورک از VS Code است، بنابراین شما می توانید تنها با یک کلیک روی تمام تم ها، صفحه کلیدها و تنظیمات خود منتقل کنید.
من قبلاً Continue را پوشش دادهام، بنابراین این بار از آن صرفنظر کردم، اما قطعاً مکاننما را تا زمانی که Void کاملاً منتشر شود ترجیح میدهم.
Void دارای 7.5 هزار ستاره در GitHub است و هنوز در مرحله انتشار اولیه است.
ستاره خالی ⭐️
15. Unsloth – Finetune Llama 3، Mistral، Phi و Gemma LLMs 2-5 برابر سریعتر با 80% حافظه کمتر.
Unsloth تنظیم دقیق مدلهای زبان بزرگ مانند Llama-3، Mistral، Phi-3 و Gemma را 2 برابر سریعتر میکند، 70 درصد حافظه کمتری مصرف میکند و دقت آن کاهش نمییابد!
✅ تنظیم دقیق چیست؟
اگر میخواهیم یک مدل زبان برای یادگیری یک مهارت جدید، یک زبان جدید، یک زبان برنامهنویسی جدید، یا به سادگی میخواهیم که مدل زبان یاد بگیرد که چگونه دستورالعملهایی مانند نحوه عملکرد ChatGPT را دنبال کند و به آنها پاسخ دهد، تنظیمات دقیق را انجام میدهیم!
تنظیم دقیق فرآیند به روز رسانی واقعی است brains الگوی زبان از طریق فرآیندی به نام انتشار پسین. اما، تنظیم دقیق می تواند بسیار کند و منابع بسیار فشرده شود.
Unsloth را می توان به صورت محلی یا از طریق سرویس GPU دیگری مانند Google Colab نصب کرد. بیشتر آنها از Unsloth از طریق رابط Google Colab استفاده می کنند که یک GPU رایگان برای آموزش ارائه می دهد.
برخی از موارد برجسته:
✅ متن باز 5 برابر سریعتر تمرین می کند و نسخه حرفه ای ادعا می کند 30 برابر سریعتر است.
✅هیچ روش تقریبی استفاده نمی شود که باعث کاهش 0% دقت می شود.
✅ بدون تغییر سخت افزار، روی لینوکس و ویندوز از طریق WSL کار می کند.
می توانید دستورالعمل نصب و جداول معیار عملکرد را در وب سایت مطالعه کنید.
میتوانید اسناد و تمام مدلهای آپلود شده را مستقیماً در Hugging Face بخوانید.
آنها همچنین راهنمای دقیقی در مورد نحوه تنظیم Llama-3 و صادرات به Ollama ارائه کرده اند.
Unsloth دارای بیش از 16.8k ستاره در GitHub است.
ستاره بیکار ⭐️
16. جستجو – مغز دوم هوش مصنوعی شما.
Khoj منبع باز، AI کمکی برای جستجو است. بدون نیاز به بررسی نتایج آنلاین یا یادداشت های خود به راحتی پاسخ ها را دریافت کنید.
Khoj میتواند Word، PDF، org-mode، نشانهگذاری، فایلهای متن ساده، پروژههای GitHub و حتی صفحات Notion شما را درک کند.
این به عنوان یک برنامه دسکتاپ، بسته Emacs، پلاگین Obsidian، برنامه وب و هوش مصنوعی Whatsapp در دسترس است. ابسیدین با خوج ممکن است قوی ترین ترکیب ترکیبی باشد!
با دستورات زیر می توانید با خوج به صورت محلی در چند دقیقه شروع کنید.
$ pip install khoj-assistant
$ khoj
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
آن را در عمل تماشا کنید!
برخی از ویژگی های هیجان انگیز:
✅ می توانید یادداشت ها و اسناد خود را برای گسترش مغز دیجیتال خود به اشتراک بگذارید.
✅ عوامل هوش مصنوعی شما به اینترنت دسترسی دارند و به شما این امکان را میدهند که اطلاعات بیدرنگ را ترکیب کنید.
✅ یک جستجوی معنایی سریع و دقیق در بالای اسناد خود دریافت خواهید کرد.
✅ عوامل شما می توانند تصاویر عمیقا شخصی ایجاد کنند و صحبت شما را درک کنند.
به عنوان مثال، گفتن: “یک تصویر از خانه رویایی من، بر اساس علایق من ایجاد کنید”. این را ترسیم خواهد کرد!
تمام ویژگیها از جمله چت قابل اشتراکگذاری، چت آنلاین، خلاصهسازی فایل و جزئیات کامل را در دستههای مختلف بخوانید.
میتوانید اسناد را بخوانید و میتوانید Khoj Cloud را امتحان کنید تا سریع آن را امتحان کنید.
توضیحات کامل را در YouTube تماشا کنید!
این دارای 12.8 هزار ستاره در GitHub است و توسط YCombinator پشتیبانی می شود.
جستجوی ستاره ⭐️
17. ابزارهای سریع – ابزارهایی برای آزمایش سریع.
این پروژه مجموعه ای از ابزارهای خود میزبان منبع باز برای آزمایش، آزمایش و ارزیابی LLM ها، پایگاه های داده برداری و درخواست ها دارد. ایده اصلی این است که توسعه دهندگان را قادر می سازد تا با استفاده از رابط های آشنا مانند کد، نوت بوک و زمین بازی محلی ارزیابی کنند.
تنها در چند خط کد، میتوانید اعلانها و پارامترهای خود را در مدلهای مختلف آزمایش کنید (خواه از مدلهای OpenAI، Anthropic یا LLaMA استفاده میکنید). حتی می توانید دقت بازیابی پایگاه های داده برداری را ارزیابی کنید.
با پیپ شروع کنید.
pip install prompttools
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
آنها نمونه های نوت بوکی را ارائه می دهند که می توانید اجرا کنید.
می توانید اسناد را بخوانید و زمین بازی آنها را بررسی کنید.
ابزارهای سریع دارای 2.7 هزار ستاره در GitHub هستند.
Star Prompt Tools ⭐️
با ابزارهای مناسب، ساخت ویژگیهای هوش مصنوعی بسیار آسانتر است و تیم شما میتواند کار با کیفیت را سریعتر ارائه دهد.
آیا فکر می کنید این پروژه ها به تیم ها کمک می کند تا ویژگی های هوش مصنوعی را حداقل سریعتر از قبل بسازند؟
روز خوبی داشته باشید! تا دفعه بعد
اگر این را دوست داشتید، لطفا برای اطلاعات بیشتر من را دنبال کنید 🙂
برای محتوای بیشتر مانند این Latitude را دنبال کنید.
مهندسی سریع و هوش مصنوعی در حال رونق است، تقریباً هر تیم استارتاپی هوش مصنوعی را برای آسان کردن کارها برای کاربران خود ادغام می کند.
امروز، ما ۱۷ پروژه را برای به حداکثر رساندن بهرهوری شما برای توسعهدهندگانی که با هوش مصنوعی میسازند، پوشش میدهیم.
ابزارهای مربوط به مهندسی سریع، ویرایشگرهای کد، عوامل و بسیاری چیزهای هیجان انگیز دیگر را خواهید یافت.
این لیست شما را شگفت زده خواهد کرد.
1. Latitude LLM – پلت فرم مهندسی سریع برای ساخت و اصلاح دستورات با هوش مصنوعی.
Latitude پلتفرم مهندسی سریع منبع باز برای ساخت، ارزیابی و اصلاح دستورات شما با هوش مصنوعی است. میتوانید با استفاده از SDK یا API، درخواستها را در پلتفرم ایجاد و تکرار کنید.
بهترین بخش این است که هر بار که یک درخواست اجرا می شود، به طور خودکار کل زمینه، خروجی و سایر ابرداده های مربوط به ارزیابی و اشکال زدایی را ثبت می کند.
داشبورد اینگونه به نظر می رسد.
✅ پشتیبانی از ویژگی های پیشرفته مانند پارامترها، قطعات، منطق و موارد دیگر وجود دارد.
✅ شما کنترل نسخه برای درخواستها، مدیر اعلان مشارکتی و حتی ارزیابیها را به صورت دستهای یا بلادرنگ دریافت میکنید.
یک جریان کاربر اساسی می تواند باشد:
-→ ایجاد یک پروژه جدید.
-← اولین درخواست خود را با استفاده از ویرایشگر بنویسید.
-← درخواست خود را با استفاده از زمین بازی با ورودی های مختلف آزمایش کنید و پاسخ های حالت را ببینید.
-← قبل از استقرار، می توانید یک مجموعه داده را آپلود کنید و یک ارزیابی دسته ای برای ارزیابی عملکرد درخواست خود در سناریوهای مختلف اجرا کنید. این ویدیو را تماشا کنید تا ببینید چگونه ارزیابی ها می توانند نتایج درخواست های شما را تجزیه و تحلیل کنند.
-← می توانید درخواست خود را به عنوان نقطه پایانی برای ادغام آسان با برنامه های خود مستقر کنید.
-← از بخش Logs برای بررسی عملکرد درخواست خود در طول زمان استفاده کنید.
-← درخواست خود را اصلاح کنید و اعضای تیم را برای همکاری به فضای کاری Latitude خود دعوت کنید.
برای کسب اطلاعات بیشتر، این نسخه ی نمایشی سریع را تماشا کنید.
https://www.youtube.com/watch?v=jPVn9kf4GrE
میتوانید اسناد و مفاهیم مرتبط مانند درخواستها، گزارشها و ارزیابیها را بخوانید.
می توانید با استفاده از نسخه ابری یا میزبانی خود از این راهنمای شروع سریع استفاده کنید.
آنها 536 ستاره در GitHub دارند و بسیار سریع در حال رشد هستند.
Star Latitude LLM ⭐️
2. LiveKit Agents – برنامه های هوش مصنوعی چندوجهی در زمان واقعی بسازید.
LiveKit Agents یک چارچوب سرتاسری است که توسعه دهندگان را قادر می سازد دستیارهای صوتی هوشمند و چندوجهی (عوامل AI) بسازند که می توانند کاربران را از طریق کانال های صوتی، ویدیویی و داده درگیر کنند.
بگذارید با کلمات ساده توضیح دهم.
چارچوب Agents به شما امکان می دهد برنامه های سرور مبتنی بر هوش مصنوعی بسازید که می توانند در زمان واقعی ببینند، بشنوند و صحبت کنند. نماینده شما از طریق یک جلسه LiveKit با دستگاه های کاربر نهایی متصل می شود. در طول آن جلسه، نماینده شما میتواند متن، صدا، تصاویر یا ویدئو را از دستگاه کاربر پردازش کند و یک مدل هوش مصنوعی هر ترکیبی از همان روشهای خروجی را تولید کند و آنها را به کاربر بازگرداند.
✅ آنها از بسیاری از SDK ها از جمله Swift، Android، Flutter، Rust، Unity، Node، Go، PHP، React و غیره پشتیبانی می کنند.
می توانید با پیپ شروع کنید.
pip install livekit-agents
آنها همچنین پلاگین های زیادی دارند که پردازش ورودی جریان یا تولید خروجی را آسان می کند. به عنوان مثال، پلاگین هایی برای تبدیل متن به گفتار یا اجرای استنتاج با LLM های محبوب وجود دارد. یکی از نمونه های پلاگین این است:
pip install livekit-plugins-openai
آنها همچنین اگر از React استفاده می کنید، کامپوننت ها و نمونه های منبع باز React را برای ساخت با LiveKit ارائه می دهند.
می توانید اسناد را بخوانید و لیست تمام افزونه های موجود را ببینید. اگر می خواهید امتحان کنید، می توانید آن را در cloud.livekit.io انجام دهید.
اگر به دنبال چند برنامه نمونه با کد هستید، این موارد را بررسی کنید:
⚡ یک عامل صوتی پایه با استفاده از خط لوله STT، LLM، و TTS
⚡ عامل صدای فوق العاده سریع با استفاده از Cerebras میزبان Llama 3.1
این یکی از هیجانانگیزترین پروژههایی از بیش از 1000 پروژهای است که من تا به حال در منبع باز دیدهام.
آنها 3.2 هزار ستاره در GitHub دارند و در حال رشد هستند.
Star LiveKit Agents ⭐️
3. Julep – برنامه های هوش مصنوعی حالت دار بسازید.
Julep پلتفرمی برای ایجاد عوامل هوش مصنوعی است که تعاملات گذشته را به یاد می آورند و می توانند وظایف پیچیده را انجام دهند.
تصور کنید که می خواهید یک عامل هوش مصنوعی بسازید که می تواند بیشتر از پاسخ دادن به سوالات ساده انجام دهد. باید کارهای پیچیده را انجام دهد، تعاملات گذشته را به خاطر بسپارد و شاید حتی از ابزارها یا APIهای دیگر استفاده کند. دقیقا همان جایی است که جولپ وارد می شود.
میتوانید از آن برای ایجاد وظایف چند مرحلهای استفاده کنید که شامل تصمیمگیری، حلقهها، پردازش موازی و بسیاری موارد دیگر میشود.
✅ بهطور خودکار مراحل ناموفق را دوباره امتحان میکند، پیامها را دوباره ارسال میکند، و به طور کلی وظایف شما را بدون مشکل اجرا میکند.
✅ می توانید از فروشگاه اسناد Julep برای ساختن سیستمی برای بازیابی و استفاده از داده های خود استفاده کنید.
برای شروع، می توانید از npm یا pip استفاده کنید.
npm install @julep/sdk
or
pip install julep
همچنین یک مثال سریع وجود دارد که توصیه میکنم آن را مطالعه کنید که در آن یک نماینده نمونه موضوعی را انتخاب میکند، 100 عبارت جستجوی مرتبط ایجاد میکند، جستجوها را به طور همزمان انجام میدهد، نتایج را خلاصه میکند و خلاصه را در Discord به اشتراک میگذارد. با کد مناسب 🙂
این نسخه ی نمایشی سریع را تماشا کنید و نمونه برنامه های بیشتری را برای درک بیشتر بررسی کنید.
https://www.youtube.com/watch?v=LhQMBAehL_Q
میتوانید اسناد دقیق را بخوانید که دارای راهنمای شروع سریع پایتون، راهنمای شروع سریع Nodejs، آموزشها و راهنماهای نحوه کار است.
ممکن است بگویید شبیه Langchain است اما هر دو مفاهیم کمی متفاوت دارند. به عنوان مثال، LangChain برای ایجاد دنباله ای از اعلان ها و مدیریت تعاملات با مدل های هوش مصنوعی عالی است. دارای یک اکوسیستم بزرگ با تعداد زیادی ادغام از پیش ساخته شده است که اجرای سریع کارها را آسان تر می کند.
از طرف دیگر جولپ بیشتر در مورد ساخت عوامل هوش مصنوعی مداوم است که می توانند چیزها را به خاطر بسپارند. هنگامی که به وظایف پیچیده ای نیاز دارید که شامل مراحل متعدد، تصمیم گیری و ادغام با ابزارها یا API های مختلف مستقیماً در فرآیند عامل است، می درخشد. در مورد مقایسه دقیق بیشتر بخوانید.
Julep دارای 1.3k ستاره در GitHub است و در حال رشد است.
ستاره جولپ ⭐️
4. WebUI را باز کنید – محبوب ترین رابط هوش مصنوعی (از Ollama، OpenAI API… پشتیبانی می کند)، به صورت آفلاین اجرا می شود.
Open WebUI یک رابط کاربری چت خود میزبان کاربرپسند عالی است که برای کار کاملا آفلاین طراحی شده است.
این می تواند به شما کمک کند تا ویژگی هایی را با سرعتی بسازید که هرگز نمی توانید تصور کنید.
می توانید از pip برای نصب سریع آن استفاده کنید. راهنمای نصب کامل را بررسی کنید.
# install Open WebUI
pip install open-webui
# run Open WebUI
open-webui serve
بیایید برخی از ویژگی های عالی را ببینیم.
✅ می توانید URL API OpenAI را برای پیوند با LMStudio، GroqCloud، Mistral، OpenRouter و موارد دیگر سفارشی کنید.
✅ با پشتیبانی بین المللی سازی (i18n) ما می توانید از آن به زبان دلخواه خود استفاده کنید.
✅ گزینهای از ویژگیهای تماس صوتی و ویدیویی بدون هندزفری وجود دارد که کمی انعطافپذیری بیشتری میدهد.
✅ وبسایت رسمی آنها اطلاعات واضحی در مورد دستهای از مدلها، درخواستها، ابزارها و عملکردهای جامعه دارد.
✅ می توانید اسناد را مستقیماً در چت بارگیری کنید یا فایل هایی را به کتابخانه اسناد خود اضافه کنید و با استفاده از آن به آنها دسترسی داشته باشید #
دستور قبل از پرس و جو
✅ می توانید با استفاده از ارائه دهندگانی مانند SearXNG
، Google PSE
، Brave Search
، serpstack
، serper
، Serply
، DuckDuckGo
، TavilySearch
و SearchApi
تا نتایج را مستقیماً به تجربه چت خود تزریق کنید.
همچنین برای کسب اطلاعات بیشتر توصیه میکنیم این راهنما را تماشا کنید.
https://www.youtube.com/watch?v=16fWf0VVeIo
میتوانید اسنادی را که شامل راهنمای شروع، سؤالات متداول (توصیه میشود مطالعه کنید) و آموزشها را بخوانید.
با استفاده از Svelte، Python و TypeScript ساخته شده است.
آنها 41.6000 ستاره در GitHub دارند که در مورد محبوبیت بسیار زیاد می گوید.
ستاره باز WebUI ⭐️
5. Quivr – چارچوب RAG برای ساخت مغز دوم GenAI.
Quivr، مغز دوم شما، از قدرت GenerativeAI برای دستیار شخصی شما استفاده می کند. می توانید آن را به عنوان Obsidian اما توربوشارژ با قدرت های هوش مصنوعی در نظر بگیرید.
این پلتفرمی است که به شما کمک می کند دستیارهای هوش مصنوعی بسازید که به آنها گفته می شود Brain
. این دستیارها با موارد تخصصی طراحی شده اند، مانند برخی از آنها که می توانند به منابع داده خاصی متصل شوند و به کاربران اجازه می دهند مستقیماً با داده ها تعامل داشته باشند.
در حالی که سایرین به عنوان ابزارهای تخصصی برای موارد استفاده خاص، با فناوری Rag، عمل می کنند. این ابزارها ورودی های خاصی را برای تولید خروجی های عملی مانند خلاصه، ترجمه و موارد دیگر پردازش می کنند.
یک نسخه ی نمایشی سریع از Quivr را تماشا کنید!
برخی از ویژگی های شگفت انگیز عبارتند از:
✅ بر اساس منبع داده ای که می خواهید با آن تعامل داشته باشید، می توانید نوع مغز مورد نظر خود را انتخاب کنید.
✅ آنها همچنین یک ویژگی قدرتمند برای به اشتراک گذاشتن مغز شما با دیگران ارائه می دهند. این را می توان با اشتراک گذاری با افراد از طریق ایمیل آنها و اعطای حقوق خاص به آنها انجام داد.
✅ Quivr به صورت آفلاین کار می کند، بنابراین می توانید در هر زمان و هر مکان به داده های خود دسترسی داشته باشید.
✅ می توانید با مغز خود به مکالمات گذشته خود دسترسی داشته باشید و ادامه دهید.
✅ اما بهترین موردی که من دوست داشتم این است که می توانید یک ربات Slack نصب کنید. به این دمو مراجعه کنید تا ببینید چه کاری می توانید انجام دهید. خیلی باحاله
https://www.youtube.com/watch?v=1yMe21vIl9E
به هر حال، در مورد همه چیزهای عالی که می توانید با Quivr انجام دهید بخوانید.
می توانید راهنمای نصب و فیلم نصب 60 ثانیه ای را بخوانید. برای اطلاعات دیگر به اسناد مراجعه کنید.
آنها همچنین راهنماهایی در مورد نحوه استقرار Quivr با Vercel، Porter، AWS و Digital Ocean ارائه کردهاند.
دارای بیش از 36.3 هزار ستاره در GitHub با بیش از 300 نسخه.
ستاره کویور ⭐️
6. Dify – موتور نوآوری برای برنامه های GenAI.
Dify یک پلت فرم منبع باز برای ساخت اپلیکیشن های هوش مصنوعی است.
رابط بصری آن گردش کار هوش مصنوعی، خط لوله RAG، قابلیتهای عامل، مدیریت مدل، ویژگیهای مشاهدهپذیری و موارد دیگر را ترکیب میکند و به شما امکان میدهد به سرعت از نمونه اولیه به تولید برسید.
آنها Backend-as-a-Service و LLMOps را برای بهبود توسعه راه حل های هوش مصنوعی مولد ترکیب می کنند. می توانید از ابر استفاده کنید یا آن را خود میزبانی کنید (به اسناد مراجعه کنید).
حتی میتوانید جریانهای کاری قدرتمند هوش مصنوعی را روی یک بوم بصری بسازید و آزمایش کنید.
بیایید برخی از ویژگی های عالی را ببینیم:
✅ Dify بیش از 50 ابزار داخلی را برای عوامل هوش مصنوعی، مانند جستجوی Google، DALL·E، Stable Diffusion و WolframAlpha ارائه میکند.
✅ شما می توانید گزارش ها و عملکرد برنامه را در طول زمان نظارت و تجزیه و تحلیل کنید.
✅ میتوانید از خط لوله RAG برای استخراج متن از فایلهای PDF، PPT و سایر قالبهای سند رایج استفاده کنید.
✅ گزینههای یکپارچهسازی زیادی از دهها ارائهدهنده استنتاج و راهحلهای خود میزبانی در دسترس است که شامل GPT، Mistral، Llama3 و هر مدل سازگار با OpenAI API است. لیست کامل ارائه دهندگان مدل پشتیبانی شده را می توانید در اینجا بیابید.
✅ شما می توانید عامل های هوش مصنوعی را تنها با چند کلیک ایجاد کنید و به آنها اجازه دهید به طور مستقل از ابزارها و داده های تعریف شده سازمانی برای حل وظایف پیچیده استفاده کنند.
می توانید اسناد را بخوانید.
دو مورد از موارد استفاده چشمگیر که من دوست داشتم:
⚡ ساختن یک دستیار هوش مصنوعی مفهومی
⚡ با Dify یک ربات MidJourney Prompt ایجاد کنید
Dify دارای 47.7 هزار ستاره در GitHub است و مشارکت کنندگان زیادی دارد.
Star Dify ⭐️
7. Micro Agent – عامل هوش مصنوعی که کد (در واقع مفید) را برای شما می نویسد.
ابزارهای کدنویسی با کمک هوش مصنوعی مانند GitHub Copilot و ChatGPT کد چندان قابل اعتمادی تولید نمی کنند و اغلب به درستی کار نمی کنند، اشکالات، موارد لبه یا حتی ارجاع به API های موجود را پیدا می کنید.
این می تواند منجر به یک حلقه خسته کننده از امتحان کد تولید شده، یافتن مشکلات، بازگشت به هوش مصنوعی برای رفع مشکل و تکرار شود.
زمان صرف شده برای رفع اشکال می تواند کل زمان صرفه جویی شده با استفاده از ابزارهای هوش مصنوعی را در وهله اول خنثی کند.
Micro Agent از هوش مصنوعی برای کاهش مشکلات تولید کد غیرقابل اعتماد استفاده می کند.
به آن یک اعلان بدهید و یک تست ایجاد میکند و سپس روی کد تکرار میشود تا همه موارد تست قبول شوند.
با استفاده از این دستور می توانید آن را نصب کنید.
npm install -g @builder.io/micro-agent
# Next, set your OpenAI API key when prompted or manually using this.
micro-agent config set OPENAI_KEY=
# Then you can run to start a new coding task
micro-agent
Micro Agent از شما می خواهد تا عملکرد مورد نظر خود را توصیف کنید، تست ها را تولید کنید و شروع به نوشتن کد به زبان دلخواه خود کنید تا تست ها را با موفقیت پشت سر بگذارید. هنگامی که تمام تست ها سبز شدند، یک تابع کاملا کاربردی و با پشتوانه تست آماده استفاده خواهید داشت.
بیایید برخی از شگفت انگیزترین موارد استفاده را بررسی کنیم:
⚡ نسخه نمایشی 30 ثانیه ای Micro Agent که تست ها و کدهای یک تابع TypeScript را ایجاد می کند که آناگرام ها را از آرایه ای از رشته ها با هم گروه بندی می کند.
⚡ استفاده از Micro Agent برای تولید یک تجزیه کننده ساده HTML به AST (در دو تکرار به دست آمد).
⚡ تطبیق تست واحد.
⚡ تطبیق بصری (تجربی).
⚡ ادغام با Figma.
Micro Agent همچنین میتواند با Visual Copilot ادغام شود تا مستقیماً با Figma ارتباط برقرار کند تا از بالاترین وفاداری ممکن در طراحی کد اطمینان حاصل کند!
Visual Copilot مستقیماً به Figma متصل می شود تا به تبدیل کامل پیکسلی، نقشه برداری دقیق توکن طراحی و استفاده دقیق از اجزای شما در خروجی تولید شده کمک کند.
سپس، Micro Agent میتواند خروجی Visual Copilot را بگیرد و تنظیمات نهایی را روی کد انجام دهد تا مطمئن شود که TSC، پرز، تستها و مطابقت کامل با طراحی شما از جمله ترفندهای نهایی را دارد. واقعا شگفت انگیز 🙂
می توانید اسناد و وبلاگ رسمی را بخوانید که در آن تیم درباره همه چیز در مورد عامل میکرو صحبت کردند.
این منبع باز با 2.8 هزار ستاره در GitHub است.
مامور میکرو ستاره ⭐️
8. Cline – عامل کدنویسی مستقل درست در IDE شما.
این مفهوم بسیار شبیه به Cursor است که در آن Cline یک عامل کدنویسی مستقل است که قادر به ایجاد/ویرایش فایلها، اجرای دستورات و موارد دیگر با اجازه شما در هر مرحله از راه است.
این یک افزونه VSCode است و می توانید آن را در بازار پیدا کنید. 84k+ نصب دارد.
Cline بر روی قابلیت های کدگذاری عاملی کلود 3.5 Sonnet کار می کند.
✅ Cline از ارائه دهندگان API مانند OpenRouter، Anthropic، OpenAI، Google Gemini، AWS Bedrock، Azure و GCP Vertex پشتیبانی می کند. همچنین می توانید هر API سازگار با OpenAI را پیکربندی کنید یا از یک مدل محلی از طریق Olama استفاده کنید.
✅ با استفاده از چهار دستور مختلف می توانید زمینه را اضافه کنید.
-
@url
: یک URL برای واکشی و تبدیل افزونه به نشانه گذاری در URL جایگذاری کنید، زمانی که می خواهید جدیدترین اسناد را به Cline بدهید مفید است. -
@problems
: خطاها و هشدارهای فضای کاری (پنل “مشکلات”) را برای رفع مشکل Cline اضافه کنید.
✅ از یک مرورگر بدون هد برای بازرسی هر وب سایتی مانند لوکال هاست استفاده می کند و به آن اجازه می دهد اسکرین شات ها و گزارش های کنسول را بگیرد. این به او استقلال میدهد تا باگهای بصری و مشکلات زمان اجرا را بدون نیاز به نگهداشتن و کپی پیست کردن لاگهای خطا، برطرف کند.
✅ حتی می توانید دستورات را در ترمینال اجرا کنید تا کارهای عالی انجام دهید.
می توانید اسناد را بخوانید.
Cline دارای 7k ستاره در GitHub است.
استار کلاین ⭐️
9. GPT Crawler – GPT سفارشی خود را از یک URL ایجاد کنید.
با GPT Crawler، میتوانید هر سایتی را برای تولید فایلهای دانش بخزید تا GPT سفارشی خود را از یک یا چند URL بسازید.
هدف این است که سایت Docs تعاملی باشد، مردم می توانند با استفاده از یک رابط چت به سادگی پاسخ هایی را که به دنبال آن هستند بیابند.
این نسخه ی نمایشی سریع را تماشا کنید!
شما باید خزنده را پیکربندی کنید و سپس به سادگی آن را اجرا کنید. پس از اتمام خزیدن، یک صفحه جدید خواهید داشت output.json
فایلی که شامل عنوان، URL و متن استخراج شده از تمام صفحات خزیده شده است.
اکنون می توانید با ایجاد یک GPT جدید، آن را مستقیماً در ChatGPT آپلود کنید. پس از آپلود، این دستیار GPT تمام اطلاعات آن اسناد را در اختیار خواهد داشت و میتواند به سوالات نامحدودی درباره آنها پاسخ دهد.
این به طور رسمی یک دستیار در ChatGPT است.
می توانید اسناد مربوط به نحوه شروع را مطالعه کنید. شما می توانید تمام دستورالعمل ها را در وبلاگ رسمی پیدا کنید.
اگر تعجب می کنید که Mitosis چگونه این اجزا را کامپایل می کند، این آموزش سریع را تماشا کنید.
https://www.youtube.com/watch?v=XQIuv34-K_8
آنها 18.6 هزار ستاره در GitHub دارند.
Star GPT Crawler ⭐️
10. Composio – مجموعه ابزار آماده تولید برای عوامل هوش مصنوعی.
Composio تنها ابزار مورد نیاز برای ساختن نرم افزار پیچیده اتوماسیون هوش مصنوعی است. این به مدلهای هوش مصنوعی اجازه میدهد تا به ابزارها و برنامههای شخص ثالث دسترسی داشته باشند تا تعامل خود را با آنها خودکار کنند.
به عنوان مثال، میتوانید GitHub را از طریق Composio به مدل GPT متصل کنید و بررسی PRها، حل مشکلات، نوشتن موارد آزمایشی و موارد دیگر را خودکار کنید.
میتوانید گردشهای کاری پیچیده دنیای واقعی را با استفاده از بیش از ۹۰ ابزار و گزینههای یکپارچهسازی مانند GitHub، Jira، Slack و Gmail خودکار کنید.
همچنین میتوانید اقداماتی مانند ارسال ایمیل، شبیهسازی کلیکها، ثبت سفارش و موارد دیگر را فقط با افزودن مشخصات OpenAPI برنامههای خود به Composio خودکار کنید.
https://www.youtube.com/watch?v=ujxKzS0b5qg
اینگونه می توانید از این استفاده کنید.
# install it
pip install composio-core
# Add a GitHub integration
composio add github
در اینجا نحوه استفاده از ادغام GitHub برای ستاره گذاری یک مخزن آورده شده است.
from openai import OpenAI
from composio_openai import ComposioToolSet, App
openai_client = OpenAI(api_key="******OPENAIKEY******")
# Initialise the Composio Tool Set
composio_toolset = ComposioToolSet(api_key="**\\*\\***COMPOSIO_API_KEY**\\*\\***")
## Step 4
# Get GitHub tools that are pre-configured
actions = composio_toolset.get_actions(actions=[Action.GITHUB_ACTIVITY_STAR_REPO_FOR_AUTHENTICATED_USER])
## Step 5
my_task = "Star a repo ComposioHQ/composio on GitHub"
# Create a chat completion request to decide on the action
response = openai_client.chat.completions.create(
model="gpt-4-turbo",
tools=actions, # Passing actions we fetched earlier.
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": my_task}
]
)
می توانید اسناد و نمونه ها را بخوانید.
Composio دارای 9k ستاره در GitHub است.
ترکیب ستاره ⭐️
11. Langflow – سازنده برنامه کم کد برای RAG و برنامه های هوش مصنوعی چند عاملی.
Langflow برای تسهیل توسعه هوش مصنوعی در سناریوهای دنیای واقعی طراحی شده است. این برنامه مبتنی بر پایتون است و برای هر مدل، API یا پایگاه داده ای آگنوستیک است.
این یک نوع نمودار پویا است که در آن هر گره یک واحد اجرایی است. می توانید دمو را تماشا کنید.
✅ می توانید با استفاده از براکت های فرفری {} از ورودی های پویا استفاده کنید.
✅ شما می توانید با تنظیم آسان LLM ها از صفحات گسترده، از پتانسیل کامل LLM استفاده کنید.
✅ شما می توانید از سطح فراتر رفته و اجزای خود را کدنویسی کنید.
✅ اجزای سطح بالاتر به طور طبیعی از بلوک های سازنده هوش مصنوعی می آیند. ساخته های خود را ذخیره و به اشتراک بگذارید.
گزینه های ادغام بسیار بزرگ هستند، بنابراین می توانید تقریباً هر چیزی را بسازید. آنها همچنین بلوک های ساختمانی قابل ترکیبی را ارائه می دهند که مانند اجزای از پیش ساخته شده هستند که می توانند به روش های متعددی برای ایجاد برنامه های هوش مصنوعی ترکیب شوند.
میتوانید اسنادی را بخوانید که حاوی راهنمای شروع سریع و زمین بازی است که در آن میتوانید مستقیماً تنظیمات اولیه را انجام دهید و نتایج مختلف را با مدلها مشاهده کنید.
Lanflow دارای 31.2k ستاره در GitHub است.
ستاره لانگ فلو ⭐️
12. OpenLLM – LLM ها را به عنوان نقطه پایانی API سازگار با OpenAI در فضای ابری اجرا کنید
OpenLLM به توسعه دهندگان این امکان را می دهد که هر LLM منبع باز را به عنوان نقطه پایانی API سازگار با OpenAI با یک فرمان واحد اجرا کنند.
⚡ لیست کامل llama3، qwen2، gemma و بسیاری از نسخه های کوانتیزه شده را پشتیبانی کنید.
⚡ API سازگار با OpenAI و شامل ChatGPT مانند UI.
⚡ رمزگشایی سریع LLM با باطن استنتاج پیشرفته.
⚡ آماده برای استقرار ابر در سطح سازمانی (Kubernetes، Docker و BentoCloud).
با دستور زیر شروع کنید.
pip install openllm # or pip3 install openllm
openllm hello
OpenLLM یک رابط کاربری چت (UI) در نقطه پایانی /chat برای سرور LLM فراهم می کند. شما می توانید از رابط کاربری چت در http://localhost:3000/chat
و مکالمات مختلفی را با مدل شروع کنید.
همانطور که قبلاً گفتم، OpenLLM از استقرار ابری LLM از طریق BentoML، چارچوب ارائه مدل یکپارچه و BentoCloud، یک پلت فرم استنتاج هوش مصنوعی برای تیمهای هوش مصنوعی سازمانی پشتیبانی میکند.
اگر نمی دانید، BentoCloud یک زیرساخت کاملاً مدیریت شده بهینه شده برای استنتاج LLM با مقیاس خودکار، هماهنگ سازی مدل، قابلیت مشاهده ارائه می دهد، که فقط یک روش فانتزی برای گفتن است که به شما امکان می دهد هر مدل هوش مصنوعی را در فضای ابری اجرا کنید.
می توانید در مورد مدل های پشتیبانی شده و نحوه راه اندازی سرور LLM مطالعه کنید.
اسناد را کاوش کنید زیرا می توانید با استفاده از یک مدل در CLI نیز چت کنید openllm run
و مشخص کردن نسخه مدل – openllm run llama3:8b
.
اگر عاشق کاوش در مسیرهای پیادهروی هستید، این دمو توسط متیو را تماشا کنید!
https://www.youtube.com/watch?v=8nZZ2oQhx4E
آنها 9.9 هزار ستاره در GitHub دارند که تقریباً به مرز 10 هزار رسیده است 🙂
ستاره OpenLLM ⭐️
13. مهندس GPT – هوش مصنوعی آنچه را که می خواهید می سازد.
GPT-engineer به شما امکان میدهد نرمافزار را به زبان طبیعی مشخص کنید، بنشینید و تماشا کنید که یک AI کد را مینویسد و اجرا میکند، و میتوانید از هوش مصنوعی بخواهید که بهبودهایی را اعمال کند.
به جرات می توان گفت مهندس است که نیازی به مدرک ندارد 😅
این یک پروژه تجاری برای تولید خودکار برنامه های وب است. این دارای یک رابط کاربری برای کاربران غیر فنی است که به یک پایگاه کد کنترل شده با git متصل هستند.
من می دانم که این احساس گیج کننده است، بنابراین نسخه ی نمایشی زیر را تماشا کنید تا بفهمید چگونه می توانید از GPT Engineer استفاده کنید.
می توانید با نصب نسخه پایدار با استفاده از این دستور شروع به کار کنید.
python -m pip install gpt-engineer
بهطور پیشفرض، gpt-engineer انتظار ورودی متن را از طریق یک فایل سریع دارد. همچنین میتواند ورودیهای تصویر را برای مدلهای دارای قابلیت دید بپذیرد. این می تواند برای افزودن نمودارهای UX یا معماری به عنوان زمینه اضافی برای مهندس GPT مفید باشد. در مورد تمام ویژگی های عالی بخوانید.
اگر می خواهید یک راهنما کامل داشته باشید، این نسخه ی نمایشی عالی توسط دیوید را تماشا کنید!
https://www.youtube.com/watch?v=gWy-pJ2ofEM
توصیه می کنم برای درک چشم انداز کلی، نقشه راه را بررسی کنید.
آنها 52.2k ستاره در GitHub دارند و در GitHub هستند v0.3
آزاد کردن
مهندس ستاره GPT ⭐️
14. Void – جایگزین منبع باز برای مکان نما.
همانطور که میدانید، پروژههای زیادی مانند PearAI و Zed پس از راهاندازی Cursor به بازار آمدند، اما بیشتر آنها فقط فورکهای VSCode هستند و واقعاً اکوسیستم را چندان بهبود نمیبخشند.
اگر میخواهید تغییر دهید، من مکاننما (نه منبع باز)، Continue (مشابه مکاننما) و Void را توصیه میکنم که یک جایگزین منبع باز برای مکاننما است.
من Void را پوشش می دهم زیرا توسط YCombinator پشتیبانی می شود بنابراین آنها را به اندازه کافی معتبر می کند. آنها آن را منتشر نکرده اند، اما شما به راحتی می توانید دسترسی اولیه برای امتحان آن را دریافت کنید.
این ویژگی های نحوی هوش مصنوعی بسیار شبیه به مکان نما دارد.
✅ با هوش مصنوعی می توانید جستجوهای هوشمندانه انجام دهید.
✅ می توانید اعلان های زیربنایی را مشاهده و ویرایش کنید.
✅ آگاهی زمینه، ادغام شخص ثالث، نسل دقیق تنظیم شده وجود دارد و حتی می توانید Ollama را به صورت محلی میزبانی کنید تا دیگر هرگز اعتبار API تمام نشود.
همانطور که قبلاً گفتم، Void یک فورک از VS Code است، بنابراین شما می توانید تنها با یک کلیک روی تمام تم ها، صفحه کلیدها و تنظیمات خود منتقل کنید.
من قبلاً Continue را پوشش دادهام، بنابراین این بار از آن صرفنظر کردم، اما قطعاً مکاننما را تا زمانی که Void کاملاً منتشر شود ترجیح میدهم.
Void دارای 7.5 هزار ستاره در GitHub است و هنوز در مرحله انتشار اولیه است.
ستاره خالی ⭐️
15. Unsloth – Finetune Llama 3، Mistral، Phi و Gemma LLMs 2-5 برابر سریعتر با 80% حافظه کمتر.
Unsloth تنظیم دقیق مدلهای زبان بزرگ مانند Llama-3، Mistral، Phi-3 و Gemma را 2 برابر سریعتر میکند، 70 درصد حافظه کمتری مصرف میکند و دقت آن کاهش نمییابد!
✅ تنظیم دقیق چیست؟
اگر میخواهیم یک مدل زبان برای یادگیری یک مهارت جدید، یک زبان جدید، یک زبان برنامهنویسی جدید، یا به سادگی میخواهیم که مدل زبان یاد بگیرد که چگونه دستورالعملهایی مانند نحوه عملکرد ChatGPT را دنبال کند و به آنها پاسخ دهد، تنظیمات دقیق را انجام میدهیم!
تنظیم دقیق فرآیند به روز رسانی واقعی است brains
الگوی زبان از طریق فرآیندی به نام انتشار پسین. اما، تنظیم دقیق می تواند بسیار کند و منابع بسیار فشرده شود.
Unsloth را می توان به صورت محلی یا از طریق سرویس GPU دیگری مانند Google Colab نصب کرد. بیشتر آنها از Unsloth از طریق رابط Google Colab استفاده می کنند که یک GPU رایگان برای آموزش ارائه می دهد.
برخی از موارد برجسته:
✅ متن باز 5 برابر سریعتر تمرین می کند و نسخه حرفه ای ادعا می کند 30 برابر سریعتر است.
✅هیچ روش تقریبی استفاده نمی شود که باعث کاهش 0% دقت می شود.
✅ بدون تغییر سخت افزار، روی لینوکس و ویندوز از طریق WSL کار می کند.
می توانید دستورالعمل نصب و جداول معیار عملکرد را در وب سایت مطالعه کنید.
میتوانید اسناد و تمام مدلهای آپلود شده را مستقیماً در Hugging Face بخوانید.
آنها همچنین راهنمای دقیقی در مورد نحوه تنظیم Llama-3 و صادرات به Ollama ارائه کرده اند.
Unsloth دارای بیش از 16.8k ستاره در GitHub است.
ستاره بیکار ⭐️
16. جستجو – مغز دوم هوش مصنوعی شما.
Khoj منبع باز، AI کمکی برای جستجو است. بدون نیاز به بررسی نتایج آنلاین یا یادداشت های خود به راحتی پاسخ ها را دریافت کنید.
Khoj میتواند Word، PDF، org-mode، نشانهگذاری، فایلهای متن ساده، پروژههای GitHub و حتی صفحات Notion شما را درک کند.
این به عنوان یک برنامه دسکتاپ، بسته Emacs، پلاگین Obsidian، برنامه وب و هوش مصنوعی Whatsapp در دسترس است. ابسیدین با خوج ممکن است قوی ترین ترکیب ترکیبی باشد!
با دستورات زیر می توانید با خوج به صورت محلی در چند دقیقه شروع کنید.
$ pip install khoj-assistant
$ khoj
آن را در عمل تماشا کنید!
برخی از ویژگی های هیجان انگیز:
✅ می توانید یادداشت ها و اسناد خود را برای گسترش مغز دیجیتال خود به اشتراک بگذارید.
✅ عوامل هوش مصنوعی شما به اینترنت دسترسی دارند و به شما این امکان را میدهند که اطلاعات بیدرنگ را ترکیب کنید.
✅ یک جستجوی معنایی سریع و دقیق در بالای اسناد خود دریافت خواهید کرد.
✅ عوامل شما می توانند تصاویر عمیقا شخصی ایجاد کنند و صحبت شما را درک کنند.
به عنوان مثال، گفتن: “یک تصویر از خانه رویایی من، بر اساس علایق من ایجاد کنید”. این را ترسیم خواهد کرد!
تمام ویژگیها از جمله چت قابل اشتراکگذاری، چت آنلاین، خلاصهسازی فایل و جزئیات کامل را در دستههای مختلف بخوانید.
میتوانید اسناد را بخوانید و میتوانید Khoj Cloud را امتحان کنید تا سریع آن را امتحان کنید.
توضیحات کامل را در YouTube تماشا کنید!
https://www.youtube.com/watch?v=Lnx2K4TOnC4
این دارای 12.8 هزار ستاره در GitHub است و توسط YCombinator پشتیبانی می شود.
جستجوی ستاره ⭐️
17. ابزارهای سریع – ابزارهایی برای آزمایش سریع.
این پروژه مجموعه ای از ابزارهای خود میزبان منبع باز برای آزمایش، آزمایش و ارزیابی LLM ها، پایگاه های داده برداری و درخواست ها دارد. ایده اصلی این است که توسعه دهندگان را قادر می سازد تا با استفاده از رابط های آشنا مانند کد، نوت بوک و زمین بازی محلی ارزیابی کنند.
تنها در چند خط کد، میتوانید اعلانها و پارامترهای خود را در مدلهای مختلف آزمایش کنید (خواه از مدلهای OpenAI، Anthropic یا LLaMA استفاده میکنید). حتی می توانید دقت بازیابی پایگاه های داده برداری را ارزیابی کنید.
با پیپ شروع کنید.
pip install prompttools
آنها نمونه های نوت بوکی را ارائه می دهند که می توانید اجرا کنید.
می توانید اسناد را بخوانید و زمین بازی آنها را بررسی کنید.
ابزارهای سریع دارای 2.7 هزار ستاره در GitHub هستند.
Star Prompt Tools ⭐️
با ابزارهای مناسب، ساخت ویژگیهای هوش مصنوعی بسیار آسانتر است و تیم شما میتواند کار با کیفیت را سریعتر ارائه دهد.
آیا فکر می کنید این پروژه ها به تیم ها کمک می کند تا ویژگی های هوش مصنوعی را حداقل سریعتر از قبل بسازند؟
روز خوبی داشته باشید! تا دفعه بعد
برای محتوای بیشتر مانند این Latitude را دنبال کنید.
