معرفی Charla: یک کلاینت چت مبتنی بر ترمینال برای مدلهای زبان
در دنیای به سرعت در حال رشد ارتباطات مبتنی بر هوش مصنوعی، چارلا به عنوان یک ابزار طراحی شده برای علاقه مندان به فناوری که عاشق کار در ترمینال هستند برجسته است. خواه توسعهدهنده، محقق یا علاقهمند به هوش مصنوعی باشید، چارلا روشی ساده برای تعامل با مدلهای زبان پیشرفته به صورت محلی یا از راه دور، همه در رابط خط فرمان (CLI) ارائه میکند.
این راهنما به شما یک نمای کلی از Charla، ویژگیهای آن، نحوه شروع کار و نکاتی برای به حداکثر رساندن پتانسیل آن ارائه میدهد.
چارلا چیست؟
در هسته آن، چارلا یک کلاینت چت مبتنی بر ترمینال است که به شما امکان می دهد با آن مکالمه کنید مدل های زبان – مدلهای هوش مصنوعی قادر به درک و تولید متنی شبیه انسان هستند. با استفاده از Charla، می توانید:
- تعامل با مدل های هوش مصنوعی محلی از طریق سرور اوللاما
- با مدل های از راه دور از طریق مدل های GitHub با استفاده از رمز GitHub شما.
Charla که با در نظر گرفتن بهره وری و کاربران فنی طراحی شده است، یک رابط چت ساده، انعطاف پذیر و کارآمد ارائه می دهد.
ویژگی های کلیدی
در اینجا برخی از ویژگی های برجسته ای وجود دارد که چارلا را به ابزاری قدرتمند برای گفتگو با مدل های زبان تبدیل می کند:
- مکالمات آگاه از زمینه : مکالمات مداوم و یکپارچه را با مدل ها ادامه دهید و در عین حال از متن درخواست های قبلی خودداری کنید.
- پشتیبانی از مدل های محلی و راه دور : از مدل های نصب شده روی رایانه خود از طریق Ollama استفاده کنید یا برای دسترسی از راه دور به مدل های GitHub ضربه بزنید.
- تداوم جلسه :
- گزارش های چت : به طور خودکار مکالمات را به عنوان فایل Markdown در فهرست اسناد خود ذخیره کنید.
- تاریخچه سریع : به لطف پیشنهادات خودکار، به درخواستهای قبلاً وارد شده دسترسی داشته باشید و مجدداً از آنها استفاده کنید.
- حالت های ورودی سفارشی : بین حالت های ورودی تک خطی و چند خطی جابجا شوید بدون اینکه جریان کاری شما قطع شود.
- انعطاف پذیری در تنظیمات :
- تنظیمات برگزیده را در فایلهای پیکربندی جهانی یا در پروژههای محلی ذخیره کنید
.charla.json
فایل ها برای حداکثر انعطاف پذیری - درخواست های سیستم : دستورالعمل های سیستم را از قبل بارگذاری کنید که رفتار مدل زبان را در طول چت شکل می دهد.
- برنامه های افزودنی سریع :
- برای تعاملات پیچیده تر، محتوای فایل های متنی محلی یا صفحات وب را به درخواست های خود اضافه کنید.
با این ویژگیها، چارلا هم برای آزمایشهای سریع و هم برای پروژههای بلندمدت شامل مدلهای زبانی بزرگ ایدهآل است.
نصب و راه اندازی
نصب Charla ساده است. قبل از شروع، اطمینان حاصل کنید که وابستگی های لازم را دارید:
- سرور اوللاما (اختیاری): برای استفاده از مدل های محلی، سرور اوللاما را به همراه حداقل یک مدل پشتیبانی شده نصب و راه اندازی کنید.
- توکن GitHub (اختیاری): برای استفاده از مدلهای GitHub راه دور، مطمئن شوید که یک توکن معتبر GitHub دارید.
هنگامی که موارد بالا را آماده کردید، Charla را از طریق نصب کنید pipx
:
pipx install charla
راه اندازی مدل های GitHub
برای مدل های مبتنی بر GitHub، باید توکن GitHub خود را به عنوان یک متغیر محیطی صادر کنید:
export GITHUB_TOKEN=YOUR_GITHUB_TOKEN
این مرحله به چارلا اجازه میدهد تا با سرویس مدلهای GitHub برای جلسات چت از راه دور احراز هویت کند.
شروع کار با چارلا
پس از نصب موفقیت آمیز، Charla را با وارد کردن دستور زیر در ترمینال خود راه اندازی کنید:
charla
از اینجا می توانید مدل و ارائه دهنده ای را که می خواهید استفاده کنید مشخص کنید. در زیر چند مثال برای شروع شما آورده شده است:
- محلی (از طریق Ollama، ارائه دهنده پیش فرض):
bash
charla -m phi3
- از راه دور (از طریق مدل های GitHub):
bash
charla -m gpt-4o --provider github
همچنین میتوانید پیکربندیهای پیشفرض (مانند مدل ترجیحی، تنظیمات ارائهدهنده) را با تغییر فایل تنظیمات کاربر خود سفارشی کنید.
سفارشی کردن Charla: تنظیمات
Charla درجه بالایی از سفارشی سازی را از طریق هر دو ارائه می دهد فایل های تنظیمات جهانی و گزینه های پیکربندی محلی. در اینجا نحوه مدیریت این تنظیمات آورده شده است:
پیدا کردن مکان فایل تنظیمات
دستور زیر را برای یافتن فایل تنظیمات جهانی خود اجرا کنید:
charla settings --location
نمونه فایل پیکربندی
در اینجا یک نمونه است .charla.json
فایلی که پیش فرض های زیر را تنظیم می کند:
- این
gpt-4o
مدل از طریقgithub
ارائه دهنده - یک پوشه محلی به نام
chats
برای ذخیره گزارش مکالمه - حداکثر از
20
پیام ها در تاریخچه چت
{
"model": "gpt-4o",
"chats_path": "./chats",
"provider": "github",
"message_limit": 20
}
برای ذخیره تنظیمات فعلی خود در a .charla.json
فایل در پوشه کاری خود، استفاده کنید:
charla settings --save
لغو خط فرمان
با ارسال آرگومان ها در خط فرمان می توانید تنظیمات را به طور موقت لغو کنید. به عنوان مثال، برای فعال کردن ورودی چند خطی و تنظیم یک فایل درخواست سیستم سفارشی:
charla --multiline --system-prompt custom-prompt.txt
آرگومان های خط فرمان بر فایل های پیکربندی محلی و جهانی اولویت دارند.
امروز چارلا را امتحان کنید!
Charla سادگی یک رابط مبتنی بر ترمینال را با پیچیدگی مدلهای هوش مصنوعی پیشرفته ترکیب میکند. چه در حال بررسی مدلهای زبان برای سرگرمی باشید و چه آنها را در جریان کاری خود ادغام کنید، چارلا چت کردن، آزمایش کردن و ذخیره پیشرفت خود را آسان میکند.
آماده شیرجه رفتن هستید؟ اکنون Charla را نصب کنید و در ترمینال خود با هوش مصنوعی چت کنید!
با تشکر از شما برای خواندن!
این مقاله توسط Ramiro Gómez با استفاده از نرم افزار منبع باز و کمک ابزارهای هوش مصنوعی نوشته شده است. در حالی که من در تلاش برای اطمینان از اطلاعات دقیق هستم، لطفاً قبل از اقدام به طور مستقل هرگونه جزئیات را تأیید کنید. برای مقالات بیشتر، از Geeklog در geeksta.net دیدن کنید.