برنامه نویسی

معرفی Charla: یک کلاینت چت مبتنی بر ترمینال برای مدل‌های زبان

در دنیای به سرعت در حال رشد ارتباطات مبتنی بر هوش مصنوعی، چارلا به عنوان یک ابزار طراحی شده برای علاقه مندان به فناوری که عاشق کار در ترمینال هستند برجسته است. خواه توسعه‌دهنده، محقق یا علاقه‌مند به هوش مصنوعی باشید، چارلا روشی ساده برای تعامل با مدل‌های زبان پیشرفته به صورت محلی یا از راه دور، همه در رابط خط فرمان (CLI) ارائه می‌کند.

این راهنما به شما یک نمای کلی از Charla، ویژگی‌های آن، نحوه شروع کار و نکاتی برای به حداکثر رساندن پتانسیل آن ارائه می‌دهد.

چارلا چیست؟

در هسته آن، چارلا یک کلاینت چت مبتنی بر ترمینال است که به شما امکان می دهد با آن مکالمه کنید مدل های زبان – مدل‌های هوش مصنوعی قادر به درک و تولید متنی شبیه انسان هستند. با استفاده از Charla، می توانید:

  • تعامل با مدل های هوش مصنوعی محلی از طریق سرور اوللاما
  • با مدل های از راه دور از طریق مدل های GitHub با استفاده از رمز GitHub شما.

Charla که با در نظر گرفتن بهره وری و کاربران فنی طراحی شده است، یک رابط چت ساده، انعطاف پذیر و کارآمد ارائه می دهد.

ویژگی های کلیدی

در اینجا برخی از ویژگی های برجسته ای وجود دارد که چارلا را به ابزاری قدرتمند برای گفتگو با مدل های زبان تبدیل می کند:

  • مکالمات آگاه از زمینه : مکالمات مداوم و یکپارچه را با مدل ها ادامه دهید و در عین حال از متن درخواست های قبلی خودداری کنید.
  • پشتیبانی از مدل های محلی و راه دور : از مدل های نصب شده روی رایانه خود از طریق Ollama استفاده کنید یا برای دسترسی از راه دور به مدل های GitHub ضربه بزنید.
  • تداوم جلسه :
  • گزارش های چت : به طور خودکار مکالمات را به عنوان فایل Markdown در فهرست اسناد خود ذخیره کنید.
  • تاریخچه سریع : به لطف پیشنهادات خودکار، به درخواست‌های قبلاً وارد شده دسترسی داشته باشید و مجدداً از آنها استفاده کنید.
  • حالت های ورودی سفارشی : بین حالت های ورودی تک خطی و چند خطی جابجا شوید بدون اینکه جریان کاری شما قطع شود.
  • انعطاف پذیری در تنظیمات :
  • تنظیمات برگزیده را در فایل‌های پیکربندی جهانی یا در پروژه‌های محلی ذخیره کنید .charla.json فایل ها برای حداکثر انعطاف پذیری
  • درخواست های سیستم : دستورالعمل های سیستم را از قبل بارگذاری کنید که رفتار مدل زبان را در طول چت شکل می دهد.
  • برنامه های افزودنی سریع :
  • برای تعاملات پیچیده تر، محتوای فایل های متنی محلی یا صفحات وب را به درخواست های خود اضافه کنید.

با این ویژگی‌ها، چارلا هم برای آزمایش‌های سریع و هم برای پروژه‌های بلندمدت شامل مدل‌های زبانی بزرگ ایده‌آل است.

نصب و راه اندازی

نصب Charla ساده است. قبل از شروع، اطمینان حاصل کنید که وابستگی های لازم را دارید:

  1. سرور اوللاما (اختیاری): برای استفاده از مدل های محلی، سرور اوللاما را به همراه حداقل یک مدل پشتیبانی شده نصب و راه اندازی کنید.
  2. توکن GitHub (اختیاری): برای استفاده از مدل‌های GitHub راه دور، مطمئن شوید که یک توکن معتبر GitHub دارید.

هنگامی که موارد بالا را آماده کردید، Charla را از طریق نصب کنید pipx:

pipx install charla

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

راه اندازی مدل های GitHub

برای مدل های مبتنی بر GitHub، باید توکن GitHub خود را به عنوان یک متغیر محیطی صادر کنید:

export GITHUB_TOKEN=YOUR_GITHUB_TOKEN

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

این مرحله به چارلا اجازه می‌دهد تا با سرویس مدل‌های GitHub برای جلسات چت از راه دور احراز هویت کند.

شروع کار با چارلا

پس از نصب موفقیت آمیز، Charla را با وارد کردن دستور زیر در ترمینال خود راه اندازی کنید:

charla

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

از اینجا می توانید مدل و ارائه دهنده ای را که می خواهید استفاده کنید مشخص کنید. در زیر چند مثال برای شروع شما آورده شده است:

  • محلی (از طریق Ollama، ارائه دهنده پیش فرض):

bash
charla -m phi3

  • از راه دور (از طریق مدل های GitHub):

bash
charla -m gpt-4o --provider github

همچنین می‌توانید پیکربندی‌های پیش‌فرض (مانند مدل ترجیحی، تنظیمات ارائه‌دهنده) را با تغییر فایل تنظیمات کاربر خود سفارشی کنید.

سفارشی کردن Charla: تنظیمات

Charla درجه بالایی از سفارشی سازی را از طریق هر دو ارائه می دهد فایل های تنظیمات جهانی و گزینه های پیکربندی محلی. در اینجا نحوه مدیریت این تنظیمات آورده شده است:

پیدا کردن مکان فایل تنظیمات

دستور زیر را برای یافتن فایل تنظیمات جهانی خود اجرا کنید:

charla settings --location

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

نمونه فایل پیکربندی

در اینجا یک نمونه است .charla.json فایلی که پیش فرض های زیر را تنظیم می کند:

  • این gpt-4o مدل از طریق github ارائه دهنده
  • یک پوشه محلی به نام chats برای ذخیره گزارش مکالمه
  • حداکثر از 20 پیام ها در تاریخچه چت
{
    "model": "gpt-4o",
    "chats_path": "./chats",
    "provider": "github",
    "message_limit": 20
}

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

برای ذخیره تنظیمات فعلی خود در a .charla.json فایل در پوشه کاری خود، استفاده کنید:

charla settings --save

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

لغو خط فرمان

با ارسال آرگومان ها در خط فرمان می توانید تنظیمات را به طور موقت لغو کنید. به عنوان مثال، برای فعال کردن ورودی چند خطی و تنظیم یک فایل درخواست سیستم سفارشی:

charla --multiline --system-prompt custom-prompt.txt

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

آرگومان های خط فرمان بر فایل های پیکربندی محلی و جهانی اولویت دارند.

امروز چارلا را امتحان کنید!

Charla سادگی یک رابط مبتنی بر ترمینال را با پیچیدگی مدل‌های هوش مصنوعی پیشرفته ترکیب می‌کند. چه در حال بررسی مدل‌های زبان برای سرگرمی باشید و چه آنها را در جریان کاری خود ادغام کنید، چارلا چت کردن، آزمایش کردن و ذخیره پیشرفت خود را آسان می‌کند.

آماده شیرجه رفتن هستید؟ اکنون Charla را نصب کنید و در ترمینال خود با هوش مصنوعی چت کنید!


با تشکر از شما برای خواندن!

این مقاله توسط Ramiro Gómez با استفاده از نرم افزار منبع باز و کمک ابزارهای هوش مصنوعی نوشته شده است. در حالی که من در تلاش برای اطمینان از اطلاعات دقیق هستم، لطفاً قبل از اقدام به طور مستقل هرگونه جزئیات را تأیید کنید. برای مقالات بیشتر، از Geeklog در geeksta.net دیدن کنید.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا