چگونه یک هوش مصنوعی را به صورت محلی روی رایانه خود نصب و اجرا کنیم

Summarize this content to 400 words in Persian Lang
مقدمه
در این پست ما فرآیند نصب و پیکربندی هوش مصنوعی را برای عملکرد محلی بر روی رایانه شما با تمرکز بر سیستمهای لینوکس و macOS پوشش خواهیم داد. برخی از ابزارهایی که ما استفاده خواهیم کرد هنوز در ویندوز در نسخه بتا هستند، بنابراین پوشش داده نخواهد شد. این هوش مصنوعی را می توان برای اهداف مختلفی استفاده کرد، مانند پاسخ دادن به سوالات گاه به گاه، ایفای نقش به عنوان معلم ریاضی، یا حتی کمک به تولید پیام های تعهد برای پروژه های نرم افزاری (که می تواند استفاده من باشد 🙂 .
الزامات
داکر
16 گیگابایت رم (توصیه می شود)
نصب و راه اندازی
ابتدا باید LLM (مدل زبان بزرگ) خود را نصب کنیم و ابزاری که برای دستکاری این LLM ها استفاده خواهیم کرد اوللاما خواهد بود. فرآیند دانلود بسیار ساده است.
لینک انجام Github
پس از نصب، دستور زیر را در ترمینال تایپ می کنیم: ollama run llama3.1، جایی که “llama3.1″ LLM است که به عنوان مثال استفاده خواهیم کرد.
پس از اجرای این دستور، قالب دانلود خواهد شد. وقتی دانلود کامل شد، میتوانیم مستقیماً از ترمینال با آن ارتباط برقرار کنیم.
با این حال، از آنجایی که ما یک رابط گرافیکی و توانایی سفارشی سازی قالب های خود می خواهیم، به ابزار دیگری به نام Open Web UI نیاز داریم.
برای اجرای این ابزار با دستور زیر از Docker استفاده می کنیم:
docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:main
پس از اجرای Docker، میتوانید به http://localhost:3000/ برای باز کردن رابط گرافیکی دسترسی داشته باشید، جایی که میتوانیم از مدلها استفاده کنیم.
شما باید یک حساب محلی ایجاد کنید. پس از ایجاد حساب کاربری، می توانید از قالبی که قبلاً از طریق مرورگر خود دانلود کرده ایم استفاده کنید.
سفارشی سازی IAS
برای انجام این سفارشی سازی ها، می توانید از خود وب سایت Open Web UI استفاده کنید و همچنین تنظیمات را به صورت محلی انجام دهید. در وب سایت، چندین مدل سفارشی پیدا خواهید کرد که می توانند به عنوان نقطه شروع یا الهام بخش سفارشی سازی های شما باشند.
عیب یابی
اگر آموزش را با استفاده از لینوکس دنبال میکنید و با مشکلاتی مواجه میشوید که Open Web UI قادر به شناسایی مدل خود نیست، ممکن است مشکل مربوط به پورتی باشد که Olama در حال گوش دادن به آن است.
از این طریق قابل حل است:
یک فایل لغو ایجاد کنید
sudo nano /etc/systemd/system/ollama.service.d/override.conf
متغیر محیطی را در داخل فایل override.conf اضافه کنید.
[Service]
Environment=”OLLAMA_HOST=0.0.0.0”
فایل را ذخیره کنید.
بارگذاری مجدد سیستم: sudo systemctl daemon-reload
سرویس اوللاما را مجددا راه اندازی کنید: sudo systemctl restart ollama
مراجع
https://docs.openwebui.com/https://www.cloudflare.com/pt-br/learning/ai/what-is-large-language-model/https://github.com/ollama/ollama
مقدمه
در این پست ما فرآیند نصب و پیکربندی هوش مصنوعی را برای عملکرد محلی بر روی رایانه شما با تمرکز بر سیستمهای لینوکس و macOS پوشش خواهیم داد. برخی از ابزارهایی که ما استفاده خواهیم کرد هنوز در ویندوز در نسخه بتا هستند، بنابراین پوشش داده نخواهد شد. این هوش مصنوعی را می توان برای اهداف مختلفی استفاده کرد، مانند پاسخ دادن به سوالات گاه به گاه، ایفای نقش به عنوان معلم ریاضی، یا حتی کمک به تولید پیام های تعهد برای پروژه های نرم افزاری (که می تواند استفاده من باشد 🙂 .
الزامات
- داکر
- 16 گیگابایت رم (توصیه می شود)
نصب و راه اندازی
ابتدا باید LLM (مدل زبان بزرگ) خود را نصب کنیم و ابزاری که برای دستکاری این LLM ها استفاده خواهیم کرد اوللاما خواهد بود. فرآیند دانلود بسیار ساده است.
لینک انجام Github
پس از نصب، دستور زیر را در ترمینال تایپ می کنیم: ollama run llama3.1
، جایی که “llama3.1” LLM است که به عنوان مثال استفاده خواهیم کرد.
پس از اجرای این دستور، قالب دانلود خواهد شد. وقتی دانلود کامل شد، میتوانیم مستقیماً از ترمینال با آن ارتباط برقرار کنیم.
با این حال، از آنجایی که ما یک رابط گرافیکی و توانایی سفارشی سازی قالب های خود می خواهیم، به ابزار دیگری به نام Open Web UI نیاز داریم.
برای اجرای این ابزار با دستور زیر از Docker استفاده می کنیم:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
پس از اجرای Docker، میتوانید به http://localhost:3000/ برای باز کردن رابط گرافیکی دسترسی داشته باشید، جایی که میتوانیم از مدلها استفاده کنیم.
شما باید یک حساب محلی ایجاد کنید. پس از ایجاد حساب کاربری، می توانید از قالبی که قبلاً از طریق مرورگر خود دانلود کرده ایم استفاده کنید.
سفارشی سازی IAS
برای انجام این سفارشی سازی ها، می توانید از خود وب سایت Open Web UI استفاده کنید و همچنین تنظیمات را به صورت محلی انجام دهید. در وب سایت، چندین مدل سفارشی پیدا خواهید کرد که می توانند به عنوان نقطه شروع یا الهام بخش سفارشی سازی های شما باشند.
عیب یابی
اگر آموزش را با استفاده از لینوکس دنبال میکنید و با مشکلاتی مواجه میشوید که Open Web UI قادر به شناسایی مدل خود نیست، ممکن است مشکل مربوط به پورتی باشد که Olama در حال گوش دادن به آن است.
از این طریق قابل حل است:
- یک فایل لغو ایجاد کنید
sudo nano /etc/systemd/system/ollama.service.d/override.conf
- متغیر محیطی را در داخل فایل override.conf اضافه کنید.
[Service] Environment=”OLLAMA_HOST=0.0.0.0″ - فایل را ذخیره کنید.
- بارگذاری مجدد سیستم:
sudo systemctl daemon-reload
- سرویس اوللاما را مجددا راه اندازی کنید:
sudo systemctl restart ollama
مراجع
https://docs.openwebui.com/
https://www.cloudflare.com/pt-br/learning/ai/what-is-large-language-model/
https://github.com/ollama/ollama