برنامه نویسی

آزادسازی قدرت هوش مصنوعی: اجرای مدل های زبان بزرگ بر روی سرور ابری خود (اقیانوس دیجیتال)

Summarize this content to 400 words in Persian Lang

مقدمه

در دنیای هوش مصنوعی که به سرعت در حال تکامل است، مدل‌های زبان بزرگ (LLM) به طور فزاینده‌ای برای توسعه‌دهندگان و علاقه‌مندان در دسترس قرار گرفته‌اند. این پست وبلاگ شما را در فرآیند راه اندازی و اجرای یک LLM، به ویژه Ollama، بر روی یک سرور لینوکس مبتنی بر ابر با استفاده از DigitalOcean's Droplets راهنمایی می کند.

چرا LLM خودتان را اجرا کنید؟

اجرای LLM خودتان چندین مزیت دارد:

کنترل کامل بر مدل هوش مصنوعی شما
حفظ حریم خصوصی و امنیت داده ها افزایش یافته است
امکانات سفارشی سازی
مقرون به صرفه برای استفاده طولانی مدت

راه اندازی سرور ابری خود

ما از DigitalOcean's Droplets برای این آموزش استفاده خواهیم کرد. در اینجا یک مرور سریع از روند راه اندازی آورده شده است:

ایجاد یک حساب DigitalOcean (https://www.digitalocean.com/)
یک پیکربندی Droplet را انتخاب کنید (توصیه می شود اوبونتو)
منابع مناسب را انتخاب کنید (حداقل 8 گیگابایت رم برای اکثر LLM ها)
تنظیم احراز هویت (رمز عبور یا کلید SSH)
Droplet خود را راه اندازی کنید.

اتصال به قطره شما

هنگامی که Droplet شما اجرا می شود، باید از طریق SSH به آن متصل شوید. از دستور زیر در ترمینال خود استفاده کنید:

ssh root@your_droplet_ip_address

نصب اولاما

Ollama یک چارچوب ساده برای اجرای LLM است. برای نصب آن، این دستور را اجرا کنید:

curl -fsSL <https://ollama.com/install.sh> | sh

اجرای اولین LLM

با نصب Olama، اکنون می توانید یک LLM را اجرا کنید. به عنوان مثال، برای اجرای مدل Llama2:

ollama run llama2

تعامل با LLM شما

هنگامی که مدل بارگذاری شد، می توانید با تایپ کردن دستورات، با آن تعامل برقرار کنید. به عنوان مثال:

“چرا آسمان آبی است؟”

اجرای Ollama به عنوان یک سرور

به طور پیش فرض، Olama به عنوان یک سرور در پورت 11434 اجرا می شود. می توانید به آن در http://localhost:11434 دسترسی داشته باشید. برای اینکه Olama به طور مداوم بر روی سرور خود اجرا شود، حتی پس از خروج از سیستم، می توانید از یک مدیر فرآیند مانند PM2 استفاده کنید. در اینجا نحوه تنظیم آن آمده است:

اگر قبلاً نصب نکرده اید PM2 را نصب کنید:

npm install pm2 -g

بعد از نصب PM2 می توانیم سرور olama را اجرا کنیم

pm2 start “ollama serve” -n <name>

اطمینان حاصل کنید که PM2 با راه اندازی مجدد سیستم شروع می شود

pm2 startup systemd
pm2 save

اکنون Olama به طور مداوم به عنوان یک سرور اجرا می شود و به شما امکان می دهد حتی پس از بسته شدن جلسه SSH با آن تعامل داشته باشید.

نتیجه گیری

راه اندازی و اجرای LLM خود در سرور ابری، دنیایی از امکانات را برای آزمایش و توسعه هوش مصنوعی باز می کند. همانطور که با این فرآیند راحت‌تر می‌شوید، می‌توانید مدل‌های مختلف را کاوش کنید، آنها را برای کارهای خاص تنظیم کنید، یا حتی برنامه‌های مبتنی بر هوش مصنوعی خود را ایجاد کنید.

مراحل بعدی

کاوش را در نظر بگیرید:

مدل های مختلف LLM در دسترس از طریق Olama
مدل های تنظیم دقیق برای موارد استفاده خاص
ادغام LLM خود با سایر برنامه ها یا خدمات

مقدمه

در دنیای هوش مصنوعی که به سرعت در حال تکامل است، مدل‌های زبان بزرگ (LLM) به طور فزاینده‌ای برای توسعه‌دهندگان و علاقه‌مندان در دسترس قرار گرفته‌اند. این پست وبلاگ شما را در فرآیند راه اندازی و اجرای یک LLM، به ویژه Ollama، بر روی یک سرور لینوکس مبتنی بر ابر با استفاده از DigitalOcean's Droplets راهنمایی می کند.

چرا LLM خودتان را اجرا کنید؟

اجرای LLM خودتان چندین مزیت دارد:

  • کنترل کامل بر مدل هوش مصنوعی شما
  • حفظ حریم خصوصی و امنیت داده ها افزایش یافته است
  • امکانات سفارشی سازی
  • مقرون به صرفه برای استفاده طولانی مدت

راه اندازی سرور ابری خود

ما از DigitalOcean's Droplets برای این آموزش استفاده خواهیم کرد. در اینجا یک مرور سریع از روند راه اندازی آورده شده است:

  1. ایجاد یک حساب DigitalOcean (https://www.digitalocean.com/)
  2. یک پیکربندی Droplet را انتخاب کنید (توصیه می شود اوبونتو)
  3. منابع مناسب را انتخاب کنید (حداقل 8 گیگابایت رم برای اکثر LLM ها)
  4. تنظیم احراز هویت (رمز عبور یا کلید SSH)
  5. Droplet خود را راه اندازی کنید.

اتصال به قطره شما

هنگامی که Droplet شما اجرا می شود، باید از طریق SSH به آن متصل شوید. از دستور زیر در ترمینال خود استفاده کنید:

ssh root@your_droplet_ip_address

نصب اولاما

Ollama یک چارچوب ساده برای اجرای LLM است. برای نصب آن، این دستور را اجرا کنید:

curl -fsSL <https://ollama.com/install.sh> | sh

اجرای اولین LLM

با نصب Olama، اکنون می توانید یک LLM را اجرا کنید. به عنوان مثال، برای اجرای مدل Llama2:

ollama run llama2

تعامل با LLM شما

هنگامی که مدل بارگذاری شد، می توانید با تایپ کردن دستورات، با آن تعامل برقرار کنید. به عنوان مثال:

“چرا آسمان آبی است؟”

اجرای Ollama به عنوان یک سرور

به طور پیش فرض، Olama به عنوان یک سرور در پورت 11434 اجرا می شود. می توانید به آن در http://localhost:11434 دسترسی داشته باشید. برای اینکه Olama به طور مداوم بر روی سرور خود اجرا شود، حتی پس از خروج از سیستم، می توانید از یک مدیر فرآیند مانند PM2 استفاده کنید. در اینجا نحوه تنظیم آن آمده است:

  1. اگر قبلاً نصب نکرده اید PM2 را نصب کنید:
npm install pm2 -g
  1. بعد از نصب PM2 می توانیم سرور olama را اجرا کنیم
pm2 start "ollama serve" -n <name>
  1. اطمینان حاصل کنید که PM2 با راه اندازی مجدد سیستم شروع می شود
pm2 startup systemd
pm2 save

اکنون Olama به طور مداوم به عنوان یک سرور اجرا می شود و به شما امکان می دهد حتی پس از بسته شدن جلسه SSH با آن تعامل داشته باشید.

نتیجه گیری

راه اندازی و اجرای LLM خود در سرور ابری، دنیایی از امکانات را برای آزمایش و توسعه هوش مصنوعی باز می کند. همانطور که با این فرآیند راحت‌تر می‌شوید، می‌توانید مدل‌های مختلف را کاوش کنید، آنها را برای کارهای خاص تنظیم کنید، یا حتی برنامه‌های مبتنی بر هوش مصنوعی خود را ایجاد کنید.

مراحل بعدی

کاوش را در نظر بگیرید:

  • مدل های مختلف LLM در دسترس از طریق Olama
  • مدل های تنظیم دقیق برای موارد استفاده خاص
  • ادغام LLM خود با سایر برنامه ها یا خدمات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا