آزادسازی قدرت هوش مصنوعی: اجرای مدل های زبان بزرگ بر روی سرور ابری خود (اقیانوس دیجیتال)
Summarize this content to 400 words in Persian Lang
مقدمه
در دنیای هوش مصنوعی که به سرعت در حال تکامل است، مدلهای زبان بزرگ (LLM) به طور فزایندهای برای توسعهدهندگان و علاقهمندان در دسترس قرار گرفتهاند. این پست وبلاگ شما را در فرآیند راه اندازی و اجرای یک LLM، به ویژه Ollama، بر روی یک سرور لینوکس مبتنی بر ابر با استفاده از DigitalOcean's Droplets راهنمایی می کند.
چرا LLM خودتان را اجرا کنید؟
اجرای LLM خودتان چندین مزیت دارد:
کنترل کامل بر مدل هوش مصنوعی شما
حفظ حریم خصوصی و امنیت داده ها افزایش یافته است
امکانات سفارشی سازی
مقرون به صرفه برای استفاده طولانی مدت
راه اندازی سرور ابری خود
ما از DigitalOcean's Droplets برای این آموزش استفاده خواهیم کرد. در اینجا یک مرور سریع از روند راه اندازی آورده شده است:
ایجاد یک حساب DigitalOcean (https://www.digitalocean.com/)
یک پیکربندی Droplet را انتخاب کنید (توصیه می شود اوبونتو)
منابع مناسب را انتخاب کنید (حداقل 8 گیگابایت رم برای اکثر LLM ها)
تنظیم احراز هویت (رمز عبور یا کلید SSH)
Droplet خود را راه اندازی کنید.
اتصال به قطره شما
هنگامی که Droplet شما اجرا می شود، باید از طریق SSH به آن متصل شوید. از دستور زیر در ترمینال خود استفاده کنید:
ssh root@your_droplet_ip_address
نصب اولاما
Ollama یک چارچوب ساده برای اجرای LLM است. برای نصب آن، این دستور را اجرا کنید:
curl -fsSL <https://ollama.com/install.sh> | sh
اجرای اولین LLM
با نصب Olama، اکنون می توانید یک LLM را اجرا کنید. به عنوان مثال، برای اجرای مدل Llama2:
ollama run llama2
تعامل با LLM شما
هنگامی که مدل بارگذاری شد، می توانید با تایپ کردن دستورات، با آن تعامل برقرار کنید. به عنوان مثال:
“چرا آسمان آبی است؟”
اجرای Ollama به عنوان یک سرور
به طور پیش فرض، Olama به عنوان یک سرور در پورت 11434 اجرا می شود. می توانید به آن در http://localhost:11434 دسترسی داشته باشید. برای اینکه Olama به طور مداوم بر روی سرور خود اجرا شود، حتی پس از خروج از سیستم، می توانید از یک مدیر فرآیند مانند PM2 استفاده کنید. در اینجا نحوه تنظیم آن آمده است:
اگر قبلاً نصب نکرده اید PM2 را نصب کنید:
npm install pm2 -g
بعد از نصب PM2 می توانیم سرور olama را اجرا کنیم
pm2 start “ollama serve” -n <name>
اطمینان حاصل کنید که PM2 با راه اندازی مجدد سیستم شروع می شود
pm2 startup systemd
pm2 save
اکنون Olama به طور مداوم به عنوان یک سرور اجرا می شود و به شما امکان می دهد حتی پس از بسته شدن جلسه SSH با آن تعامل داشته باشید.
نتیجه گیری
راه اندازی و اجرای LLM خود در سرور ابری، دنیایی از امکانات را برای آزمایش و توسعه هوش مصنوعی باز می کند. همانطور که با این فرآیند راحتتر میشوید، میتوانید مدلهای مختلف را کاوش کنید، آنها را برای کارهای خاص تنظیم کنید، یا حتی برنامههای مبتنی بر هوش مصنوعی خود را ایجاد کنید.
مراحل بعدی
کاوش را در نظر بگیرید:
مدل های مختلف LLM در دسترس از طریق Olama
مدل های تنظیم دقیق برای موارد استفاده خاص
ادغام LLM خود با سایر برنامه ها یا خدمات
مقدمه
در دنیای هوش مصنوعی که به سرعت در حال تکامل است، مدلهای زبان بزرگ (LLM) به طور فزایندهای برای توسعهدهندگان و علاقهمندان در دسترس قرار گرفتهاند. این پست وبلاگ شما را در فرآیند راه اندازی و اجرای یک LLM، به ویژه Ollama، بر روی یک سرور لینوکس مبتنی بر ابر با استفاده از DigitalOcean's Droplets راهنمایی می کند.
چرا LLM خودتان را اجرا کنید؟
اجرای LLM خودتان چندین مزیت دارد:
- کنترل کامل بر مدل هوش مصنوعی شما
- حفظ حریم خصوصی و امنیت داده ها افزایش یافته است
- امکانات سفارشی سازی
- مقرون به صرفه برای استفاده طولانی مدت
راه اندازی سرور ابری خود
ما از DigitalOcean's Droplets برای این آموزش استفاده خواهیم کرد. در اینجا یک مرور سریع از روند راه اندازی آورده شده است:
- ایجاد یک حساب DigitalOcean (https://www.digitalocean.com/)
- یک پیکربندی Droplet را انتخاب کنید (توصیه می شود اوبونتو)
- منابع مناسب را انتخاب کنید (حداقل 8 گیگابایت رم برای اکثر LLM ها)
- تنظیم احراز هویت (رمز عبور یا کلید SSH)
- Droplet خود را راه اندازی کنید.
اتصال به قطره شما
هنگامی که Droplet شما اجرا می شود، باید از طریق SSH به آن متصل شوید. از دستور زیر در ترمینال خود استفاده کنید:
ssh root@your_droplet_ip_address
نصب اولاما
Ollama یک چارچوب ساده برای اجرای LLM است. برای نصب آن، این دستور را اجرا کنید:
curl -fsSL <https://ollama.com/install.sh> | sh
اجرای اولین LLM
با نصب Olama، اکنون می توانید یک LLM را اجرا کنید. به عنوان مثال، برای اجرای مدل Llama2:
ollama run llama2
تعامل با LLM شما
هنگامی که مدل بارگذاری شد، می توانید با تایپ کردن دستورات، با آن تعامل برقرار کنید. به عنوان مثال:
“چرا آسمان آبی است؟”
اجرای Ollama به عنوان یک سرور
به طور پیش فرض، Olama به عنوان یک سرور در پورت 11434 اجرا می شود. می توانید به آن در http://localhost:11434 دسترسی داشته باشید. برای اینکه Olama به طور مداوم بر روی سرور خود اجرا شود، حتی پس از خروج از سیستم، می توانید از یک مدیر فرآیند مانند PM2 استفاده کنید. در اینجا نحوه تنظیم آن آمده است:
- اگر قبلاً نصب نکرده اید PM2 را نصب کنید:
npm install pm2 -g
- بعد از نصب PM2 می توانیم سرور olama را اجرا کنیم
pm2 start "ollama serve" -n <name>
- اطمینان حاصل کنید که PM2 با راه اندازی مجدد سیستم شروع می شود
pm2 startup systemd
pm2 save
اکنون Olama به طور مداوم به عنوان یک سرور اجرا می شود و به شما امکان می دهد حتی پس از بسته شدن جلسه SSH با آن تعامل داشته باشید.
نتیجه گیری
راه اندازی و اجرای LLM خود در سرور ابری، دنیایی از امکانات را برای آزمایش و توسعه هوش مصنوعی باز می کند. همانطور که با این فرآیند راحتتر میشوید، میتوانید مدلهای مختلف را کاوش کنید، آنها را برای کارهای خاص تنظیم کنید، یا حتی برنامههای مبتنی بر هوش مصنوعی خود را ایجاد کنید.
مراحل بعدی
کاوش را در نظر بگیرید:
- مدل های مختلف LLM در دسترس از طریق Olama
- مدل های تنظیم دقیق برای موارد استفاده خاص
- ادغام LLM خود با سایر برنامه ها یا خدمات