برنامه نویسی

نکته سریع: اجرای Deepseek (یا هر مدل) به صورت محلی

تصویر یک نهنگ آبی با استفاده از رایانه

Hype é Hype.

این یک واقعیت است.

اما اعتراف می کنم که چیزی طولانی است زیرا چیزی به اندازه هیجان زده بود ممفیس دپای هیچ قرنتیان در اعماقبشر

در این روزهای گذشته فقط در آن صحبت شده است. و جای تعجب نیست: این مدل ایجاد شده توسط یک راه اندازی چینی با همین نام می تواند نتیجه مشابه O1 ، مدل فوق العاده پیشرفته را ارائه دهد Openaiبشر فقط به صورت رایگان! اگر می خواهید در مورد مدل اطلاعات بیشتری کسب کنید ، به https://arxiv.org/pdf/2501.12948 بروید.
در حالی که لازم است در اعماق به سادگی آن را به صورت رایگان می دهد. فقط به https://chat.deepseek.com/ بروید.

و اگر می خواهید از API های خود در نرم افزار خود استفاده کنید ، می توانید یک برنامه را امضا کنید. و این جایی است که چیز حتی بیشتر تعجب آور است:

تفاوت رسوایی است.

و به همین دلیل است که دنیای فناوری ذکر شده در NASDAQ شروع به فروپاشی کرد: میلیاردرهای فناوری از دست دادند و 100 میلیارد دلار در فروش بورس سهام که توسط Deepseek برانگیخته شده بود ، از دست دادند.

من مجبور شدم این مقدمه ظریف را انجام دهم در اعماق به طوری که شما خواننده عزیزم ، خواننده چهره من ، متوجه می شوید که چرخش که جهان این روزهای گذشته را داده است.

با این حال ، ایده اینجاست که به شما نشان می دهد که چگونه می توانید این مدل را به صورت محلی اجرا کنید. و نه فقط این مدل ، تقریباً هر کسی.

من “تقریباً هر کسی” را تأیید می کنم زیرا برخی از مدل ها آنقدر سنگین هستند که لازم است یک دستگاه پوچ و محکم برای اجرای آنها باشد.

در اصل ، برای شروع ، ما باید دو چیز را بدانیم:

  • جایی که من این مدل را پایین می آورم ؛
  • و نحوه اجرای مدل بارگیری شده ؛

و برای شانس ما ، شما می توانید فقط با یک کلمه به این دو سؤال پاسخ دهید: اولاما.

Ollama ابزاری است که به صورت خطی خطی برای نصب و پیکربندی ساده است و این به ما کمک می کند تا مدل ها را بدون هیچ گونه عارضه ای بارگیری و اجرا کنیم!

پس از ورود به سایت https://ollama.com/download ، شما انتخاب می کنید که سیستم عامل خود چیست ، پرونده را بارگیری کنید و تمام شد!

با این حال ، قبل از اعدام ، می خواهم یک نکته شیطانی به شما بدهم.

این مدل ها پرونده های بسیار بزرگی هستند که بسته به کیفیت آنها می توانند از 2 گیگابایت تا 30 گیگابایت متغیر باشند. بنابراین ، داشتن یک فضای دیسک بسیار بزرگ لازم است. من دو دستگاه SSD در دستگاه خود دارم و Ollama را پیکربندی کردم تا مدل ها را در SSD خاص بارگیری کند.

به طور پیش فرض ، Ollama مدلها را در فهرست ~/.ollama/Models ذخیره می کند و اگر می خواهید این مکان را تغییر دهید ، باید با تنظیم یک متغیر محیط ، مسیر پوشه را که مدل ها در آن ذخیره می شوند ، مطلع کنید. ollama_models

در MacOS و Linux بسیار ساکت است.

ترمینال را باز کرده و خط زیر را به پرونده پیکربندی پوسته خود اضافه کنید (~/.bashrc ، ~/.zshrc یا ~/.bash_profile ، بسته به پوسته ای که استفاده می کنید):

export OLLAMA_MODELS="/Volumes/SSD/Pasta onde Ficarão os modelos"
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

پس از ذخیره پرونده ، لازم است تغییرات را اعمال کنید:

source ~/.bashrc  # ou ~/.zshrc, ~/.bash_profile
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

در حال حاضر در ویندوز ، با استفاده از PowerShell:

[Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "C:\caminho\para\seu\diretorio", "User")
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

سپس از ماشین خارج شوید ، سوار ماشین شوید … ترمینال را باز کنید و ببندید!

pronto !!!

نکته شیطانی دیگر ، و من روی پوست رنج می بردم ، می خواهم مسیر پوشه ای را که مدل ها با آن قرار دارند تغییر دهم اولاما دویدن این یک فرایند است ، بنابراین ، از لحظه اجرای آن ، اگر می خواهید این تغییر را انجام دهید ، باید روند را بکشید ، دوباره تغییر دهید و دوباره از روند صعود کنید. من در زیر توضیح می دهم که چگونه می توان از این روند صعود کرد.

اگر همه چیز خوب پیش برود و هنگام اجرای دستور هیچ مشکلی پیش نمی رود

ollama help

ما می توانیم تمام گزینه هایی را مشاهده کنیم که اولاما به ما می دهد:

> ollama help

Large language model runner

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  stop        Stop a running model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  ps          List running models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

بله … بسیار شبیه به دستورات Docker است.

اگر هنوز اجرا نکرده اید اولاما یا روند کار را برای ایجاد نوعی تغییر کشته ، فقط دستور را اجرا کنید

ollama serve

برای شروع برنامه

مرحله بعدی این است که تصویر ما را انتخاب کنیم … می گویم … مدل ما …

برای انجام این کار ، به https://ollama.com/search بروید. در اینجا صدها مدل موجود برای مصارف محلی پیدا خواهید کرد.

نصب یک مدل بسیار ساده است:

ollama run <>

در مورد ما ، ما از Deepseek R1 استفاده خواهیم کرد.

پس از ورود به این پیوند ، چندین گزینه مدل برای Deepseek R1بشر در اصل ، آنچه یکدیگر را متمایز می کند ، مدل پایه ای است که بر روی آن ایجاد شده و میزان پارامترها است.

به طور کلی ، هرچه یک مدل پارامترهای بیشتری داشته باشد ، جامع تر است ، یعنی می تواند با انواع کارهای بالاتر ، زمینه ها و تفاوت های ظریف برخورد کند.

این گفت ، من تصمیم گرفتم مدل را نصب کنم Deepseek-R1: 8bبشر این یک مدل 4.9 گیگابایتی است که روی دستگاه من صاف است.

به هر حال ، این یک نکته مهم است. قدرت محاسباتی دستگاه شما در انتخاب یک مدل تعیین کننده است. اگر یک مدل بزرگتر با پارامترهای بیشتر انتخاب کنید ، ممکن است دستگاه شما برای باز کردن منقار باشد. اگر دستگاه شما کروم را بدون خفگی اجرا می کند ، می تواند آرام باشد ، در غیر این صورت ، با انتخاب یک مدل کوچکتر مانند مانند شروع می شود deepseek-r1:1.5bبشر

> ollama run deepseek-r1:8b
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

این دستور در بالا ، علاوه بر بارگیری مدل ، امکان تعامل را به ما می دهد. ممکن است چند دقیقه خوب برای بارگیری آن طول بکشد.

سرانجام ، ما داریم:

>>> Send a message (/? for help)
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

حالا بازی می کند !!!!

https://www.youtube.com/watch؟v=8-xyopxf7zq

آیا می توانید سرعت جواب را درک کنید؟ حسی ، اینطور نیست؟

برای ترک ، تایپ کنید /bye!

می توانید چندین مدل را امتحان کنید ، اما به یاد داشته باشید که آنها بزرگ هستند و می توانند SSD شما را مسدود کنند.

برای دانستن اینکه کدام مدل ها را نصب کرده اید از دستور استفاده کنید ollama list و برای پاک کردن استفاده از مدل ollama rm <>>بشر


در این مرحله آنچه را که در عنوان پست پیشنهاد شده است ، درست می کنیم ، درست است؟

اما بیایید اینجا متوقف نشویم … مثل همیشه … یک قهوه بگیرید و با من بیایید. اکنون بازی حتی خنک تر است.

ای اولاما این فرایندی است که روی دستگاه شما اجرا می شود. هنگام استفاده از ترمینال ، از طریق خط فرمان به این برنامه دسترسی پیدا می کنید. این همان کاری است که ما در بالا انجام دادیم. اما اگر من به شما بگویم که اولاما همچنین بالا می رود servido http پورتا 11434 در معرض API ها به گونه ای که بتوانیم از طریق برنامه کاربردی خود در تعامل باشیم ، به عنوان مثال؟

ببین چقدر باحال است !! اگر این را اجرا کنید curl در زیر ، پاسخ را از طریق دریافت می کند جریانبشر این خیلی باحال است !!!

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:8b",
  "prompt":"Quais são os gases nobres?"
}'
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

من نمی توانم این درب را تغییر دهم ، اگر می دانید چگونه این کار را انجام می دهد ، لطفاً آن را در نظرات بگذارید !!!

این تعداد زیادی از امکانات را باز می کند. یکی ایجاد یک برنامه وب است که یک گپ را “شبیه سازی” می کند. برابر با https://chat.deepseek.com/ یا https://chat.openai.com/.

اگر می خواهید در مورد API اطلاعات بیشتری کسب کنید ، به https://github.com/ollama/ollama/blob/main/docs/api.md بروید!

به یک فرصت خوب نگاه کنید! ایجاد یک رابط بصری برای اولامابا

با این حال ، اگر نمی خواهید این کار را انجام دهید ، مشکلی نیست. من آنها را با Open WebUi ارائه می دهم.

Open WebUi یک پلتفرم هوش مصنوعی خودآموزی ، گسترده و غنی از منابع است و برای استفاده آسان برای کار کردن کاملاً آفلاین طراحی شده است. این برنامه از چندین مجری LLM مانند Ollama و API های سازگار با OpenAi پشتیبانی می کند ، با مکانیسم استنتاج یکپارچه یکپارچه ، آن را به یک راه حل قدرتمند کاشت هوش مصنوعی تبدیل می کند.

لذت ببرید!

این بود !!!

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا