نحوه اجرای Deepseek R1 به صورت محلی (با استفاده از Ollama + Chatboxai)

اگر می خواهید دویدید Deepseek R1 به صورت محلی در سیستم شما ، نیازی به نگرانی نیست. این راهنما به روشی ساده و آسان برای دنبال کردن نوشته شده است ، و توضیح می دهد که گام به گام نحوه استفاده اولاما وت باکسای چت برای اجرای آن
🖥 الزامات سیستم (بر اساس GPU/RAM)
هر مدل نیازهای سخت افزاری مختلفی دارد ، بنابراین ابتدا بررسی کنید که سیستم شما می تواند از کدام مدل پشتیبانی کند:
مدل | GPU مورد نیاز است | VRAM (حافظه GPU) | رم (حافظه سیستم) | ذخیره سازی (ROM) |
---|---|---|---|---|
Deepseek R1 1.5b | بدون GPU / GPU یکپارچه | 4 گیگابایت+ | 8 گیگابایت+ | 10 گیگابایت+ |
Deepsek R1 7B | GTX 1650 / RTX 3050 | 6 گیگابایت+ | 16 گیگابایت+ | 30 گیگابایت+ |
Deepseek R1 14b | RTX 3060 / RTX 4060 | 12 گیگابایت+ | 32 گیگابایت | 60 گیگابایت+ |
Deepseek R1 33b | RTX 4090 / A100 | 24 گیگابایت+ | 64 گیگابایت+ | 100 گیگابایت+ |
- 👉 اگر سیستم شما دارد GTX 1650 یا پایین، فقط می توانید دویدید Deepseek R1 1.5b یا حداکثر 7bبشر
- 👉 برای 7B ، حداقل 16 گیگابایت رم لازم است
- 👉 اگر شما GPU پایین تر از GTX 1650 (یا یک GPU یکپارچه)، فقط استفاده کنید 1.5b برای جلوگیری از تصادفات.
⚙ راهنمای نصب مرحله به مرحله
1⃣ نصب Ollama (پایه برای مدل های Llama)
اولاما ابزاری سبک وزن است که به اجرا کمک می کند LLMS (مدل های زبان بزرگ) به صورت محلیبشر ابتدا آن را نصب کنید:
🔗 پیوند نصب اولاما
👉 برای کاربران ویندوز:
- نصب را بارگیری کنید و آن را نصب کنید (فقط کلیک کنید بعدی).
- باز CMD و با اجرا چک کنید:
ollama run llama2
اگر این دستور با موفقیت اجرا شود ، نصب کامل است.
👉 برای کاربران MAC:
curl -fsSL https://ollama.com/install.sh | sh
2⃣ مدل Deepseek R1 را بارگیری کنید
برای کشیدن مدل از دستور زیر استفاده کنید:
ollama pull deepseek-ai/deepseek-coder:7b
– 👉 اگر می خواهید به جای 7b 1.5b را اجرا کنید ، استفاده کنید:
ollama pull deepseek-ai/deepseek-coder:1.5b
⚠ این بارگیری بسته به سرعت اینترنت شما ممکن است مدتی طول بکشد. پس از بارگیری ، می توانید آن را با استفاده از Ollama اجرا کنید.
3 ⃣ chatboxai را نصب کنید (GUI اختیاری برای تجربه بهتر)
اگر می خواهید یک رابط کاربری گرافیکی (GUI) داشته باشید ، Chatboxai بهترین ابزار برای تعامل با مدل های محلی AI است.
link لینک نصب Chatboxai
مراحل نصب:
-
اطمینان حاصل کنید که Python 3.10+ نصب شده است.
-
باز کردن سریع فرمان (CMD) و اجرا:
git clone https://github.com/oobabooga/text-generation-webui.git
cd text-generation-webui
pip install -r requirements.txt
python server.py
-
مرورگر خود را باز کنید و به LocalHost: 7860 بروید ، سپس مدل خود را انتخاب کنید.
🚀 Running Deepseek R1 (مرحله نهایی)
پس از نصب همه چیز ، وقت آن است که مدل را اجرا کنید:
cm CMD را باز کنید و اجرا کنید:
ollama run deepseek-ai/deepseek-coder:7b
👉 اگر 7B در حال اجرا نیست ، با 1.5b امتحان کنید:
ollama run deepseek-ai/deepseek-coder:1.5b
👉 اگر از Chatboxai استفاده می کنید ، کافی است مرورگر را باز کرده و از طریق GUI با مدل ارتباط برقرار کنید.
اکنون می توانید از Deepseek R1 برای برنامه نویسی ، چت هوش مصنوعی و بهینه سازی گردش کار خود استفاده کنید! 😎🔥
🛠 مشکلات و راه حل های رایج
❌ 1⃣ مدل به دلیل کم بودن VRAM خراب می شود؟
✔ به جای 7b 1.5b را امتحان کنید.
✔ Windows PageFile (تنظیمات حافظه مجازی) را افزایش دهید.
❌ 2 پاسخ مدل خیلی کند است؟
✔ به جای HDD از SSD استفاده کنید.
✔ برنامه های پس زمینه را ببندید.
استفاده از RAM بهینه سازی کنید.
❌ 3⃣ “فرمان یافت نشد” در CMD؟
✔ بررسی کنید که آیا اولاما به درستی نصب شده است یا خیر.
✔ اطمینان حاصل کنید که پایتون و وابستگی ها نصب شده اند.
🤩 نتیجه گیری
اگر این راهنما را به درستی دنبال کرده اید ، اکنون می توانید Deepseek R1 را به صورت محلی اجرا کنید بدون اینکه به API های شخص ثالث تکیه کنید. این یک راه حل دوستانه و مقرون به صرفه و مقرون به صرفه است ، مناسب برای توسعه دهندگان و فریلنسرها.
اگر با هر مشکلی روبرو هستید ، نظر خود را رها کنید و کمک خواهید کرد! 🚀🔥