برنامه نویسی

Deepseek R1 7b الزامات – جامعه dev

Deepseek-R1: راهنمای الزامات و استقرار

Deepseek-R1 یک مدل استدلال پیشرفته است که معیارهای جدیدی را در حل مسئله پیچیده ، به ویژه در ریاضیات ، علوم و برنامه نویسی ، تعیین کرده است. عملکرد آن با مدل O1 OpenAi قابل مقایسه است و تحت مجوز MIT در دسترس است و همکاری منبع باز و استفاده تجاری را ارتقا می بخشد.


انواع مدل و الزامات سخت افزاری

Deepseek-R1 در نسخه های مختلفی از جمله مدل های در مقیاس کامل و انواع مقطر بهینه شده برای قابلیت های سخت افزاری مختلف ارائه می شود.

مدل های در مقیاس کامل:

  • Deepseek-R1 و Deepseek-R1-Zero:

    • پارامترها: 71 میلیارد
    • شرط VRAM: تقریباً 1،342 گیگابایت
    • تنظیم توصیه شده: پیکربندی Multi-GPU ، مانند 16 GPU NVIDIA A100 با 80 گیگابایت

مدل های مقطر:

این نسخه ها برای حفظ قابلیت های استدلال قابل توجه ضمن کاهش تقاضای سخت افزار بهینه شده اند.

مدل پارامترهای (ب) نیاز VRAM (GB) GPU توصیه شده
Deepseek-r1-distill-qwen-1.5b 1.5 0.7 پوند nvidia rtx 3060 12 گیگابایت یا بالاتر
Deepseek-r1-still-qwen-7b 7 3.3 پوند nvidia rtx 3070 8 گیگابایت یا بالاتر
Deepseek-r1-distill-llama-8b 8 3.7 پوند nvidia rtx 3070 8 گیگابایت یا بالاتر
Deepseek-r1-distill-qwen-14b 14 6.5 پوند nvidia rtx 3080 10 گیگابایت یا بالاتر
Deepseek-r1-distill-qwen-32b 32 14.9 پوند nvidia rtx 4090 24 گیگابایت
Deepseek-r1-distill-llama-70b 70 32.7 پوند NVIDIA RTX 4090 24 گیگابایتی (x2)

اجرای Deepseek-R1 به صورت محلی

برای کاربران بدون دسترسی به تنظیمات چند GPU با کیفیت بالا ، مدل های مقطر یک جایگزین عملی ارائه می دهند. این مدل ها می توانند روی سخت افزار درجه مصرف کننده با ظرفیت های مختلف VRAM اجرا شوند.

با استفاده از اولاما:

Ollama ابزاری است که اجرای مدل های هوش مصنوعی منبع باز را به صورت محلی تسهیل می کند.

  1. نصب:

  2. استقرار مدل:

    • دستور را باز کنید و دستور زیر را اجرا کنید تا مدل تقطیر شده 8B را اجرا کنید:
     ollama run deepseek-r1:8b
    
  • برای اندازه های دیگر مدل ، جایگزین کنید 8b با اندازه پارامتر مدل مورد نظر (به عنوان مثال ، 1.5bبا 14b).
  1. تعامل API:

     ollama serve
    
  • ارسال درخواست ها با استفاده از curl:

     curl -X POST http://localhost:11434/api/generate -d '{
       "model": "deepseek-r1",
       "prompt": "Your question or prompt here"
     }'
    
  • تعویض کردن "Your question or prompt here" با ارسال واقعی خود


پایان

DeepSeek-R1 طیف وسیعی از مدل ها را برای تنظیم تنظیمات سخت افزاری مختلف ارائه می دهد. در حالی که مدل های در مقیاس کامل به منابع محاسباتی قابل توجهی نیاز دارند ، نسخه های مقطر گزینه های قابل دسترسی را برای کاربران با قابلیت سخت افزاری محدود فراهم می کنند. ابزارهایی مانند اولاما روند اجرای این مدل ها را به صورت محلی ساده تر می کنند و مخاطبان گسترده تری را قادر می سازد تا از قابلیت های استدلال پیشرفته استفاده کنند.

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا