برنامه نویسی

استفاده از Deepseek در کد Visual Studio به صورت رایگان

نبرد IAS به طور فزاینده ای شدید است ، و اکنون با مدل جدید Deepseek ، گزینه دیگری برای فناوری منبع باز داریم. در این آموزش خواهیم دید که چگونه از این مدل استفاده کنیم.

در اعماق

در اعماق


ابتدا باید نرم افزار را بارگیری کنیم اولاما، که CLI را برای کار با مدل های مختلف LLM فراهم می کند.

اولاما

📥 دانلود Ollama:

🔗 https://ollama.com/download

پس از نصب ، ترمینال را باز کرده و با:

ollama -v
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

بارگیری مدل LLM

Deepseek نسخه های مختلفی با اندازه های متنوع دارد. در این مثال ، ما از Deepseek-R1: 1.5bزیرا به رم حافظه کمتری نیاز دارد. گزینه های دیگر را در لینک زیر مشاهده کنید:

مدل های موجود

🔗 https://ollama.com/library/deepseek-r1/tags

برای بارگیری مدل ، اجرا:

ollama pull deepseek-r1:1.5b
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

پس از بارگیری ، اطمینان حاصل کنید که مدل به درستی نصب شده است:

ollama list
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

آزمایش درخواست به اولاما

برای آزمایش پاسخ مدل ، از دستور زیر استفاده کنید پیچ:

curl -X POST http://localhost:11434/api/generate \
  -H "Content-Type: application/json" \
  -d '{
        "model": "deepseek-r1:1.5b",
        "prompt": "Hello world!"
      }'
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

یا اگر در آن باشد پودر، استفاده کنید:

$body = @{
    model = "deepseek-r1:1.5b"
    prompt = "Hello world!"
} | ConvertTo-Json -Depth 10

Invoke-WebRequest -Uri "http://localhost:11434/api/generate" `
  -Method Post `
  -Body $body `
  -ContentType "application/json"
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

اگر همه چیز به درستی کار کند ، پاسخی دریافت خواهید کرد. برای بررسی اینکه مدل در حال اجرا است ، انجام دهید:

ollama ps
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

اولاما در حال دویدن


حال ، بیایید ادغام کنیم در اعماق به در مقابل کد، اجازه استفاده از a رایگان خودکار و با کیفیت بالا!

نصب پسوند ادامه دادن

بارگیری را بارگیری و نصب کنید ادامه دادن در کد VS. مطمئن شدن هرگونه پسوند AI دیگر را حذف کنید برای جلوگیری از درگیری

پسوند ادامه دارد

🔗 پسوند ادامه:

https://marketplace.visualstudio.com/items؟itemname=continue.continue

پیکربندی پسوند

پس از نصب مدل ، به تنظیمات بروید و پرونده را جایگزین کنید config.json با محتوای زیر (تغییر نشان در صورت لزوم از مدل):

{
  "models": [
    {
      "title": "deepseek-r1:1.5b",
      "model": "deepseek-r1:1.5b",
      "provider": "ollama"
    }
  ],
  "tabAutocompleteModel": {
    "title": "deepseek-r1:1.5b",
    "model": "deepseek-r1:1.5b",
    "provider": "ollama",
    "apiBase": "http://127.0.0.1:11434"
  },
  "tabAutocompleteOptions": {
    "debounceDelay": 500,
    "maxPromptTokens": 1500,
    "disableInFiles": [
      "*.md"
    ]
  },
  "contextProviders": [
    {
      "name": "codebase",
      "params": {
        "nRetrieve": 25,
        "nFinal": 5,
        "useReranking": true
      }
    }
  ]
}
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

🔗 تنظیمات بیشتر در مورد پسوند:

https://docs.continue.dev/customize/deep-dives/autocomplete

آزمایش خودکار

اکنون ، فقط کد را در VS Code وارد کنید و Deepseek Autocomplete اقدام خواهد کرد! برای تست ، یک فایل جدید باز کرده و برخی از خطوط کد را بنویسید.

🎉 اکنون شما یک خودکار رایگان و قدرتمند در کد VS خود دارید!

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا