برنامه نویسی

اولین عامل هوش مصنوعی خود را با LangChain و APIهای باز بسازید

Summarize this content to 400 words in Persian Lang من مطمئن هستم که همه ما در مورد عوامل هوش مصنوعی شنیده ایم و مطمئن نیستیم که از کجا شروع کنیم. نگران نباشید – شما در جای درستی هستید! در این مقاله قصد دارم شما را با دنیای عوامل هوش مصنوعی آشنا کنم و قدم به قدم نحوه ساخت اولین عامل هوش مصنوعی خود را با LangChain به شما آموزش دهم.

LangChain یک ابزار فوق العاده مفید برای اتصال مدل های هوش مصنوعی به API های مختلف خروجی است. در این آموزش راهنما، Agent API خود را به اطلاعات آب و هوای Open API 🌦️ متصل می کنیم تا تعاملی تر و کاربردی تر شود.

تا زمانی که کارمان تمام شود، شما عامل هوش مصنوعی خود را خواهید داشت که می‌تواند چت کند، داده‌های زنده دریافت کند، و کارهای بیشتری انجام دهد!

🤖 عامل هوش مصنوعی چیست؟ بیایید آن را خراب کنیم

عوامل هوش مصنوعی مانند یک دستیار مجازی سوپرشارژ هستند که همیشه آماده کمک هستند. این عامل هوش مصنوعی خواه پاسخگویی به سوالات شما، انجام کارهای کوچک برای شما یا حتی تصمیم گیری باشد، مانند داشتن یک کمک دیجیتالی در اختیار شماست. می تواند همه کارها را انجام دهد، از واکشی داده گرفته تا ایجاد محتوا یا حتی مکالمه با شما. خیلی باحاله، درسته؟😎

عوامل هوش مصنوعی فقط ثابت نیستند، بلکه به لطف قدرت مدل‌های زبان بزرگ (LLM) مانند GPT-3 یا GPT-4، هوشمند، پویا و قادر به کار به تنهایی هستند.

🧩 LangChain چیست؟ یک نیروگاه مناسب برای توسعه‌دهندگان

LangChain یک چارچوب مناسب برای توسعه‌دهندگان است که مدل‌های هوش مصنوعی (مانند GPT-3 یا GPT-4) را با ابزارها و داده‌های خارجی متصل می‌کند. این به ایجاد گردش‌های کاری ساختاریافته کمک می‌کند که در آن عامل هوش مصنوعی می‌تواند با APIها یا پایگاه‌های داده برای واکشی اطلاعات صحبت کند.

چرا LangChain؟

آسان برای استفاده: ادغام مدل های زبان بزرگ با ابزارهای دیگر را ساده می کند.

مقیاس پذیر: شما می توانید هر چیزی را بسازید، از یک چت بات اولیه تا یک سیستم پیچیده چند عاملی.

جامعه محور: با یک جامعه بزرگ و فعال، LangChain اسناد، نمونه‌ها و پشتیبانی فراوانی را ارائه می‌کند.

در مورد ما، ما در حال ساخت یک عامل ساده هستیم که می تواند به سوالات پاسخ دهد و برای خنک تر کردن همه چیز، داده های بلادرنگ مانند اطلاعات آب و هوا را بازیابی می کند.

مرحله 1: تنظیم محیط

در این بخش، اجازه دهید محیط توسعه خود را تنظیم کنیم.

1.1 پایتون را نصب کنید (اگر قبلا نصب نکرده اید)

مطمئن شوید که پایتون را نصب کرده اید. می توانید آن را از python.org دانلود کنید. پس از نصب، آن را با اجرای:

python –version

1.2 LangChain را نصب کنید
حالا بیایید LangChain را از طریق pip نصب کنیم. ترمینال خود را باز کنید و اجرا کنید:

pip install langchain

1.3 OpenAI را نصب کنید
ما همچنین از OpenAI API برای تعامل با GPT-3 استفاده خواهیم کرد، بنابراین باید کلاینت OpenAI Python را نصب کنید:

pip install openai

1.4 راه اندازی یک محیط مجازی (اختیاری)
این یک تمرین خوب است که در یک محیط مجازی کار کنید تا وابستگی های پروژه خود را جدا نگه دارید:

python -m venv langchain-env
source langchain-env/bin/activate # For Mac/Linux
# or for Windows
langchain-env\Scripts\activate

مرحله 2: ساختن اولین عامل هوش مصنوعی

اکنون بخش سرگرم کننده فرا می رسد – بیایید اولین عامل هوش مصنوعی خود را بسازیم! در این مرحله، عاملی ایجاد می کنیم که می تواند با استفاده از مدل زبان OpenAI یک مکالمه ساده داشته باشد. برای این کار به یک کلید API از OpenAI نیاز دارید که می توانید با ثبت نام در OpenAI آن را دریافت کنید.

در اینجا یک قطعه کوچک برای ایجاد اولین نماینده خود آورده شده است:

from langchain.llms import OpenAI

# Initialize the model
llm = OpenAI(api_key=”your-openai-api-key”)

# Define a prompt for the agent
prompt = “What is the weather like in New York today?”

# Get the response from the AI agent
response = llm(prompt)
print(response)

در این کد، ما یک عامل بسیار ابتدایی را راه‌اندازی می‌کنیم که یک اعلان (سوالی در مورد آب و هوا) می‌گیرد و پاسخی را از GPT-3 برمی‌گرداند. در این مرحله، عامل در واقع داده های آب و هوای زنده را بازیابی نمی کند – بلکه فقط پاسخی را بر اساس دانش مدل زبان ایجاد می کند.

مرحله 3: اتصال به یک API باز (API آب و هوا)

اکنون بیایید با ادغام داده های بلادرنگ در نماینده خود، کارها را افزایش دهیم. ما قصد داریم آن را به یک API آب و هوا متصل کنیم، که به عامل اجازه می‌دهد اطلاعات آب و هوای زنده را بازیابی کند.

در اینجا نحوه انجام آن آمده است.

یک کلید API از OpenWeather دریافت کنید
به OpenWeather بروید و برای یک کلید API رایگان ثبت نام کنید.
درخواست API را انجام دهید
در این قسمت بعدی، عامل خود را طوری تغییر می‌دهیم که داده‌های آب و هوای زنده را از API OpenWeather دریافت کند و سپس آن را به عنوان بخشی از مکالمه خروجی بگیرد.

import requests
from langchain.llms import OpenAI

def get_weather(city):
api_key = “your-openweather-api-key”
url = f”http://api.openweathermap.org/data/2.5/weather?q={city}&appid={api_key}&units=metric”
response = requests.get(url).json()

# Extract relevant data
temp = response[‘main’][‘temp’] description = response[‘weather’][0][‘description’] return f”The current temperature in {city} is {temp}°C with {description}.”

# Now use the LangChain LLM model to integrate this data
llm = OpenAI(api_key=”your-openai-api-key”)
city = “New York”
weather_info = get_weather(city)
prompt = f”Tell me about the weather in {city}: {weather_info}”

response = llm(prompt)
print(response)

در این کد:

تابع get_weather درخواستی را به OpenWeather API ارسال می کند و داده هایی مانند دما و توضیحات آب و هوا را استخراج می کند.

سپس پاسخ در خروجی عامل هوش مصنوعی ادغام می شود و به نظر می رسد که عامل اطلاعات به روز آب و هوا را ارائه می دهد.

مرحله 4: استقرار عامل هوش مصنوعی به عنوان یک API

اکنون که نماینده ما می‌تواند چت کند و داده‌های زنده را بازیابی کند، بیایید با تبدیل آن به یک API، آن‌ها را در دسترس دیگران قرار دهیم. به این ترتیب، هر کسی می تواند از طریق درخواست های HTTP با عامل تعامل داشته باشد.

استفاده از FastAPI برای استقرار

FastAPI یک چارچوب وب قدرتمند است که ایجاد API در پایتون را آسان می کند. در اینجا نحوه استقرار عامل خود با استفاده از FastAPI آمده است:

from fastapi import FastAPI
from langchain.llms import OpenAI
import requests

app = FastAPI()

def get_weather(city):
api_key = “your-openweather-api-key”
url = f”http://api.openweathermap.org/data/2.5/weather?q={city}&appid={api_key}&units=metric”
response = requests.get(url).json()
temp = response[‘main’][‘temp’] description = response[‘weather’][0][‘description’] return f”The weather in {city} is {temp}°C with {description}.”

llm = OpenAI(api_key=”your-openai-api-key”)

@app.get(“/ask”)
def ask_question(city: str):
weather = get_weather(city)
prompt = f”Tell me about the weather in {city}: {weather}”
response = llm(prompt)
return {“response”: response}
Now you can run this API locally and access it by sending HTTP requests to http://localhost:8000/ask?city=New York.

نتیجه گیری: بعد چی؟

تبریک می‌گوییم! شما همچنین عامل خود را به عنوان یک API که دیگران می توانند با آن تعامل داشته باشند، مستقر کرده اید. از اینجا، امکانات بی‌پایان است—شما می‌توانید APIهای بیشتری را ادغام کنید، سیستم‌های چند عاملی بسازید، یا آن را برای استفاده گسترده‌تر بر روی پلتفرم‌های ابری مستقر کنید.🚀

اگر برای کارهای بیشتر آماده‌اید، ویژگی‌های پیشرفته LangChain مانند مدیریت حافظه برای مکالمات طولانی را کاوش کنید یا برای انجام کارهای پیچیده‌تر در سیستم‌های چند عاملی شیرجه بزنید.

از آزمایش کردن لذت ببرید و نظرات خود را در نظرات زیر بیان کنید!💬

من مطمئن هستم که همه ما در مورد عوامل هوش مصنوعی شنیده ایم و مطمئن نیستیم که از کجا شروع کنیم. نگران نباشید – شما در جای درستی هستید! در این مقاله قصد دارم شما را با دنیای عوامل هوش مصنوعی آشنا کنم و قدم به قدم نحوه ساخت اولین عامل هوش مصنوعی خود را با LangChain به شما آموزش دهم.

LangChain یک ابزار فوق العاده مفید برای اتصال مدل های هوش مصنوعی به API های مختلف خروجی است. در این آموزش راهنما، Agent API خود را به اطلاعات آب و هوای Open API 🌦️ متصل می کنیم تا تعاملی تر و کاربردی تر شود.

تا زمانی که کارمان تمام شود، شما عامل هوش مصنوعی خود را خواهید داشت که می‌تواند چت کند، داده‌های زنده دریافت کند، و کارهای بیشتری انجام دهد!

🤖 عامل هوش مصنوعی چیست؟ بیایید آن را خراب کنیم

عوامل هوش مصنوعی مانند یک دستیار مجازی سوپرشارژ هستند که همیشه آماده کمک هستند. این عامل هوش مصنوعی خواه پاسخگویی به سوالات شما، انجام کارهای کوچک برای شما یا حتی تصمیم گیری باشد، مانند داشتن یک کمک دیجیتالی در اختیار شماست. می تواند همه کارها را انجام دهد، از واکشی داده گرفته تا ایجاد محتوا یا حتی مکالمه با شما. خیلی باحاله، درسته؟😎

عوامل هوش مصنوعی فقط ثابت نیستند، بلکه به لطف قدرت مدل‌های زبان بزرگ (LLM) مانند GPT-3 یا GPT-4، هوشمند، پویا و قادر به کار به تنهایی هستند.

🧩 LangChain چیست؟ یک نیروگاه مناسب برای توسعه‌دهندگان

LangChain یک چارچوب مناسب برای توسعه‌دهندگان است که مدل‌های هوش مصنوعی (مانند GPT-3 یا GPT-4) را با ابزارها و داده‌های خارجی متصل می‌کند. این به ایجاد گردش‌های کاری ساختاریافته کمک می‌کند که در آن عامل هوش مصنوعی می‌تواند با APIها یا پایگاه‌های داده برای واکشی اطلاعات صحبت کند.

چرا LangChain؟

  • آسان برای استفاده: ادغام مدل های زبان بزرگ با ابزارهای دیگر را ساده می کند.
  • مقیاس پذیر: شما می توانید هر چیزی را بسازید، از یک چت بات اولیه تا یک سیستم پیچیده چند عاملی.
  • جامعه محور: با یک جامعه بزرگ و فعال، LangChain اسناد، نمونه‌ها و پشتیبانی فراوانی را ارائه می‌کند.

در مورد ما، ما در حال ساخت یک عامل ساده هستیم که می تواند به سوالات پاسخ دهد و برای خنک تر کردن همه چیز، داده های بلادرنگ مانند اطلاعات آب و هوا را بازیابی می کند.

مرحله 1: تنظیم محیط

در این بخش، اجازه دهید محیط توسعه خود را تنظیم کنیم.

1.1 پایتون را نصب کنید (اگر قبلا نصب نکرده اید)

مطمئن شوید که پایتون را نصب کرده اید. می توانید آن را از python.org دانلود کنید. پس از نصب، آن را با اجرای:

python --version

1.2 LangChain را نصب کنید
حالا بیایید LangChain را از طریق pip نصب کنیم. ترمینال خود را باز کنید و اجرا کنید:

pip install langchain

1.3 OpenAI را نصب کنید
ما همچنین از OpenAI API برای تعامل با GPT-3 استفاده خواهیم کرد، بنابراین باید کلاینت OpenAI Python را نصب کنید:

pip install openai

1.4 راه اندازی یک محیط مجازی (اختیاری)
این یک تمرین خوب است که در یک محیط مجازی کار کنید تا وابستگی های پروژه خود را جدا نگه دارید:

python -m venv langchain-env
source langchain-env/bin/activate   # For Mac/Linux
# or for Windows
langchain-env\Scripts\activate

مرحله 2: ساختن اولین عامل هوش مصنوعی

اکنون بخش سرگرم کننده فرا می رسد – بیایید اولین عامل هوش مصنوعی خود را بسازیم! در این مرحله، عاملی ایجاد می کنیم که می تواند با استفاده از مدل زبان OpenAI یک مکالمه ساده داشته باشد. برای این کار به یک کلید API از OpenAI نیاز دارید که می توانید با ثبت نام در OpenAI آن را دریافت کنید.

در اینجا یک قطعه کوچک برای ایجاد اولین نماینده خود آورده شده است:

from langchain.llms import OpenAI

# Initialize the model
llm = OpenAI(api_key="your-openai-api-key")

# Define a prompt for the agent
prompt = "What is the weather like in New York today?"

# Get the response from the AI agent
response = llm(prompt)
print(response)

در این کد، ما یک عامل بسیار ابتدایی را راه‌اندازی می‌کنیم که یک اعلان (سوالی در مورد آب و هوا) می‌گیرد و پاسخی را از GPT-3 برمی‌گرداند. در این مرحله، عامل در واقع داده های آب و هوای زنده را بازیابی نمی کند – بلکه فقط پاسخی را بر اساس دانش مدل زبان ایجاد می کند.

مرحله 3: اتصال به یک API باز (API آب و هوا)

اکنون بیایید با ادغام داده های بلادرنگ در نماینده خود، کارها را افزایش دهیم. ما قصد داریم آن را به یک API آب و هوا متصل کنیم، که به عامل اجازه می‌دهد اطلاعات آب و هوای زنده را بازیابی کند.

در اینجا نحوه انجام آن آمده است.

  1. یک کلید API از OpenWeather دریافت کنید
    به OpenWeather بروید و برای یک کلید API رایگان ثبت نام کنید.

  2. درخواست API را انجام دهید
    در این قسمت بعدی، عامل خود را طوری تغییر می‌دهیم که داده‌های آب و هوای زنده را از API OpenWeather دریافت کند و سپس آن را به عنوان بخشی از مکالمه خروجی بگیرد.

import requests
from langchain.llms import OpenAI

def get_weather(city):
    api_key = "your-openweather-api-key"
    url = f"http://api.openweathermap.org/data/2.5/weather?q={city}&appid={api_key}&units=metric"
    response = requests.get(url).json()

    # Extract relevant data
    temp = response['main']['temp']
    description = response['weather'][0]['description']
    return f"The current temperature in {city} is {temp}°C with {description}."

# Now use the LangChain LLM model to integrate this data
llm = OpenAI(api_key="your-openai-api-key")
city = "New York"
weather_info = get_weather(city)
prompt = f"Tell me about the weather in {city}: {weather_info}"

response = llm(prompt)
print(response)

در این کد:

تابع get_weather درخواستی را به OpenWeather API ارسال می کند و داده هایی مانند دما و توضیحات آب و هوا را استخراج می کند.

سپس پاسخ در خروجی عامل هوش مصنوعی ادغام می شود و به نظر می رسد که عامل اطلاعات به روز آب و هوا را ارائه می دهد.

مرحله 4: استقرار عامل هوش مصنوعی به عنوان یک API

اکنون که نماینده ما می‌تواند چت کند و داده‌های زنده را بازیابی کند، بیایید با تبدیل آن به یک API، آن‌ها را در دسترس دیگران قرار دهیم. به این ترتیب، هر کسی می تواند از طریق درخواست های HTTP با عامل تعامل داشته باشد.

استفاده از FastAPI برای استقرار

FastAPI یک چارچوب وب قدرتمند است که ایجاد API در پایتون را آسان می کند. در اینجا نحوه استقرار عامل خود با استفاده از FastAPI آمده است:

from fastapi import FastAPI
from langchain.llms import OpenAI
import requests

app = FastAPI()

def get_weather(city):
    api_key = "your-openweather-api-key"
    url = f"http://api.openweathermap.org/data/2.5/weather?q={city}&appid={api_key}&units=metric"
    response = requests.get(url).json()
    temp = response['main']['temp']
    description = response['weather'][0]['description']
    return f"The weather in {city} is {temp}°C with {description}."

llm = OpenAI(api_key="your-openai-api-key")

@app.get("/ask")
def ask_question(city: str):
    weather = get_weather(city)
    prompt = f"Tell me about the weather in {city}: {weather}"
    response = llm(prompt)
    return {"response": response}
Now you can run this API locally and access it by sending HTTP requests to http://localhost:8000/ask?city=New York.

نتیجه گیری: بعد چی؟

تبریک می‌گوییم! شما همچنین عامل خود را به عنوان یک API که دیگران می توانند با آن تعامل داشته باشند، مستقر کرده اید. از اینجا، امکانات بی‌پایان است—شما می‌توانید APIهای بیشتری را ادغام کنید، سیستم‌های چند عاملی بسازید، یا آن را برای استفاده گسترده‌تر بر روی پلتفرم‌های ابری مستقر کنید.🚀

اگر برای کارهای بیشتر آماده‌اید، ویژگی‌های پیشرفته LangChain مانند مدیریت حافظه برای مکالمات طولانی را کاوش کنید یا برای انجام کارهای پیچیده‌تر در سیستم‌های چند عاملی شیرجه بزنید.

از آزمایش کردن لذت ببرید و نظرات خود را در نظرات زیر بیان کنید!💬

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا