برنامه نویسی

ایجاد چند جانباز در آنجا به روشی ساده

من در اینجا مجموعه ای از مقاله ها را شروع می کنم که از ابتدایی ترین تا پیشرفته ترین در مورد جهان می نویسم هوش مصنوعی (AI)بشر در حال حاضر ، وقتی این مقاله را می نویسم ، دیگر مستقیماً با آنجا کار نمی کنم ، اما این من است PDI (برنامه توسعه فردی) ، یعنی چیزی که من مطالعه می کنم زیرا می دانم آینده خواهد بود.

بنابراین ، در این مقاله ، من به شما یاد می دهم که چگونه نه تنها یک چت بابات ساده را توسعه دهید (زیرا این هیچ ارزش در بازار ندارد) ، بلکه سه عامل هوش مصنوعی با استفاده از چارچوب لانگچین اشمیه پیتونبشر

ایده این است که من می توانم در مورد پیوند اینترنتی خاصی که به آن می دهم از آنجا بپرسم. نماینده انجام خواهد داد خراش این URL زمینه صفحه + سوال شما را به هوش مصنوعی می برد و سپس جواب شما را باز می گرداند و مانع از خواندن کل سایت یا خلاصه کردن آن به صورت دستی می شود. عامل سوم هوش مصنوعی مسئولیت فراخوانی تابعی را بر عهده خواهد داشت که کد پایتون را در صورت تقاضا قالب بندی می کند. حال ممکن است از خود بپرسید: چگونه AI می تواند این توابع را از طریق سؤالات متمایز کند؟ هنوز با من! 👇


جریان پروژه

این طرح (مگا هنری) نحوه عملکرد آن را توضیح می دهد. در لانگچین آنچه را ما صدا می کنیم ابزار، که به معنای واقعی کلمه ابزارهایی هستند که می توانند هم یک عملکرد ساده پایتون باشند ، بدون وجود ، و عملکردی که در آنجا دخیل است. با ابزارهای خود می توانیم نوعی ایجاد کنیم کیت ابزار (ابزار ابزار)بشر با استفاده از برخی از کارکردهای Langchain ، لیستی از این ابزارها را منتقل می کنیم و ، زیر پارچههوش مصنوعی سؤال شما را شامل می شود و تصمیم می گیرد که بهترین ابزار (عامل) برای پاسخگویی به کدام بهترین ابزار باشد. باحال ، نه؟

اکنون که ایده و عملکرد کلی را توضیح می دهیم ، بیایید به کد برویم! در پایان مقاله ، من قبلاً در خودم منتشر کردم لوب مخزن با کد کامل. اما ابتدا ، بیایید به قطعات برویم تا بهتر درک کنیم.


ساختار پرونده پروژه

📁 projeto-langchain
│── .env                # Armazena a chave da OpenAI (ainda não tenho poder computacional para rodar um LLaMA 3.3 70B 😅)
│── .gitignore          # Evita subir o .env e expor minha chave.
│── agents.py          # Concentra as funções dos agentes (tools) e a função main.
│── scrapper.py        # Função que utiliza BeautifulSoup para raspagem de dados da URL, caso seja fornecida na pergunta.
│── README.md          # Explicação do projeto, requisitos e como utilizá-lo.
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

شروع با ساده ترین ، scrapper.py:

import requests
from bs4 import BeautifulSoup

def get_text_from_url(url: str) -> str:
    response = requests.get(url)
    if response.status_code == 200:
        soup = BeautifulSoup(response.text, 'html.parser')
        for script in soup(['script', 'style']):
            script.extract()
        text = soup.get_text()
        return "\n".join(line.strip() for line in text.splitlines() if line.strip())
    return f"Erro ao acessar a URL. Status Code: {response.status_code}"
حالت تمام صفحه را وارد کنید

از حالت تمام صفحه خارج شوید

این کد تابعی به نام را تعریف می کند get_text_from_url چه:

  1. یک نیاز HTTP را دریافت می کند برای دریافت محتوای صفحه.
  2. در صورت موفقیت آمیز درخواست بررسی می شود (status_code 200).
  3. USA زیبا برای انجام تجزیه و تحلیل html.
  4. حذف به عنوان برچسب ها

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا