ساختن برنامه های عامل هوشمند با آمازون Bedrock و Nova

معماری AI عامل AI چیست؟
من وقت شما را با یک معرفی طولانی و کرکی در مورد چگونگی تغییر هوش مصنوعی جهان تلف نمی کنم. بیایید مستقیماً به این نکته رسیدیم: معماری های Aticic AI اساساً با الگوی پاسخ سریع که احتمالاً با مدل های زبان استفاده می کنید متفاوت هستند.
در یک معماری عامل ، AI فقط پاسخی به ورودی شما نشان نمی دهد. در عوض ، این به عنوان یک عامل خودمختار عمل می کند که وظایف پیچیده را به مراحل می اندازد ، با فراخوانی ابزارهای مناسب ، آن مراحل را انجام می دهد و از نتایج برای اطلاع از اقدامات بعدی استفاده می کند. این را به عنوان تفاوت بین سؤال از کسی و استخدام آنها برای انجام کار فکر کنید – نماینده در واقع به جای پاسخ دادن به طرف شما کار می کند.
آمازون Bedrock و خانواده Nova Model ارائه AWS در این فضا هستند. Bedrock زیرساخت های مدیریت شده و ارکستراسیون را فراهم می کند ، در حالی که مدل های NOVA به عنوان هوش عمل می کنند. در این مقاله به چگونگی همکاری این فناوری ها ، الگوهای معماری برای اجرای سیستم های عامل و ملاحظات عملی برای ساختن آنها در مقیاس ، می پردازیم.
درک بستر آمازون و خانواده مدل نوا
آمازون Bedrock خدمات کاملاً مدیریت شده AWS برای ساخت برنامه های AI تولیدی است. این یک API یکپارچه برای دسترسی به مدل های بنیادی فراهم می کند ، اما این فقط یک دروازه مدل نیست ، بلکه یک بستر جامع برای ساخت ، استقرار و اجرای برنامه های AI بدون مدیریت زیرساخت است.
خانواده آمازون نوا مجموعه اختصاصی مدل های بنیاد AWS است که چندین نوع برای موارد مختلف استفاده بهینه شده است:
مدل | نوع | پنجره متن | مولتی مدال؟ | بهترین برای | قیمت گذاری |
---|---|---|---|---|---|
میکرو جدید | فقط متن | 32k نشانه | هیچ | کارهای ساده ، طبقه بندی ، حجم بالا | $ 0.000035/1k نشانه های ورودی ، 0.00014 دلار/1K توکن خروجی |
lite جدید | چند قسمت | نشانه های 128K | بله (متن ، تصویر ، فیلم) | عملکرد متعادل ، کارهای معمول عامل | 0.00006 دلار/1k نشانه های ورودی ، 0.00024 دلار/1k توکن خروجی |
طرفدار جدید | چند قسمت | حداکثر 300k نشانه | بله (متن ، تصویر ، فیلم) | استدلال پیچیده ، عوامل پیشرفته | $ 0.0008/1k نشانه های ورودی ، 0.0032 دلار/1K توکن خروجی |
چه چیزی این مدل ها را به ویژه برای برنامه های عامل مناسب می کند؟ اول ، آنها برای تماس با عملکرد بهینه شده اند: امکان خروجی درخواست های JSON ساختاری برای ابزارهای خارجی. دوم ، آن پنجره های زمینه بزرگ به نمایندگان اجازه می دهند تاریخچه مکالمه گسترده و دستورالعمل های دقیق را حفظ کنند. سوم ، قابلیت های چند مدلی (در Lite و Pro) به نمایندگان اجازه می دهد تصاویر و فیلم ها را در کنار متن پردازش کنند.
در زیر کاپوت ، مقیاس های بستر منابع را به طور خودکار بر اساس تقاضا محاسبه می کنند. هنگامی که نماینده شما به طور ناگهانی با سنبله ترافیکی برخورد می کند ، AWS منابع اضافی را برای حفظ عملکرد ارائه می دهد. هیچ زیرساختی برای مدیریت شما وجود ندارد ، فقط API ها تماس بگیرید.
معماری عامل: فراتر از سیستم های پاسخ سریع سریع
بنابراین دقیقاً چه چیزی معماری های عامل را با برنامه های معمولی LLM متفاوت می کند؟ بگذارید آن را با یک قیاس عملی تجزیه کنم.
یک برنامه سنتی LLM مانند سؤال از شخصی در یک میز اطلاعات است: شما انتظار دارید که آنها بر اساس آنچه می دانند پاسخ دهند ، اما آنها میز خود را ترک نمی کنند تا کاری را برای شما انجام دهند. یک معماری عامل بیشتر شبیه به دستیار شخصی است: آنها نه تنها به سؤالات شما پاسخ می دهند ، بلکه تماس تلفنی نیز برقرار می کنند ، اطلاعات را جستجو می کنند و از طرف شما اقدام می کنند.
پایه و اساس این رویکرد همان چیزی است که ما آن را حلقه Observe-Act-Observe می نامیم:
-
دلیل: نماینده وضعیت فعلی را تجزیه و تحلیل می کند و تصمیم می گیرد که در مرحله بعدی چه کاری انجام دهد
-
ACT: این عمل را با فراخوانی یک ابزار/API خارجی انجام می دهد
-
مشاهده کنید: نتیجه آن عمل را پردازش می کند
-
حلقه: بر اساس آنچه مشاهده کرد ، دوباره در مورد مرحله بعدی دلایل دارد
این چرخه تا زمانی که نماینده تعیین کند کار را انجام داده است ادامه می یابد. این شبیه به نحوه نزدیک شدن به یک کار پیچیده است: شما مشکلات را در یک جهش حل نمی کنید ، اما از طریق یک سری مراحل ، ارزیابی بعد از هر یک.
در اینجا نحوه ترجمه این به پیاده سازی های AWS آورده شده است. هنگامی که شما یک عامل را در بستر می سازید ، در اصل تعریف می کنید که چه ابزارهایی (AWS این “گروه های اکشن” را می نامد) که عامل می تواند از آن استفاده کند ، چه منابع داده (پایه های دانش) می توانند آن را ارجاع دهند و چه دستورالعمل هایی رفتار خود را راهنمایی می کنند. ارکستراسیون واقعی ، تصمیم گیری در مورد استفاده از ابزاری برای استفاده از زمان و زنجیر کردن مراحل با هم ، توسط زمان اجرای عامل Bedrock انجام می شود.
این رویکرد مزایای روشنی دارد. یک نماینده می تواند درخواست هایی مانند “Find Me Me Flights to New York را آخر هفته آینده ، بررسی پیش بینی آب و هوا و پیشنهاد برخی از هتل ها در نزدیکی پارک مرکزی” ، درخواست کند ، درخواستی که انجام آن در یک عکس غیرممکن است. با شکستن آن به مراحل (پروازهای جستجو ، بررسی آب و هوا ، یافتن هتل ها) و فراخوانی API برای هر قطعه داده ، نماینده می تواند یک پاسخ جامع را جمع کند.
اما این رویکرد بدون تجارت نیست. سیستم های عامل برای پیکربندی پیچیده تر هستند ، به طور بالقوه کندتر (از آنجا که چندین مرحله و تماس های API به زمان می رسد) و به طور کلی از نظر استفاده از توکن و هزینه های محاسبه گران تر هستند. شما در حال پرداخت مراحل استدلال اضافی و تماس های API هستید که در پشت صحنه اتفاق می افتد.
عوامل بستر: بلوک های ساختمانی و معماری
یک عامل بستر از چندین مؤلفه کلیدی تشکیل شده است:
در مدل پایه مغز عامل شماست برای عوامل پیچیده ، Amazon Nova Pro به طور معمول با پنجره زمینه 300K Token Token و قابلیت های چند حالته خود بهترین انتخاب است. برای کارهای ساده تر یا برنامه های حساس به هزینه ، Nova Lite (توکن 128K) یا حتی Nova Micro (نشانه های 32K) ممکن است کافی باشد.
در دستورالعمل مشخص کنید که نماینده شما چه کاری انجام می دهد. این به طور موثری یک سیستم است که رفتار عامل را راهنمایی می کند. به عنوان مثال:
You are a travel planning assistant. Your job is to help users find flights, accommodations, and plan itineraries. You have access to flight search APIs, hotel databases, and weather forecasts. Always confirm dates and locations before making any bookings. If the user's request is ambiguous, ask clarifying questions.
گروههای عمل (آنچه سایر چارچوبها ممکن است “ابزارها” بنامند) تعریف کنید که نماینده شما در جهان چه کاری می تواند انجام دهد. هر گروه اکشن شامل:
به عنوان مثال ، یک عمل جستجوی پرواز ممکن است با این طرح تعریف شود:
openapi: "3.0.0"
info:
title: FlightSearchAPI
version: "1.0"
paths:
/flights/search:
get:
summary: Search for flights
description: Finds available flights between origin and destination on specified dates.
parameters:
- name: origin
in: query
required: true
schema:
type: string
description: Origin airport code (e.g., "JFK")
- name: destination
in: query
required: true
schema:
type: string
description: Destination airport code (e.g., "LAX")
- name: departDate
in: query
required: true
schema:
type: string
description: Departure date (YYYY-MM-DD)
- name: returnDate
in: query
required: false
schema:
type: string
description: Return date for round trip (YYYY-MM-DD)
و یک تابع لامبدا برای اجرای آن:
def lambda_handler(event, context):
# Extract parameters from the event
params = event.get('parameters', {})
origin = params.get('origin')
destination = params.get('destination')
depart_date = params.get('departDate')
return_date = params.get('returnDate')
# In a real implementation, you'd call your flight API
# For this example, we'll return mock data
flights = [
{
"airline": "Oceanic Airlines",
"flightNumber": "OA815",
"departureTime": "08:15",
"arrivalTime": "11:30",
"price": 299.99,
"currency": "USD"
},
{
"airline": "United Airlines",
"flightNumber": "UA456",
"departureTime": "13:45",
"arrivalTime": "17:00",
"price": 349.99,
"currency": "USD"
}
]
return {
"flights": flights,
"origin": origin,
"destination": destination,
"departDate": depart_date,
"returnDate": return_date
}
اختیاری پایه های دانش نماینده خود را به داده های خارجی وصل کنید. اینها برای یافتن اطلاعات مربوطه در منابع داده خود ، از تعبیه های بردار استفاده می کنند (که به طور معمول با تعبیه آمازون تایتان تولید می شوند). به عنوان مثال ، اگر شما یک دانش دانش از راهنماهای مسافرتی دارید و کاربر در مورد “کارهایی که باید در بارسلونا انجام شود” سؤال می کند ، نماینده می تواند به طور خودکار راهنمای بارسلونا را بازیابی و ارجاع دهد.
الگوهای سریع نحوه پردازش اطلاعات را در مراحل مختلف کنترل کنید. چهار الگوی اصلی وجود دارد:
-
پیش پردازش (اعتبارسنجی ورودی کاربر)
-
ارکستر (رانندگی تصمیم گیری)
-
پایگاه دانش (بازیابی رسیدگی)
-
پس از پردازش (پالایش جواب نهایی)
قدرت عوامل بستر در نحوه عملکرد این مؤلفه ها نهفته است. وقتی کاربر درخواست ارسال می کند ، نماینده:
-
ورودی کاربر را پردازش می کند
-
وارد یک حلقه ارکستراسیون می شود که به طور مکرر:
* Decides what to do next (answer directly or use a tool)
* If using a tool, calls the corresponding Lambda
* Processes the result and decides on next steps
- پس از اتمام کار ، پاسخ نهایی را ارائه می دهد
همه اینها به طور خودکار اتفاق می افتد ، کد شما فقط تماس می گیرد invoke_agent
و بستر ، ارکستراسیون پیچیده در پشت صحنه را کنترل می کند.
از کپی کردن راه حل های ابری متوقف شوید ، شروع کنید درک آنها با خبرنامه ساده AWS ، به بیش از 45،000 devs ، فناوری و متخصصان یاد بگیرید که چگونه می توانند راه حل های ابری را معمار کنند ، نه امتحانات را تصویب کنند.
پایگاه های دانش و نسل بازیابی
یکی از قدرتمندترین ویژگی های عوامل بستر ، توانایی آنها برای استفاده از داده های شما از طریق پایگاه های دانش است. این ادغام باعث می شود که نسل بازیابی (RAG) بازیابی شود ، جایی که نماینده پاسخ های خود را در اسناد خاص یا منابع داده نشان می دهد.
راه اندازی یک پایگاه دانش سه مرحله را شامل می شود:
-
منبع داده خود را آماده کنید. این می تواند اسناد در S3 ، یک پایگاه داده یا مخزن دیگر باشد. Bedrock از قالب های مختلف فایل از جمله PDF ، Docs Word ، Files Text ، HTML و موارد دیگر پشتیبانی می کند.
-
پیکربندی پایه دانش را ایجاد کنید ، مشخص کنید:
* The data source (e.g., an S3 bucket)
* An embedding model (e.g., Amazon Titan Embeddings)
* Chunk size and overlap for document splitting
* Metadata options for filtering
- پایگاه دانش را با نماینده خود مرتبط کنید.
هنگامی که کاربر از یک سؤال سؤال می کند ، نماینده ممکن است تعیین کند که به اطلاعات خارجی نیاز دارد. سپس:
-
پرس و جو جستجو را بر اساس سوال کاربر فرموله می کند
-
این پرس و جو را به پایگاه دانش ارسال می کند
-
بخش های مربوط به سند مربوطه را دریافت می کند
-
این بخش ها را در استدلال خود گنجانیده است
-
پاسخی را در این اطلاعات ایجاد می کند
یک تجارت با پایگاه های دانش وجود دارد: اضافه کردن محتوای بازیابی شده به منجر به افزایش تعداد نشانه ها و در نتیجه هزینه. سریع که ممکن است 500 نشانه باشد ، می تواند به راحتی با محتوای بازیابی شده به 2000+ توکن رشد کند. با این حال ، بهبود کیفیت پاسخ اغلب ارزش آن را دارد.
استراتژی chunking به طور قابل توجهی بر کیفیت بازیابی تأثیر می گذارد. اگر تکه ها خیلی بزرگ باشند ، حاوی اطلاعات بی ربط و نشانه های زباله هستند. اگر خیلی کوچک باشند ، ممکن است زمینه مهمی را از دست بدهند. نقطه شروع خوب 300-500 قطعه توکن با همپوشانی 10 ٪ است ، اما شما باید بر اساس محتوای خاص خود آزمایش کنید.
عملکرد و بهینه سازی هزینه
بیایید شماره ها صحبت کنیم: این واقعاً چقدر برای شما هزینه خواهد کرد و چگونه آن را منطقی نگه می دارید؟
هزینه اجرای برنامه های عامل در بستر به چندین عامل کاهش می یابد:
-
هزینه های دعوت مدل: این هزینه اصلی است. هر بار که عامل “فکر می کند” ، مدل پایه را فراخوانی می کند ، که برای هر نشانه هزینه می کند. برای مدل های نوا ، نشانه های ورودی (آنچه به مدل می فرستید) 8 برابر ارزان تر از نشانه های خروجی (آنچه تولید می کند) است. می توانید قیمت ها را در صفحه رسمی قیمت گذاری بستر مشاهده کنید.
-
هزینه های اجرای ابزار: هر ابزاری که نماینده با آن تماس می گیرد ، معمولاً از یک عملکرد لامبدا و احتمالاً سایر خدمات AWS استفاده می کند ، هر کدام هزینه های خاص خود را دارند.
-
هزینه های پایه دانش: این شامل بردار اولیه داده های شما ، ذخیره سازی تعبیه ها و عملیات بازیابی است.
در اینجا برخی از استراتژی ها برای بهینه سازی هزینه ها آورده شده است:
از مدل مناسب برای کار استفاده کنیدبشر Nova Micro بسیار ارزان تر از Nova Pro است ، بنابراین استفاده از آن را برای کارهای ساده تر در نظر بگیرید. شما حتی می توانید یک رویکرد آبشار را پیاده سازی کنید: ابتدا با میکرو سعی کنید و فقط برای پرس و جوهای پیچیده به طرفداران خود بپردازید.
اندازه های سریع را بهینه کنیدبشر دستورالعمل های خود را مختصر نگه دارید ، در صورت امکان تاریخ مکالمه را تر و تمیز کنید و فقط اطلاعات مربوطه را در بر بگیرید. هر توکن هزینه دارد.
از ذخیره سریعبشر انبارهای بستر قسمتهای مکرر از اعلان ها (مانند دستورالعمل ها یا تعاریف ابزار) را مکرر می کنند و حداکثر 90 ٪ تخفیف در آن نشانه های ذخیره شده ارائه می دهند. این می تواند به طور قابل توجهی هزینه های عوامل دارای الگوهای سازگار را کاهش دهد.
برای حجم بالا ، از توان تهیه شده استفاده کنیدبشر اگر به طور مداوم بسیاری از دعوت های عامل را اجرا می کنید ، توان ارائه شده در ازای تعهد ظرفیت ، نرخ های هر تکنیکی پایین تر را ارائه می دهد.
نظارت بر استفاده از توکنبشر هشدارهای CloudWatch را تنظیم کنید تا در صورت استفاده غیر منتظره از سنبله استفاده کنید ، که می تواند مسئله ای را با منطق نماینده شما یا سوء استفاده احتمالی نشان دهد.
در مورد عملکرد ، ارکستراسیون عامل به دلیل چندین مرحله درگیر ، تأخیر می افزاید. یک پرس و جو ساده ممکن است 2-3 ثانیه طول بکشد ، در حالی که یک مجموعه پیچیده که نیاز به تماس چند ابزار دارد می تواند 10+ ثانیه طول بکشد. در مورد این تأخیر با کاربران مقدم باشید و اجرای یک رابط جریان را در نظر بگیرید تا پیشرفت واسطه ای را نشان دهید.
الگوهای اجرای پیشرفته
فراتر از اصول ، چندین الگوی پیشرفته وجود دارد که می تواند توانایی و کارآیی عوامل شما را تقویت کند.
الگوهای سریع سفارشی: الگوهای پیش فرض بستر به خوبی کار می کنند ، اما سفارشی کردن آنها کنترل بیشتری به شما می دهد. به عنوان مثال ، شما ممکن است الگوی ارکستراسیون را اصلاح کنید تا مراحل استدلال خاص یا معیارهای تصمیم گیری را شامل شود:
Given the user's request and available tools, determine the best course of action by:
1. Identifying the specific information or task the user is requesting
2. Checking if you already have all necessary information in the context
3. If not, selecting the appropriate tool or asking a clarifying question
4. Once you have all information, providing a concise answer
Remember:
- Only use tools when necessary, not for information already provided
- Always verify flight details before proceeding with any booking
- If multiple actions are needed, handle them one at a time
آبشار مدل: شما می توانید یک رویکرد چند لایه را اجرا کنید که در آن نمایش داده شدگان ساده توسط مدل های سبک وزن اداره می شوند و فقط نمونه های پیچیده ای به مدلهای قدرتمندتر می رسند. این به طور مستقیم در بستر ساخته نشده است ، اما شما می توانید یک عملکرد روتر ایجاد کنید که نمایش داده های ورودی را تجزیه و تحلیل می کند و آنها را به عوامل مختلفی که از مدل های مختلف استفاده می کنند ، اعزام می کند.
زنجیره عوامل: برای گردش کار پیچیده ، ممکن است چندین عامل تخصصی ایجاد کنید که با هم کار می کنند. به عنوان مثال ، یک سیستم برنامه ریزی سفر ممکن است عوامل جداگانه ای برای جستجوی پرواز ، توصیه های هتل و ایجاد برنامه سفر داشته باشد. یک کنترلر بین این عوامل هماهنگ می شود و اطلاعات بین آنها را در صورت لزوم منتقل می کند.
روتین هیبریدی رویکرد: در حالی که RAG BASIC خوب کار می کند ، پیاده سازی های پیشرفته ممکن است چندین استراتژی بازیابی را با هم ترکیب کنند. به عنوان مثال ، شما می توانید سیستمی را اجرا کنید که ابتدا به جستجوی معنایی بپردازد ، اگر نتایج رضایت بخش نباشد ، به جستجوی کلمات کلیدی باز می گردد. این می تواند با شخصی سازی توابع Lambda شما که نتایج دانش دانش را پردازش می کنند ، پیاده سازی شود.
ادغام با گردش کار انسان: برای سناریوهای پر سر و صدا ، ادغام بررسی انسان را در گردش کار عامل در نظر بگیرید. این نماینده می تواند موارد روزمره را به صورت خودمختار اداره کند اما موارد پیچیده یا پرخطر را برای داوران انسان بالا می برد. این امر به منطق ارکستراسیون اضافی نیاز دارد ، که به طور معمول از طریق توابع مرحله یا یک سرویس گردش کار مشابه اجرا می شود.
امنیت و کنترل دسترسی
امنیت برای برنامه های عامل از اهمیت ویژه ای برخوردار است زیرا آنها به طور فعال از خدمات و دسترسی به داده ها استفاده می کنند. دریافت این اشتباه به این معنی است که نماینده شما به طور بالقوه می تواند کارهایی را که هرگز در نظر نگرفته اید انجام دهد.
سنگ بنای امنیت عامل Bedrock IAM است. هر نماینده با نقش اجرای IAM فعالیت می کند که مشخص می کند منابع AWS به آن دسترسی پیدا می کند. اصل حداقل امتیاز را به سختی دنبال کنید – فقط به مجوزهای خاص مورد نیاز برای کارکردهای نماینده و چیز دیگری اعطا کنید.
در اینجا مثالی برای یک نماینده برای یک نماینده وجود دارد که فقط نیاز به تماس با دو عملکرد خاص لامبدا دارد:
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Action": "lambda:InvokeFunction",
"Resource": [
"arn:aws:lambda:us-east-1:123456789012:function:FlightSearchFunction",
"arn:aws:lambda:us-east-1:123456789012:function:HotelSearchFunction"
]
}
]
}
علاوه بر این ، سیاست های مبتنی بر منابع را بر روی توابع Lambda خود اعمال کنید تا اطمینان حاصل کنید که آنها فقط توسط نماینده بستر شما قابل استفاده هستند:
{
"Version": "2012-10-17",
"Statement": [
{
"Effect": "Allow",
"Principal": {
"Service": "bedrock.amazonaws.com"
},
"Action": "lambda:InvokeFunction",
"Resource": "arn:aws:lambda:us-east-1:123456789012:function:FlightSearchFunction",
"Condition": {
"StringEquals": {
"AWS:SourceAccount": "123456789012"
}
}
}
]
}
برای توابع لامبدا که به داده ها یا خدمات حساس دسترسی پیدا می کنند ، اعتبار سنجی اضافی را پیاده سازی کنید. فرض نکنید که به دلیل اینکه نماینده شما به خوبی رفتار می شود ، داده هایی که به عملکردهای شما منتقل می شود به خوبی شکل گرفته یا ایمن خواهد بود. همه چیز را تأیید کنید.
اگر نماینده شما اطلاعات شخصی یا حساس را پردازش می کند ، در نظر بگیرید:
-
با استفاده از GuardRails Bedrock برای فیلتر کردن محتوای نامناسب
-
اجرای تشخیص PII و ماسک در توابع لامبدا شما
-
رمزگذاری داده های حساس در حالت استراحت و در حال حمل و نقل
-
راه اندازی ورود جامع و حسابرسی
اگر نماینده شما به نمایندگی از کاربران خاص عمل می کند ، اطمینان حاصل کنید که هویت کاربر و مجوزها به درستی پخش می شوند. یک رویکرد این است که نشانه های کاربر را از طریق ویژگی های جلسه عامل منتقل کنید و عملکردهای Lambda خود را قبل از دسترسی به منابع خاص کاربر ، این نشانه ها را تأیید کنید.
نتیجه گیری: آینده برنامه های عامل در AWS
برنامه های عامل یک گام مهم به جلو در آنچه ممکن است با هوش مصنوعی باشد. این سیستم ها با ترکیب قابلیت های استدلال مدل های بنیاد با توانایی انجام اقدامات در دنیای واقعی ، می توانند کارهای پیچیده ای را انجام دهند که برای کاربردهای سنتی غیرممکن است.
آمازون Bedrock و خانواده Nova Model یک بستر قوی برای ساخت این برنامه ها ارائه می دهند. شما می توانید از زیرساخت های مدیریت شده و مدلهای بنیادی قدرتمند بهره مند شوید ، ضمن اینکه انعطاف پذیری را برای ادغام با خدمات و داده های AWS موجود خود حفظ می کنید.
الگویی که ما در این مقاله مورد بررسی قرار داده ایم ، از گروه های اقدام و پایگاه های دانش گرفته تا کنترل های امنیتی و بهینه سازی هزینه ها ، فقط نظری نیستند. آنها امروز در خدمات به مشتری ، بهره وری سازمانی ، تجزیه و تحلیل داده ها و بسیاری از حوزه های دیگر اعمال می شوند.
از آنجا که شروع به کاوش در این فضا می کنید ، به یاد داشته باشید که ایجاد عوامل مؤثر نیاز به تعادل چندین عامل دارد: توانایی فنی ، تجربه کاربر ، امنیت و هزینه. موفق ترین پیاده سازی ها مواردی هستند که این تعادل را برای مورد استفاده خاص خود درست می کنند.
در حالی که این فناوری قدرتمند است ، جادویی نیست. مأمورین محدودیت هایی دارند: آنها ممکن است گاهی اوقات درخواست ها را سوء تفاهم کنند ، برای انجام کارهای انجام شده بیش از حد انتظار برای انجام وظایف ، یا مبارزه با گردش کار بسیار پیچیده باشند. انتظارات واقع بینانه را با کاربران خود تنظیم کنید و برنامه های خود را برای رسیدگی به این موارد لبه طراحی کنید.
با وجود این چالش ها ، پتانسیل بسیار زیاد است. از آنجا که مدل های بنیاد به پیشرفت خود ادامه می دهند و AWS سکوی بستر را تقویت می کند ، امکانات برنامه های هوشمند و خودمختار فقط گسترش می یابد. مأمورانی که امروز می سازید فقط آغاز یک رویکرد جدید برای نرم افزاری است که از گذشته توانمندتر ، متنی تر و مفیدتر است.
از کپی کردن راه حل های ابری متوقف شوید ، شروع کنید درک آنها با خبرنامه ساده AWS ، به بیش از 45،000 devs ، فناوری و متخصصان یاد بگیرید که چگونه می توانند راه حل های ابری را معمار کنند ، نه امتحانات را تصویب کنند.
-
واقعی سناریوها و راه حل ها
-
در چرا پشت راه حل ها
-
بهترین روشها برای بهبود آنها
به صورت رایگان مشترک شوید
اگر می خواهید درباره من اطلاعات بیشتری کسب کنید ، می توانید مرا در LinkedIn یا در www.guilleojeda.com پیدا کنید