قبولی در آزمون AWS Certified Data Analytics – Speciality (DAS-C01) 2023

در این پست وبلاگ نحوه آماده شدن برای آزمون تخصصی AWS Data Analytics را توضیح خواهم داد. توصیه می شود قبلاً یک گواهی Associate داشته باشید تا با خدمات اصلی AWS آشنا شوید.
این آزمون شامل حوزه های زیر می شود:
دامنه 1: مجموعه – 18٪
دامنه 2: ذخیره سازی و مدیریت داده ها – 22٪
دامنه 3: در حال پردازش – 24٪
دامنه 4: تجزیه و تحلیل و تجسم – 18٪
دامنه 5: امنیت – 18٪
من امتحان را در مارس 2023 پشت سر گذاشتم و مراحل شخصی من برای آماده شدن در اینجا آمده است:
- راهنمای آزمون رسمی راهنمای آزمون AWS را بخوانید. توضیح می دهد که چه نوع دانش، موضوعات و خدماتی تحت پوشش قرار خواهند گرفت. متوجه شدم که Kinesis Video Analytics در امتحان گنجانده نشده است، اگرچه به زودی در یک دوره و امتحانات تمرینی ظاهر شد.
- من تماشای یک دوره ویدیویی را توصیه می کنم، به خصوص اگر تجربه محدودی از کار با AWS در پلتفرمی مانند ACloud Guru، Cloud Academy یا WhizLabs دارید. برای من، نوشتن یادداشت در طول دوره و گرفتن اسکرین شات از ارائه ها مفید است، بنابراین می توانم بعداً آنها را بررسی کنم.
- به خدمات AWS توجه داشته باشید تا تمرکز اصلی خود را روی آنها قرار دهید، مانند Glue، خانواده Kinesis، Redshift، QuickSight، OpenSearch، Athena، EMR و S3. علاوه بر این، خدماتی را جمع آوری کنید که هنوز مرتبط هستند اما اهمیت کمتری دارند مانند Lake Formation، AWS MSK، DMS، یا DataSync.
- گام بعدی دریافت درک عمیق از خدمات “سطح بالا” و درک کلی تر از خدمات “سطح دوم” است. دوره ها معمولاً نمی توانند همه ویژگی های موجود و همه بهترین شیوه ها را پوشش دهند. میتوانید اسناد و سؤالات متداول مربوط به هر سرویس را مرور کنید و هر گونه اطلاعات اضافی را که مهم میدانید یادداشت کنید. به نحوه ادغام سرویس با سایر خدمات، نحوه برخورد با رمزگذاری، گزارشها، کنترل دسترسی کاربر، اشتراکگذاری بین حسابها/منطقهها و موارد استفاده مناسب برای آن توجه کنید. از خود بپرسید که چه زمانی آن سرویس را در مقایسه با سرویس دیگری انتخاب می کنید و موارد زیر را در نظر بگیرید:
- هزینه
- راه اندازی و نگهداری آن چقدر آسان است
- آیا آن (نزدیک به) زمان واقعی است، یا تاخیر قابل قبول است برای مثال، می توانید Kinesis را در مقابل AWS MSK یا SQS FIFO مقایسه کنید. در این وب سایت، می توانید چندین جدول مقایسه Kinesis در مقابل AWS MSK را بیابید. خطاهای رایج و معیارهای CloudWatch و نحوه حل مشکل یا بهبود عملکرد را در نظر بگیرید. در اینجا چند نمونه هستند:
- OpenSearch – JVMMemoryPressure
- Kinesis – ProvisionedThroughputExceededException
- تجزیه و تحلیل داده های Kinesis – MillisBehindLatest
- EMR – YarnMemoryAvailablePercentage
- در YouTube، میتوانید سخنرانیهای عالی AWS Tech را با بهترین شیوهها برای سرویسهای خاص بیابید، که توصیه میکنم آنها را تماشا کنید. همچنین توصیه میکنم کانال جانی چیورز را که حاوی ویدیوهای بسیاری در تمام سرویسهای تجزیه و تحلیل دادهها با مثالهای عملی است، بررسی کنید.
- آخرین مرحله حل امتحانات تمرینی برای آزمایش دانش شما است – من توصیه می کنم تست های تمرینی Dojo Tutorials را انجام دهید زیرا آنها به امتحان واقعی نزدیک تر بودند و حاوی توضیحات عالی برای هر سوال بودند. من همچنین 25 سوال رایگان از WhizLabs و یک ویدیوی YouTube پیدا کردم که همچنین مفید بود.
در اینجا یادداشت های من در مورد آنچه که باید برای هر سرویس به طور قطع تحقیق کنید، آمده است:
انتقال به قرمز:
- سبک های توزیع
- طیف انتقال به قرمز
- اظهارات GRANT / Revoke
- رمزگذاری KMS / HSM
- کلاسیک، تغییر اندازه الاستیک، مقیاس بندی همزمان
- خلاء
- دستور COPY (منابع، نحو، تعداد فایلها باید مضربی از تعداد برشها باشد، اطمینان حاصل کنید که حجم فایلها تقریباً یکسان است، بین مگابایت و ۱ گیگابایت پس از فشردهسازی؛ با استفاده از یک فایل مانیفست)
- دستور UNLOAD
- ثبت حسابرسی
- دیدگاه های مادی شده
- عکس های فوری
- داده های API
- WLM
چسب:
- خزنده های چسب
- کارهای چسب (DPU، انواع، تبدیل ها، نشانک ها)
- ماشه های چسب
آتنا:
- ادغام ها
- تبدیل فرمت فایل
- گروه های کاری
- پارتیشن بندی
QuickSight:
- به آنچه فقط در نسخه Enterprise موجود است توجه کنید
- زمان استفاده از انواع نمودارها
- جاسازی در یک وب سایت یا برنامه
- رمزگذاری داده ها (در حالت استراحت و در حال انتقال)
- اتصال به منابع در یک زیرشبکه خصوصی
- گزینه های احراز هویت
- اجازه دسترسی فقط به جداول یا ردیف های خاص
- تازه کردن داده ها
حرکت حرکتی:
- برای هر خدمت، تولیدکنندگان (منبع) و مصرف کنندگان (مقصد) کدامند
- جریانهای داده – محدودیتها، خردهها، فن خروجی پیشرفته، عامل KCL/KPL/Kinesis/PutRecord(های)
- Firehose – تبدیل فرمت رکورد و تبدیل لامبدا، اندازه و فاصله بافر، فشردهسازی، PutRecord/ PutRecordBatch، پشتیبانگیری رکورد منبع
- تجزیه و تحلیل داده ها – برنامه SQL/Apache Flink، چندین جریان ورودی درون برنامه، پرس و جوهای پنجره ای، ویژگی Random ForestCut
- AWS KMS – گرههای ZooKeeper و گرههای کارگزار، نوشتن روی موضوعات، مقیاسبندی خوشه
EMR:
- گرههای اصلی، هستهای و وظیفه + زمان استفاده از نمونههای درخواستی در مقایسه با نمونههای نقطه (نمونه ناوگان در مقابل گروههای نمونه)
- ذخیره سازی – HDFS در مقابل EMRFS
- خوشه های گذرا در مقابل خوشه های طولانی مدت
- اقدامات بوت استرپ، مشاغل، مراحل
- پیکربندی امنیتی برای رمزگذاری، احراز هویت Kerberos و مجوز EMRFS برای S3
- تکثیر داده ها در سراسر گره ها
- الگوریتم های فشرده سازی
- S3DistCp
- مقیاس مدیریت شده در مقابل مقیاس خودکار سفارشی
- ذخیرهسازی گزارشها (S3)
- ارکستراسیون با توابع استپ
OpenSearch:
- منابع اطلاعات
- خرده ها، ماکت
- انواع ذخیره سازی (گرم، فوق گرم، سرد) + ISM
- سیاهههای مربوط به کندی
- جستجو و تکثیر متقابل خوشه + استقرار Multi-AZ
- احراز هویت SAML
- کنترل دسترسی ریزدانه
- فاصله بازخوانی
- داشبوردهای OpenSearch – احراز هویت، مجوزها و اشتراک گذاری
تشکیل دریاچه
- نقشه ها
- مدیریت مجوزها و اشتراک گذاری بین حساب ها
DMS
- وظایف + تغییر ضبط داده (CDC)
DataSync
- مقایسه با Transfer Family و Snowball
اگر چیزی را از دست داده ام یا توصیه های دیگری دارید، لطفاً نظر خود را بنویسید. امیدوارم مراحل و امتیازات من به شما کمک کند تا به خوبی آماده شوید و برای شما آرزوی موفقیت دارم اگر قبلاً امتحان را رزرو کرده اید 🙂