برنامه نویسی

اسرار HDFS را با FS Shell Find کشف کنید

Summarize this content to 400 words in Persian Lang

مقدمه

در این آزمایشگاه، ما به دنیای Hadoop HDFS می پردازیم و بر روی دستور FS Shell find تمرکز می کنیم. خود را به عنوان یک باستان شناس در حال کاوش در یک معبد باستانی در جستجوی گنجینه ها و اسرار پنهان تصور کنید. هدف شما استفاده از فرمان FS Shell find برای پیمایش در سیستم فایل Hadoop گسترده است، درست مانند کشف مصنوعات مخفی در یک معبد.

راه اندازی محیط

در این مرحله، قبل از استفاده از دستور FS Shell find، اطمینان حاصل می کنیم که محیط Hadoop ما به درستی تنظیم شده است.

ترمینال را باز کنید و برای شروع مراحل زیر را دنبال کنید.

سوئیچ به hadoop کاربر:

su – hadoop

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

تایید نسخه Hadoop:

hadoop version

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

ایجاد یک example.txt فایل در دایرکتوری ریشه HDFS:

echo “This is an example file.” | hdfs dfs -put – /example.txt

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

بازیابی اطلاعات فایل

در این مرحله، نحوه استفاده از دستور FS Shell find را برای مکان یابی فایل های خاص در سیستم فایل Hadoop نشان خواهیم داد.

فایلی به نام را جستجو کنید example.txt در پوشه اصلی HDFS:

hdfs dfs -find / -name “example.txt”

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

بازیابی اطلاعات مربوط به فایل با استفاده از دستور FS Shell stat:

hdfs dfs -stat “%n %y %r” /example.txt > /home/hadoop/example_info.txt
cat /home/hadoop/example_info.txt

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

این hdfs dfs -stat دستور برای بازیابی اطلاعات وضعیت فایل ها یا دایرکتوری ها در HDFS استفاده می شود. می توانید از گزینه های قالب بندی مختلف برای سفارشی سازی اطلاعات خروجی استفاده کنید. در اینجا برخی از گزینه های قالب بندی رایج و معانی آنها آورده شده است:

%b: اندازه فایل بر حسب بایت

%n: نام فایل

%o: اندازه بلوک

%r: فاکتور تکرار.

%u: نام کاربری

%g: نام گروه

%y: زمان تغییر در قالب yyyy-MM-dd HH:mm:ss.

%F: نوع فایل (فایل، دایرکتوری یا پیوند نمادین).

تجزیه و تحلیل دایرکتوری ها

در این مرحله، چگونگی استفاده از FS Shell find را برای تجزیه و تحلیل دایرکتوری ها و محتوای آنها بررسی خواهیم کرد.

فهرست همه دایرکتوری ها در زیر /user دایرکتوری:

hdfs dfs -ls /user

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

یک دایرکتوری به نام ایجاد کنید superDirectory زیر /user دایرکتوری و مجوزهای آن را روی 777 تنظیم کنید (rwxrwxrwx):

hdfs dfs -mkdir /user/superDirectory
hdfs dfs -chmod 777 /user/superDirectory

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

از FS Shell find برای مکان یابی استفاده کنید superDirectory:

hdfs dfs -find /user -name “superDirectory”

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

از FS Shell برای شناسایی دایرکتوری هایی با مجوزهای خاص استفاده کنید:

hdfs dfs -ls /user | grep ‘^drwxrwxrwx’

وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

خلاصه

در این آزمایشگاه، ما در دنیای Hadoop HDFS غوطه ور شدیم و قابلیت های فرمان FS Shell find را بررسی کردیم. با شبیه سازی یک سفر باستان شناسی در یک معبد، ما یاد گرفتیم که چگونه به طور موثر فایل ها و فهرست ها را در سیستم فایل Hadoop جستجو و تجزیه و تحلیل کنیم. این تجربه عملی بینش هایی را در مورد مدیریت و هدایت ساختارهای داده پیچیده در Hadoop ارائه کرد و درک ما از عملیات HDFS را افزایش داد.

🚀 اکنون تمرین کنید: Hadoop FS Shell find

می خواهید بیشتر بدانید؟

مقدمه

نقشه ذهنی

در این آزمایشگاه، ما به دنیای Hadoop HDFS می پردازیم و بر روی دستور FS Shell find تمرکز می کنیم. خود را به عنوان یک باستان شناس در حال کاوش در یک معبد باستانی در جستجوی گنجینه ها و اسرار پنهان تصور کنید. هدف شما استفاده از فرمان FS Shell find برای پیمایش در سیستم فایل Hadoop گسترده است، درست مانند کشف مصنوعات مخفی در یک معبد.

راه اندازی محیط

در این مرحله، قبل از استفاده از دستور FS Shell find، اطمینان حاصل می کنیم که محیط Hadoop ما به درستی تنظیم شده است.

ترمینال را باز کنید و برای شروع مراحل زیر را دنبال کنید.

  1. سوئیچ به hadoop کاربر:
   su - hadoop
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

  1. تایید نسخه Hadoop:
   hadoop version
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

  1. ایجاد یک example.txt فایل در دایرکتوری ریشه HDFS:
   echo "This is an example file." | hdfs dfs -put - /example.txt
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

بازیابی اطلاعات فایل

در این مرحله، نحوه استفاده از دستور FS Shell find را برای مکان یابی فایل های خاص در سیستم فایل Hadoop نشان خواهیم داد.

  1. فایلی به نام را جستجو کنید example.txt در پوشه اصلی HDFS:
   hdfs dfs -find / -name "example.txt"
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

  1. بازیابی اطلاعات مربوط به فایل با استفاده از دستور FS Shell stat:
   hdfs dfs -stat "%n %y %r" /example.txt > /home/hadoop/example_info.txt
   cat /home/hadoop/example_info.txt
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

این hdfs dfs -stat دستور برای بازیابی اطلاعات وضعیت فایل ها یا دایرکتوری ها در HDFS استفاده می شود. می توانید از گزینه های قالب بندی مختلف برای سفارشی سازی اطلاعات خروجی استفاده کنید. در اینجا برخی از گزینه های قالب بندی رایج و معانی آنها آورده شده است:

  • %b: اندازه فایل بر حسب بایت
  • %n: نام فایل
  • %o: اندازه بلوک
  • %r: فاکتور تکرار.
  • %u: نام کاربری
  • %g: نام گروه
  • %y: زمان تغییر در قالب yyyy-MM-dd HH:mm:ss.
  • %F: نوع فایل (فایل، دایرکتوری یا پیوند نمادین).

تجزیه و تحلیل دایرکتوری ها

در این مرحله، چگونگی استفاده از FS Shell find را برای تجزیه و تحلیل دایرکتوری ها و محتوای آنها بررسی خواهیم کرد.

  1. فهرست همه دایرکتوری ها در زیر /user دایرکتوری:
   hdfs dfs -ls /user
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

  1. یک دایرکتوری به نام ایجاد کنید superDirectory زیر /user دایرکتوری و مجوزهای آن را روی 777 تنظیم کنید (rwxrwxrwx):
   hdfs dfs -mkdir /user/superDirectory
   hdfs dfs -chmod 777 /user/superDirectory
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

  1. از FS Shell find برای مکان یابی استفاده کنید superDirectory:
   hdfs dfs -find /user -name "superDirectory"
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

  1. از FS Shell برای شناسایی دایرکتوری هایی با مجوزهای خاص استفاده کنید:
   hdfs dfs -ls /user | grep '^drwxrwxrwx'
وارد حالت تمام صفحه شوید

از حالت تمام صفحه خارج شوید

خلاصه

در این آزمایشگاه، ما در دنیای Hadoop HDFS غوطه ور شدیم و قابلیت های فرمان FS Shell find را بررسی کردیم. با شبیه سازی یک سفر باستان شناسی در یک معبد، ما یاد گرفتیم که چگونه به طور موثر فایل ها و فهرست ها را در سیستم فایل Hadoop جستجو و تجزیه و تحلیل کنیم. این تجربه عملی بینش هایی را در مورد مدیریت و هدایت ساختارهای داده پیچیده در Hadoop ارائه کرد و درک ما از عملیات HDFS را افزایش داد.


🚀 اکنون تمرین کنید: Hadoop FS Shell find


می خواهید بیشتر بدانید؟

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا