اسرار HDFS را با FS Shell Find کشف کنید

Summarize this content to 400 words in Persian Lang
مقدمه
در این آزمایشگاه، ما به دنیای Hadoop HDFS می پردازیم و بر روی دستور FS Shell find تمرکز می کنیم. خود را به عنوان یک باستان شناس در حال کاوش در یک معبد باستانی در جستجوی گنجینه ها و اسرار پنهان تصور کنید. هدف شما استفاده از فرمان FS Shell find برای پیمایش در سیستم فایل Hadoop گسترده است، درست مانند کشف مصنوعات مخفی در یک معبد.
راه اندازی محیط
در این مرحله، قبل از استفاده از دستور FS Shell find، اطمینان حاصل می کنیم که محیط Hadoop ما به درستی تنظیم شده است.
ترمینال را باز کنید و برای شروع مراحل زیر را دنبال کنید.
سوئیچ به hadoop کاربر:
su – hadoop
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
تایید نسخه Hadoop:
hadoop version
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
ایجاد یک example.txt فایل در دایرکتوری ریشه HDFS:
echo “This is an example file.” | hdfs dfs -put – /example.txt
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
بازیابی اطلاعات فایل
در این مرحله، نحوه استفاده از دستور FS Shell find را برای مکان یابی فایل های خاص در سیستم فایل Hadoop نشان خواهیم داد.
فایلی به نام را جستجو کنید example.txt در پوشه اصلی HDFS:
hdfs dfs -find / -name “example.txt”
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
بازیابی اطلاعات مربوط به فایل با استفاده از دستور FS Shell stat:
hdfs dfs -stat “%n %y %r” /example.txt > /home/hadoop/example_info.txt
cat /home/hadoop/example_info.txt
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
این hdfs dfs -stat دستور برای بازیابی اطلاعات وضعیت فایل ها یا دایرکتوری ها در HDFS استفاده می شود. می توانید از گزینه های قالب بندی مختلف برای سفارشی سازی اطلاعات خروجی استفاده کنید. در اینجا برخی از گزینه های قالب بندی رایج و معانی آنها آورده شده است:
%b: اندازه فایل بر حسب بایت
%n: نام فایل
%o: اندازه بلوک
%r: فاکتور تکرار.
%u: نام کاربری
%g: نام گروه
%y: زمان تغییر در قالب yyyy-MM-dd HH:mm:ss.
%F: نوع فایل (فایل، دایرکتوری یا پیوند نمادین).
تجزیه و تحلیل دایرکتوری ها
در این مرحله، چگونگی استفاده از FS Shell find را برای تجزیه و تحلیل دایرکتوری ها و محتوای آنها بررسی خواهیم کرد.
فهرست همه دایرکتوری ها در زیر /user دایرکتوری:
hdfs dfs -ls /user
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
یک دایرکتوری به نام ایجاد کنید superDirectory زیر /user دایرکتوری و مجوزهای آن را روی 777 تنظیم کنید (rwxrwxrwx):
hdfs dfs -mkdir /user/superDirectory
hdfs dfs -chmod 777 /user/superDirectory
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
از FS Shell find برای مکان یابی استفاده کنید superDirectory:
hdfs dfs -find /user -name “superDirectory”
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
از FS Shell برای شناسایی دایرکتوری هایی با مجوزهای خاص استفاده کنید:
hdfs dfs -ls /user | grep ‘^drwxrwxrwx’
وارد حالت تمام صفحه شوید
از حالت تمام صفحه خارج شوید
خلاصه
در این آزمایشگاه، ما در دنیای Hadoop HDFS غوطه ور شدیم و قابلیت های فرمان FS Shell find را بررسی کردیم. با شبیه سازی یک سفر باستان شناسی در یک معبد، ما یاد گرفتیم که چگونه به طور موثر فایل ها و فهرست ها را در سیستم فایل Hadoop جستجو و تجزیه و تحلیل کنیم. این تجربه عملی بینش هایی را در مورد مدیریت و هدایت ساختارهای داده پیچیده در Hadoop ارائه کرد و درک ما از عملیات HDFS را افزایش داد.
🚀 اکنون تمرین کنید: Hadoop FS Shell find
می خواهید بیشتر بدانید؟
مقدمه
در این آزمایشگاه، ما به دنیای Hadoop HDFS می پردازیم و بر روی دستور FS Shell find تمرکز می کنیم. خود را به عنوان یک باستان شناس در حال کاوش در یک معبد باستانی در جستجوی گنجینه ها و اسرار پنهان تصور کنید. هدف شما استفاده از فرمان FS Shell find برای پیمایش در سیستم فایل Hadoop گسترده است، درست مانند کشف مصنوعات مخفی در یک معبد.
راه اندازی محیط
در این مرحله، قبل از استفاده از دستور FS Shell find، اطمینان حاصل می کنیم که محیط Hadoop ما به درستی تنظیم شده است.
ترمینال را باز کنید و برای شروع مراحل زیر را دنبال کنید.
- سوئیچ به
hadoop
کاربر:
su - hadoop
- تایید نسخه Hadoop:
hadoop version
- ایجاد یک
example.txt
فایل در دایرکتوری ریشه HDFS:
echo "This is an example file." | hdfs dfs -put - /example.txt
بازیابی اطلاعات فایل
در این مرحله، نحوه استفاده از دستور FS Shell find را برای مکان یابی فایل های خاص در سیستم فایل Hadoop نشان خواهیم داد.
- فایلی به نام را جستجو کنید
example.txt
در پوشه اصلی HDFS:
hdfs dfs -find / -name "example.txt"
- بازیابی اطلاعات مربوط به فایل با استفاده از دستور FS Shell stat:
hdfs dfs -stat "%n %y %r" /example.txt > /home/hadoop/example_info.txt
cat /home/hadoop/example_info.txt
این hdfs dfs -stat
دستور برای بازیابی اطلاعات وضعیت فایل ها یا دایرکتوری ها در HDFS استفاده می شود. می توانید از گزینه های قالب بندی مختلف برای سفارشی سازی اطلاعات خروجی استفاده کنید. در اینجا برخی از گزینه های قالب بندی رایج و معانی آنها آورده شده است:
-
%b
: اندازه فایل بر حسب بایت -
%n
: نام فایل -
%o
: اندازه بلوک -
%r
: فاکتور تکرار. -
%u
: نام کاربری -
%g
: نام گروه -
%y
: زمان تغییر در قالب yyyy-MM-dd HH:mm:ss. -
%F
: نوع فایل (فایل، دایرکتوری یا پیوند نمادین).
تجزیه و تحلیل دایرکتوری ها
در این مرحله، چگونگی استفاده از FS Shell find را برای تجزیه و تحلیل دایرکتوری ها و محتوای آنها بررسی خواهیم کرد.
- فهرست همه دایرکتوری ها در زیر
/user
دایرکتوری:
hdfs dfs -ls /user
- یک دایرکتوری به نام ایجاد کنید
superDirectory
زیر/user
دایرکتوری و مجوزهای آن را روی 777 تنظیم کنید (rwxrwxrwx):
hdfs dfs -mkdir /user/superDirectory
hdfs dfs -chmod 777 /user/superDirectory
- از FS Shell find برای مکان یابی استفاده کنید
superDirectory
:
hdfs dfs -find /user -name "superDirectory"
- از FS Shell برای شناسایی دایرکتوری هایی با مجوزهای خاص استفاده کنید:
hdfs dfs -ls /user | grep '^drwxrwxrwx'
خلاصه
در این آزمایشگاه، ما در دنیای Hadoop HDFS غوطه ور شدیم و قابلیت های فرمان FS Shell find را بررسی کردیم. با شبیه سازی یک سفر باستان شناسی در یک معبد، ما یاد گرفتیم که چگونه به طور موثر فایل ها و فهرست ها را در سیستم فایل Hadoop جستجو و تجزیه و تحلیل کنیم. این تجربه عملی بینش هایی را در مورد مدیریت و هدایت ساختارهای داده پیچیده در Hadoop ارائه کرد و درک ما از عملیات HDFS را افزایش داد.
🚀 اکنون تمرین کنید: Hadoop FS Shell find
می خواهید بیشتر بدانید؟