Nasscom دستورالعمل هایی را برای هوش مصنوعی مسئول با هدف محققان، توسعه دهندگان و کاربران منتشر می کند


بدنه شرکت نرم افزار و خدمات apex هند ناسکام مجموعه ای از دستورالعمل ها را برای تعریف استفاده «مسئولانه» از هوش مصنوعی مولد منتشر کرده است. این دستورالعملها برای محققان، توسعهدهندگان و کاربران مدلها و برنامههای هوش مصنوعی تولیدی است. آنها بر انجام ارزیابیهای جامع ریسک و حفظ نظارت داخلی در کل چرخه حیات یک راهحل مولد هوش مصنوعی تأکید دارند.
هدف این دستورالعمل ها
دستورالعملهای Nasscom به دنبال تلاش برای کاهش آسیبهای هوش مصنوعی مولد هستند. بر اساس گزارش، بزرگترین آنها شامل اطلاعات نادرست، نقض IP، نقض حریم خصوصی داده ها، انتشار سوگیری ها، اختلال در مقیاس بزرگ در زندگی و معیشت، تخریب محیط زیست و حملات سایبری مخرب است. Nasscom در بیانیهای گفت که در حرکت رو به جلو، تمرکز بر ارتقای آگاهی در مورد پذیرش این دستورالعملها، توسعه راهنماییهای خاص برای موارد استفاده مختلف و تقویت کیت منابع مسئول هوش مصنوعی موجود خواهد بود. رئیس ناسکام دبجانی قوش گفت: این چارچوب “بسیار منحصر به فرد در هند است و گامی فعال در جهت ایجاد یک نقشه راه شفاف و قوی برای ساخت و استفاده مسئولانه از هوش مصنوعی است.”
استفاده محتاطانه و ارزیابی خطر آسیب احتمالی
برای توسعه راهحلهای هوش مصنوعی مولد، دستورالعملها استفاده محتاطانه و ارزیابی ریسک آسیبهای احتمالی ناشی از استقرار چنین راهحلهایی را در طول چرخه عمرشان توصیه میکنند. این دستورالعمل همچنین خواستار افشای عمومی داده ها و منابع الگوریتم است، مگر اینکه توسعه دهندگان بتوانند ثابت کنند که افشای چنین اطلاعاتی می تواند به امنیت عمومی آسیب برساند.
مکانیسمهای رسیدگی به شکایات وجود دارد
این دستورالعملها همچنین توضیحپذیری خروجیهای تولید شده توسط این الگوریتمهای هوش مصنوعی و همچنین مکانیسمهای رسیدگی به شکایات را برای رسیدگی به مشکلات در طول توسعه یا استفاده از چنین راهحلهایی توصیه میکنند.
رئیس شرکت Nasscom گفت: “این دستورالعمل ها به اکوسیستم کمک می کند تا پتانسیل واقعی هوش مصنوعی را آزاد کند و آینده ای را ایجاد کند که به طور هماهنگ نبوغ انسان را با پیشرفت فناوری ترکیب کند.” مایکروسافت هند رئيس جمهور آنانت ماهشواری.
فیس بوکتوییترلینکدین
پایان مقاله