چه زمانی قانون اتحادیه اروپا به مرحله اجرا می آید و این برای تجارت شما چه معنی دارد؟

قانون هوش مصنوعی اتحادیه اروپا در اول اوت سال 2024 به قانون رسمی اتحادیه اروپا تبدیل شد ، اما اولین اقدامات مربوط به استفاده های ممنوع برنامه های سوادآموزی هوش مصنوعی و هوش مصنوعی برای مشاغل درون مقیاس در تاریخ 2 فوریه 2025 به مرحله اجرا درآمد.
در این مقاله ، ما به شما کمک می کنیم تا بفهمید که آیا و چگونه تجارت شما برای قانون AI در سیستم قرار دارد یا خیر. در پایان ، شما درک می کنید که چگونه قانون AI برای تجارت شما مرتبط است و چه شما باید انجام دهید کی سازگار بودن مجازات های عدم رعایت می تواند قابل توجه باشد ، با حداکثر جریمه تا 7 ٪ از درآمد جهانی ، درآمد سالانه یک تجارت یا 35 میلیون یورو ، هر کدام بزرگتر باشد.
AI چیست؟
من در کارگاه ها استدلال کردم که هوش مصنوعی یک چیز نیست ، بلکه چیزهای زیادی است. قانون هوش مصنوعی با اشاره به هوش مصنوعی به عنوان “خانواده فن آوری” از همان رویکرد استفاده می کند.
با این وجود ، ما نیاز به تعریفی از آنچه تنظیم می شود ، که به طور کلی هوش مصنوعی نیست ، بلکه “سیستم های هوش مصنوعی” است. یک سیستم هوش مصنوعی به عنوان (تأکید بر اضافه) تعریف شده است
یک سیستم مبتنی بر ماشین که برای کار با سطوح مختلف طراحی شده است خودمانی و این ممکن است پس از استقرار سازگاری داشته باشد ، و این ، برای اهداف صریح یا ضمنی ، از ورودی دریافت می کند ، چگونه می توان خروجی ها را تولید کرد مانند پیش بینی ها ، محتوا ، توصیه ها یا تصمیماتی که می تواند بر محیط های فیزیکی یا مجازی تأثیر بگذارد.
بیایید قطعاتی را که یک به یک به صورت جسورانه برجسته کرده ایم ، تجزیه کنیم و در طول مسیر با سیستم های رایانه ای غیر AI AID تمایز قائل شویم.
در خودمانی مشخصه به خودی خود هوش مصنوعی را از نرم افزار دیگر متمایز نمی کند. اینکه یک کامپیوتر بدون مداخله انسانی وظایف خود را انجام می دهد ، به همین دلیل است که مشاغل برای ده ها سال در نرم افزار و سخت افزار سرمایه گذاری کرده اند. با این وجود ، سیستم های AI قادر به درجه های بالاتر از استقلال نسبت به نرم افزار معمولی هستند ، به این دلیل که خروجی های “غرق” می شود ، که دومین اصطلاح برجسته از تعریف فوق است.
ذکر سیستم های AI “استنباط” از ورودی ها از ویژگی های اصلی AI در مقایسه با نرم افزار عادی است. نرم افزار عادی همچنین می تواند بسیار پیچیده باشد ، اما برخلاف هوش مصنوعی ، هر عملیات می تواند در مراحل صریح ورودی و خروجی شکسته شود ، با قوانین صریح نحوه ایجاد خروجی از ورودی. به عنوان یک نتیجه ، سیستم های هوش مصنوعی می توانند انواع گسترده تری از ورودی ها را به آنچه که خروجی صحیح را نسبت به نرم افزار عادی می داند ترسیم کند.
اگر از طرفداران علمی تخیلی هستید ، ممکن است عبارت صریح را ارزیابی کنید سیستم مبتنی بر ماشین، این مواردی را که مانند انسان های انسان در اقلیت گزارش می کند ، رد می کند که پیش بینی می کند چه کسی مرتکب جرایم قبل از انجام آنها خواهد شد. به هر حال ، اگر این کار توسط یک دستگاه انجام شود ، همانطور که در زیر می بینیم ، به عنوان “AI ممنوع” طبقه بندی می شود.
چه مشاغل برای قانون AI در دامنه است؟
بیایید شروع کنیم که مشاغل از آن مستثنا هستند. اگر تجارت شما به هیچ وجه از AI استفاده نمی کند و نه از AI استفاده می کند ، می توانید با اطمینان از عمل هوش مصنوعی چشم پوشی کنید. با این حال ، آنچه چندان ایمن نیست ، یقین است که کسب و کار شما در حال ارائه یا استفاده از هوش مصنوعی نیست ، زیرا می توانید از بخش قبلی که سیستم های AI را تعریف می کند قدردانی کنید.
محرومیت آسان تر افراد طبیعی (بر خلاف اشخاص حقوقی مانند شرکت ها) است که از هوش مصنوعی در یک ظرفیت غیرحرفه ای استفاده می کنند. بنابراین نیازی به ثبت نام کارت کریسمس خود OpenAi دستیار یا ربات هوش مصنوعی خود توسعه یافته نیست که به شما یادآوری می کند که با هر آژانس نظارتی یوگا انجام دهید.
آسان اضافی مؤسسات تحقیقاتی خالص است. کار تحقیق و توسعه نیز برای قانون هوش مصنوعی خارج از محدوده است. با برخی از احتیاط ها در زیر ذکر خواهیم کرد ، این محرومیت همچنین برای مشاغل توسعه AI در اختیار دارد پیش از آنها هوش مصنوعی خود را در بازار خارجی یا خدمات داخلی قرار می دهند.
گروه محروم نهایی منشأ بحث و گفتگوهای مهم و تغییرات از اولین پیش نویس به فینال بود: صنعت دفاع.
این محرومیت ها نمونه هایی از این را به ما نشان می دهد که چگونه قانون AI هدف از پیروی از رویکرد “ریسک” است که نوآوری را قادر می سازد (و از بعضی جهات تشویق می کند) ضمن مدیریت پایین وقتی که AI اشتباه می کند. تحقیقات خالص و استفاده شخصی از ابزارهای هوش مصنوعی به طور کلی خطری برای بهداشت ، ایمنی یا حقوق اساسی نیست.
اکنون بیایید مشخص کنیم که چه نوع مشاغل یا سازمان های دولتی به طور بالقوه در دامنه هستند.
ارائه دهنده از هوش مصنوعی شرکت هایی هستند که ابزارهای هوش مصنوعی را توسعه داده و در دسترس قرار می دهند. فرقی نمی کند سیستم AI ارائه شده در داخل در یک شرکت استفاده شود یا مشتری خارجی باشد.
اعزام کننده سیستم های هوش مصنوعی شرکت هایی هستند که از AI در فرآیندهای تجاری یا محصولات خود استفاده می کنند. اگر یک مستقل از هوش مصنوعی در نحوه عملکرد AI ارائه شده ، تغییرات مادی ایجاد کند ، مسئولیت دیدار با ارائه دهنده شرایط برای این تغییرات را بر عهده می گیرد.
ما از انواع دیگر فعالیتهای تجاری که در این مقاله برای قانون AI درج شده اند ، یعنی توزیع کنندگان و واردکنندگان سیستم های AI ، کنار می گذاریم.
قبل از ورود به جزئیات آنچه سیستم های AI تنظیم می شود و چگونه ، جغرافیا چه نقشی دارد؟ اگر شما در اروپا مستقر هستید یا خدمات هوش مصنوعی شما در اروپا مورد استفاده قرار می گیرد ، تجارت شما از نظر جغرافیایی برای قانون AI درج شده است.
تجارت من برای قانون AI دامنه است. حالا چی؟
قانون AI برای اولین بار در اول اوت 2024 به قانون رسمی تبدیل شد ، اما الزامات آن برای مشاغل و آژانس های دولتی در دسته های مختلف به اجرا در می آیند ، با این که دسته بعدی در تاریخ 2 فوریه 2025 ارائه می شود که سیستم های هوش مصنوعی را به طور خاص ممنوع می کند و الزامات سواد هوش مصنوعی کاملاً گسترده بشر
نیاز به سوادآموزی هوش مصنوعی یک شبکه گسترده را به وجود می آورد
بر خلاف اکثریت قانون هوش مصنوعی ، الزام سواد هوش مصنوعی در مورد کلیه مشاغل ارائه یا استقرار هوش مصنوعی اعمال می شود. وسوسه انگیز است که فکر کنید استفاده از یک سرویس هوش مصنوعی شرکت شما را به “استقرار” هوش مصنوعی تبدیل نمی کند ، اما تعریف در ماده 3 (4) شک کمی از استفاده از هوش مصنوعی در یک ظرفیت حرفه ای ندارد “و از این رو ماده 4 برای اثبات نوعی آموزش سواد هوش مصنوعی به کارمندان مورد نیاز است.
شکل دقیق آموزش توسط قانون AI مشخص نشده است. در عوض ، راهنمایی این است که به بهترین شکل ممکن از توانایی شرکت خود اطمینان حاصل کنید که این آموزش متناسب با متن هوش مصنوعی مورد استفاده شما و پیشینه کارکنان خود است.
رویکرد مبتنی بر ریسک AI
برای فهمیدن چه اقدامات فراتر از سواد هوش مصنوعی کسب و کار شما باید انجام دهد کی، این به شما کمک می کند تا ابتدا رویکرد “مبتنی بر ریسک” را که در بالا ذکر شد ، درک کنید.
طبقه بندی ریسک قانون AI در دو حوزه اصلی قرار می گیرد ، که می توانیم به راحتی آن را “خطرات” و “چگونه” بنامیم ، خطرناک است ، جایی که “چه” خطرات مربوط به کار یا وظایف سیستم AI را انجام می دهد ، در حالی که خطرات “چگونه” بر نحوه تعامل سیستم هوش مصنوعی با کاربران نهایی خود (خطر شفافیت) یا چگونگی کلی بودن قابلیت های هوش مصنوعی (سیستمیک ، هدف کلی خطر هوش مصنوعی) متمرکز است.
سطل های خطرناک “چه” قانون اتحادیه اروپا
“چه” دسته های ریسک با توجه به اینکه سیستم هوش مصنوعی برای سلامتی ، ایمنی یا حقوق اساسی اشتباه می شود ، تقسیم می شوند. دسته ها “ممنوع” ، “پرخطر” و “حداقل خطر” هستند.
ما در مورد هر یک از این دسته از این “چه” در زیر ، مروری بر ما خواهیم کرد ، اما در نظر داشته باشید که روند تعیین سیستم AI در کدام یک سطل خطر می تواند چالش برانگیز باشد.
سیستم های AI ممنوع است کسانی هستند که با بهداشت ، ایمنی یا حقوق اساسی ساکنان اتحادیه اروپا ناسازگار هستند. نمونه ها شامل
-
امتیازات اجتماعی خارج از زمینه ای که داده ها جمع آوری شده است ، مانند Kreditech با استفاده از فید های فیس بوک برای اعطای یا انکار وام های بانکی ،
-
هوش مصنوعی دستکاری ، مانند ایجاد بررسی های جعلی در آمازون یا استفاده از هوش مصنوعی برای ایجاد پیام های فرعی (شما خودتان هستید که خودتان پیوندها را پیدا کنید ، زیرا من نمی خواهم چنین خدماتی را در اینجا تبلیغ کنم)
-
AI پیش بینی جرم ، مانند سیستم پیش بینی پلیس پیش بینی Palantir که در نیواورلئان استفاده می شود و
-
شناسایی از راه دور مردم به جز شرایط محدود و اجرای قانون.
سیستم های هوش مصنوعی پرخطر مواردی هستند که مشاغل انجام شده توسط سیستم های هوش مصنوعی پتانسیل بهبود زندگی برای ساکنان اتحادیه اروپا را به رسمیت شناخته اند ، بلکه خطرات مربوط به بهداشت ، ایمنی یا حقوق اساسی را نیز در بر می گیرند. نمونه هایی از هوش مصنوعی پرخطر عبارتند از
-
تصمیمات وام بانکی هوش مصنوعی ، زیرا دسترسی به امور مالی یک حق محافظت شده است ،
-
تصمیمات هوش مصنوعی در مورد دسترسی به بیمه سلامت یا زندگی ،
-
استفاده از هوش مصنوعی برای تصمیمات اشتغال مانند استخدام یا تبلیغات و
-
هوش مصنوعی در ایمنی محصول یا زیرساخت ها استفاده می شود.
دسته نهایی بر اساس آنچه سیستم AI انجام می دهد است کم خطر، این بدان معناست که خرابی های احتمالی استفاده از سیستم AI به اندازه کافی کوچک است که تنظیم این موارد بدون ایجاد محافظت اضافی کافی برای ساکنان اتحادیه اروپا ، نوآوری را خنثی می کند.
نمونه هایی از سیستم های AI با خطر حداقل وجود دارد
چرا این “چه” طبقه بندی ریسک اهمیت دارد؟ از آنجا که اقدامات مورد نیاز تجارت شما با توجه به ممنوعیت ، ریسک بالا یا حداقل خطر ، متفاوت است. سیستم های هوش مصنوعی پرخطر اکثر اقدامات مورد نیاز مرتبط با آن را دارند. سیستم های AI ممنوع تا 2 فوریه 2025 از بازار خارج می شوند و بر این اساس سیستم های هوش مصنوعی با ریسک حداقل نیاز به اقدامات تجاری حداقل دارند.
سطل های خطرناک “How” قانون AI: شفافیت و هوش مصنوعی با هدف عمومی
خطرات “چگونه” در دو گروه قرار می گیرد: خطر شفافیت و خطر سیستمیک از هدف عمومی هوش مصنوعی ، که از آن AI مولد (Genai) نمونه بارز است.
درک چگونگی شفافیت شاید درک آن آسان تر باشد. به طور مستقل از آنچه سیستم هوش مصنوعی وظیفه دارد انجام دهد ، آیا نحوه تعامل با کاربران نهایی به گونه ای است که می توانند خروجی های تولید شده AI را برای انسان اشتباه بگیرند؟ اگر کاربران بتوانند به طور منطقی بازده هوش مصنوعی کسب و کار شما را برای تولید انسانی ایجاد کنند ، این سیستم هوش مصنوعی تحت الزامات خطر شفافیت قرار دارد.
اگر سیستم هوش مصنوعی شما در واقع خطر شفافیت دارد ، قانون AI اقداماتی را برای شما تعیین می کند تا در تاریخ 2 اوت 2026 برای اطمینان از انطباق انجام دهید.
جمله در مورد هدف کلی AI از پیش نویس قانون هوش مصنوعی منتشر شده در سال 2021 مفقود شده است ، اما با گسترش ویروسی چتپپ و پسر عموی های تولید کننده آن در اواخر سال 2022 ، این عطر و طعم هوش مصنوعی اکنون مجموعه ای از الزامات خاص خود را دارد.
جدید بودن در مقایسه با سایر هوش مصنوعی این است که AI هدف عمومی می تواند کارهای مختلف مختلفی را که اغلب بهتر از سطح انسان است ، بدون نیاز به سازگاری های خاص کار ، مانند مانند تنظیم دقیق در مورد داده های خاص کار. این قدرت می تواند یک خطر سیستمی را ایجاد کند ، با این حال ، به عنوان حالت های خرابی یک مدل واحد می تواند به طیف گسترده ای از دامنه ها پخش شود. شاید مهم باشد که یکی از بهترین مدل های بزرگ زبان در سال 2024 نتواند تعداد “R” را در کلمه “توت فرنگی” حساب کند ، اما تصور اینکه چگونه خطاهای مهم می توانند در چندین سیستم آبشار شوند ، دشوار نیست.
این یک منطقه از تحقیقات فعال برای درک بهتر چگونگی مدل های فعلی AI می تواند چند وظیفه ای را به خوبی انجام دهد ، بنابراین جای تعجب نیست که تعیین اینکه آیا چنین مدلی خطر سیستمیک را ایجاد می کند یا خیر ، دشوار است. رویکرد اصلی قانون AI ، گرفتن قدرت محاسباتی مورد نیاز برای آموزش مدل AI به عنوان تعیین کننده خطر سیستمیک است. اگر محاسبه مورد نیاز برای آموزش مدل از عملیات نقطه شناور 10^25 (که به عنوان فلاپ نیز شناخته می شود) فراتر رود ، پس از ماده 52 (2) قابلیت های عمومی آن در نظر گرفته می شود که خطر سیستمیک دارند.
مدلهای AI هدف عمومی با و بدون خطر سیستمیک هر دو اقدامات مربوط به انطباق را برای شروع از 2 اوت 2025 انجام می دهند ، اما بار بیشتر بر روی افراد دارای خطر سیستمیک است.
آنچه تجارت شما باید انجام دهد وقتی: خلاصه
اکنون که شما یک مرور کلی از مهمترین تعاریف و مفاهیم از قانون هوش مصنوعی اتحادیه اروپا دارید ، بیایید خلاصه کنیم که تجارت شما چه کاری باید انجام دهد
-
2 فوریه 2025: بسیار گسترده سواد هوش مصنوعی وت سیستم های AI ممنوع است الزامات به مرحله اجرا در می آیند.
-
2 آگوست 2025: الزامات برای هدف عمومی AI وارد شوید
-
دوم آگوست 2026: کلیه الزامات باقیمانده ، از جمله پرخطر (با یک استثنا در زیر) و در معرض خطر شفافیت سیستم های AI وارد می شوند.
-
2 فوریه 2027: الزامات مربوط به سیستم های هوش مصنوعی پرخطر که به این دلیل هستند در محصولات قبلاً تنظیم شده تعبیه شده است وارد شوید
دکتر پل لارسن ، رئیس داده های AI + در MKDEV ، دانشمند داده با بیش از 10 سال تجربه در شرکت های بزرگ (بیمه آلیانز ، دویچه بانک) و استارتاپ ها (شفاف) است. او خالق آموزش های صنعت و دانشگاه در زمینه مدیریت ریسک و هوش مصنوعی است و مستقیماً با تنظیم کننده های ملی کار کرده است.