شبکه های اجتماعی

پرونده یوتیوب در دادگاه عالی ایالات متحده می تواند محافظت از ChatGPT و AI را شکل دهد

پرونده یوتیوب در دادگاه عالی ایالات متحده می تواند محافظت از ChatGPT و AI را شکل دهد

وقتی که دیوان عالی آمریکا در ماه‌های آینده تصمیم می‌گیرد که آیا سپر قدرتمند محافظت از شرکت‌های اینترنتی را تضعیف کند، این حکم همچنین می‌تواند پیامدهایی برای فناوری‌های در حال توسعه سریع مانند ربات چت هوش مصنوعی ChatGPT داشته باشد.

قاضی قرار است تا پایان ژوئن تصمیم بگیرد که آیا YouTube Alphabet Inc می تواند به دلیل توصیه های ویدیویی آن به کاربران مورد شکایت قرار گیرد یا خیر. این مورد آزمایش می‌کند که آیا قانون ایالات متحده که از پلتفرم‌های فناوری در برابر مسئولیت قانونی در قبال محتوای منتشر شده آنلاین توسط کاربرانشان محافظت می‌کند، زمانی که شرکت‌ها از الگوریتم‌هایی برای هدف قرار دادن کاربران با توصیه‌ها استفاده می‌کنند نیز اعمال می‌شود یا خیر.

تصمیم دادگاه در مورد آن مسائل فراتر از پلتفرم های رسانه های اجتماعی است. حکم آن می تواند بر بحث در حال ظهور در مورد اینکه آیا شرکت هایی که چت ربات های مولد هوش مصنوعی مانند ChatGPT از OpenAI را توسعه می دهند، شرکتی که مایکروسافت در آن سرمایه گذار بزرگ است یا Bard از Alphabet تأثیر بگذارد. گوگل به گفته کارشناسان فناوری و حقوقی، باید در برابر ادعاهای قانونی مانند افترا یا نقض حریم خصوصی محافظت شود.

کارشناسان اضافه کردند که به این دلیل است که الگوریتم‌هایی که ابزارهای مولد هوش مصنوعی مانند ChatGPT و جانشین آن GPT-4 را تقویت می‌کنند، به روشی مشابه با الگوریتم‌هایی عمل می‌کنند که ویدیوها را به کاربران یوتیوب پیشنهاد می‌کنند.

کامرون کری، یکی از اعضای اندیشکده موسسه بروکینگز در واشنگتن و کارشناس هوش مصنوعی، گفت: «بحث واقعاً بر سر این است که آیا سازماندهی اطلاعات موجود به صورت آنلاین از طریق موتورهای توصیه برای شکل دادن به محتوا آنقدر مهم است که مسئولیت پذیر شود یا خیر. “شما هم در رابطه با یک چت بات مشکلات مشابهی دارید.”

نمایندگان OpenAI و Google به درخواست ها برای اظهار نظر پاسخ ندادند.

در جریان مشاجرات در ماه فوریه، دادگاه عالی قضات نسبت به تضعیف حمایت های مندرج در قانون، معروف به بخش 230 قانون نجابت ارتباطات در سال 1996، تردید داشتند. در حالی که این پرونده مستقیماً به هوش مصنوعی مولد مربوط نمی شود، عدالت نیل گورسوچ اشاره کرد که ابزارهای هوش مصنوعی که “شعر” و “جدال” را تولید می کنند احتمالاً از چنین حمایت های قانونی برخوردار نیستند.

این مورد تنها یکی از جنبه‌های گفتگوی نوظهور در مورد اینکه آیا مصونیت بخش 230 باید در مورد مدل‌های هوش مصنوعی که بر روی مجموعه‌ای از داده‌های آنلاین موجود آموزش دیده‌اند اما قادر به تولید آثار اصلی هستند اعمال شود، است.

حفاظت‌های بخش 230 عموماً برای محتوای شخص ثالث از کاربران یک پلت‌فرم فناوری اعمال می‌شود و نه اطلاعاتی که یک شرکت به توسعه آن کمک کرده است. دادگاه ها هنوز در مورد اینکه آیا پاسخ یک چت ربات هوش مصنوعی پوشش داده می شود، بررسی نکرده اند.

“عواقب اقدامات خود”

سناتور دموکرات ران وایدناو که در زمان حضور در مجلس نمایندگان به تدوین آن قانون کمک کرد، گفت که سپر مسئولیت نباید در مورد ابزارهای مولد هوش مصنوعی اعمال شود زیرا چنین ابزارهایی “محتوا ایجاد می کنند”.

“بخش 230 در مورد محافظت از کاربران و سایت ها برای میزبانی و سازماندهی گفتار کاربران است. این بخش نباید شرکت ها را از عواقب اقدامات و محصولات خود محافظت کند.” وایدن در بیانیه ای به رویترز گفت.

با وجود مخالفت دو حزبی با مصونیت، صنعت فناوری تلاش کرده است تا بخش 230 را حفظ کند. آنها گفتند ابزارهایی مانند ChatGPT مانند موتورهای جستجو عمل می کنند و کاربران را در پاسخ به یک درخواست به محتوای موجود هدایت می کنند.

کارل سابو، معاون و مشاور عمومی NetChoice، یک گروه تجاری صنعت فناوری، می‌گوید: “هوش مصنوعی در واقع چیزی ایجاد نمی‌کند. این محتوای موجود را می‌گیرد و آن را به شکلی متفاوت یا قالبی متفاوت قرار می‌دهد.”

سابو گفت که بخش 230 ضعیف کار غیرممکنی را برای توسعه دهندگان هوش مصنوعی ایجاد می کند و آنها را در معرض سیل دعوی قضایی قرار می دهد که می تواند نوآوری را خفه کند.

برخی از کارشناسان پیش‌بینی می‌کنند که دادگاه‌ها ممکن است راه وسطی را در نظر بگیرند و زمینه‌ای را بررسی کنند که در آن مدل هوش مصنوعی یک پاسخ بالقوه مضر ایجاد کرد.

در مواردی که به نظر می رسد مدل هوش مصنوعی منابع موجود را بازنویسی می کند، سپر ممکن است همچنان اعمال شود. اما چت ربات‌هایی مانند ChatGPT برای ایجاد پاسخ‌های تخیلی شناخته شده‌اند که به نظر می‌رسد هیچ ارتباطی با اطلاعات موجود در سایر نقاط آنلاین ندارند، وضعیتی که کارشناسان معتقدند احتمالاً محافظت نمی‌شود.

هانی فرید، فن‌شناس و استاد دانشگاه کالیفرنیا، برکلی، می‌گوید که استدلال این که توسعه‌دهندگان هوش مصنوعی باید از طرح‌های قضایی در مورد مدل‌هایی که «برنامه‌نویسی، آموزش و به کار گرفته‌شده‌اند» مصون باشند، تخیل را فراتر می‌برد.

فرید گفت: «وقتی شرکت‌ها در دعاوی مدنی مسئول آسیب‌های ناشی از محصولات تولیدی خود هستند، محصولات ایمن‌تری تولید می‌کنند. و هنگامی که آنها مسئولیتی ندارند، محصولات کمتر ایمن تولید می کنند.”

پرونده ای که توسط دیوان عالی کشور تصمیم گیری می شود شامل درخواست تجدید نظر از سوی خانواده است نوهمی گونزالس، یک دانشجوی 23 ساله از کالیفرنیا که در سال 2015 توسط شبه نظامیان اسلام گرا در پاریس به دلیل رد شکایت خانواده اش علیه یوتیوب توسط دادگاه بدوی به ضرب گلوله کشته شد.

این شکایت گوگل را به ارائه “حمایت مادی” از تروریسم متهم کرد و ادعا کرد که یوتیوب از طریق الگوریتم های پلتفرم اشتراک ویدئو، ویدیوهای گروه شبه نظامی دولت اسلامی را که مسئولیت حملات پاریس را بر عهده گرفته است، به طور غیرقانونی به کاربران خاص توصیه می کند.

فیس بوکتوییترلینکدین


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا