پرونده یوتیوب در دادگاه عالی ایالات متحده می تواند محافظت از ChatGPT و AI را شکل دهد


وقتی که دیوان عالی آمریکا در ماههای آینده تصمیم میگیرد که آیا سپر قدرتمند محافظت از شرکتهای اینترنتی را تضعیف کند، این حکم همچنین میتواند پیامدهایی برای فناوریهای در حال توسعه سریع مانند ربات چت هوش مصنوعی ChatGPT داشته باشد.
قاضی قرار است تا پایان ژوئن تصمیم بگیرد که آیا YouTube Alphabet Inc می تواند به دلیل توصیه های ویدیویی آن به کاربران مورد شکایت قرار گیرد یا خیر. این مورد آزمایش میکند که آیا قانون ایالات متحده که از پلتفرمهای فناوری در برابر مسئولیت قانونی در قبال محتوای منتشر شده آنلاین توسط کاربرانشان محافظت میکند، زمانی که شرکتها از الگوریتمهایی برای هدف قرار دادن کاربران با توصیهها استفاده میکنند نیز اعمال میشود یا خیر.
تصمیم دادگاه در مورد آن مسائل فراتر از پلتفرم های رسانه های اجتماعی است. حکم آن می تواند بر بحث در حال ظهور در مورد اینکه آیا شرکت هایی که چت ربات های مولد هوش مصنوعی مانند ChatGPT از OpenAI را توسعه می دهند، شرکتی که مایکروسافت در آن سرمایه گذار بزرگ است یا Bard از Alphabet تأثیر بگذارد. گوگل به گفته کارشناسان فناوری و حقوقی، باید در برابر ادعاهای قانونی مانند افترا یا نقض حریم خصوصی محافظت شود.
کارشناسان اضافه کردند که به این دلیل است که الگوریتمهایی که ابزارهای مولد هوش مصنوعی مانند ChatGPT و جانشین آن GPT-4 را تقویت میکنند، به روشی مشابه با الگوریتمهایی عمل میکنند که ویدیوها را به کاربران یوتیوب پیشنهاد میکنند.
کامرون کری، یکی از اعضای اندیشکده موسسه بروکینگز در واشنگتن و کارشناس هوش مصنوعی، گفت: «بحث واقعاً بر سر این است که آیا سازماندهی اطلاعات موجود به صورت آنلاین از طریق موتورهای توصیه برای شکل دادن به محتوا آنقدر مهم است که مسئولیت پذیر شود یا خیر. “شما هم در رابطه با یک چت بات مشکلات مشابهی دارید.”
نمایندگان OpenAI و Google به درخواست ها برای اظهار نظر پاسخ ندادند.
در جریان مشاجرات در ماه فوریه، دادگاه عالی قضات نسبت به تضعیف حمایت های مندرج در قانون، معروف به بخش 230 قانون نجابت ارتباطات در سال 1996، تردید داشتند. در حالی که این پرونده مستقیماً به هوش مصنوعی مولد مربوط نمی شود، عدالت نیل گورسوچ اشاره کرد که ابزارهای هوش مصنوعی که “شعر” و “جدال” را تولید می کنند احتمالاً از چنین حمایت های قانونی برخوردار نیستند.
این مورد تنها یکی از جنبههای گفتگوی نوظهور در مورد اینکه آیا مصونیت بخش 230 باید در مورد مدلهای هوش مصنوعی که بر روی مجموعهای از دادههای آنلاین موجود آموزش دیدهاند اما قادر به تولید آثار اصلی هستند اعمال شود، است.
حفاظتهای بخش 230 عموماً برای محتوای شخص ثالث از کاربران یک پلتفرم فناوری اعمال میشود و نه اطلاعاتی که یک شرکت به توسعه آن کمک کرده است. دادگاه ها هنوز در مورد اینکه آیا پاسخ یک چت ربات هوش مصنوعی پوشش داده می شود، بررسی نکرده اند.
“عواقب اقدامات خود”
سناتور دموکرات ران وایدناو که در زمان حضور در مجلس نمایندگان به تدوین آن قانون کمک کرد، گفت که سپر مسئولیت نباید در مورد ابزارهای مولد هوش مصنوعی اعمال شود زیرا چنین ابزارهایی “محتوا ایجاد می کنند”.
“بخش 230 در مورد محافظت از کاربران و سایت ها برای میزبانی و سازماندهی گفتار کاربران است. این بخش نباید شرکت ها را از عواقب اقدامات و محصولات خود محافظت کند.” وایدن در بیانیه ای به رویترز گفت.
با وجود مخالفت دو حزبی با مصونیت، صنعت فناوری تلاش کرده است تا بخش 230 را حفظ کند. آنها گفتند ابزارهایی مانند ChatGPT مانند موتورهای جستجو عمل می کنند و کاربران را در پاسخ به یک درخواست به محتوای موجود هدایت می کنند.
کارل سابو، معاون و مشاور عمومی NetChoice، یک گروه تجاری صنعت فناوری، میگوید: “هوش مصنوعی در واقع چیزی ایجاد نمیکند. این محتوای موجود را میگیرد و آن را به شکلی متفاوت یا قالبی متفاوت قرار میدهد.”
سابو گفت که بخش 230 ضعیف کار غیرممکنی را برای توسعه دهندگان هوش مصنوعی ایجاد می کند و آنها را در معرض سیل دعوی قضایی قرار می دهد که می تواند نوآوری را خفه کند.
برخی از کارشناسان پیشبینی میکنند که دادگاهها ممکن است راه وسطی را در نظر بگیرند و زمینهای را بررسی کنند که در آن مدل هوش مصنوعی یک پاسخ بالقوه مضر ایجاد کرد.
در مواردی که به نظر می رسد مدل هوش مصنوعی منابع موجود را بازنویسی می کند، سپر ممکن است همچنان اعمال شود. اما چت رباتهایی مانند ChatGPT برای ایجاد پاسخهای تخیلی شناخته شدهاند که به نظر میرسد هیچ ارتباطی با اطلاعات موجود در سایر نقاط آنلاین ندارند، وضعیتی که کارشناسان معتقدند احتمالاً محافظت نمیشود.
هانی فرید، فنشناس و استاد دانشگاه کالیفرنیا، برکلی، میگوید که استدلال این که توسعهدهندگان هوش مصنوعی باید از طرحهای قضایی در مورد مدلهایی که «برنامهنویسی، آموزش و به کار گرفتهشدهاند» مصون باشند، تخیل را فراتر میبرد.
فرید گفت: «وقتی شرکتها در دعاوی مدنی مسئول آسیبهای ناشی از محصولات تولیدی خود هستند، محصولات ایمنتری تولید میکنند. و هنگامی که آنها مسئولیتی ندارند، محصولات کمتر ایمن تولید می کنند.”
پرونده ای که توسط دیوان عالی کشور تصمیم گیری می شود شامل درخواست تجدید نظر از سوی خانواده است نوهمی گونزالس، یک دانشجوی 23 ساله از کالیفرنیا که در سال 2015 توسط شبه نظامیان اسلام گرا در پاریس به دلیل رد شکایت خانواده اش علیه یوتیوب توسط دادگاه بدوی به ضرب گلوله کشته شد.
این شکایت گوگل را به ارائه “حمایت مادی” از تروریسم متهم کرد و ادعا کرد که یوتیوب از طریق الگوریتم های پلتفرم اشتراک ویدئو، ویدیوهای گروه شبه نظامی دولت اسلامی را که مسئولیت حملات پاریس را بر عهده گرفته است، به طور غیرقانونی به کاربران خاص توصیه می کند.
فیس بوکتوییترلینکدین