پرونده یوتیوب در دادگاه عالی ایالات متحده می تواند محافظت از ChatGPT و AI را شکل دهد


اگر این ویژگی برای حساب کاربران فعال باشد، هنگام دسترسی به منوی سرریز در YouTube Music، گزینه «مشاهده اعتبار آهنگ» را مشاهده خواهند کرد.
وقتی که دیوان عالی آمریکا در ماه های آینده تصمیم می گیرد که آیا سپر قدرتمند محافظت از شرکت های اینترنتی را تضعیف کند یا خیر، این حکم همچنین می تواند پیامدهایی برای فناوری های در حال توسعه سریع مانند هوش مصنوعی چت بات ChatGPT.
قرار است قاضی تا پایان ژوئن حکم کند شرکت آلفابت‘s یوتیوب می توان به دلیل توصیه های ویدئویی آن به کاربران شکایت کرد. این مورد آزمایش میکند که آیا قانون ایالات متحده که از پلتفرمهای فناوری در برابر مسئولیت قانونی در قبال محتوای منتشر شده آنلاین توسط کاربرانشان محافظت میکند، زمانی که شرکتها از الگوریتمهایی برای هدف قرار دادن کاربران با توصیهها استفاده میکنند نیز اعمال میشود یا خیر.
تصمیم دادگاه در مورد آن مسائل فراتر از پلتفرم های رسانه های اجتماعی است. حکم آن می تواند بر بحث در حال ظهور در مورد اینکه آیا شرکت هایی که مولد را توسعه می دهند یا خیر تأثیر بگذارد هوش مصنوعی ربات های چت مانند ChatGPT از OpenAIبه گفته کارشناسان فناوری و حقوقی، شرکتی که مایکروسافت Corp در آن سرمایهگذار عمده است یا Bard از Google Alphabet باید در برابر ادعاهای قانونی مانند افترا یا نقض حریم خصوصی محافظت شود.
کارشناسان اضافه کردند که به این دلیل است که الگوریتمهایی که ابزارهای مولد هوش مصنوعی مانند ChatGPT و جانشین آن GPT-4 را تقویت میکنند، به روشی مشابه با الگوریتمهایی عمل میکنند که ویدیوها را به کاربران یوتیوب پیشنهاد میکنند.
کامرون کری، یکی از اعضای اندیشکده موسسه بروکینگز در واشنگتن و کارشناس هوش مصنوعی، گفت: «بحث واقعاً بر سر این است که آیا سازماندهی اطلاعات موجود به صورت آنلاین از طریق موتورهای توصیه برای شکل دادن به محتوا آنقدر مهم است که مسئولیت پذیر شود یا خیر. “شما هم در رابطه با یک چت بات مشکلات مشابهی دارید.”
نمایندگان OpenAI و Google به درخواست ها برای اظهار نظر پاسخ ندادند.
در خلال مشاجرات در ماه فوریه، قضات دیوان عالی درباره تضعیف حمایت های مندرج در قانون، معروف به بخش 230 قانون نجابت ارتباطات در سال 1996، ابراز تردید کردند. در حالی که این پرونده مستقیماً به هوش مصنوعی مولد مربوط نمی شود، قاضی نیل گورسوش خاطرنشان کرد که هوش مصنوعی ابزارهایی که “شعر” و “جدال” را تولید می کنند احتمالاً از چنین حمایت های قانونی برخوردار نیستند.
این مورد تنها یکی از جنبههای گفتگوی نوظهور در مورد اینکه آیا مصونیت بخش 230 باید در مورد مدلهای هوش مصنوعی که بر روی مجموعهای از دادههای آنلاین موجود آموزش دیدهاند اما قادر به تولید آثار اصلی هستند اعمال شود، است.
حفاظتهای بخش 230 عموماً برای محتوای شخص ثالث از کاربران یک پلتفرم فناوری اعمال میشود و نه اطلاعاتی که یک شرکت به توسعه آن کمک کرده است. دادگاه ها هنوز در مورد اینکه آیا پاسخ یک چت ربات هوش مصنوعی پوشش داده می شود، بررسی نکرده اند.
“پیامدهای اعمال خود”
سناتور دموکرات، ران وایدن، که در هنگام حضور در مجلس نمایندگان به تدوین آن قانون کمک کرد، گفت که سپر مسئولیت نباید در مورد ابزارهای مولد هوش مصنوعی اعمال شود زیرا چنین ابزارهایی “محتوا ایجاد می کنند”.
وایدن در بیانیه ای به رویترز گفت: “بخش 230 در مورد محافظت از کاربران و سایت ها برای میزبانی و سازماندهی سخنرانی کاربران است. این بخش نباید از شرکت ها در برابر عواقب اقدامات و محصولات خود محافظت کند.”
با وجود مخالفت دو حزبی با مصونیت، صنعت فناوری تلاش کرده است تا بخش 230 را حفظ کند. آنها گفتند ابزارهایی مانند ChatGPT مانند موتورهای جستجو عمل می کنند و کاربران را در پاسخ به یک درخواست به محتوای موجود هدایت می کنند.
کارل سابو، معاون و مشاور عمومی NetChoice، یک گروه تجاری صنعت فناوری، میگوید: “هوش مصنوعی در واقع چیزی ایجاد نمیکند. این محتوای موجود را میگیرد و آن را به شکلی متفاوت یا قالبی متفاوت قرار میدهد.”
سابو گفت که بخش 230 ضعیف کار غیرممکنی را برای توسعه دهندگان هوش مصنوعی ایجاد می کند و آنها را در معرض سیل دعوی قضایی قرار می دهد که می تواند نوآوری را خفه کند.
برخی از کارشناسان پیشبینی میکنند که دادگاهها ممکن است راه وسطی را در نظر بگیرند و زمینهای را بررسی کنند که در آن مدل هوش مصنوعی یک پاسخ بالقوه مضر ایجاد کرد.
در مواردی که به نظر می رسد مدل هوش مصنوعی منابع موجود را بازنویسی می کند، سپر ممکن است همچنان اعمال شود. اما چت رباتهایی مانند ChatGPT برای ایجاد پاسخهای تخیلی شناخته شدهاند که به نظر میرسد هیچ ارتباطی با اطلاعات موجود در سایر نقاط آنلاین ندارند، وضعیتی که کارشناسان معتقدند احتمالاً محافظت نمیشود.
هانی فرید، فنشناس و استاد دانشگاه کالیفرنیا، برکلی، میگوید که استدلال این که توسعهدهندگان هوش مصنوعی باید از طرحهای قضایی در مورد مدلهایی که «برنامهنویسی، آموزش و به کار گرفتهشدهاند» مصون باشند، تخیل را فراتر میبرد.
فرید گفت: «وقتی شرکتها در دعاوی مدنی مسئول آسیبهای ناشی از محصولات تولیدی خود هستند، محصولات ایمنتری تولید میکنند. و هنگامی که آنها مسئولیتی ندارند، محصولات کمتر ایمن تولید می کنند.”
پرونده ای که توسط دادگاه عالی تصمیم گیری می شود شامل درخواست تجدید نظر خانواده نوهمی گونزالس، یک دانشجوی 23 ساله از کالیفرنیا است که در سال 2015 توسط شبه نظامیان اسلام گرا در پاریس به ضرب گلوله کشته شد. شکایت علیه یوتیوب
این شکایت گوگل را به ارائه “حمایت مادی” از تروریسم متهم کرد و ادعا کرد که یوتیوب از طریق الگوریتم های پلتفرم اشتراک ویدئو، ویدیوهای گروه شبه نظامی دولت اسلامی را که مسئولیت حملات پاریس را بر عهده گرفته است، به طور غیرقانونی به کاربران خاص توصیه می کند.
فیس بوکتوییترلینکدین