شبکه های اجتماعی

پرونده یوتیوب در دادگاه عالی ایالات متحده می تواند محافظت از ChatGPT و AI را شکل دهد

پرونده یوتیوب در دادگاه عالی ایالات متحده می تواند محافظت از ChatGPT و AI را شکل دهد

اگر این ویژگی برای حساب کاربران فعال باشد، هنگام دسترسی به منوی سرریز در YouTube Music، گزینه «مشاهده اعتبار آهنگ» را مشاهده خواهند کرد.

وقتی که دیوان عالی آمریکا در ماه های آینده تصمیم می گیرد که آیا سپر قدرتمند محافظت از شرکت های اینترنتی را تضعیف کند یا خیر، این حکم همچنین می تواند پیامدهایی برای فناوری های در حال توسعه سریع مانند هوش مصنوعی چت بات ChatGPT.

قرار است قاضی تا پایان ژوئن حکم کند شرکت آلفابت‘s یوتیوب می توان به دلیل توصیه های ویدئویی آن به کاربران شکایت کرد. این مورد آزمایش می‌کند که آیا قانون ایالات متحده که از پلتفرم‌های فناوری در برابر مسئولیت قانونی در قبال محتوای منتشر شده آنلاین توسط کاربرانشان محافظت می‌کند، زمانی که شرکت‌ها از الگوریتم‌هایی برای هدف قرار دادن کاربران با توصیه‌ها استفاده می‌کنند نیز اعمال می‌شود یا خیر.

تصمیم دادگاه در مورد آن مسائل فراتر از پلتفرم های رسانه های اجتماعی است. حکم آن می تواند بر بحث در حال ظهور در مورد اینکه آیا شرکت هایی که مولد را توسعه می دهند یا خیر تأثیر بگذارد هوش مصنوعی ربات های چت مانند ChatGPT از OpenAIبه گفته کارشناسان فناوری و حقوقی، شرکتی که مایکروسافت Corp در آن سرمایه‌گذار عمده است یا Bard از Google Alphabet باید در برابر ادعاهای قانونی مانند افترا یا نقض حریم خصوصی محافظت شود.

کارشناسان اضافه کردند که به این دلیل است که الگوریتم‌هایی که ابزارهای مولد هوش مصنوعی مانند ChatGPT و جانشین آن GPT-4 را تقویت می‌کنند، به روشی مشابه با الگوریتم‌هایی عمل می‌کنند که ویدیوها را به کاربران یوتیوب پیشنهاد می‌کنند.

کامرون کری، یکی از اعضای اندیشکده موسسه بروکینگز در واشنگتن و کارشناس هوش مصنوعی، گفت: «بحث واقعاً بر سر این است که آیا سازماندهی اطلاعات موجود به صورت آنلاین از طریق موتورهای توصیه برای شکل دادن به محتوا آنقدر مهم است که مسئولیت پذیر شود یا خیر. “شما هم در رابطه با یک چت بات مشکلات مشابهی دارید.”

نمایندگان OpenAI و Google به درخواست ها برای اظهار نظر پاسخ ندادند.

در خلال مشاجرات در ماه فوریه، قضات دیوان عالی درباره تضعیف حمایت های مندرج در قانون، معروف به بخش 230 قانون نجابت ارتباطات در سال 1996، ابراز تردید کردند. در حالی که این پرونده مستقیماً به هوش مصنوعی مولد مربوط نمی شود، قاضی نیل گورسوش خاطرنشان کرد که هوش مصنوعی ابزارهایی که “شعر” و “جدال” را تولید می کنند احتمالاً از چنین حمایت های قانونی برخوردار نیستند.

این مورد تنها یکی از جنبه‌های گفتگوی نوظهور در مورد اینکه آیا مصونیت بخش 230 باید در مورد مدل‌های هوش مصنوعی که بر روی مجموعه‌ای از داده‌های آنلاین موجود آموزش دیده‌اند اما قادر به تولید آثار اصلی هستند اعمال شود، است.

حفاظت‌های بخش 230 عموماً برای محتوای شخص ثالث از کاربران یک پلت‌فرم فناوری اعمال می‌شود و نه اطلاعاتی که یک شرکت به توسعه آن کمک کرده است. دادگاه ها هنوز در مورد اینکه آیا پاسخ یک چت ربات هوش مصنوعی پوشش داده می شود، بررسی نکرده اند.

“پیامدهای اعمال خود”
سناتور دموکرات، ران وایدن، که در هنگام حضور در مجلس نمایندگان به تدوین آن قانون کمک کرد، گفت که سپر مسئولیت نباید در مورد ابزارهای مولد هوش مصنوعی اعمال شود زیرا چنین ابزارهایی “محتوا ایجاد می کنند”.

وایدن در بیانیه ای به رویترز گفت: “بخش 230 در مورد محافظت از کاربران و سایت ها برای میزبانی و سازماندهی سخنرانی کاربران است. این بخش نباید از شرکت ها در برابر عواقب اقدامات و محصولات خود محافظت کند.”

با وجود مخالفت دو حزبی با مصونیت، صنعت فناوری تلاش کرده است تا بخش 230 را حفظ کند. آنها گفتند ابزارهایی مانند ChatGPT مانند موتورهای جستجو عمل می کنند و کاربران را در پاسخ به یک درخواست به محتوای موجود هدایت می کنند.

کارل سابو، معاون و مشاور عمومی NetChoice، یک گروه تجاری صنعت فناوری، می‌گوید: “هوش مصنوعی در واقع چیزی ایجاد نمی‌کند. این محتوای موجود را می‌گیرد و آن را به شکلی متفاوت یا قالبی متفاوت قرار می‌دهد.”

سابو گفت که بخش 230 ضعیف کار غیرممکنی را برای توسعه دهندگان هوش مصنوعی ایجاد می کند و آنها را در معرض سیل دعوی قضایی قرار می دهد که می تواند نوآوری را خفه کند.

برخی از کارشناسان پیش‌بینی می‌کنند که دادگاه‌ها ممکن است راه وسطی را در نظر بگیرند و زمینه‌ای را بررسی کنند که در آن مدل هوش مصنوعی یک پاسخ بالقوه مضر ایجاد کرد.

در مواردی که به نظر می رسد مدل هوش مصنوعی منابع موجود را بازنویسی می کند، سپر ممکن است همچنان اعمال شود. اما چت ربات‌هایی مانند ChatGPT برای ایجاد پاسخ‌های تخیلی شناخته شده‌اند که به نظر می‌رسد هیچ ارتباطی با اطلاعات موجود در سایر نقاط آنلاین ندارند، وضعیتی که کارشناسان معتقدند احتمالاً محافظت نمی‌شود.

هانی فرید، فن‌شناس و استاد دانشگاه کالیفرنیا، برکلی، می‌گوید که استدلال این که توسعه‌دهندگان هوش مصنوعی باید از طرح‌های قضایی در مورد مدل‌هایی که «برنامه‌نویسی، آموزش و به کار گرفته‌شده‌اند» مصون باشند، تخیل را فراتر می‌برد.

فرید گفت: «وقتی شرکت‌ها در دعاوی مدنی مسئول آسیب‌های ناشی از محصولات تولیدی خود هستند، محصولات ایمن‌تری تولید می‌کنند. و هنگامی که آنها مسئولیتی ندارند، محصولات کمتر ایمن تولید می کنند.”

پرونده ای که توسط دادگاه عالی تصمیم گیری می شود شامل درخواست تجدید نظر خانواده نوهمی گونزالس، یک دانشجوی 23 ساله از کالیفرنیا است که در سال 2015 توسط شبه نظامیان اسلام گرا در پاریس به ضرب گلوله کشته شد. شکایت علیه یوتیوب

این شکایت گوگل را به ارائه “حمایت مادی” از تروریسم متهم کرد و ادعا کرد که یوتیوب از طریق الگوریتم های پلتفرم اشتراک ویدئو، ویدیوهای گروه شبه نظامی دولت اسلامی را که مسئولیت حملات پاریس را بر عهده گرفته است، به طور غیرقانونی به کاربران خاص توصیه می کند.

فیس بوکتوییترلینکدین


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا