شبکه های اجتماعی

در اینجا چیزی است که مدیر عامل OpenAI سازنده ChatGPT در مورد “خطرات هوش مصنوعی” می گوید

Rate this post

ChatGPT، توسط شرکت آمریکایی ایجاد شده است OpenAI، از زمان راه اندازی خود شاهد چندین ارتقاء بوده است. قابلیت‌های هوش مصنوعی فناوری زیربنایی آنقدر پیچیده شده است که مردم شروع به طرح این سؤال کردند که آیا هوش مصنوعی می‌تواند جایگزین مشاغل شود و در انتشار اطلاعات نادرست استفاده شود. سام آلتمنمدیر عامل OpenAI اکنون گفته است که از اختراع شرکت خود “کمی ترسیده است” اما نسبت به خوبی که می تواند انجام دهد مثبت است.

هنگام صحبت با ABC News، آلتمن گفت که او معتقد است که فناوری هوش مصنوعی با خطرات واقعی همراه است، اما همچنین می‌تواند «بزرگ‌ترین فناوری‌ای باشد که بشر تاکنون توسعه داده است» تا زندگی مردم را به شدت بهبود بخشد.

“ما باید در اینجا مراقب باشیم. من فکر می کنم مردم باید خوشحال باشند که ما کمی از این می ترسیم. می گفت اگر نمی ترسم یا باید به من اعتماد نکنی یا خیلی ناراحت باشی که من در این کار هستم.

هوش مصنوعی جایگزین مشاغل
آلتمن گفت که هوش مصنوعی احتمالاً در آینده نزدیک جایگزین برخی مشاغل خواهد شد و نگران است که این اتفاق با چه سرعتی ممکن است رخ دهد. با این حال، او همچنین به جنبه مثبت آن اشاره کرد که فناوری زندگی ما را بهبود می بخشد.

آلتمن گفت: «فکر می‌کنم طی چند نسل، بشریت ثابت کرده است که می‌تواند به طرز شگفت‌انگیزی با تغییرات بزرگ فناوری سازگار شود. بخشی است که من بیشتر نگران آن هستم.»

“این کار بسیاری از مشاغل فعلی را حذف خواهد کرد، این درست است. ما می توانیم مشاغل بسیار بهتری بسازیم. دلیل توسعه هوش مصنوعی اصلاً از نظر تأثیر بر زندگی ما و بهبود زندگی ما و پیشرفت ما، این بزرگترین فناوری خواهد بود. آلتمن خاطرنشان کرد: بشریت هنوز توسعه یافته است.

او همچنین مردم را تشویق کرد که از ChatGPT بیشتر به عنوان یک ابزار و نه به عنوان جایگزین استفاده کنند. آلتمن همچنین اثرات مثبت هوش مصنوعی بر آموزش را مورد بحث قرار داد.

او گفت: “همه ما می توانیم یک مربی باورنکردنی در جیب خود داشته باشیم که برای ما سفارشی شده است، که به ما کمک می کند یاد بگیریم. آموزش باید تغییر کند.”

استفاده از هوش مصنوعی در اطلاعات غلط
برای آلتمن، یکی از مشکلات سازگار با مدل‌های زبان هوش مصنوعی مانند ChatGPT، اطلاعات نادرست است. او گفت که این برنامه می تواند اطلاعات نادرست واقعی را به کاربران بدهد.

او گفت: “چیزی که من بیش از همه به مردم هشدار می دهم چیزی است که ما آن را “مشکل توهمات” می نامیم. این مدل با اطمینان همه چیز را به گونه ای بیان می کند که گویی واقعیت هایی کاملا ساخته شده است.” و افزود که GPT-4، آخرین مورد مدل زبان، قدرتمندتر از مدلی است که ChatGPT با آن راه اندازی شد.

همچنین بخوانید

نحوه استفاده از ChatGPT-4 چیست و موارد دیگر را توضیح داد
چگونه در ChatGPT Plus مشترک شویم

آلتمن گفت: «روش درست فکر کردن به مدل‌هایی که ایجاد می‌کنیم، یک موتور استدلال است، نه یک پایگاه داده واقعی.

او افزود: “آنها همچنین می توانند به عنوان یک پایگاه داده واقعی عمل کنند، اما این واقعاً چیزی نیست که در مورد آنها خاص است – کاری که ما می خواهیم آنها انجام دهند چیزی نزدیک تر به توانایی استدلال است، نه به خاطر سپردن.”

مدیر ارشد این شرکت خاطرنشان کرد که خود این فناوری فوق العاده قوی و بالقوه خطرناک است.

جوایز GN

فیس بوکتوییترلینکدین


نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا