علمی، پژوهشی و فناوری

خالق ChatGPT: لطفاً عاشق چت‌بات‌های ما نشوید

شرکت OpenAI درمورد ایجاد روابط عاطفی کاربران با چت‌بات‌های هوش مصنوعی خود نگران است.

به گزارش پایگاه خبری علم و فناوری : شرکت‌های توسعه‌دهنده‌ی چت‌بات‌های هوش مصنوعی همواره سعی دارند عملکرد مدل‌های خود را تا حد امکان شبیه انسان کنند. ظاهراً OpenAI کمی نگران «بیش‌ازحد انسان‌ بودن» مدل‌های هوش مصنوعی و تأثیر آن‌ها روی هنجارهای اجتماعی است.

OpenAI در گزارش جامع فعالیت‌های خود، به صراحت اعلام کرد که ترجیح می‌دهد کاربران نسبت‌ به GPT-4o احساسات عاطفی پیدا نکنند.

با توجه‌ به پست وبلاگی OpenAI، این شرکت تلاش زیادی انجام داده است تا کاربران هنگام مکالمه با GPT-4o، احساس کنند با یک انسان حرف می‌زنند. این تلاش‌ها شامل ویژگی صوتی جدید برای تقلید گفتار انسان به‌همراه سرعت بالاتر پاسخگویی می‌شود و می‌توانید با چت‌بات، گفت‌وگویی صوتی شبیه به مکالمه‌ با یک انسان واقعی داشته باشید.

اکنون OpenAI متوجه شده است کاربران با ChatGPT-4o مانند انسان واقعی رفتار می‌کنند. این شرکت می‌گوید: «در مراحل اولیه‌ی تست، ازجمله آزمایش‌های داخلی و شبیه‌سازی حملات سایبری، متوجه شدیم کاربران از عباراتی استفاده می‌کنند که برقراری ارتباط با مدل را نشان می‌دهد. درحالی‌که موارد ذکرشده بی‌ضرر به‌نظر می‌رسند، اما بررسی اثرات بلندمدت آن‌ها نیاز به بررسی بیشتر دارد.»

OpenAI به دو دلیل موضوع انسان‌‌پنداری چت‌بات‌ها را خبر بدی می‌داند. اول اینکه، وقتی هوش مصنوعی شبیه انسان به‌نظر برسد، ما بیشتر مستعد باورکردن حرف‌های آن به‌عنوان واقعیت هستیم. این یعنی مردم درمقایسه‌با زمانی که هوش مصنوعی شبیه ربات رفتار می‌کند، بسیار بیشتر در معرض توهمات و اطلاعات اشتباه آن قرار می‌گیرند.

مورد دوم اینکه OpenAI نگران است هنجارهای اجتماعی با GPT-4o تحریف شوند. شرکت مورد بحث احتمال می‌دهد این مدل، نیاز به تعاملات اجتماعی را کاهش دهد و درحالی‌که امکان دارد به افراد تنها کمک کند، اما احتمالاً بر روابط سالم تأثیر خواهد داشت.

GPT-4o طوری طراحی شده است که اگر در حال صحبت باشد و کاربر نیز شروع به حرف‌زدن کند، صحبت‌های چت‌بات قطع می‌شود تا به حرف‌های کاربر گوش دهد و شاید این سبک حرف‌زدن در مکالمات دنیای واقعی نیز تأثیر داشته باشد.

درحال‌حاضر، OpenAI نحوه‌ی برقراری ارتباط احساسی افراد با چت‌بات‌های خود را زیر نظر خواهد گرفت و در صورت لزوم، سیستم‌هایش را اصلاح می‌کند. نگرانی‌های این شرکت، دید بسیار جالبی درمورد عوارض جانبی استفاده از مدل‌های هوش مصنوعی ارائه می‌دهد.

https://stnews.ir/short/VpoxA
اخبار مرتبط
تبادل نظر
نام:
ایمیل: ایمیل خود را با فرمت مناسب وارد کنید
نظر: