علمی، پژوهشی و فناوری

هوش‌مصنوعی نمی‌تواند خطر جدی برای انسان ایجاد کند

تحقیقات جدید نشان می‌دهد یک ویژگی هوش‌مصنوعی جدید باعث می‌شود نتوانند خطر جدی برای انسان‌ها ایجاد کنند.

به گزارش پایگاه خبری علم و فناوری : تحقیقات جدید نشان می‌دهد که مدل‌های زبانی بزرگ (LLM) مانند چت‌جی‌پی‌تی نمی‌توانند به طور مستقل یاد بگیرند یا بدون دستورالعمل صریح مهارت‌های جدیدی کسب کنند و این امر باعث می‌شود آن‌ها قابل پیش‌بینی و کنترل باشند.این مطالعه ترس از توسعه توانایی‌های استدلال پیچیده در این مدل‌ها را از بین می‌برد و تأکید می‌کند که اگرچه مدل‌های هوش‌مصنوعی می‌توانند زبان پیچیده‌ای تولید کنند، اما بعید است تهدیدهای وجودی ایجاد کنند. با این حال، سوءاستفاده بالقوه از هوش مصنوعی، مانند تولید اخبار جعلی، همچنان نیاز به توجه دارد.
جزئیات بیشتر تحقیق
طبق تحقیقات جدید دانشگاه بث و دانشگاه فنی دارمشتاد در آلمان، چت‌جی‌پی‌تی و سایر مدل‌های زبانی بزرگ (LLM) نمی‌توانند به طور مستقل یاد بگیرند یا مهارت‌های جدیدی کسب کنند، به این معنی که هیچ تهدید وجودی برای بشریت ایجاد نمی‌کنند، این مطالعه نشان می‌دهد که این مدل‌های هوش‌مصنوعی توانایی سطحی برای دنبال کردن دستورالعمل‌ها دارند و در تسلط بر زبان برتری دارند، با این حال، هیچ پتانسیلی برای تسلط بر مهارت‌های جدید بدون دستورالعمل صریح ندارند. این بدان معناست که آن‌ها ذاتاً قابل کنترل، قابل پیش‌بینی و ایمن باقی می‌مانند.
این بدان معناست که آن‌ها ذاتاً قابل کنترل، قابل پیش‌بینی و ایمن باقی می‌مانند.تیم تحقیقاتی نتیجه گرفت که مدل‌های هوش‌مصنوعی بزرگ که در حال آموزش بر روی مجموعه داده‌های بزرگ‌تر هستند، می‌توانند بدون نگرانی ایمنی مستقر شوند، اگرچه این فناوری هنوز می‌تواند سوء استفاده شود.با رشد، این مدل‌ها احتمالاً زبان پیچیده‌تری تولید می‌کنند و در پیروی از دستورالعمل‌های واضح و دقیق بهتر می‌شوند، اما به احتمال زیاد مهارت‌های استدلال پیچیده کسب نمی‌کنند.دکتر هاریش تایار مادابوشی، دانشمند کامپیوتر در دانشگاه بث و یکی از نویسندگان مطالعه جدید در مورد «توانایی‌های نوظهور» مدل‌های هوش‌مصنوعی بزرگ ، گفت: «روایت غالب مبنی بر اینکه این نوع هوش مصنوعی تهدیدی برای بشریت است، از پذیرش و توسعه گسترده این فناوری‌ها جلوگیری می‌کند و همچنین توجه را از مسائل واقعی که نیاز به تمرکز ما دارند منحرف می‌کند.»تیم تحقیقاتی مشترک به رهبری پروفسور ایرینا گورویچ در دانشگاه فنی دارمشتاد در آلمان، آزمایش‌هایی را برای آزمایش توانایی مدل‌های هوش‌مصنوعی بزرگ در انجام کارهایی که مدل‌ها قبلاً هرگز با آن‌ها مواجه نشده‌اند - به اصطلاح توانایی‌های نوظهور - انجام داد.
به عنوان مثال، مدل‌های هوش‌مصنوعی بزرگ می‌توانند بدون اینکه قبلاً به طور خاص آموزش داده یا برنامه‌ریزی شده باشند، به سوالات مربوط به موقعیت‌های اجتماعی پاسخ دهند. در حالی که تحقیقات قبلی نشان می‌داد که این محصول «دانستن» مدل‌ها در مورد موقعیت‌های اجتماعی است، محققان نشان دادند که در واقع نتیجه استفاده از توانایی شناخته شده مدل‌های هوش‌مصنوعی بزرگ برای تکمیل وظایف بر اساس چند نمونه ارائه شده به آن‌ها است که به عنوان «یادگیری در زمینه» (ICL) شناخته می‌شود.
این مطالعه به عنوان بخشی از مجموعه مقالات شصت و دومین نشست سالانه انجمن محاسبات زبان‌شناسی (ACL 2024) - کنفرانس برتر بین‌المللی در پردازش زبان طبیعی - منتشر شده است.

https://stnews.ir/short/eGKxa
اخبار مرتبط
تبادل نظر
نام:
ایمیل: ایمیل خود را با فرمت مناسب وارد کنید
نظر: