علمی، پژوهشی و فناوری

تصمیمات ناعادلانه هوش مصنوعی می تواند ما را نسبت به رفتار بد انسان ها بی تفاوت کند

هوش مصنوعی (AI) تصمیمات مهمی می گیرد که بر زندگی روزمره ما تأثیر می گذارد. این تصمیمات توسط بنگاه ها و موسسات به نام بهره وری اجرا می شود.

به گزارش پایگاه خبری علم و فناوری، به نقل از فیز؛ هوش مصنوعی (AI) تصمیمات مهمی می گیرد که بر زندگی روزمره ما تأثیر می گذارد. این تصمیمات توسط بنگاه ها و موسسات به نام بهره وری اجرا می شود. آنها می توانند به تعیین اینکه چه کسی وارد دانشگاه می شود، چه کسی شغلی پیدا می کند، چه کسی تحت درمان پزشکی قرار می گیرد و چه کسی واجد شرایط کمک های دولتی است، کمک کنند.

همانطور که هوش مصنوعی این نقش‌ها را بر عهده می‌گیرد، خطر تصمیم‌های ناعادلانه یا درک آن‌ها توسط افراد تحت تأثیر قرار می‌گیرد. به عنوان مثال، در پذیرش یا استخدام در کالج، این تصمیمات خودکار می تواند به طور ناخواسته به نفع گروه های خاصی از افراد یا افرادی با پیشینه های خاص باشد، در حالی که متقاضیان واجد شرایط اما کمتر از آنها نادیده گرفته می شوند.

یا هنگامی که توسط دولت ها در سیستم های مزایا استفاده می شود، هوش مصنوعی ممکن است منابع را به گونه ای تخصیص دهد که نابرابری اجتماعی را بدتر کند و باعث شود برخی افراد کمتر از آنچه استحقاقشان را دارند و احساس رفتار ناعادلانه داشته باشند.

ما به همراه یک تیم بین المللی از محققان، بررسی کردیم که چگونه توزیع ناعادلانه منابع - چه توسط هوش مصنوعی یا یک انسان انجام شود - بر تمایل افراد برای اقدام علیه ناعادلانه تأثیر می گذارد. نتایج در مجله Cognition منتشر شده است.

با گنجاندن بیشتر هوش مصنوعی در زندگی روزمره، دولت ها برای محافظت از شهروندان در برابر سیستم های هوش مصنوعی مغرضانه یا غیرشفاف وارد عمل می شوند. نمونه هایی از این تلاش ها شامل منشور حقوق هوش مصنوعی کاخ سفید و قانون هوش مصنوعی پارلمان اروپا است. اینها یک نگرانی مشترک را منعکس می کنند: ممکن است مردم از تصمیمات هوش مصنوعی احساس کنند که در حق آنها ظلم شده است.

بنابراین، چگونه تجربه بی‌عدالتی از یک سیستم هوش مصنوعی بر نحوه رفتار افراد پس از آن با یکدیگر تأثیر می‌گذارد؟

بی تفاوتی ناشی از هوش مصنوعی

مقاله ما در Cognition به تمایل افراد برای اقدام علیه ناعادلانه پس از تجربه رفتار ناعادلانه توسط یک هوش مصنوعی پرداخته است. رفتاری که ما بررسی کردیم در تعاملات بعدی و نامرتبط این افراد اعمال شد. تمایل به اقدام در چنین موقعیت هایی که اغلب به آن "مجازات اجتماعی" می گویند، برای حفظ هنجارهای اجتماعی بسیار مهم است.

به عنوان مثال، افشاگران ممکن است علیرغم خطرات، اقدامات غیراخلاقی را گزارش کنند، یا مصرف کنندگان ممکن است شرکت هایی را که معتقدند به روش های مضر عمل می کنند تحریم کنند. افرادی که در این اعمال تنبیه اجتماعی شرکت می کنند، اغلب این کار را برای رسیدگی به بی عدالتی هایی انجام می دهند که بر دیگران تأثیر می گذارد، که به تقویت استانداردهای جامعه کمک می کند.

ما این سوال را پرسیدیم: آیا تجربه بی‌عدالتی از هوش مصنوعی، به جای یک شخص، می‌تواند بر تمایل مردم برای ایستادگی در مقابل خطاکاران انسانی تأثیر بگذارد؟ به عنوان مثال، اگر هوش مصنوعی به طور ناعادلانه تغییری را تعیین کند یا منفعتی را انکار کند، آیا احتمال اینکه افراد بعد از آن رفتار غیراخلاقی یک همکار را گزارش کنند کمتر می شود؟

در طی یک سری آزمایش، متوجه شدیم که افرادی که توسط یک هوش مصنوعی به‌طور ناعادلانه رفتار می‌کردند، نسبت به شرکت‌کنندگانی که توسط یک انسان ناعادلانه رفتار می‌شد، احتمال کمتری داشت که متخلفان انسانی را مجازات کنند. نسبت به رفتار بد دیگران نوعی حساسیت زدایی از خود نشان می دادند. ما این اثر را بی‌تفاوتی ناشی از هوش مصنوعی نامیدیم تا این ایده را درک کنیم که رفتار ناعادلانه توسط هوش مصنوعی می‌تواند حس مسئولیت‌پذیری افراد را در قبال دیگران تضعیف کند. این باعث می شود که آنها کمتر به بی عدالتی در جامعه خود رسیدگی کنند.

دلایل عدم اقدام

این ممکن است به این دلیل باشد که افراد هوش مصنوعی را برای رفتار ناعادلانه کمتر سرزنش می‌کنند و بنابراین احساس می‌کنند که تمایل کمتری برای اقدام علیه بی‌عدالتی دارند. این تأثیر حتی زمانی که شرکت کنندگان فقط با رفتار ناعادلانه دیگران یا رفتار منصفانه و ناعادلانه مواجه می شوند، سازگار است. برای بررسی اینکه آیا رابطه ای که کشف کرده بودیم تحت تأثیر آشنایی با هوش مصنوعی قرار گرفته است یا خیر، پس از انتشار ChatGPT در سال 2022، دوباره همان آزمایش ها را انجام دادیم. ما با سری آزمایش های بعدی همان نتایجی را گرفتیم که با آزمایش های قبلی داشتیم. .

این نتایج نشان می‌دهد که واکنش افراد به بی‌عدالتی نه تنها به این بستگی دارد که آیا با آنها منصفانه رفتار شده است، بلکه به اینکه چه کسی با آنها ناعادلانه رفتار کرده است - هوش مصنوعی یا یک انسان.

به طور خلاصه، رفتار ناعادلانه توسط یک سیستم هوش مصنوعی می‌تواند بر نحوه واکنش افراد به یکدیگر تأثیر بگذارد و آنها را نسبت به اعمال ناعادلانه یکدیگر کمتر توجه کند. این تأثیرات موجی بالقوه هوش مصنوعی را در جامعه انسانی برجسته می کند، که فراتر از تجربه یک فرد از یک تصمیم ناعادلانه است.

زمانی که سیستم‌های هوش مصنوعی ناعادلانه عمل می‌کنند، عواقب آن به تعاملات آینده نیز کشیده می‌شود و بر نحوه رفتار افراد با یکدیگر، حتی در موقعیت‌های غیرمرتبط با هوش مصنوعی، تأثیر می‌گذارد. ما پیشنهاد می‌کنیم که توسعه‌دهندگان سیستم‌های هوش مصنوعی باید روی به حداقل رساندن سوگیری‌ها در داده‌های آموزشی هوش مصنوعی تمرکز کنند تا از این اثرات سرریز مهم جلوگیری کنند.

سیاستگذاران همچنین باید استانداردهایی را برای شفافیت ایجاد کنند و از شرکت‌ها بخواهند مکان‌هایی را که ممکن است هوش مصنوعی تصمیمات ناعادلانه بگیرد، افشا کنند. این به کاربران کمک می کند تا محدودیت های سیستم های هوش مصنوعی و چگونگی به چالش کشیدن نتایج ناعادلانه را درک کنند. افزایش آگاهی از این اثرات همچنین می تواند افراد را تشویق کند تا نسبت به بی عدالتی  به خصوص پس از تعامل با هوش مصنوعی هوشیار بمانند.

احساس خشم و سرزنش به خاطر رفتار ناعادلانه برای تشخیص بی عدالتی و پاسخگویی افراد خاطی ضروری است. با پرداختن به اثرات اجتماعی ناخواسته هوش مصنوعی، رهبران می توانند به جای تضعیف استانداردهای اخلاقی و اجتماعی مورد نیاز برای جامعه ای که مبتنی بر عدالت است، از پشتیبانی هوش مصنوعی اطمینان حاصل کنند.

https://stnews.ir/short/4ypBG
اخبار مرتبط
تبادل نظر
نام:
ایمیل: ایمیل خود را با فرمت مناسب وارد کنید
نظر: