مشاهده اخبار از طریق شبکه های اجتماعیمشاهده
هوش مصنوعی (AI) تصمیمات مهمی می گیرد که بر زندگی روزمره ما تأثیر می گذارد. این تصمیمات توسط بنگاه ها و موسسات به نام بهره وری اجرا می شود.
به گزارش پایگاه خبری علم و فناوری، به نقل از فیز؛ هوش مصنوعی (AI) تصمیمات مهمی می گیرد که بر زندگی روزمره ما تأثیر می گذارد. این تصمیمات توسط بنگاه ها و موسسات به نام بهره وری اجرا می شود. آنها می توانند به تعیین اینکه چه کسی وارد دانشگاه می شود، چه کسی شغلی پیدا می کند، چه کسی تحت درمان پزشکی قرار می گیرد و چه کسی واجد شرایط کمک های دولتی است، کمک کنند.
همانطور که هوش مصنوعی این نقشها را بر عهده میگیرد، خطر تصمیمهای ناعادلانه یا درک آنها توسط افراد تحت تأثیر قرار میگیرد. به عنوان مثال، در پذیرش یا استخدام در کالج، این تصمیمات خودکار می تواند به طور ناخواسته به نفع گروه های خاصی از افراد یا افرادی با پیشینه های خاص باشد، در حالی که متقاضیان واجد شرایط اما کمتر از آنها نادیده گرفته می شوند.
یا هنگامی که توسط دولت ها در سیستم های مزایا استفاده می شود، هوش مصنوعی ممکن است منابع را به گونه ای تخصیص دهد که نابرابری اجتماعی را بدتر کند و باعث شود برخی افراد کمتر از آنچه استحقاقشان را دارند و احساس رفتار ناعادلانه داشته باشند.
ما به همراه یک تیم بین المللی از محققان، بررسی کردیم که چگونه توزیع ناعادلانه منابع - چه توسط هوش مصنوعی یا یک انسان انجام شود - بر تمایل افراد برای اقدام علیه ناعادلانه تأثیر می گذارد. نتایج در مجله Cognition منتشر شده است.
با گنجاندن بیشتر هوش مصنوعی در زندگی روزمره، دولت ها برای محافظت از شهروندان در برابر سیستم های هوش مصنوعی مغرضانه یا غیرشفاف وارد عمل می شوند. نمونه هایی از این تلاش ها شامل منشور حقوق هوش مصنوعی کاخ سفید و قانون هوش مصنوعی پارلمان اروپا است. اینها یک نگرانی مشترک را منعکس می کنند: ممکن است مردم از تصمیمات هوش مصنوعی احساس کنند که در حق آنها ظلم شده است.
بنابراین، چگونه تجربه بیعدالتی از یک سیستم هوش مصنوعی بر نحوه رفتار افراد پس از آن با یکدیگر تأثیر میگذارد؟
بی تفاوتی ناشی از هوش مصنوعی
مقاله ما در Cognition به تمایل افراد برای اقدام علیه ناعادلانه پس از تجربه رفتار ناعادلانه توسط یک هوش مصنوعی پرداخته است. رفتاری که ما بررسی کردیم در تعاملات بعدی و نامرتبط این افراد اعمال شد. تمایل به اقدام در چنین موقعیت هایی که اغلب به آن "مجازات اجتماعی" می گویند، برای حفظ هنجارهای اجتماعی بسیار مهم است.
به عنوان مثال، افشاگران ممکن است علیرغم خطرات، اقدامات غیراخلاقی را گزارش کنند، یا مصرف کنندگان ممکن است شرکت هایی را که معتقدند به روش های مضر عمل می کنند تحریم کنند. افرادی که در این اعمال تنبیه اجتماعی شرکت می کنند، اغلب این کار را برای رسیدگی به بی عدالتی هایی انجام می دهند که بر دیگران تأثیر می گذارد، که به تقویت استانداردهای جامعه کمک می کند.
ما این سوال را پرسیدیم: آیا تجربه بیعدالتی از هوش مصنوعی، به جای یک شخص، میتواند بر تمایل مردم برای ایستادگی در مقابل خطاکاران انسانی تأثیر بگذارد؟ به عنوان مثال، اگر هوش مصنوعی به طور ناعادلانه تغییری را تعیین کند یا منفعتی را انکار کند، آیا احتمال اینکه افراد بعد از آن رفتار غیراخلاقی یک همکار را گزارش کنند کمتر می شود؟
در طی یک سری آزمایش، متوجه شدیم که افرادی که توسط یک هوش مصنوعی بهطور ناعادلانه رفتار میکردند، نسبت به شرکتکنندگانی که توسط یک انسان ناعادلانه رفتار میشد، احتمال کمتری داشت که متخلفان انسانی را مجازات کنند. نسبت به رفتار بد دیگران نوعی حساسیت زدایی از خود نشان می دادند. ما این اثر را بیتفاوتی ناشی از هوش مصنوعی نامیدیم تا این ایده را درک کنیم که رفتار ناعادلانه توسط هوش مصنوعی میتواند حس مسئولیتپذیری افراد را در قبال دیگران تضعیف کند. این باعث می شود که آنها کمتر به بی عدالتی در جامعه خود رسیدگی کنند.
دلایل عدم اقدام
این ممکن است به این دلیل باشد که افراد هوش مصنوعی را برای رفتار ناعادلانه کمتر سرزنش میکنند و بنابراین احساس میکنند که تمایل کمتری برای اقدام علیه بیعدالتی دارند. این تأثیر حتی زمانی که شرکت کنندگان فقط با رفتار ناعادلانه دیگران یا رفتار منصفانه و ناعادلانه مواجه می شوند، سازگار است. برای بررسی اینکه آیا رابطه ای که کشف کرده بودیم تحت تأثیر آشنایی با هوش مصنوعی قرار گرفته است یا خیر، پس از انتشار ChatGPT در سال 2022، دوباره همان آزمایش ها را انجام دادیم. ما با سری آزمایش های بعدی همان نتایجی را گرفتیم که با آزمایش های قبلی داشتیم. .
این نتایج نشان میدهد که واکنش افراد به بیعدالتی نه تنها به این بستگی دارد که آیا با آنها منصفانه رفتار شده است، بلکه به اینکه چه کسی با آنها ناعادلانه رفتار کرده است - هوش مصنوعی یا یک انسان.
به طور خلاصه، رفتار ناعادلانه توسط یک سیستم هوش مصنوعی میتواند بر نحوه واکنش افراد به یکدیگر تأثیر بگذارد و آنها را نسبت به اعمال ناعادلانه یکدیگر کمتر توجه کند. این تأثیرات موجی بالقوه هوش مصنوعی را در جامعه انسانی برجسته می کند، که فراتر از تجربه یک فرد از یک تصمیم ناعادلانه است.
زمانی که سیستمهای هوش مصنوعی ناعادلانه عمل میکنند، عواقب آن به تعاملات آینده نیز کشیده میشود و بر نحوه رفتار افراد با یکدیگر، حتی در موقعیتهای غیرمرتبط با هوش مصنوعی، تأثیر میگذارد. ما پیشنهاد میکنیم که توسعهدهندگان سیستمهای هوش مصنوعی باید روی به حداقل رساندن سوگیریها در دادههای آموزشی هوش مصنوعی تمرکز کنند تا از این اثرات سرریز مهم جلوگیری کنند.
سیاستگذاران همچنین باید استانداردهایی را برای شفافیت ایجاد کنند و از شرکتها بخواهند مکانهایی را که ممکن است هوش مصنوعی تصمیمات ناعادلانه بگیرد، افشا کنند. این به کاربران کمک می کند تا محدودیت های سیستم های هوش مصنوعی و چگونگی به چالش کشیدن نتایج ناعادلانه را درک کنند. افزایش آگاهی از این اثرات همچنین می تواند افراد را تشویق کند تا نسبت به بی عدالتی به خصوص پس از تعامل با هوش مصنوعی هوشیار بمانند.
احساس خشم و سرزنش به خاطر رفتار ناعادلانه برای تشخیص بی عدالتی و پاسخگویی افراد خاطی ضروری است. با پرداختن به اثرات اجتماعی ناخواسته هوش مصنوعی، رهبران می توانند به جای تضعیف استانداردهای اخلاقی و اجتماعی مورد نیاز برای جامعه ای که مبتنی بر عدالت است، از پشتیبانی هوش مصنوعی اطمینان حاصل کنند.
1403/03/22 12:05
1403/03/22 11:56
1403/03/22 11:46
1403/03/22 11:37
1403/03/22 11:34
1403/03/22 10:14
1403/03/22 09:34
1403/03/22 09:32
1403/03/22 08:53