مشاهده اخبار از طریق شبکه های اجتماعیمشاهده
حسن عرفانیان کارشناس سیاسی در یادداشتی تکاندهنده، چهره تاریک جنگ دیجیتال رژیم صهیونیستی در غزه را تبیین کرده است؛ جایی که دیگر انسان تصمیمگیر نیست، بلکه هوش مصنوعی قاضی مرگ شده است ؛ در ادامه بخوانیم چگونه فناوری میتواند به ابزار نسلکشی تبدیل شود...
به گزارش پایگاه خبری علم و فناوری :تصور کنید جنگی که در آن، آخرین سد اخلاقی «انسان» از حلقه تصمیمگیری حذف شده است. جایی که یک کد دیجیتال، بدون ترس از بازخواست، بدون احساس گناه و بدون هیچ درکی از مفهوم (عشق)، فهرست کشتگان فردا را مینویسد.
این، دیگر سناریوی یک فیلم علمی-تخیلی نیست؛ این «استراتژی جدید رژیم صهیونیستی» در نسلکشی مردم غزه و جنایات است.
در دههای که هوش مصنوعی وعده «بهشت روی زمین» میداد، صهیونیستها جهنمی خلق کردهاند که در آن، ماشینها «قاضی» زندگی و مرگ انسانها هستند؛ آنها این فاجعه اخلاقی را «نخستین جنگ هوش مصنوعی» جهان مینامند؛ عنوانی که زنگ خطر جدی برای بشریت است.
هابسورا، انجیلی که وعده مرگ میدهد!
در قلب این تراژدی مدرن، «واحد ۸۲۰۰» نهفته است؛ هسته اصلی «جنگ ترکیبی» رژیم صهیونیستی. این واحد با سیستمهای اهریمنی چون «هابسورا» (Habsora به معنای «انجیل») و «گاسپل»، در حقیقت یک «کشتارگاه دیجیتال» است.
این سیستمها چگونه کار میکنند؟آنها در کسری از ثانیه، انبوهی از دادههای شما از یک عکس در اینستاگرام تا موقعیت مکانی گوشی همراهتان را تحلیل کرده و شمارا به یک «عدد» در لیست هدف تبدیل میکنند. این، نقطه «حذف انسانیت» از جنگ است.
ژنرال آویو کوخاوی، رئیس پیشین ستاد کل ارتش اسرائیل، با نوعی افتخار اعلام کرده که این سامانهها روزانه قادر به شناسایی صدها هدف عملیاتی هستند. اما پشت این آمار سرد، سؤالی هولناک نهفته است: آیا ماشین میتواند میان یک کودک و یک رزمنده تشخیص دهد؟
داستان ابراهیم بیاری، فرمانده گردان مرکز جبالیا حماس، نمونهای تکاندهنده از این دقت مرگبار ماشینی است. پس از ماهها تلاش ناکام سنتی، هوش مصنوعی با ترکیب هزاران قطعه اطلاعات از تماسهای تلفنی گرفته تا الگوهای حرکتی و حتی تحلیل رفتار خانوادگی موفق به کشف مکان پنهان او شد.
این «ترور» موفق با دقت جراحی و سردی ماشینی انجام شد. اما آیا این موفقیت فناورانه، ارزش هزاران جان غیرنظامی را داشت؟ آیا یک الگوریتم میتواند تعیین کند که کدام «جنایت جانبی» قابل قبول است؟
پشت این «دستاوردهای» فناورانه، واقعیت تلخ دیگری نهفته است که آمارهای خونین آن را بیان میکنند: یکی از نگرانکنندهترین جنبههای این جنگ هوش مصنوعی، پدیده «خطای الگوریتمی» است. این سیستمها، علیرغم ادعاهای دقت بالا، در موارد متعددی دچار اشتباهات فاحشی شدهاند.
این خطاها نه تنها موجب نقض گسترده حقوق بینالملل بشردوستانه شدهاند، بلکه نشان میدهند که تکنولوژی هنوز برای تصمیمگیریهای مرگ و زندگی آماده نیست.
از دره سیلیکون تا میدان جنگ؛ اتحادی مرگبار
تراژدی وقتی کامل میشود که بدانید غولهای فناوری جهان که خود را «ناجیان بشریت» میدانند مستقیم و غیرمستقیم، تامینکننده زیرساخت این کشتارند.
پشت پرده بی رحمی تکنولوژیک، نامهای آشنایی دیده میشود که روزانه در زندگی میلیاردها انسان حضور دارند. همکاری مایکروسافت با ارتش اسرائیل در بهکارگیری فناوریهای ابری Azure و مدلهای زبانی پیشرفته مانند GPT-4، بعد جدید و نگرانکنندهای به این ماجرا افزوده است.
از هیروشیما تا غزه؛ نسلکشی به سبک دیجیتال!
صحنه جنایات در غزه به طرز وحشتناکی یادآور فاجعهی هیروشیما و ناکازاکی است؛ زمانی که جهان در سکوت، شاهد عادیسازی سلاحهای اتمی پس از کشتار دهها هزار غیرنظامی بود. امروز هم تاریخ در حال تکرار است: همان گونه که تسلیحات هستهای به عنوان «ابزار استراتژیک» عادیسازی شد، اکنون هوش مصنوعی نظامی در حال تبدیل شدن به «استاندارد جدید» جنگ افزارهاست.
اما این بار یک تفاوت مرگبار وجود دارد: در هیروشیما، انسان دکمهٔ انفجار را فشار داد؛ اما در غزه، این الگوریتمها هستند که فرمان مرگ صادر میکنند.
این به معنای حذف آخرین مانع اخلاقی در جنگ است: «وجدان انسانی». پیشرفت این فناوریها اگرچه سرعت و دقت عملیات را افزایش داده، اما سه رکن حیاتی را از میدان نبرد حذف کرده است: اخلاق، رحم و مسئولیتپذیری.
حقوق بینالملل بشردوستانه حاصل قرنها تجربهٔ انسانی است، اما وقتی ماشینها تصمیم میگیرند، این چارچوبها عملاً بیمعنا میشوند. چگونه میتوان یک الگوریتم را به جنایت جنگی متهم کرد؟ چگونه میتوان از یک سامانهٔ خودکار پاسخگویی خواست؟
خبر امیدوارکننده این است:بیش از ۳۰ کشور جهان خواستار تصویب معاهدهای برای ممنوعیت سلاحهای خودگردان شدهاند و هزاران دانشمند و مهندس برجسته از همکاری با پروژههای نظامی هوش مصنوعی خودداری کردهاند
سازمانهای بینالمللی مستقل به مستندسازی جنایات این سیستمها مشغولند.
تاریخ به ما میآموزد که پیشرفت فناوری نباید بر ارزشهای انسانی پیشی گیرد. پیش از گسترش این فناوری مرگبار در سراسر جهان، باید قوانین محکم بینالمللی برای کنترل هوش مصنوعی نظامی تصویب شود.
امید به آیندهای که در آن اخلاق بر فناوری حکمرانی کند..
یادداشت: حسن عرفانیان
1403/03/22 12:05
1403/03/22 11:56
1403/03/22 11:46
1403/03/22 11:37
1403/03/22 11:34
1403/03/22 10:14
1403/03/22 09:34
1403/03/22 09:32
1403/03/22 08:53