علمی، پژوهشی و فناوری

صهیونیست ها و کارخانه مرگ دیجیتال

وقتی الگوریتم‌ها فرمان کشتن صادر می‌کنند!

حسن عرفانیان کارشناس سیاسی در یادداشتی تکان‌دهنده، چهره تاریک جنگ دیجیتال رژیم صهیونیستی در غزه را تبیین کرده است؛ جایی که دیگر انسان تصمیم‌گیر نیست، بلکه هوش مصنوعی قاضی مرگ شده است ؛ در ادامه بخوانیم چگونه فناوری می‌تواند به ابزار نسل‌کشی تبدیل شود...

به گزارش پایگاه خبری علم و فناوری :تصور کنید جنگی که در آن، آخرین سد اخلاقی «انسان» از حلقه تصمیم‌گیری حذف شده است. جایی که یک کد دیجیتال، بدون ترس از بازخواست، بدون احساس گناه و بدون هیچ درکی از مفهوم (عشق)، فهرست کشتگان فردا را می‌نویسد.

این، دیگر سناریوی یک فیلم علمی-تخیلی نیست؛ این «استراتژی جدید رژیم صهیونیستی» در نسل‌کشی مردم غزه و جنایات است.

در دهه‌ای که هوش مصنوعی وعده «بهشت روی زمین» می‌داد، صهیونیست‌ها جهنمی خلق کرده‌اند که در آن، ماشین‌ها «قاضی» زندگی و مرگ انسان‌ها هستند؛ آنها این فاجعه اخلاقی را «نخستین جنگ هوش مصنوعی» جهان می‌نامند؛ عنوانی که زنگ خطر جدی برای بشریت است.

هابسورا، انجیلی که وعده مرگ می‌دهد!

در قلب این تراژدی مدرن، «واحد ۸۲۰۰» نهفته است؛ هسته اصلی «جنگ ترکیبی» رژیم صهیونیستی. این واحد با سیستم‌های اهریمنی چون «هابسورا» (Habsora به معنای «انجیل») و «گاسپل»، در حقیقت یک «کشتارگاه دیجیتال» است.

این سیستم‌ها چگونه کار می‌کنند؟آنها در کسری از ثانیه، انبوهی از داده‌های شما از یک عکس در اینستاگرام تا موقعیت مکانی گوشی همراهتان را تحلیل کرده و شمارا به یک «عدد» در لیست هدف تبدیل می‌کنند. این، نقطه «حذف انسانیت» از جنگ است.

ژنرال آویو کوخاوی، رئیس پیشین ستاد کل ارتش اسرائیل، با نوعی افتخار اعلام کرده که این سامانه‌ها روزانه قادر به شناسایی صدها هدف عملیاتی هستند. اما پشت این آمار سرد، سؤالی هولناک نهفته است: آیا ماشین می‌تواند میان یک کودک و یک رزمنده تشخیص دهد؟

داستان ابراهیم بیاری، فرمانده گردان مرکز جبالیا حماس، نمونه‌ای تکان‌دهنده از این دقت مرگبار ماشینی است. پس از ماه‌ها تلاش ناکام سنتی، هوش مصنوعی با ترکیب هزاران قطعه اطلاعات از تماس‌های تلفنی گرفته تا الگوهای حرکتی و حتی تحلیل رفتار خانوادگی موفق به کشف مکان پنهان او شد.

این «ترور» موفق با دقت جراحی و سردی ماشینی انجام شد. اما آیا این موفقیت فناورانه، ارزش هزاران جان غیرنظامی را داشت؟ آیا یک الگوریتم می‌تواند تعیین کند که کدام «جنایت جانبی» قابل قبول است؟

پشت این «دستاوردهای» فناورانه، واقعیت تلخ دیگری نهفته است که آمارهای خونین آن را بیان می‌کنند: یکی از نگران‌کننده‌ترین جنبه‌های این جنگ هوش مصنوعی، پدیده «خطای الگوریتمی» است. این سیستم‌ها، علی‌رغم ادعاهای دقت بالا، در موارد متعددی دچار اشتباهات فاحشی شده‌اند.

این خطاها نه تنها موجب نقض گسترده حقوق بین‌الملل بشردوستانه شده‌اند، بلکه نشان می‌دهند که تکنولوژی هنوز برای تصمیم‌گیری‌های مرگ و زندگی آماده نیست.

از دره سیلیکون تا میدان جنگ؛ اتحادی مرگبار

تراژدی وقتی کامل می‌شود که بدانید غول‌های فناوری جهان که خود را «ناجیان بشریت» می‌دانند مستقیم و غیرمستقیم، تامین‌کننده زیرساخت این کشتارند.

پشت پرده بی رحمی تکنولوژیک، نام‌های آشنایی دیده می‌شود که روزانه در زندگی میلیاردها انسان حضور دارند. همکاری مایکروسافت با ارتش اسرائیل در به‌کارگیری فناوری‌های ابری Azure و مدل‌های زبانی پیشرفته مانند GPT-4، بعد جدید و نگران‌کننده‌ای به این ماجرا افزوده است.

از هیروشیما تا غزه؛ نسل‌کشی به سبک دیجیتال!

صحنه جنایات در غزه به طرز وحشتناکی یادآور فاجعه‌ی هیروشیما و ناکازاکی است؛ زمانی که جهان در سکوت، شاهد عادی‌سازی سلاح‌های اتمی پس از کشتار دهها هزار غیرنظامی بود. امروز هم تاریخ در حال تکرار است: همان گونه که تسلیحات هسته‌ای به عنوان «ابزار استراتژیک» عادی‌سازی شد، اکنون هوش مصنوعی نظامی در حال تبدیل شدن به «استاندارد جدید» جنگ افزارهاست.

اما این بار یک تفاوت مرگبار وجود دارد: در هیروشیما، انسان دکمهٔ انفجار را فشار داد؛ اما در غزه، این الگوریتم‌ها هستند که فرمان مرگ صادر می‌کنند.

این به معنای حذف آخرین مانع اخلاقی در جنگ است: «وجدان انسانی». پیشرفت این فناوری‌ها اگرچه سرعت و دقت عملیات را افزایش داده، اما سه رکن حیاتی را از میدان نبرد حذف کرده است: اخلاق، رحم و مسئولیت‌پذیری.

حقوق بین‌الملل بشردوستانه حاصل قرن‌ها تجربهٔ انسانی است، اما وقتی ماشین‌ها تصمیم می‌گیرند، این چارچوب‌ها عملاً بی‌معنا می‌شوند. چگونه می‌توان یک الگوریتم را به جنایت جنگی متهم کرد؟ چگونه می‌توان از یک سامانهٔ خودکار پاسخگویی خواست؟

خبر امیدوارکننده این است:بیش از ۳۰ کشور جهان خواستار تصویب معاهده‌ای برای ممنوعیت سلاح‌های خودگردان شده‌اند و هزاران دانشمند و مهندس برجسته از همکاری با پروژه‌های نظامی هوش مصنوعی خودداری کرده‌اند

سازمان‌های بین‌المللی مستقل به مستندسازی جنایات این سیستم‌ها مشغولند.

تاریخ به ما می‌آموزد که پیشرفت فناوری نباید بر ارزش‌های انسانی پیشی گیرد. پیش از گسترش این فناوری مرگبار در سراسر جهان، باید قوانین محکم بین‌المللی برای کنترل هوش مصنوعی نظامی تصویب شود.

امید به آینده‌ای که در آن اخلاق بر فناوری حکمرانی کند..

یادداشت: حسن عرفانیان

https://stnews.ir/short/VmdJy
اخبار مرتبط
تبادل نظر
نام:
ایمیل: ایمیل خود را با فرمت مناسب وارد کنید
نظر: