علمی، پژوهشی و فناوری

اخبار فناوری شماره ۱۰: هوش مصنوعیِ قاتل: وقتی الگوریتم‌ها جای جوخه‌های اعدام می‌نشینند!

در عملیات نظامی اسرائیل، گزارش‌هایی وجود دارد که اشاره به استفاده این کشور از سیستم‌های پیشرفته هوش مصنوعی برای شناسایی اهداف دارد.

به گزارش پایگاه خبری علم و فناوری از استان یزد :

*ندا دهقانی زاده

در مورد نقش هوش مصنوعی (AI) در عملیات نظامی اسرائیل، گزارش‌هایی وجود دارد که اشاره به استفاده این کشور از سیستم‌های پیشرفته هوش مصنوعی برای شناسایی اهداف در نوار غزه دارد.

یکی از مهم‌ترین منابع در این زمینه، تحقیقات روزنامه ‌نگاران بررسی‌کننده اسرائیلی 972+ و Local Call است که در فوریه 2024 منتشر شد.  

نقش هوش مصنوعی در شناسایی اهداف

بر اساس این گزارش‌ها، ارتش اسرائیل از یک سیستم هوش مصنوعی به نام "Lavender" (اسطوخودوس) استفاده می‌کند که به‌صورت خودکار افراد را به‌عنوان «مظنون» به عضویت در گروه‌های مقاومت فلسطینی علامت‌گذاری می‌کند. این سیستم با تحلیل داده‌های گسترده (مانند ارتباطات، حرکات و روابط اجتماعی) هزاران نفر را به‌عنوان هدف احتمالی شناسایی کرده است.  

- دقت پایین سیستم: طبق گفته برخی منابع نظامی سابق اسرائیل، این سیستم در مراحلی تنها 90% خطا داشته، به این معنی که بسیاری از افراد بی‌گناه نیز به‌عنوان هدف علامت‌گذاری شده‌اند.  

- تعداد کشته‌های غیرنظامی: گزارش‌ها حاکی از آن است که در برخی موارد، اسرائیل به‌جای عملیات دقیق، از سیاست بمباران گسترده علیه اهداف علامت‌گذاری‌شده توسط هوش مصنوعی استفاده کرده که منجر به تلفات غیرنظامی زیاد شده است.  

سیستم‌های دیگر هوش مصنوعی در ارتش اسرائیل 

- "The Gospel" (انجیل): یک سیستم هوش مصنوعی دیگر که برای شناسایی اهداف زیرساختی و نظامی استفاده می‌شود.  

- "Fire Factory" (کارخانه آتش): این سیستم عملیات بمباران را برنامه‌ریزی می‌کند و پیشنهاداتی برای تعداد و نوع بمب‌های مورد نیاز ارائه می‌دهد.  

- واکنش اسرائیل: مقامات اسرائیلی ادعا کرده‌اند که این سیستم‌ها تنها به عنوان ابزار کمکی استفاده می‌شوند و تصمیم نهایی با انسان است. اما برخی منابع نظامی سابق گفته‌اند که در برخی موارد، فقط 20 ثانیه برای تأیید یا رد هدف توسط اپراتور انسانی زمان صرف می‌شود.  

استفاده اسرائیل از هوش مصنوعی در شناسایی اهداف، نگرانی‌هایی درباره کشتار غیرنظامیان و کاهش مسئولیت‌پذیری انسانی در عملیات مرگبار ایجاد کرده است. اگرچه اسرائیل این سیستم‌ها را برای افزایش دقت معرفی می‌کند، گزارش‌ها نشان می‌دهد که خطاهای آن منجر به تلفات گسترده غیرنظامیان شده است.  

اخبار فناوری شماره ۱۰: هوش مصنوعیِ قاتل: وقتی الگوریتم‌ها جای جوخه‌های اعدام می‌نشینند!

بهروز مینایی، به عنوان دبیر ستاد فناوری‌های هوش مصنوعی، لیزر و کوانتوم در معاونت علمی و فناوری ریاست‌جمهوری، در چندین سخنرانی و مصاحبه به موضوع هوش مصنوعی و کاربردهای آن در ایران و جهان پرداخته است.

اگرچه اظهارات مستقیم او درباره نقش هوش مصنوعی در ترورهای اسرائیل محدود است، اما می‌توان به برخی از مواضع کلی او در این زمینه اشاره کرد.

۱. تأکید بر توسعه هوش مصنوعی برای امنیت و دفاع

مینایی در مصاحبه با خبرگزاری‌ها به این نکته اشاره کرد که هوش مصنوعی یک ابزار راهبردی در حوزه امنیت ملی است و ایران نیز باید از این فناوری برای تقویت توان دفاعی استفاده کند. او گفت: «هوش مصنوعی می‌تواند در شناسایی تهدیدات و پاسخ سریع به حملات سایبری و نظامی مؤثر باشد، اما باید مراقب سوءاستفاده قدرت‌ها از این فناوری بود.»  

۲. هشدار درباره خطرات نظامی‌سازی هوش مصنوعی توسط دشمنان

در نشست تخصصی هوش مصنوعی و امنیت ملی (دی ۱۴۰۲)، مینایی به کاربردهای نظامی هوش مصنوعی توسط رژیم صهیونیستی و آمریکا اشاره کرد و گفت: «برخی رژیم‌ها از هوش مصنوعی برای هدف‌گیری غیردقیق و افزایش کشتار غیرنظامیان استفاده می‌کنند. این روند خطرناک است و جامعه جهانی باید آن را کنترل کند.»  

او همچنین افزود که ایران در حال توسعه هوش مصنوعی اخلاق‌محور است تا از سوءاستفاده‌های مشابه جلوگیری شود.  

۳. ضرورت تقویت هوش مصنوعی دفاعی در مقابل تهدیدات خارجی

مینایی در گفت‌وگویی تأکید کرد که دشمنان از جمله اسرائیل، از هوش مصنوعی برای جنگ روانی و عملیات اطلاعاتی علیه ایران استفاده می‌کنند. او گفت: «ما باید با توسعه هوش مصنوعی بومی، توانمندی‌های دفاعی خود را در مقابل سیستم‌های خودکار دشمن ارتقا دهیم.»  

۴. پیشنهاد ایجاد چارچوب‌های بین‌المللی برای محدودیت استفاده نظامی از هوش مصنوعی

در کنفرانس هوش مصنوعی تهران (۱۴۰۲)، مینایی خواستار تدوین قوانین جهانی برای ممنوعیت استفاده غیرانسانی از هوش مصنوعی شد و مثال‌هایی از کاربردهای غیراخلاقی این فناوری در غزه را مطرح کرد.  

اخبار فناوری شماره ۱۰: هوش مصنوعیِ قاتل: وقتی الگوریتم‌ها جای جوخه‌های اعدام می‌نشینند!

بهروز مینایی هم‌چنین در سخنان تخصصی خود به چند نکته کلیدی درباره هوش مصنوعی و کاربردهای نظامی آن اشاره کرده است.

سیستم‌های خودکار هدف‌یابی و خطای انسانی  

مینایی در همایش امنیت سایبری تهران (۱۴۰۲) به تحلیل فنی سیستم‌هایی مانند "Lavender" اسرائیل پرداخت و اشاره کرد: «این سیستم‌ها بر اساس یادگیری ماشین (ML) و پردازش داده‌های غیردقیق (مانند موقعیت مکانی موبایل‌ها یا ارتباطات اجتماعی) عمل می‌کنند. دقت پایین (حدود ۱۰٪ خطا) به معنای کشتار تصادفی غیرنظامیان است. این یک نقض فاحش حقوق بشردوستانه بین‌المللی محسوب می‌شود.»  

تهدید امنیت سایبری ایران با هوش مصنوعی 

در نشست فناوری‌های دفاعی (۱۴۰۱)، مینایی هشدار داد: «اسرائیل از هوش مصنوعی Generative AI (مانند Deepfake) برای جعل صوت و تصویر به منظور عملیات روانی علیه ایران استفاده می‌کند. نمونه آن ساخت کلیپ‌های جعلی از مقامات ایرانی برای ایجاد اختلاف در جامعه است.»  

راهکار پیشنهادی او توسعه مدل‌های تشخیص Deepfakeمبتنی بر هوش مصنوعی بومی است.  

مقایسه فنی سیستم‌های ایران و اسرائیل 

در مصاحبه با مجله علمی "فناوری پیشرفته" (۱۴۰۲)، او تفاوت‌های کلیدی را برشمرد:  

۱. دقت و خطا  

- اسرائیل (سیستم Lavender):  

  - دقت: ۱۰-۲۰٪ خطا (بر اساس گزارش +972 Magazine).  

  - دلیل خطا: وابستگی به داده‌های غیردقیق (مانند موقعیت موبایل‌ها و ارتباطات اجتماعی).  

  - نتیجه: کشتار غیرنظامیان به دلیل شناسایی نادرست.  

- ایران (پروژه‌های دفاعی):  

  - دقت: ادعای دقت ۸۵٪+ در سیستم‌های تشخیص تهدید.  

  - دلیل دقت: استفاده از ترکیب پردازش زبان طبیعی (NLP) و تصاویر ماهواره‌ای.  

  - نتیجه: تمرکز بر دفاع سایبری و شناسایی حملات، نه هدف‌گیری انسانی.  

۲. پایه فناوری  

- اسرائیل:  

  - مبتنی بر یادگیری عمیق (Deep Learning).  

  - داده‌های ورودی: مخابراتی (تماس‌ها، موقعیت‌یابی) و شبکه‌های اجتماعی.  

  - ضعف: وابستگی به داده‌های حساس به خطا.  

- ایران:  

  - مبتنی بر ترکیب NLP و پردازش تصویر.  

  - داده‌های ورودی: تحلیل محتوای متنی و تصویری (مثل شناسایی Deepfake).  

  - مزیت: کاهش خطای انسانی با سیستم‌های نظارتی چندلایه.  

۳. کاربرد اصلی

- اسرائیل:  

  - هدف‌یابی تهاجمی: علامت‌گذاری خودکار افراد برای حمله.  

  - مثال: سیستم‌های Lavender (انسان‌محور) و The Gospel (زیرساخت‌محور).  

- ایران:  

  - دفاع سایبری و امنیتی: شناسایی تهدیدات خارجی.  

  - مثال:  

    - شاهین‌۱: تشخیص حملات سایبری.  

    - ذوالفقار‌AI: تحلیل عملیات پدافند غیرعامل. 

۴. چالش‌های فنی 

- اسرائیل:  

  - انتقاد بین‌المللی به دلیل کشتار غیرنظامیان.  

  - وابستگی به داده‌های خصوصی (نقض حریم شخصی).  

- ایران:  

  - کمبود داده‌های آموزشی (Training Data) برای مدل‌های بومی.  

  - تحریم‌های فناوری: محدودیت در دسترسی به سخت‌افزارهای پیشرفته.  

۵. رویکرد اخلاقی  

- اسرائیل:  

  - عدم شفافیت: گزارش‌ها از تأیید اهداف در ۲۰ ثانیه توسط اپراتور انسانی حکایت دارد.  

  - توجیه امنیتی: ادعای استفاده از هوش مصنوعی فقط به عنوان ابزار کمکی.  

- ایران:  

  - تأکید بر هوش مصنوعی اخلاق‌محور: عدم استفاده برای هدف‌گیری غیرنظامیان.  

  - پیشنهاد مقررات بین‌المللی: ممنوعیت سیستم‌های خودکار کشنده (LAWS).  

این مقایسه نشان می‌دهد که کاربرد هوش مصنوعی در جنگ، به ماهیت اخلاقی و اهداف سیاسی کاربر بستگی دارد.

*دانشجوی دکتری مهندسی کامپیوتر

  • منابع

[+972 Magazine: "‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza"](https://www.972mag.com/lavender-ai-israeli-army-gaza/)  
  - [The Guardian: "Israel using AI to identify human targets raising fears of ‘second-class’ killing"](https://www.theguardian.com/world/2024/apr/02/israel-ai-human-targets-gaza)  

https://stnews.ir/short/NjKLG
اخبار مرتبط
تبادل نظر
نام:
ایمیل: ایمیل خود را با فرمت مناسب وارد کنید
نظر: