مشاهده اخبار از طریق شبکه های اجتماعیمشاهده
در عملیات نظامی اسرائیل، گزارشهایی وجود دارد که اشاره به استفاده این کشور از سیستمهای پیشرفته هوش مصنوعی برای شناسایی اهداف دارد.
به گزارش پایگاه خبری علم و فناوری از استان یزد :
*ندا دهقانی زاده
در مورد نقش هوش مصنوعی (AI) در عملیات نظامی اسرائیل، گزارشهایی وجود دارد که اشاره به استفاده این کشور از سیستمهای پیشرفته هوش مصنوعی برای شناسایی اهداف در نوار غزه دارد.
یکی از مهمترین منابع در این زمینه، تحقیقات روزنامه نگاران بررسیکننده اسرائیلی 972+ و Local Call است که در فوریه 2024 منتشر شد.
نقش هوش مصنوعی در شناسایی اهداف
بر اساس این گزارشها، ارتش اسرائیل از یک سیستم هوش مصنوعی به نام "Lavender" (اسطوخودوس) استفاده میکند که بهصورت خودکار افراد را بهعنوان «مظنون» به عضویت در گروههای مقاومت فلسطینی علامتگذاری میکند. این سیستم با تحلیل دادههای گسترده (مانند ارتباطات، حرکات و روابط اجتماعی) هزاران نفر را بهعنوان هدف احتمالی شناسایی کرده است.
- دقت پایین سیستم: طبق گفته برخی منابع نظامی سابق اسرائیل، این سیستم در مراحلی تنها 90% خطا داشته، به این معنی که بسیاری از افراد بیگناه نیز بهعنوان هدف علامتگذاری شدهاند.
- تعداد کشتههای غیرنظامی: گزارشها حاکی از آن است که در برخی موارد، اسرائیل بهجای عملیات دقیق، از سیاست بمباران گسترده علیه اهداف علامتگذاریشده توسط هوش مصنوعی استفاده کرده که منجر به تلفات غیرنظامی زیاد شده است.
سیستمهای دیگر هوش مصنوعی در ارتش اسرائیل
- "The Gospel" (انجیل): یک سیستم هوش مصنوعی دیگر که برای شناسایی اهداف زیرساختی و نظامی استفاده میشود.
- "Fire Factory" (کارخانه آتش): این سیستم عملیات بمباران را برنامهریزی میکند و پیشنهاداتی برای تعداد و نوع بمبهای مورد نیاز ارائه میدهد.
- واکنش اسرائیل: مقامات اسرائیلی ادعا کردهاند که این سیستمها تنها به عنوان ابزار کمکی استفاده میشوند و تصمیم نهایی با انسان است. اما برخی منابع نظامی سابق گفتهاند که در برخی موارد، فقط 20 ثانیه برای تأیید یا رد هدف توسط اپراتور انسانی زمان صرف میشود.
استفاده اسرائیل از هوش مصنوعی در شناسایی اهداف، نگرانیهایی درباره کشتار غیرنظامیان و کاهش مسئولیتپذیری انسانی در عملیات مرگبار ایجاد کرده است. اگرچه اسرائیل این سیستمها را برای افزایش دقت معرفی میکند، گزارشها نشان میدهد که خطاهای آن منجر به تلفات گسترده غیرنظامیان شده است.
بهروز مینایی، به عنوان دبیر ستاد فناوریهای هوش مصنوعی، لیزر و کوانتوم در معاونت علمی و فناوری ریاستجمهوری، در چندین سخنرانی و مصاحبه به موضوع هوش مصنوعی و کاربردهای آن در ایران و جهان پرداخته است.
اگرچه اظهارات مستقیم او درباره نقش هوش مصنوعی در ترورهای اسرائیل محدود است، اما میتوان به برخی از مواضع کلی او در این زمینه اشاره کرد.
۱. تأکید بر توسعه هوش مصنوعی برای امنیت و دفاع
مینایی در مصاحبه با خبرگزاریها به این نکته اشاره کرد که هوش مصنوعی یک ابزار راهبردی در حوزه امنیت ملی است و ایران نیز باید از این فناوری برای تقویت توان دفاعی استفاده کند. او گفت: «هوش مصنوعی میتواند در شناسایی تهدیدات و پاسخ سریع به حملات سایبری و نظامی مؤثر باشد، اما باید مراقب سوءاستفاده قدرتها از این فناوری بود.»
۲. هشدار درباره خطرات نظامیسازی هوش مصنوعی توسط دشمنان
در نشست تخصصی هوش مصنوعی و امنیت ملی (دی ۱۴۰۲)، مینایی به کاربردهای نظامی هوش مصنوعی توسط رژیم صهیونیستی و آمریکا اشاره کرد و گفت: «برخی رژیمها از هوش مصنوعی برای هدفگیری غیردقیق و افزایش کشتار غیرنظامیان استفاده میکنند. این روند خطرناک است و جامعه جهانی باید آن را کنترل کند.»
او همچنین افزود که ایران در حال توسعه هوش مصنوعی اخلاقمحور است تا از سوءاستفادههای مشابه جلوگیری شود.
۳. ضرورت تقویت هوش مصنوعی دفاعی در مقابل تهدیدات خارجی
مینایی در گفتوگویی تأکید کرد که دشمنان از جمله اسرائیل، از هوش مصنوعی برای جنگ روانی و عملیات اطلاعاتی علیه ایران استفاده میکنند. او گفت: «ما باید با توسعه هوش مصنوعی بومی، توانمندیهای دفاعی خود را در مقابل سیستمهای خودکار دشمن ارتقا دهیم.»
۴. پیشنهاد ایجاد چارچوبهای بینالمللی برای محدودیت استفاده نظامی از هوش مصنوعی
در کنفرانس هوش مصنوعی تهران (۱۴۰۲)، مینایی خواستار تدوین قوانین جهانی برای ممنوعیت استفاده غیرانسانی از هوش مصنوعی شد و مثالهایی از کاربردهای غیراخلاقی این فناوری در غزه را مطرح کرد.
بهروز مینایی همچنین در سخنان تخصصی خود به چند نکته کلیدی درباره هوش مصنوعی و کاربردهای نظامی آن اشاره کرده است.
سیستمهای خودکار هدفیابی و خطای انسانی
مینایی در همایش امنیت سایبری تهران (۱۴۰۲) به تحلیل فنی سیستمهایی مانند "Lavender" اسرائیل پرداخت و اشاره کرد: «این سیستمها بر اساس یادگیری ماشین (ML) و پردازش دادههای غیردقیق (مانند موقعیت مکانی موبایلها یا ارتباطات اجتماعی) عمل میکنند. دقت پایین (حدود ۱۰٪ خطا) به معنای کشتار تصادفی غیرنظامیان است. این یک نقض فاحش حقوق بشردوستانه بینالمللی محسوب میشود.»
تهدید امنیت سایبری ایران با هوش مصنوعی
در نشست فناوریهای دفاعی (۱۴۰۱)، مینایی هشدار داد: «اسرائیل از هوش مصنوعی Generative AI (مانند Deepfake) برای جعل صوت و تصویر به منظور عملیات روانی علیه ایران استفاده میکند. نمونه آن ساخت کلیپهای جعلی از مقامات ایرانی برای ایجاد اختلاف در جامعه است.»
راهکار پیشنهادی او توسعه مدلهای تشخیص Deepfakeمبتنی بر هوش مصنوعی بومی است.
مقایسه فنی سیستمهای ایران و اسرائیل
در مصاحبه با مجله علمی "فناوری پیشرفته" (۱۴۰۲)، او تفاوتهای کلیدی را برشمرد:
۱. دقت و خطا
- اسرائیل (سیستم Lavender):
- دقت: ۱۰-۲۰٪ خطا (بر اساس گزارش +972 Magazine).
- دلیل خطا: وابستگی به دادههای غیردقیق (مانند موقعیت موبایلها و ارتباطات اجتماعی).
- نتیجه: کشتار غیرنظامیان به دلیل شناسایی نادرست.
- ایران (پروژههای دفاعی):
- دقت: ادعای دقت ۸۵٪+ در سیستمهای تشخیص تهدید.
- دلیل دقت: استفاده از ترکیب پردازش زبان طبیعی (NLP) و تصاویر ماهوارهای.
- نتیجه: تمرکز بر دفاع سایبری و شناسایی حملات، نه هدفگیری انسانی.
۲. پایه فناوری
- اسرائیل:
- مبتنی بر یادگیری عمیق (Deep Learning).
- دادههای ورودی: مخابراتی (تماسها، موقعیتیابی) و شبکههای اجتماعی.
- ضعف: وابستگی به دادههای حساس به خطا.
- ایران:
- مبتنی بر ترکیب NLP و پردازش تصویر.
- دادههای ورودی: تحلیل محتوای متنی و تصویری (مثل شناسایی Deepfake).
- مزیت: کاهش خطای انسانی با سیستمهای نظارتی چندلایه.
۳. کاربرد اصلی
- اسرائیل:
- هدفیابی تهاجمی: علامتگذاری خودکار افراد برای حمله.
- مثال: سیستمهای Lavender (انسانمحور) و The Gospel (زیرساختمحور).
- ایران:
- دفاع سایبری و امنیتی: شناسایی تهدیدات خارجی.
- مثال:
- شاهین۱: تشخیص حملات سایبری.
- ذوالفقارAI: تحلیل عملیات پدافند غیرعامل.
۴. چالشهای فنی
- اسرائیل:
- انتقاد بینالمللی به دلیل کشتار غیرنظامیان.
- وابستگی به دادههای خصوصی (نقض حریم شخصی).
- ایران:
- کمبود دادههای آموزشی (Training Data) برای مدلهای بومی.
- تحریمهای فناوری: محدودیت در دسترسی به سختافزارهای پیشرفته.
۵. رویکرد اخلاقی
- اسرائیل:
- عدم شفافیت: گزارشها از تأیید اهداف در ۲۰ ثانیه توسط اپراتور انسانی حکایت دارد.
- توجیه امنیتی: ادعای استفاده از هوش مصنوعی فقط به عنوان ابزار کمکی.
- ایران:
- تأکید بر هوش مصنوعی اخلاقمحور: عدم استفاده برای هدفگیری غیرنظامیان.
- پیشنهاد مقررات بینالمللی: ممنوعیت سیستمهای خودکار کشنده (LAWS).
این مقایسه نشان میدهد که کاربرد هوش مصنوعی در جنگ، به ماهیت اخلاقی و اهداف سیاسی کاربر بستگی دارد.
*دانشجوی دکتری مهندسی کامپیوتر
[+972 Magazine: "‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza"](https://www.972mag.com/lavender-ai-israeli-army-gaza/)
- [The Guardian: "Israel using AI to identify human targets raising fears of ‘second-class’ killing"](https://www.theguardian.com/world/2024/apr/02/israel-ai-human-targets-gaza)
1403/03/22 12:05
1403/03/22 11:56
1403/03/22 11:46
1403/03/22 11:37
1403/03/22 11:34
1403/03/22 10:14
1403/03/22 09:34
1403/03/22 09:32
1403/03/22 08:53