
استفاده اسرائیل از این هوش مصنوعی برای عملیات نظامی-تروریستی

استفاده از فناوریهای هوش مصنوعی در جنگها به سرعت در حال گسترش است و یکی از جدیدترین نمونههای آن، سیستم «لوندر» است که ارتش اسرائیل برای شناسایی و ترور مظنونین حماس به کار میبرد.
به گزارش اقتصاد آنلاین به نقل از دانشجو، استفاده از سیستمهای هوش مصنوعی در عملیاتهای نظامی، همچون «لوندر» که توسط ارتش اسرائیل برای ترور مظنونین حماس به کار میرود، تهدیدی جدی برای امنیت غیرنظامیان و اخلاقیات جنگ است. این فناوری که به حداقل رساندن دخالت انسان و شناسایی اهداف از طریق الگوریتمهای پیچیده را هدف قرار داده، به طور مستقیم بر جان افراد بیگناه تاثیر میگذارد.
استفاده از فناوریهای هوش مصنوعی در جنگها به سرعت در حال گسترش است و یکی از جدیدترین نمونههای آن، سیستم «لوندر» است که ارتش اسرائیل برای شناسایی و ترور مظنونین حماس به کار میبرد. این سامانه، با کاهش دخالت انسان و تمرکز صرف بر روی الگوریتمهای هوش مصنوعی، نه تنها شفافیت و دقت را کاهش میدهد، بلکه تهدید جدی برای حقوق بشر و جان غیرنظامیان است. در حالی که بهطور نظری سرعت و کارآیی عملیاتهای نظامی افزایش مییابد، این فناوری به معنای واقعی کلمه جان هزاران بیگناه را به بازی میگیرد و بر عمق فاجعههای انسانی در مناطق جنگی میافزاید.
یک نشریه صهیونیستی گزارش داده است که ارتش اسرائیل از یک سیستم هوش مصنوعی جدید به نام «لوندر» (Lavender) برای شناسایی و ترور مظنونین همکاری با مقاومت فلسطین، به ویژه حماس، استفاده میکند. این سیستم، که به گفته شش جاسوس اسرائیلی در گفتوگو با این نشریه طراحی شده است، به طور قابل توجهی دخالت عامل انسانی را کاهش داده و در عوض تمرکز بیشتری روی شناسایی دقیق هدفها دارد. با این حال، این سیستم به ویژه در کاهش توجه به قربانیان غیرنظامی جنجالهایی را به دنبال داشته است.
شناسایی مظنونین و استفاده از سیستم هوش مصنوعی «لوندر»
طبق گزارشها، سیستم «لوندر» برای جمعآوری اطلاعات شخصی از دو میلیون شهروند غزه طراحی شده است. هدف اصلی این سیستم، تهیه فهرستی از افرادی است که مظنون به همکاری با شاخههای نظامی حماس و جهاد اسلامی فلسطین هستند. این سامانه از طریق بررسی تاریخچه مکالمات، فعالیتهای آنلاین، تصاویر و تحرکات افراد، ویژگیهای مشترک بین مظنونین را شناسایی کرده و سپس آن ویژگیها را در یک جامعه آماری گستردهتری جستوجو میکند. افراد شناساییشده توسط این سیستم نمرهای بین صفر تا ۱۰۰ دریافت میکنند، و هرچه نمره بالاتر باشد، فرد به هدفی برای ترور تبدیل میشود بدون اینکه نیاز به بررسیهای بیشتر وجود داشته باشد.
کاهش دخالت انسانی و صرفهجویی در زمان
یکی از منابع نظامی اسرائیلی در مورد این سیستم گفت: «در این مرحله، برای هر هدف تنها ۲۰ ثانیه زمان میگذارم و هر روز دهها بار این کار را انجام میدهم. به عنوان عامل انسانی، حتی اگر هدف را تأیید کنم، نقشی در تصمیمگیری ندارم.» این منابع اشاره کردهاند که سامانه «لوندر» صرفهجویی زیادی در زمان ایجاد میکند و عامل انسانی به جای تصمیمگیری، صرفاً به عنوان یک تأییدکننده عمل میکند. به گفته این منابع، حتی زمانی که هدف تأیید میشود، نیازی به دخالت اضافی انسانی نیست.
بمباران هدفها و استفاده از مهمات متفاوت
پس از شناسایی هدفها توسط سیستم «لوندر»، اهداف با نمرات پایینتر به سیستم هوش مصنوعی دیگری به نام «گاسپل» منتقل میشوند. این سیستم برای هدف قرار دادن با بمبهای غیرهدایتشونده یا «بمب کودن» طراحی شده است، در حالی که برای اعضای ارشد حماس از مهمات دقیقتری استفاده میشود. این فرایند شناسایی و بمباران با استفاده از سامانههای خودکار در حالی که هدفهای شناساییشده از خانههای خود خارج میشوند، صورت میگیرد.
تصمیمگیریهای نظامی و قربانیان غیرنظامی
یکی دیگر از جنبههای بحثبرانگیز استفاده از سیستمهای هوش مصنوعی در ارتش اسرائیل، تصمیمگیری در خصوص تعداد قربانیان غیرنظامی است که ممکن است در جریان ترور هدفهای مشخص شده کشته شوند. منابع مختلف گزارش کردهاند که فرماندهان ارتش اسرائیل بر اساس ارزیابی خود از میزان «قابل قبول» بودن تلفات غیرنظامی، تصمیم میگیرند که چه تعداد غیرنظامی در حملات تروریستی مجاز است. این تعداد در ابتدا در شروع جنگ به ۲۰ قربانی غیرنظامی محدود بوده و اکنون به ۱۰۰ قربانی غیرنظامی افزایش یافته است. یکی از منابع گزارش کرده است که به نظامیان گفته شده است: «میتوانیم در کنار این اهداف، هر تعداد غیرنظامی که میخواهیم را بکشانیم.»
استفاده ارتش اسرائیل از سیستم هوش مصنوعی «لوندر» برای شناسایی و ترور مظنونین همکاری با حماس به شدت توجهات را جلب کرده است. این سیستم، که با استفاده از تجزیه و تحلیل دادهها و کاهش دخالت انسانی، میتواند اهداف را شناسایی و بمباران کند، در عین حال نگرانیهایی درباره افزایش تلفات غیرنظامی و کمتوجهی به جان افراد بیگناه به دنبال داشته است. به رغم اینکه ارتش اسرائیل این سامانه را تأیید نکرده، استفاده از تکنولوژیهای مشابه در عملیاتهای پیشین نشان میدهد که چنین سیستمهایی در دست ارتش اسرائیل وجود دارند و تأثیرات قابل توجهی بر روند جنگ و تلفات غیرنظامی دارند.
این گزارشها همچنان سوالات زیادی را درباره اخلاق استفاده از هوش مصنوعی در عملیاتهای نظامی و تأثیر آن بر غیرنظامیان ایجاد کرده است.