ATLAS متناقض
در آغاز سال گذشته ، ارتش ایالات متحده جهان را با خبر توسعه سیستم ATLAS (سیستم هدفمند پیشرفته و کشنده) که برای ارتقاء عملیات رزمی به سطح جدیدی از اتوماسیون طراحی شده بود ، بیدار کرد. این ابتکار باعث واکنش متفاوتی در بین مردم عادی و متخصصان روشنفکر نظامی شد. بیشتر تقصیرها بر عهده توسعه دهندگان (مرکز نظامی C5ISR و مرکز تسلیحات وزارت دفاع) بود که به خاطر اختصار شگفت انگیز ATLAS ، عبارت "مرگبار" و "تعیین هدف بهتر" را در نام خود قرار دادند. به آنها می ترسند از روبات های سرکش ، ابتکار ارتش را مورد انتقاد قرار دهند ، آنها می گویند ، این با اخلاق جنگ در تضاد است. به طور خاص ، بسیاری از آنها به دستورالعمل 3000.09 پنتاگون اشاره کردند که انتقال حق آتش به سیستم خودکار را ممنوع می کند. به گفته معترضان ادغام هوش مصنوعی و یادگیری ماشین در خودروهای زمینی می تواند منجر به تلفات ناگهانی در میان غیرنظامیان و نیروهای دوست شود. در میان منتقدان دانشمندان کاملاً قابل احترامی بودند - برای مثال ، استوارت راسل ، استاد علوم کامپیوتر در دانشگاه کالیفرنیا در برکلی.
توسعه دهندگان کاملاً منطقی توضیح دادند که ATLAS هیچ ربطی به فرضیه "روبات های قاتل" ندارد که بشریت از اولین "ترمیناتور" رویای آن را داشته اند. این سیستم مبتنی بر الگوریتم هایی برای یافتن هدف با استفاده از سیستم های حسگر مختلف ، انتخاب مهمترین آنها و اطلاع اپراتور در مورد آن است. اکنون در ایالات متحده ، نفربر زرهی M113 با سیستم یکپارچه ATLAS در حال آزمایش است. الگوریتم های هوش مصنوعی برای اپراتور سلاح نه تنها خطرناک ترین اهداف را روی صفحه نمایش می دهند ، بلکه نوع مهمات و حتی تعداد شلیک ها را نیز برای تضمین شکست توصیه می کنند. به گفته توسعه دهندگان ، تصمیم نهایی در مورد ضربه زدن به هدف با تیرانداز باقی می ماند و این اوست که مسئول نتیجه است. وظیفه اصلی ATLAS در نسخه زرهی افزایش سرعت پاسخ به تهدید احتمالی است - به طور متوسط ، یک تانک (BMP یا حامل پرسنل زرهی) سه بار سریعتر با دستیاری اتوماتیک به سمت هدف شلیک می کند. به طور طبیعی ، یک وسیله نقلیه زرهی می تواند با اهداف گروهی کارآمدتر کار کند. در این مورد ، هوش مصنوعی به سرعت اهداف را به ترتیب خطر تانک انتخاب می کند ، سلاح را به تنهایی هدایت می کند و نوع مهمات را توصیه می کند. از ابتدای ماه آگوست ، انواع مختلف خودروهای زرهی با سیستم های ATLAS یکپارچه در محوطه اثبات آبردین آزمایش شده اند. بر اساس نتایج کار ، در مورد آزمایشات نظامی و حتی پذیرش چنین سلاح هایی تصمیم گیری می شود.
تانک ها در حال حاضر یکی از محافظه کارترین اهداف در میدان جنگ هستند. بسیاری از آنها برای چند دهه بهبود اساسی پیدا نکرده اند و از نظر پیشرفت فنی در دهه 70-80 قرن گذشته باقی مانده اند. اغلب این اینرسی با استفاده گسترده از تانک ها در کشورهای مختلف همراه است. برای مدرن سازی جدی ارتش زرهی هزاران نفر ، منابع عظیمی مورد نیاز است. اما ابزارهای مقابله با تانک ها با جهش های گسترده در حال توسعه است. یک مثال عالی درگیری کنونی در قره باغ است ، زمانی که هواپیماهای بدون سرنشین ترکیه و اسرائیل در برابر تانک های ارمنی بسیار مثر هستند.اگر از تلفات غافل شویم ، محاسبه نسبت قیمت / عملکرد چنین سلاح های ضد تانک آنها را به سادگی پادشاهان میدان جنگ می کند. البته ، ATLAS در برابر تهدیدات هوایی محافظت نمی کند ، اما می تواند ابزار خوبی برای هشدار زودهنگام در مورد اهداف خطرناک تانک مانند خدمه ATGM یا پرتاب کننده نارنجک باشد.
پنتاگون سیستم ATLAS را نه به عنوان یک ساختار نظامی واحد ، بلکه به عنوان بخشی از یک پروژه همگرایی بزرگ در نظر می گیرد. این ابتکار باید آگاهی سربازان را به سطح بعدی برساند. آمریکایی ها امیدوارند از طریق یادگیری ماشین ، هوش مصنوعی و اشباع بی سابقه میدان جنگ با هواپیماهای بدون سرنشین ، توان رزمی واحدهای خود را به طور جدی افزایش دهند. ایده اصلی چیز جدیدی نیست - اتصال همه اشیاء در میدان جنگ با یک ساختار اطلاعاتی مشترک و دیجیتالی شدن واقعیت اطراف. تا کنون ، ATLAS به دلیل عدم مهارت تبادل داده با "همسایه ها" به طور کامل در پروژه همگرایی گنجانده نشده است ، اما در آینده ، مغزهای مصنوعی مخزن به یک ویژگی مشترک تبدیل می شود. به هر حال ، در تبلیغات پروژه ، چین و روسیه به عنوان اهداف نظامی بدون ابهام تعیین شده اند.
عدم اعتماد به لوازم الکترونیکی
نیروهای آمریکایی در حال حاضر تجربه منفی با سیستم های روباتیک مسلح دارند. در سال 2007 ، سه سکوی کوچک SWORDS (مخفف عبارت Special Weapons Observation Recognition Detection System) ، مجهز به مسلسل M249 ، به عراق فرستاده شد. و اگرچه آنها خودروهای کاملاً خودمختار نبودند ، آنها توانستند هنگام گشت زنی در خیابان های بغداد ، سربازان را با حرکت های هرج و مرج دوره ای خود از بشکه های مسلسل بترسانند. این به نظر پنتاگون نشانه غیرقابل پیش بینی بودن بود و مسلسل های ردیابی شده به آرامی به خانه فرستاده شدند. در سال 2012 ، بخشنامه ای صادر شد مبنی بر اینکه سیستم های تسلیحاتی خودکار و کنترل از راه دور نباید خود به خود شلیک کنند. به طور رسمی ، ATLAS کاملاً در چارچوب این مقررات توسعه یافته است ، اما در مورد نوآوری کمتر س questionsالی وجود دارد. برخی از کارشناسان (به ویژه مایکل اس هوروویتز ، استادیار علوم سیاسی در دانشگاه پنسیلوانیا) این تازگی را به ساده انگاری بیش از حد فرآیند ضربه زدن به هدف متهم می کنند. در واقع ، این سطح از خودکارسازی جستجو و تعیین هدف ، مبارزه را به یک بازی معمولی مانند World of Tanks برای توپچی تبدیل می کند. در سیستم هدایت ATLAS ، هدف اولویت با رنگ قرمز مشخص می شود ، زنگ هشدار به صدا در می آید و تکنیک ، تا آنجا که می تواند ، فرد را به آتش باز می کند. در شرایط شدید جنگی ، زمان کمی برای تصمیم گیری در مورد تیراندازی وجود دارد ، و سپس "ربات هوشمند" شما را تشویق می کند. در نتیجه ، جنگنده به سادگی وقت ندارد که وضعیت را به طور انتقادی ارزیابی کند ، و او ، بدون درک ، آتش را باز می کند. ارزیابی نحوه انتخاب صحیح اهداف ATLAS پس از تیراندازی ضروری است. این رویکرد تا چه اندازه اخلاقی است و آیا با دستورالعمل بدنام آمریکا مطابقت دارد؟ به هر حال ، مایکروسافت قبلاً موفق شده است به دلیل چنین سیستم تعیین هدف برای ارتش ، تا تحریم کاربران و شامل تحریم ، مورد انتقاد عمومی قرار گیرد. سالهاست که در ایالات متحده بحثی در مورد روبات سازی سیستم های تشخیص و هدایت وجود دارد. به عنوان مثال ، منتقدان نمونه هایی از خطاهای سیستم خلبان خودکار در جاده های عمومی را ذکر می کنند ، که قبلاً منجر به تلفات شده است. اگر حتی پس از رانندگی میلیون ها کیلومتر ، خلبان های خودکار 100٪ قابل اعتماد نبودند ، پس در مورد یک ATLAS کاملاً تازه چه می توان گفت ، که می تواند نفتکش ها را مجبور به تیراندازی به یک فرد بی گناه با پرتابه 120 میلی متری کند. جنگهای مدرن اکنون بسیار خونین هستند دقیقاً به این دلیل که ارتش توانایی کشتن از راه دور را پیدا کرد و در پشت یک مانع قابل اعتماد پنهان شد. مثال قره باغ مذکور بار دیگر این حقیقت را تأیید می کند. اگر جنگنده همچنین از فرصت ارزیابی انتقادی پارامترهای هدف محروم باشد (این دقیقاً همان چیزی است که ATLAS به آن منجر می شود) ، در این صورت قربانیان بسیار بیشتری می تواند وجود داشته باشد ، و تقصیر قتل می تواند تا حدی به دستگاه منتقل شود.
و سرانجام ، استدلال اصلی علیه سیستم های نوع ATLAS در میان مفسران صلح طلب عدم وجود ممنوعیت باز کردن آتش خودکار بود. در حال حاضر فقط الزامات اخلاقی پنتاگون (که دارای احترام زیادی نیز هستند) خودکارسازی کامل فرایند قتل را ممنوع کرده است. با معرفی ATLAS ، هیچ مانع فنی برای این امر وجود نخواهد داشت. آیا ارتش ایالات متحده قادر خواهد بود از چنین فرصت امیدوار کننده ای برای تسریع بیشتر زمان پاسخگویی به تهدید و جلوگیری از حمله جنگنده های خود دست بردارد؟