به گزارش خبرنگار خبرآنی؛ در دهه اخیر، ورود هوش مصنوعی به عرصه نظامی یکی از جنجالیترین و در عین حال تحولآفرینترین رویدادهای فناورانه قرن بیستویکم بوده است. این فناوری که زمانی صرفاً در تحلیل دادهها و پیشبینی الگوهای رفتاری کاربرد داشت، اکنون در قلب سامانههای دفاعی، اطلاعاتی و تهاجمی قدرتهای بزرگ جهان جای گرفته است. از سامانههای شناسایی تهدید و تحلیل میدان نبرد گرفته تا کنترل پهپادها و موشکهای هدایتشونده، هوش مصنوعی در جهان امروز به بخشی از شاکله تصمیمسازی نظامی تبدیل شده است. اما پرسش بنیادینی همچنان در این میان مطرح است: وقتی ماشینها در میدان نبرد تصمیم میگیرند، چه کسی پاسخگو خواهد بود؟ آیا مرز میان اراده انسانی و منطق الگوریتمی از میان رفته است؟
پنی وونگ وزیر امور خارجه استرالیا در سخنرانی اخیر خود در شورای امنیت سازمان ملل، هشدار داد که استفاده از هوش مصنوعی در تسلیحات هستهای و سامانههای بدون سرنشین، نهتنها نظم امنیت جهانی بلکه اساس بقای بشریت را تهدید میکند. وونگ یادآور شد که تا امروز مهار جنگ هستهای به واسطه قضاوت انسانی و وجدان اخلاقی رهبران ممکن شده است، اما هوش مصنوعی فاقد هرگونه احساس، قضاوت و مسئولیت است. به گفتهی او، این فناوریها میتوانند بدون هشدار و بدون درک پیامد اقدامات، موجب تشدید غیرقابل پیشبینی درگیریها شوند. این نگرانی جهانی در قالب مفهومی موسوم به «شکاف مسئولیت»(Accountability Gap) بازتاب یافته؛ پدیدهای که اکنون در محافل حقوقی، نظامی و اخلاقی به یکی از بحثبرانگیزترین موضوعات عصر حاضر تبدیل شده است.
ابعاد استفاده از هوش مصنوعی در جنگ
هوش مصنوعی پدیدهای جدید نیست؛ قدمت این اصطلاح به دهه ۱۹۵۰ بازمیگردد، اما تحولات اخیر در یادگیری ماشین و شبکههای عصبی عملاً مرز میان تصمیمسازی انسانی و ماشینی را کمرنگ کردهاند. امروز هوش مصنوعی از شبیهسازیهای آموزشی و بازیهای جنگی گرفته تا سامانههای تصمیمیار در هدفگیری، هوش مصنوعی در ساختار عملیاتی نیروهای نظامی نفوذ کرده است.
نمونه بحثبرانگیز اخیر، سامانه «Lavender» متعلق به رژیم اشغالگر قدس محسوب میشود که ارتش رژیم صهیونیستی از آن در نسل کشی شهروندان فلسطینی ساکن نوار غزه استفاده کرده است. بر اساس گزارشهای منتشر شده، این سامانه، مبتنی بر تحلیل دادههای کلان، فهرستی از اهداف بالقوه تولید میکرد که سپس در عملیات هوایی مورد استفاده قرار میگرفت. به عقیده کارشناسان، این قبیل کاربردهای هوش مصنوعی، در مرز میان فناوری و اخلاق حرکت میکنند، زیرا تصمیم دربارهی مرگ و زندگی را از انسان به الگوریتم میسپارند.
از سوی دیگر، بسیاری از متخصصان بر این باورند که نباید تمام کاربردهای نظامی هوش مصنوعی را همسنگ دانست. بخش بزرگی از این فناوریها صرفاً برای آموزش، شبیهسازی، تحلیل اطلاعات و پشتیبانی لجستیکی استفاده میشوند. بنابراین، نقطهی بحران دقیقاً در بخشی که هوش مصنوعی در فرآیند تصمیمگیری مرگبار دخالت مستقیم پیدا میکند.
شکاف مسئولیت: از افسانه «ربات قاتل» تا واقعیت تصمیم انسانی
بحث «شکاف مسئولیت» زمانی مطرح میشود که یک سامانه هوشمند در جنگ مرتکب اشتباه شود؛ در چنین شرایطی باید به این پرسش بنیادین پاسخ داد که چه کسی باید مسئول اقدامات نظامی صورت گرفته باشد؟ رسانهها این مسئله را با واژههایی همچون «رباتهای قاتل» دامن زدهاند، اما از دیدگاه تحلیلی، چنین گفتمانی بیشتر به اسطورهسازی شباهت دارد تا واقعیت فنی.
حقیقت این است که هیچ سامانهی خودکاری تاکنون موضوع مسئولیت حقوقی نبوده است. مسئولیت همواره متوجه طراحان، مجریان و فرماندهان است و شامل ابزارها نمیشود. همانگونه که در پروندهی رسوایی تخصیص اعتبار وام «Robodebt» در کشور استرالیا، نه سیستم محاسبهگر بدهی، بلکه دولت مسئول شناخته شد، در حوزهی نظامی نیز پرسش از مسئولیت باید متوجه تصمیمگیرندگان انسانی باشد.
این امر به دلیل آن است که هوش مصنوعی خارج از سلسلهمراتب فرماندهی نظامی وجود ندارد. هر سیستم هوشمند، از طراحی تا استقرار، در چارچوب تصمیمهای انسانی ساخته و بهکار گرفته میشود. بنابراین، انتساب «مسئولیت» به خود سیستم، یک خطای مفهومی است و مسئلهی واقعی، شفافیت در زنجیرهی تصمیمسازی و تنظیمگری انسانها به شمار میرود.
زنجیره مسئولیت در چرخه عمر سیستمهای نظامی هوش مصنوعی
هر سیستم پیچیدهای، از جمله سامانههای هوش مصنوعی نظامی، در چرخهای متشکل از مراحل طراحی، توسعه، استقرار، بهرهبرداری و بازنشستگی عمل میکند. در هر یک از این مراحل، انسانها تصمیمهایی میگیرند که بر قابلیتها و محدودیتهای سیستم تأثیر میگذارد. از مهندسان الگوریتم تا مقامات نظامی، هر حلقه از این زنجیره حامل بخشی از مسئولیت اخلاقی و عملیاتی است.
در واقع، خطاهای سیستمهای هوشمند، بازتابی از تصمیمهای انسانی در طراحی و آموزش آنهاست. اگر سامانهای در جنگ اهداف غیرنظامی را اشتباه شناسایی میکند، مسئولیت به دادههای آموزشی، معیارهای هدفگیری و سیاستهای اجرایی بازمیگردد و هوش مصنوعی بهعنوان موجودی مستقل در این فرایند مسئول نیست.
بنابراین، مقرراتگذاری در حوزهی تسلیحات مبتنی بر هوش مصنوعی در اصل باید بر انسانهای فعال در زنجیره بهکارگیری ابزار، شامل طراحان، تولیدکنندگان، ناظران، فرماندهان و کاربران نهایی متمرکز باشد. تدوین چارچوبهای نظارتی بدون درک این چرخه، در بهترین حالت ناکارآمد و در بدترین حالت خطرناک است.
آیا هوش مصنوعی واقعاً ماهیت جنگ را تغییر میدهد؟
ادعای «تغییر ماهیت جنگ» توسط هوش مصنوعی تا حدودی اغراقآمیز است. جنگ در طول تاریخ، میدان ارادهها و قضاوتهای انسانی بوده است؛ تصمیماتی که نه تنها بر اساس داده و منطق، بلکه بر مبنای ترس، امید، ایدئولوژی و قدرت اتخاذ میشوند. فناوریهای نوین صرفاً ابزارهایی هستند که این تصمیمات را سریعتر، دقیقتر و گاه بیرحمانهتر میسازند و به هیچ وجه جایگزینی برای انسان نیستند. اگرچه هوش مصنوعی میتواند سرعت، دقت و حجم تحلیلهای اطلاعاتی را چند برابر کند، اما هنوز در چارچوب ارادهی انسانی و منطق سیاستگذاری نظامی عمل میکند.
در این میان، مسئلهی بنیادین نه حذف انسان از چرخهی تصمیمگیری، بلکه «انتقال بار مسئولیت» از سطح عملیاتی به لایههای پیشینیتر یعنی طراحی، آموزش و تصمیمسازی الگوریتمی است. در جنگهای دادهمحور، اشتباهات اخلاقی و حقوقی غالباً پیش از شلیک اولین گلوله و هنگام انتخاب الگوریتمهای تشخیص هدف، تعریف آستانههای تصمیم، تنظیم دادههای آموزشی و تعیین قواعد درگیری شکل میگیرند. در این ساختار جدید، فرمانده میتواند در ظاهر از صحنهی تصمیمگیری کنار بایستد، در حالی که خطا درون کدها و مدلها نهادینه شده است.
از این منظر، هوش مصنوعی نه ماهیت جنگ را بهطور ماهوی دگرگون میکند و نه از الزامهای اخلاقی میگریزد؛ بلکه لایههای مسئولیت را بازتوزیع میکند و میان خطوط کد، تصمیمات طراحی و فرمانهای اجرایی پنهان میسازد. بدین ترتیب، خطر اصلی نه در هوشمندی ماشین، بلکه در بیتوجهی انسان به عمق اثرات تصمیمات فناورانه نهفته است.
بازتعریف مسئولیت در عصر جنگ هوشمند
هوش مصنوعی، علیرغم تمام پیچیدگیهای فنی، فلسفی و اخلاقی، نه موجودی خودمختار است و نه بیوجدان؛ بلکه آینهای از انتخابها، سوگیریها و ارزشهای انسانی است که در طراحی، آموزش و استفاده از آن نقش دارند. به بیان دیگر، آنچه از هوش مصنوعی در میدان نبرد میبینیم، در واقع بازتاب تفکر استراتژیک و نظام اخلاقی جوامعی است که آن را به کار میگیرند. بحران مسئولیت در کاربردهای نظامی فناوری مذکور از آنجا ناشی میشود که سازوکارهای سنتی پاسخگویی که مبتنی بر فرماندهی متمرکز، تصمیمگیری انسانی و ساختارهای سلسلهمراتبی بودهاند، دیگر با واقعیت زنجیرههای تصمیمسازی شبکهای و فناورانه سازگار نیستند. امروز، هر تصمیم نظامی نه فقط نتیجه دستور یک فرمانده، بلکه محصول همزمان طراحی نرمافزار، پردازش داده، تنظیم الگوریتم و تفسیر خروجی مدل است.
از همین روی، چالش پیشرو، ایجاد نظامی از تنظیمگری هوشمند و میانرشتهای است که بتواند این زنجیرهی چندلایهی مسئولیت را شفاف و قابل ردیابی کند. این نظام باید هم شفافیت فنی داشته باشد و هم پاسخگویی حقوقی، تا از فاجعهی «شکاف مسئولیت» در میدان نبرد جلوگیری نماید.
در نهایت، همانطور که بسیاری از تحلیلهای جدید در حوزه امنیت بینالملل تأکید دارند، هوش مصنوعی جنگ را بهصورت خودکار و مستقل از انسان اداره نمیکند؛ بلکه مسئولیت انسانی را در شبکهای پیچیدهتر از تعامل میان کد، داده، سیاست و تصمیم توزیع میکند. اگر جامعه جهانی نتواند این مسئولیت را بهدرستی بازتعریف و نهادینه کند، خطر واقعی نه از جانب رباتهای قاتل، بلکه از سوی انسانهایی است که در پشت آنها پنهان میشوند و از پاسخگویی میگریزند.