به گزارش خبرنگار مهر، با این حال، شتاب کمسابقه پیشرفتهای هوش مصنوعی در حوزههایی مانند بینایی ماشین، یادگیری عمیق و پردازش بلادرنگ دادههای میدانی، این تصور را طی یک دهه گذشته بهتدریج به واقعیتی عملیاتی نزدیک کرده است. در همین بستر، بازار مشخص و رو به رشدی برای «سامانههای تسلیحاتی خودمختار» پدید آمده؛ سامانههایی که با تکیه بر الگوریتمهای پیچیده، دادههای حسگرها، پهپادها و شبکههای شناسایی را تحلیل کرده و قادر هستند با شناسایی و اولویتبندی اهداف بالقوه در شرایطی خاص بدون دخالت مستقیم انسان درگیر شوند.
این تحول، صرفاً یک جهش فناورانه نیست، بلکه بیانگر تغییر پارادایم در طراحی و بهکارگیری قدرت نظامی محسوب میشود. دولتها، مجذوب وعده دستیابی به برتری راهبردی، افزایش سرعت واکنش در میدان نبرد و همزمان کاهش هزینههای انسانی و سیاسی جنگ، بهسرعت به سوی این فناوریها گرایش یافتهاند و آنها را ابزاری بالقوه تعیینکننده در موازنههای آینده قدرت و حتی بازتعریف مفهوم بازدارندگی میدانند.
تغییر محاسبات جنگ و پیامدهای راهبردی
استقبال دولتها از این فناوری صرفاً ناشی از پیشرفت فنی نیست. تسلیحات خودمختار مبتنی بر هوش مصنوعی، محاسبه دولتها برای ورود به درگیری نظامی را نیز دگرگون میکند. هنگامی که تصور شود میتوان با تکیه بر ماشینها و نه انسانها جنگید، آستانه تصمیم برای توسل به زور کاهش مییابد.
این تحول، اگرچه ممکن است از منظر برخی سیاستگذاران جذاب به نظر برسد، اما در عمل خطر عادیسازی خشونت و گسترش درگیریهای کمهزینه اما مداوم را به همراه دارد. به همین دلیل، بسیاری از تحلیلگران این فناوریها را نهتنها ابزار نظامی، بلکه عامل تغییر ماهیت جنگهای مدرن میدانند.
مسئولیت اخلاقی در عصر الگوریتمها
یکی از جدیترین چالشهای تسلیحات خودمختار، مسئله مسئولیت در تصمیمهای مرگ و زندگی است. برخلاف تصور رایج، حتی در پیشرفتهترین سامانهها نیز هنوز انسان نقش نهایی را در شلیک ایفا میکند. با این حال، هنگامی که سامانه دچار خطا میشود، تعیین مسئول واقعی به مسئلهای پیچیده تبدیل میگردد.
تجربههای گزارششده نشان میدهد که معمولاً فردی که آخرین تصمیم عملیاتی را گرفته، مسئول نتایج شناخته میشود؛ حتی اگر اطلاعات ارائهشده از سوی سامانه نادرست یا ناقص بوده باشد. این وضعیت، عدم توازن قدرت در زنجیره فرماندهی را تشدید کرده و عملاً سطوح بالاتر را از پاسخگویی مصون میسازد.
منتقدان این فناوریها هشدار میدهند که هوش مصنوعی، ذاتاً قادر به درک ارزش اخلاقی جان انسان نیست. در منطق الگوریتمی، افراد به نقاطی در یک شبکه داده تقلیل مییابند که باید با سرعت و کارایی حذف شوند. چنین رویکردی، اگرچه ممکن است فرآیند تصمیمگیری نظامی را تسریع کند، اما ظرایف انسانی میدان نبرد را نادیده میگیرد. انسان میتواند در لحظهای بحرانی تشخیص دهد که ادامه یک اقدام مرزهای انسانیت را نقض میکند و این قابلیت در سامانههای خودمختار تعریف نشده است. از همین روی، واگذاری اختیار بیشتر به این فناوریها، به معنای واگذاری بخشی از مسئولیت اخلاقی جنگ به ماشین است.
رقابت ژئوپلیتیکی و منطق مسابقه تسلیحاتی
با وجود مجموعه گستردهای از دغدغههای اخلاقی، حقوقی و انسانی، تقاضا برای تسلیحات خودمختار مبتنی بر هوش مصنوعی نهتنها متوقف نشده، بلکه با شتابی فزاینده در حال گسترش است. قدرتهای بزرگ نظامی، با درک این فناوریها بهعنوان یکی از مؤلفههای تعیینکننده جنگهای آینده، نگران آن هستند که هرگونه تعلل در سرمایهگذاری یا استقرار عملیاتی، به عقبماندن راهبردی از رقبا منجر شود.
از همین روی، منابع مالی، نهادی و پژوهشی قابل توجهی به ادغام سامانههای هوشمند در ساختارهای تسلیحاتی موجود اختصاص یافته است. در ایالات متحده، این روند بهطور مستقیم با حساسیت فزاینده نسبت به پیشرفتهای چین در حوزه نظامی هوش مصنوعی گره خورده و بهتدریج رنگوبوی یک رقابت تسلیحاتی نوین و فناورانه به خود گرفته است؛ رقابتی که نهتنها بر سر تعداد یا قدرت تخریبی تسلیحات، بلکه بر سر سرعت پردازش، کیفیت الگوریتمها و برتری تصمیمسازی ماشینی شکل میگیرد. در چنین فضایی، سیاستگذاری محتاطانه و مبتنی بر ملاحظات اخلاقی به امری دشوار و حتی پرهزینه تبدیل میشود و منطق بازدارندگی فناورانه، که بر پیشیگرفتن از رقیب به هر قیمت تأکید دارد، بهتدریج جایگزین خویشتنداری و مسئولیتپذیری اخلاقی در حوزه نظامی میشود.
بسیاری از دولتها تأکید میکنند که در استفاده از این تسلیحات، همواره «کنترل انسانی» حفظ خواهد شد. با این حال، شواهد موجود نشان میدهد که این اصل در عمل همیشه رعایت نمیشود. در همین راستا، شتاب برای بهرهبرداری از مزیتهای نظامی، اغلب بر ضرورت تدوین قواعد شفاف غلبه میکند. نتیجه آن است که هنجارهای بینالمللی پیش از آن که تثبیت گردند، توسط واقعیتهای میدانی کنار زده میشوند. این شکاف میان گفتار رسمی و رفتار عملی، خطر استفاده بیمهابا از این فناوریها را افزایش میدهد.
ضرورت تنظیمگری و همکاری چندجانبه
در چنین شرایطی، تسلیحات خودمختار مبتنی بر هوش مصنوعی به یکی از کانونیترین و مناقشهبرانگیزترین محورهای بحث درباره آینده جنگ و امنیت بینالمللی تبدیل شدهاند. ابهام عمیق در خصوص مسئولیتپذیری حقوقی و اخلاقی این سامانهها، بهویژه در مواقعی که تصمیمهای مرگبار بر مبنای پردازشهای الگوریتمی اتخاذ میشود، در کنار جذابیت راهبردی آنها برای افزایش سرعت، دقت و برتری عملیاتی، سیاستگذاران را در وضعیتی دوگانه و بعضاً متناقض قرار داده است.
از یک سو، دغدغههای انسانی، حقوق بشردوستانه و نگرانی از فرسایش معیارهای اخلاقی در جنگ، فشار قابل توجهی برای احتیاط و محدودسازی این فناوریها ایجاد میکند و از سوی دیگر، ملاحظات ژئوپلیتیکی، رقابت قدرتهای بزرگ و ترس از عقبماندن در یک رقابت فناورانه سرنوشتساز، دولتها را به سمت پذیرش و تسریع بهکارگیری آنها سوق میدهد. این تعارض بنیادین نشان میدهد که در غیاب همکاری مؤثر چندجانبه و تدوین قواعد مشترک و مورد اجماع، نهتنها امکان مهار پیامدهای منفی این فناوریها کاهش مییابد، بلکه خطر شکلگیری نظمی ناپایدار و پرتنش در عرصه امنیت جهانی نیز بهطور جدی افزایش خواهد یافت.
معاهدهای برای مهار ماشینهای جنگی
در واکنش به این وضعیت، سازمانهای مدنی، نهادهای حقوق بشری و بخشی از جامعه بینالمللی به شکل فزایندهای خواستار تدوین یک معاهده جهانی الزامآور شدهاند که توسعه، استقرار و بهکارگیری تسلیحات خودمختار مبتنی بر هوش مصنوعی را در چارچوب قواعد روشن حقوقی و اخلاقی قرار دهد. این تلاشها از این درک مشترک نشأت میگیرد که خلأ مقرراتی موجود، میتواند به عادیسازی استفاده از سامانههایی بینجامد و تصمیم به اعمال خشونت را به فرآیندهای الگوریتمی واگذار میکنند.
چنین توافقی در صورت تحقق، میتواند دولتها را ملزم سازد که اصل «کنترل معنادار انسانی» را نه صرفاً در سطح شعار بلکه در تمام چرخه طراحی، آزمایش و استفاده عملیاتی این تسلیحات رعایت کنند و همزمان، توسعه سامانههایی با سطح بالای استقلال عملیاتی و فقدان امکان مداخله انسانی مؤثر را محدود یا ممنوع سازد. همچنین، هدف اصلی این ابتکارها، توقف یا انکار پیشرفت فناوری نیست، بلکه مهار پیامدهای انسانی و اخلاقی آن و جلوگیری از تبدیل هوش مصنوعی به عاملی بیضابطه در کشتار سازمانیافته به شمار میرود.
با وجود همه نگرانیهای ذکر شده، در نهایت، آینده جنگهای مدرن بیش از هر زمان دیگری به تصمیمهایی گره خورده است که امروز درباره مرز اختیارات ماشین، جایگاه قضاوت انسانی و چارچوب مسئولیت اخلاقی و حقوقی اتخاذ میشود و در مقطع کنونی، قدرتهای نظامی بزرگ جهان، توجه چندانی به اصول اخلاقی مطرح شده از سوی مخالفان توسعه ماشینهای کشتار ندارند.









