ردپای هوش مصنوعی در جنگ غزه/ ربات های قاتل چگونه شکل جنگ را تغییر می‌دهند |

به گزارش خبرنگار مهر؛ تأثیر هوش مصنوعی اکنون بر تمامی جنبه‌های زندگی بشر تسری یافته است. در طول دهه گذشته، استفاده از هوش مصنوعی به طرز چشمگیری افزایش یافته و کاربردهای این فناوری شامل نرم‌افزارهای تشخیص چهره، خودروهای خودران، موتورهای جستجو و نرم‌افزارهای ترجمه می‌شود. این استفاده‌های پذیرفته‌شده از هوش مصنوعی در جامعه مدرن با حضور فزاینده این فناوری در جنگ‌های معاصر نیز همراه شده است. روند تسلیحاتی‌سازی هوش مصنوعی، شباهت زیادی به رقابت تسلیحاتی هسته‌ای در دوران جنگ سرد دارد.

تسلیحات هسته‌ای اکنون جای خود را به سیستم‌های تسلیحاتی خودکار مبتنی بر هوش مصنوعی داده‌اند. با این حال، جامعه جهانی، سازمان ملل متحد و قوانین بین‌المللی همچنان در تلاش‌اند تا به‌روز شده و بر استفاده از این سیستم‌های خودکار نظارت و مقرراتی اعمال کنند؛ تلاشی که هنوز با سرعت بالای تغییرات در صحنه‌ی نبردهای امروزی همگام نیست. با این وجود، جامعه‌ی بین‌المللی از سال ۲۰۱۲ به تأثیر هوش مصنوعی بر جنگ‌های معاصر توجه نشان داده و مجموعه‌ای از اسناد در مورد استفاده از سیستم‌های تسلیحاتی خودکار منتشر شده است.

پیشرفت و استفاده از تسلیحاتی که در طول درگیری نظامی، قابلیت انجام عملیات به صورت خودمختار را دارند، اکنون به نقطه تمرکز دولت‌ها و شرکت‌های فناوری تبدیل شده است. در سال ۲۰۱۷، نامه‌ای از مؤسسه غیرانتفاعی آینده زندگی (Future Life Institute) خطاب به سازمان ملل متحد و با امضای ۱۲۶ مدیرعامل و بنیان‌گذار شرکت‌های هوش مصنوعی و رباتیک از دولت‌ها خواست تا از رقابت تسلیحاتی برای توسعه سیستم‌های تسلیحاتی خودکار جلوگیری کنند. با این حال، چارچوب قانونی بین‌المللی مشخصی برای رسیدگی به این نگرانی‌ها در خصوص استفاده از هوش مصنوعی به ویژه در زمینه درگیری‌های نظامی، وجود ندارد. تنها چارچوب قانونی فعلی مرتبط با هوش مصنوعی که در ماده ۲۶ میثاق بین‌المللی حقوق مدنی و سیاسی ذکر شده، صرفاً استفاده از هوش مصنوعی را به حق حریم خصوصی مربوط می‌داند و چارچوبی برای فناوری‌های نظامی مبتنی بر هوش مصنوعی از جمله سیستم‌های تسلیحاتی خودکار، حملات سایبری پیشرفته و پهپادها وجود ندارد.

تسلیحات خودکار چیست؟

تعاریف متعددی برای سیستم‌های تسلیحاتی خودکار وجود دارد، اما وزارت دفاع بریتانیا (MoD) و وزارت دفاع ایالات متحده (DoD) دو تعریف شاخص درباره این ابزار که مبتنی بر هوش مصنوعی هستند، ارائه کرده‌اند. در سال ۲۰۱۱، وزارت دفاع بریتانیا، سیستم‌های تسلیحاتی خودکار را به عنوان «سیستم‌هایی قادر به درک اهداف و جهت‌گیری‌های سطح بالا، یعنی درک شرایطی مشابه انسان و اتخاذ اقدامات مناسب برای تحقق وضعیت مطلوب» تعریف کرد. در مقابل، وزارت دفاع آمریکا در سال ۲۰۲۳ رویکرد دیگری اتخاذ و این سیستم‌ها را به عنوان سیستم‌هایی تعریف کرد که «پس از فعال شدن، قادر به انتخاب و درگیر شدن با اهداف بدون نیاز به دخالت بیشتر یک اپراتور انسانی هستند». گزارش ۲۰۱۲ دیده‌بان حقوق بشر و بخش بین‌المللی حقوق بشر دانشگاه هاروارد نیز تعریف مشابهی برای جامعه بین‌المللی ارائه داد و سیستم‌های تسلیحاتی خودکار را به عنوان «تسلیحات کاملاً خودکار که می‌توانند بدون مداخله انسانی، اهداف را انتخاب کنند و با آن درگیر شوند» توصیف کرد.

همچنین مرکز صلاحیت قدرت هوایی مشترک ناتو (JAPCC) نیز مفهوم اتوماسیون را تا حد «آگاهی و خودمختاری» گسترش داده است. نمونه‌هایی از تسلیحات خودکار شامل سیستم‌های دفاعی مانند گنبد آهنین رژیم صهیونیستی و سیستم دفاع هوایی «MANTIS» آلمان و همچنین تجهیزات محافظ فعال مانند «LEDS-150» سوئدی می‌شوند که حاصل ادغام فناوری هوش مصنوعی با تسلیحات جنگی هستند.

با وجود همه تعاریف ارائه شده، به زعم برخی کارشناسان، یک تعریف جدید از سیستم‌های تسلیحاتی خودکار مبتنی بر هوش مصنوعی باید شامل تسلیحات خودکاری باشد که در شرایط غیرنظامی نیز مورد استفاده قرار می‌گیرند؛ مانند سیستم «Super aEgis II» کره جنوبی که به عنوان یک دستگاه نظارتی در زمان صلح در مرز کره جنوبی و شمالی به کار می‌رود.

با این حال، چالش اصلی در این است که تعاریف سیستم‌های تسلیحاتی خودکار باید از منظر تحولات آینده نیز تطبیق یابند. این تعاریف باید نه تنها شامل سیستم‌هایی باشند که تاکنون در تعاریف گنجانده نشده‌اند، بلکه باید به سیستم‌هایی که ممکن است در آینده ظهور کنند نیز بپردازند. به‌ویژه، جامعه‌ی بین‌المللی باید بر سر تعریفی توافق کند که بتواند الگوریتم‌های ورودی شناختی شبیه انسان با توانایی تصمیم‌گیری مشابه انسان را در برگیرد.

با وجود این نیاز، جامعه بین‌المللی هنوز بر سر قوانین مربوط به سیستم‌های تسلیحاتی خودکار به توافق نرسیده است. کنوانسیون سازمان ملل متحد درباره سلاح‌های متعارف (CCW) دارای پروتکل اصلاحی ویژه‌ای، مصوب ۱۹۸۶ است که توسط گروه کارشناسان دولتی (GGE) بر آن نظارت می‌شود و این گروه به صورت سالانه برای بررسی اجرای پروتکل‌های این کنوانسیون و مسائل مرتبط با تسلیحات جلسه تشکیل می‌دهند. آخرین نشست گروه کارشناسان دولتی که در ماه می ۲۰۲۳ برگزار شد، بدون پیشرفت ملموسی در مورد سیستم‌های تسلیحاتی خودکار به پایان رسید، زیرا اعضای کارگروه تخصصی نتوانستند بر سر هیچ‌گونه تدابیر قانونی به توافق برسند.

گزارش پیش‌نویس این نشست نیز نتوانست چارچوب حقوقی مشخصی در این زمینه ارائه دهد. با این حال، این گزارش بر نیاز به کنترل انسانی در سیستم‌های تسلیحاتی خودکار تأکید دارد و همچنین به مقررات مرتبط با توسعه این تسلیحات نیز اشاره می‌کند. ۵۲ کشور با صدور بیانیه‌ای از این پیش‌نویس حمایت کردند، اما تأکید کردند که این پیش‌نویس حداقل استاندارد بوده و به چارچوب حقوقی بسیار جامع‌تر و مؤثرتری در این حوزه نیاز است. در نشست می ۲۰۲۳، گروه کارشناسان دولتی تصمیم گرفت تا بحث‌های طولانی‌تری را در مورد فناوری‌های نوظهور چون سیستم‌های تسلیحاتی خودکار در ماه‌های مارس و اوت ۲۰۲۴ برگزار کند. با اینکه ممکن است تحولات معنادارتری در بحث‌های جدید این گروه رخ دهد، اما تاکنون چارچوب حقوقی مشخصی برای تنظیم توسعه و استفاده از این ابزار فناورانه نوظهور به‌دست نیامده است.

رقابت کشورها برای توسعه ربات‌های قاتل

در حالی که نهادهای بین‌المللی در تکاپو برای تنظیم مقررات جهانی برای سیستم‌های تسلیحاتی خودکار به سر می‌برند، رقابت شدیدی برای توسعه این فناوری در میان قدرت‌های جهانی جریان دارد. ولادیمیر پوتین، رئیس‌جمهور روسیه، در این خصوص اظهار کرده است: «ملتی که در زمینه هوش مصنوعی پیشتاز باشد، فرمانروای جهان خواهد شد.»

کارشناسان معتقدند که پیشرفت هوش مصنوعی در جنگ‌های مدرن، روابط میان قدرت‌های بزرگ همچون ایالات متحده، چین و روسیه و همچنین صنعت فناوری خصوصی را به شکل چشمگیری دگرگون خواهد کرد. در همین راستا، چین اعلام کرده که قصد دارد با اختصاص ۱۵۰ میلیارد دلار بودجه به رهبر جهانی فناوری هوش مصنوعی تبدیل شود؛ این در حالی است که روسیه در بازه زمانی ۲۰۲۱ تا ۲۰۲۳ حدود ۱۸۱ میلیون دلار و ایالات متحده ۴.۶ میلیارد دلار در این زمینه سرمایه‌گذاری کرده‌اند.

گزارش گروه تحلیلی «جینز» در سال ۲۰۱۹، نشان داد که طی دهه آینده، بیش از ۸۰ هزار پهپاد نظارتی و حدود ۲ هزار پهپاد تهاجمی در سراسر جهان فروخته خواهد شد. در این گزارش اعلام شد که دولت بریتانیا پهپادهای مجهز به موشک را به کار گرفته و قصد دارد تا سال ۲۰۲۴ مبلغی بالغ بر ۴۱۵ میلیون پوند برای توسعه پهپادهای حفاظتی هزینه کند. عربستان سعودی نیز به عنوان یک بازیگر جدید در عرصه پهپادها، در سال ۲۰۲۳ حدود ۶۹ میلیارد دلار (معادل ۲۳ درصد از بودجه‌ی ملی خود) را به حوزه دفاعی اختصاص داده است. این کشور همچنین برنامه دارد یک صندوق ۴۰ میلیارد دلاری برای سرمایه‌گذاری در حوزه هوش مصنوعی ایجاد کند که آن را به بزرگ‌ترین سرمایه‌گذار جهانی در این زمینه تبدیل خواهد کرد.

با افزایش چشمگیر سرمایه‌گذاری دولت‌ها در توسعه پهپادهای خودکار مبتنی بر فناوری هوش مصنوعی، احتمال دارد این فناوری‌ها به جایی برسند که پهپادها بدون نیاز به دخالت انسانی و به صورت کاملاً خودکار در حین درگیری نظامی به اتخاذ تصمیم بپردازند؛ امری که به عقیده بسیاری از منتقدان، می‌تواند راه‌های صلح‌آمیز حل درگیری‌های نظامی را تحت تأثیر قرار دهد. فناوری پهپادی از زمانی که در جنگ کوزوو در سال ۱۹۹۹ توسط ناتو برای شناسایی مواضع استراتژیک پنهان صرب‌ها استفاده شد تا استفاده آمریکا از آن بلافاصله پس از حملات ۱۱ سپتامبر، به‌طور چشمگیری پیشرفت کرده است. پس از اینکه اعلام شد یک پهپاد «ISR» آمریکایی مکان اسامه بن لادن را شناسایی کرده، ارتش ایالات متحده به‌طور فزاینده‌ای از پهپادها با قابلیت‌های تسلیحاتی گوناگون استفاده کرد و از سال ۲۰۱۰ تا ۲۰۲۰ بیش از ۱۴ هزار عملیات پهپادی را فقط در افغانستان انجام داد.

بر اساس گزارش‌های آماری، ایالات متحده، بریتانیا و رژیم صهیونیستی همچنان بزرگ‌ترین استفاده‌کنندگان از پهپادها هستند و زرادخانه‌های آنان به صورت مداوم در حال گسترش است. ایالات متحده و بریتانیا بیش از یک دهه از پهپادهای مسلح مانند «Predator» و «Reaper»، متعلق به شرکت آمریکایی «General Atomics»، بهره برده‌اند. طبق اعلام پایگاه داده بریتانیایی «Drone Wars»، این کشور در طول چهار سال حضور نظامی در سوریه در خلال سال‌های ۲۰۱۴ تا ۲۰۱۸، بیش از ۲۴۰۰ بار از پهپادهای «Reaper» در مأموریت‌های استراتژیک استفاده کرده است؛ رقمی که معادل دو مأموریت در روز محسوب می‌شود. همچنین پنتاگون برآورد کرده که تا سال ۲۰۳۵، حدود ۷۰ درصد نیروی هوایی ایالات متحده از هواپیماهای هدایت‌شونده از راه دور تشکیل خواهد شد. همزمان، رژیم اشغالگر قدس نیز پهپادهای مسلح خود را توسعه داده و آن‌ها را در نوار غزه برای نظارت و حملات بی امان به شهروندان فلسطینی به کار گرفته است.

پنتاگون برآورد کرده که تا سال ۲۰۳۵، حدود ۷۰ درصد نیروی هوایی ایالات متحده از هواپیماهای هدایت‌شونده از راه دور تشکیل خواهد شد

علاوه بر موارد ذکر شده، به طور کلی فناوری پهپادی به‌سرعت در میان نیروهای نظامی در سراسر جهان در حال گسترش است. تقریباً همه کشورهای عضو ناتو اکنون قابلیت استفاده از پهپادها را در درگیری‌های نظامی دارند. در پنج سال گذشته، ترکیه و پاکستان نیز برنامه‌های تولید پهپاد خود را تدوین و اجرا کرده‌اند. چین هم اکنون پهپادهای «Wing Loong» و سری «CH» خود را به چندین کشور از جمله امارات متحده عربی، مصر، عربستان سعودی، نیجریه و عراق عرضه می‌کند.

در چنین شرایطی حتی برخی از گروه‌های غیردولتی نیز از پهپادها بهره می‌گیرند. به عنوان مثال، در طول یک سال اخیر، حزب‌الله نیز از پهپادهای شناسایی برای انجام برخی عملیات علیه اشغالگران صهیونیست استفاده کرده و مبارزان حماس نیز از اکتبر ۲۰۲۳ و پس از عملیات طوفان الاقصی از پهپادها علیه این رژیم بهره می‌گیرند.

بنابراین، می‌توان نتیجه گرفت که استفاده از هوش مصنوعی در جنگ‌ها به سرعت در حال گسترش است. گزارش‌ها حاکی از آن است که اوکراین پهپادهای دوربرد خود را به هوش مصنوعی مجهز کرده است. این پهپادها می‌تواند به صورت خودکار بر زمین نظارت و اهداف نظامی را شناسایی کنند و ارتش اوکراین در مواردی نیز از آن‌ها برای حملات موفق به اهدافی از جمله پالایشگاه‌های روسیه استفاده کرده است.

بر اساس گزارش‌های منتشر شده، رژیم صهیونیستی نیز علاوه بر توسعه پهپادهای نظارتی و عملیاتی از یک سیستم هوش مصنوعی پیشرفته، موسوم به «لاوندر» در درگیری غزه استفاده کرده؛ ابزاری که موفق به شناسایی ۳۷ هزار هدف در نوار غزه شده است. کارشناسان معتقدند که بر همین اساس، می‌توان تجاوز کنونی صهیونیست‌ها به نوار غزه و جنوب لبنان را نخستین «جنگ هوش مصنوعی» توصیف کرد. با این حال، هنوز هیچ شواهدی مبنی بر استفاده از سیستم‌های تسلیحاتی خودکار بدون کنترل و نظارت انسانی در درگیری‌های اخیر نیز موجود نیست.

با افزایش نگرانی‌ها در مورد ظهور «ربات‌های قاتل»، استفاده از هوش مصنوعی در جنگ‌ها سوالات اخلاقی و حقوقی جدی‌تری را برای بسیاری از متخصصان مطرح کرده است؛ زیرا ممکن است در بسیاری از موارد پهپادها قادر به تمایز بین نیروهای نظامی و غیرنظامیان نباشند.

از همین روی، افزایش ادغام هوش مصنوعی در پهپادها و سایر سیستم‌های تسلیحاتی خودکار، خطرات بی‌شماری را در زمینه تصمیم‌گیری در درگیری‌ها نظامی بدون کنترل و نظارت انسانی به وجود می‌آورد. استفاده از خشونت در طول تقابل‌های نظامی، ممکن است بر اساس واکنش‌های غریزی ماشین‌هایی تعیین شود که قادر به درک پیچیدگی‌های اخلاقی جنگ و تصمیم‌گیری درست نیستند. در چنین شرایطی پیش‌بینی اینکه قوانین تا چه حد می‌تواند با این پیشرفت‌های فناورانه همراه شوند یا حتی آن‌ها را متوقف سازند، بسیار دشوار است، اما چارچوب حقوقی فعلی قطعاً فاقد شفافیت و دوراندیشی لازم برای حل این معضل جهانی است.

تقویت توان جنگ سایبری با کمک هوش مصنوعی

در کنار سیستم‌های تسلیحاتی خودکار و پهپادها، استفاده از هوش مصنوعی برای تقویت توان جنگ سایبری نیز در طول سال‌های اخیر به یکی از ابعاد مهم درگیری‌های نظامی تبدیل شده است. هوش مصنوعی در جنگ سایبری می‌تواند ابزارهایی را فراهم آورد که به کشورها اجازه می‌دهد به شکلی مؤثر و سریع به اهداف سایبری و زیرساخت‌های حیاتی و اطلاعاتی دشمنان دسترسی پیدا کنند و عملیات‌های پیچیده سایبری را با دقت بیشتری انجام دهند.

دانشگاه جورج تاون با انتشار مقاله‌ای در ماه جولای ۲۰۲۴ به بررسی یکی از موارد شاخص استفاده از هوش مصنوعی در حملات سایبری، یعنی حملات سایبری کره شمالی به زیرساخت‌های کره جنوبی پرداخت. بر اساس متن این مقاله کره جنوبی در سال‌های اخیر، با تهدیدات سایبری فزاینده‌ای از سوی کره شمالی مواجه بوده که در عملیات خود از فناوری‌های پیشرفته مبتنی بر هوش مصنوعی برای حملات پیچیده استفاده کرده است. در سال ۲۰۲۳، نهادهای عمومی کره جنوبی با افزایش بی‌سابقه‌ای در حملات سایبری مواجه شدند، به‌طوری که تعداد تلاش‌های روزانه به ۱.۶۲ میلیون مورد رسید. این حملات، بخش‌های مختلفی از جمله نهادهای عمومی، صنایع دفاعی و شرکت‌های خصوصی را هدف قرار می‌دهند. سئول در پاسخ به این تهدیدات، در سال ۲۰۲۴ استراتژی امنیت سایبری ملی خود را بازبینی و تقویت کرد تا با افزایش همکاری‌های بین‌المللی، بهره‌گیری از فناوری‌های نوین و استحکام‌بخشی به دفاع سایبری خود، مقابله بهتری با تهدیدات داشته باشد.

این توانمندی‌ها در زمینه جنگ سایبری با قابلیت‌های پیشرفته‌ای همچون نفوذ به شبکه‌های حساس دشمن، شناسایی نقاط ضعف سایبری و ایجاد اختلال در سامانه‌های ارتباطی و اطلاعاتی دشمن همراه است. از طرفی، این فناوری‌ها می‌توانند برای تقویت دفاع سایبری نیز به کار روند و توانایی مقابله با حملات پیشرفته را افزایش دهند. این امر باعث می‌شود که جنگ سایبری مبتنی بر هوش مصنوعی به یک بخش حیاتی در امنیت ملی و راهبردهای دفاعی کشورهای قدرتمند تبدیل شود.

بنابراین می‌توان نتیجه گرفت که استفاده از هوش مصنوعی در جنگ سایبری نه‌تنها توان تهاجمی کشورها را در میدان نبرد دیجیتال افزایش داده، بلکه ساختارهای امنیتی آن‌ها را نیز متأثر ساخته است. فناوری‌های مبتنی بر هوش مصنوعی مانند یادگیری ماشین و شبکه‌های عصبی امکان تقویت قدرت حملات و از سوی دیگر شناسایی و خنثی‌سازی حملات سایبری پیچیده را با سرعت و دقت بالاتری فراهم می‌کنند. به این ترتیب، الگوریتم‌های پیشرفته می‌توانند شبکه‌های حساس دشمن را به‌طور مستقل شناسایی کرده و به آن‌ها نفوذ کنند. در جنگ‌های آینده، این فناوری بدون نیاز به دخالت مستقیم انسانی، آسیب‌پذیری‌ها را تشخیص داده و از آن‌ها برای تخریب سامانه‌های کلیدی یا به دست آوردن اطلاعات حیاتی بهره‌برداری می‌کند.

به عقیده بسیاری از کارشناسان نظامی، این پیشرفت‌ها، تهدیدات سایبری را به نوعی از ابزار نظامی تبدیل کرده‌اند که بدون درگیری فیزیکی، می‌تواند ضربات جدی به زیرساخت‌های حیاتی و حتی توان دفاعی کشورها وارد کند. از همین روی، کشورهای پیشرو در عرصه هوش مصنوعی به دنبال ایجاد ابزارهای تهاجمی قدرتمندی هستند که با کمترین دخالت انسانی به تضعیف ساختارهای حیاتی دشمن بپردازند. برای مثال، برخی از کشورها سامانه‌های هوش مصنوعی ویژه‌ای را توسعه داده‌اند که می‌تواند به‌صورت بلادرنگ و با کمترین ردپای دیجیتال، به سیستم‌های ارتباطی دشمن نفوذ کند و اطلاعات حساس را رهگیری کند یا حتی پیام‌های جعلی را برای اختلال در فرماندهی و کنترل نیروهای دشمن ارسال کند.

به عقیده بسیاری از کارشناسان نظامی، این پیشرفت‌ها، تهدیدات سایبری را به نوعی از ابزار نظامی تبدیل کرده‌اند که بدون درگیری فیزیکی، می‌تواند ضربات جدی به زیرساخت‌های حیاتی و حتی توان دفاعی کشورها وارد کند با عنایت به این مسئله که هوش مصنوعی قادر به انطباق سریع با روش‌های جدید حمله و دفاع سایبری است، در بلند مدت خطراتی مانند از دست رفتن کنترل بر عملیات‌های سایبری افزایش می‌یابد. به عنوان نمونه، هوش مصنوعی ممکن است در برخی موقعیت‌های بحرانی به اشتباه سامانه‌های غیرنظامی را به عنوان هدف شناسایی کند یا در مواقع حساس، تصمیم‌گیری‌هایی انجام دهد که عواقب پیش‌بینی‌نشده و مخربی داشته باشد.

نگاهی به آینده هوش مصنوعی در جنگ

به زعم اکثر کارشناسان، هوش مصنوعی در جنگ‌های آینده، به یکی از ارکان اصلی درگیری‌های نظامی تبدیل خواهد شد و بدون شک درگیری‌های نظامی دیگر به روش‌های سنتی و جنگ‌های کلاسیک صورت نخواهد گرفت. ابزارهای مبتنی بر هوش مصنوعی، امکان هدایت از راه دور را فراهم می‌کنند، به گونه‌ای که سربازان بدون نیاز به حضور فیزیکی در میدان نبرد، قادر به انجام عملیات نظامی خواهند بود. استفاده از پهپادهای خودکار، سیستم‌های تسلیحاتی هوشمند و تکنیک‌های جنگ سایبری، ابزارهایی هستند که در آینده‌ای نزدیک هوش مصنوعی را به یکی مهم‌ترین ارکان میادین نبرد تبدیل خواهند کرد.

هوش مصنوعی قادر است با تحلیل سریع داده‌های میدان جنگ، توانایی تشخیص سریع اهداف و اتخاذ تصمیمات تاکتیکی بدون دخالت انسان، امکان پیروزی با کمترین تلفات انسانی و بیشترین دقت را فراهم سازد. با این حال، این پیشرفت‌ها هرچند در آینده‌ای نزدیک موجب افزایش کارآمدی عملیات نظامی و تغییر شکل و ماهیت درگیری‌های این حوزه می‌شوند، اما به دلیل کاهش نیاز به حضور انسان در میدان نبرد، خطرات اخلاقی و حقوقی بسیاری را نیز به همراه دارند.

در نهایت می‌توان چنین نتیجه گرفت که ظهور هوش مصنوعی در عرصه‌های نظامی باعث می‌شود کشورها نه تنها در جنگ فیزیکی، بلکه در عرصه سایبری نیز به رقابتی تهاجمی و بزرگ دست بزنند. هوش مصنوعی در جنگ‌های آینده به ابزار راهبردی بدل خواهد شد که می‌تواند بدون دخالت انسانی، عملیات‌های پیچیده و خطرناک را انجام دهد و این مسئله به طور کلی چهره جنگ را متحول خواهد ساخت.

دست خالی قوانین بین‌الملل در مقابل فناوری‌های جدید نظامی

پرسش‌های اخلاقی و انسانی پیرامون درگیری‌هایی که توسط الگوریتم‌ها و ماشین‌ها بدون دخالت انسانی هدایت می‌شوند، همچنان بی‌پاسخ هستند. استفاده از پهپادهای خودکاری که خود به تنهایی سلاح محسوب نمی‌شوند و پلتفرم‌هایی برای حمل سلاح هستند، به‌طور مشخص تحت قوانین بین‌المللی تنظیم‌گری نشده است. اگرچه استفاده از پهپادها نیز مشمول اصول کلی حقوق بین‌الملل در خصوص تمامی تسلیحات، شامل قواعد تمایز، تناسب و ممنوعیت حملات کورکورانه است، اما فقدان قوانین خاص در این زمینه، نظارت و تنظیم‌گری آن‌ها را بسیار دشوار کرده است.

از همین روی، اکثر کارشناسان بر این باورند که جامعه بین‌المللی باید یک چارچوب حقوقی بین‌المللی در این زمینه ایجاد کند تا همواره کنترل و نظارت انسانی بر سیستم‌های تسلیحاتی خودکار را تضمین نماید و این سیستم‌ها به صورت مستقل اهداف نظامی را در طول درگیری هدف قرار ندهند.

آخرین گزارش گروه کارشناسان دولتی سازمان ملل در این زمینه که در سال ۲۰۲۳ منتشر شد، بر این نکته تأکید دارد که تدابیر قانونی برای محدود کردن استفاده از «سیستم‌های تسلیحاتی مبتنی بر فناوری‌های نوظهور که پس از فعال‌سازی قادر به شناسایی، انتخاب، ردیابی و انهدام اهداف، بدون دخالت بیشتر انسانی هستند»، امری ضروری است. سیستم‌های مذکور به عنوان یک نوآوری بی‌سابقه در تسلیحات نظامی، نیازمند یک چارچوب حقوقی بین‌المللی جدید، قوی و در عین حال انعطاف‌پذیر است تا بتواند با سرعت خیره‌کننده پیشرفت‌های فناوری همراه باشد.

از سوی دیگر، همکاری‌های بین‌المللی برای تنظیم مقررات و ایجاد سازوکارهای نظارتی مؤثر بر کاربردهای هوش مصنوعی در زمینه حملات سایبری نیز امری ضروری است. بی شک بدون وجود چارچوب حقوقی و نظارتی مؤثر، استفاده از این فناوری در حوزه جنگ سایبری ممکن است منجر به درگیری‌های گسترده‌تری در عرصه دیجیتال و افزایش آسیب‌پذیری زیرساخت‌های کلیدی کشورها شود. بنابراین، می‌توان نتیجه گرفت که توان تخریبی بالا و امکان ایجاد اختلالات گسترده در زیرساخت‌های حیاتی، مؤلفه‌هایی هستند که قطعاً حملات سایبری مبتنی بر هوش مصنوعی را در زمره فناوری‌های حساس و نیازمند تنظیم‌گری جهانی قرار می‌دهند.

منبع: مـهر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

advanced-floating-content-close-btn