You are currently viewing لردها بر سر رویکرد دولت بریتانیا در قبال سلاح های خودمختار اختلاف نظر دارند

لردها بر سر رویکرد دولت بریتانیا در قبال سلاح های خودمختار اختلاف نظر دارند


لردها در مورد رویکرد دولت بریتانیا در مورد تسلیحات خودمختار اختلاف نظر دارند، برخی از آنها برای احتیاط بسیار بیشتر و برخی دیگر خواستار محدودیت کمتر برای جلوگیری از دشمنان هستند.

در آغاز دسامبر 2023 ق کمیته لردها پس از اینکه متوجه شد دولت تعهد خود را برای نزدیک شدن به هوش مصنوعی نظامی به روشی «جاه طلبانه، ایمن و مسئولانه» دارد، از دولت بریتانیا خواست که در استقرار سیستم‌های تسلیحاتی خودمختار (AWS) و سایر قابلیت‌های نظامی مجهز به هوش مصنوعی (AI) با احتیاط عمل کند. با واقعیت مطابقت ندارد

توصیه های کلیدی کمیته هوش مصنوعی در سیستم های سلاح شامل این است که دولت از کنترل انسانی در تمام مراحل چرخه حیات AWS اطمینان حاصل کند. اتخاذ یک تعریف عملیاتی و مبتنی بر فناوری از AWS به طوری که بتوان تصمیمات خط مشی معناداری را اتخاذ کرد. و طراحی مناسب فرآیندهای تدارکات برای دنیای مبتنی بر هوش مصنوعی به طوری که پاسخگویی مناسب وجود داشته باشد. همچنین ممنوعیت کامل هوش مصنوعی در فرماندهی و کنترل هسته ای را توصیه می کند.

در پاسخ به یافته های این کمیته در پایان مارس 2024دولت اصرار داشت که قبلاً مسئولانه و با دقت عمل کرده و وزارت دفاع (وزارت دفاع) اولویت در هوش مصنوعی به حداکثر رساندن توانایی نظامی است در مواجهه با دشمنان احتمالی که گفته می شود “بعید است که مسئولیت پذیر باشند.”

دولت اضافه کرد که اگرچه از “تحلیل عمیق و قابل تامل” استقبال می کند، پیام کلی این پنل مبنی بر اینکه باید احتیاط شود، “منعکس کننده رویکرد وزارت دفاع برای پذیرش هوش مصنوعی” است.

در طول یک مناظره بر اساس یافته‌های کمیته و پاسخ دولت، که در 19 آوریل 2024 برگزار شد، لردها نظرات متناقضی را در مورد رویکرد بریتانیا به سلاح‌های خودمختار بیان کردند. به عنوان مثال، در حالی که برخی از دولت به دلیل عدم تمایلش به اعمال محدودیت در استفاده از AWS انتقاد کردند، برخی دیگر گفتند که احتیاط بیش از حد مانع پیشرفت می شود و بریتانیا را پشت سر مخالفان ژئوپلیتیکی خود قرار می دهد.

با این حال، دولت استدلال می‌کند که استفاده از سلاح‌های خودمختار قبلاً توسط حقوق بشردوستانه بین‌المللی (IHL) کنترل می‌شود، بنابراین نیازی به تعیین تعریف عملیاتی یا تعهد به اسناد حقوقی بین‌المللی برای کنترل استفاده از آنها نیست.

مقررات “هدیه به حریفان ما”

ارل مینتو، وزیر دفاع ایالات متحده، ضمن شفاف سازی موضع دولت در جریان مناظره لردها، گفت که تعیین یک تعریف عملیاتی برای AWS یا ایجاد ابزارهای بین المللی جدید برای کنترل استفاده از آنها تنها به نفع دشمنان بریتانیا خواهد بود.

این سیستم ها قبلاً تحت قوانین بشردوستانه بین المللی هستند، بنابراین تعریف آنها متأسفانه استفاده مشروع آنها را افزایش نمی دهد. در واقع، قابل پیش‌بینی است که در مذاکرات بین‌المللی، کسانی که عمداً قوانین و هنجارهای بین‌المللی را نادیده می‌گیرند، بتوانند از تعریفی برای محدود کردن توانایی‌ها و تحقیقات مشروع کشورهای مسئول استفاده کنند.»

همچنین به همین دلیل است که پس از بررسی صمیمانه و عمیق، ما از درخواست کمیسیون برای یک توافق سریع در مورد یک ابزار بین‌المللی مؤثر برای سیستم‌های تسلیحاتی خود مختار – که هدیه‌ای به دشمنان ما خواهد بود، حمایت نمی‌کنیم.»

مینتو افزود که به جای تکیه بر یک تعریف یا سند، دفاع کلیدی در برابر هوش مصنوعی نظامی، تضمین مشارکت انسان در طول چرخه حیات سیستم است. در همین راستا، او همچنین تصریح کرد که دولت هیچ قصدی برای ساخت تسلیحات کاملاً خودمختار یا واگذاری «کنترل سیاسی» قابلیت‌های هسته‌ای بریتانیا به هوش مصنوعی ندارد.

او گفت: «وزارت دفاع بریتانیا همیشه مشارکت انسانی متناوب و در نتیجه کنترل، مسئولیت و پاسخگویی معنادار انسانی خواهد داشت. با این حال، ما می دانیم که سایر کشورها تعهدات مشابهی نپذیرفته اند و ممکن است به دنبال استفاده غیر مسئولانه از این فناوری های جدید باشند.

به این ترتیب، او افزود که بریتانیا خواهد بود کار با متحدان برای ایجاد استانداردهایی برای هوش مصنوعی نظامی مسئول – که به گفته او بر اساس IHL خواهد بود – در حالی که در تلاش برای شناسایی و نسبت دادن کاربردهای نظامی خطرناک این فناوری برای کمک به “مسئول نگه داشتن طرف های غیرمسئول” است.

در حالی که هیچ حمایتی در دولت برای تعریف یا سند قانونی وجود ندارد، مینتو گفت که بریتانیا به مشارکت در گفتگوهای بین المللی در مورد مقررات سلاح های خودمختار، به ویژه گروه کارشناسان دولتی سازمان ملل متحد (سازمان ملل) که بر اساس کنوانسیون کار می کنند، ادامه خواهد داد. در مورد برخی سلاح های متعارف

استادان واکنش نشان می دهند

در طول مناظره، لردها نظرات متفاوتی در مورد موضع دولت و پاسخ آن به کمیته بیان کردند.

به عنوان مثال، لرد لیسوان، رئیس کمیته، گفت که هدف دولت برای ایجاد هوش مصنوعی نظامی “جاه طلبانه، ایمن و مسئولانه” اکنون باید به کاربرد عملی تبدیل شود و به ویژه از تصمیم برای عدم پذیرش تعریف عملیاتی AWS انتقاد کرد.

من می شنوم که دولت چه می گوید، اما قانع نشده ام. من معتقدم که می توان یک تعریف برای آینده ایجاد کرد.» این امر از توانایی بریتانیا برای اتخاذ سیاست معنادار در مورد سلاح‌های خودمختار و مشارکت کامل در بحث‌ها در مجامع بین‌المللی حمایت می‌کند.» این ما را به بازیکنی مؤثرتر و تأثیرگذارتر تبدیل می کند.»

او همچنین گفت که دولت باید در بحث‌های بین‌المللی پیرامون مقررات AWS الگو باشد، و خاطرنشان کرد که چه نتیجه یک معاهده قانونی الزام‌آور باشد یا اقدامات غیررسمی‌تر که نحوه اعمال IHL را روشن می‌کند، این توافقنامه یک سند بین‌المللی مؤثر است که باید در اولویت قرار گیرد. “.

لیسوانه افزود که در حالی که دولت تعدادی از توصیه‌های کمیسیون را پذیرفت – از جمله در مورد اهمیت پاسخگویی پارلمان، کنترل انسانی بر فرماندهی هسته‌ای و بهبود شیوه‌های تدارکات وزارت دفاع در مورد نرم‌افزار و داده‌ها – پاسخ آن جزئیات کمی یا بدون جزئیات در مورد چگونگی این نکات ارائه کرد. به دست آورد.

به طور کلی، پاسخ دولت به گزارش ما “با نیت سازنده” بود. من امیدوارم که این خیلی اکراه به نظر نرسد.» او گفت. آنها به وضوح نقش هوش مصنوعی مسئول در قابلیت‌های دفاعی آینده ما را تشخیص داده‌اند، اما باید اصول اخلاقی و قانونی را در تمام مراحل طراحی، توسعه و استقرار در نظر بگیرند.» فناوری باید در جایی استفاده شود که سودمند است، اما نه به قیمت غیرقابل قبولی برای اصول اخلاقی بریتانیا.

لرد کلمنت جونز، که پس از اصرار برای ایجاد آن در کمیسیون نشست، به طور مشابه اضافه کرد که با وجود اجماع تقریباً جهانی در مورد نیاز به تنظیم AWS، دولت بریتانیا هنوز به طور رسمی هیچ گونه محدودیتی را برای استفاده از آن در خارج از یک سری تعهدات مبهم تأیید نکرده است. حول نظارت انسانی و خطوط قرمز اخلاقی.

با تاکید بر استفاده از سیستم های هوش مصنوعی برای تعیین اهداف در غزهو همچنین استفاده از پهپادهای خودمختار در لیبی، سوریه و اوکراین، کلمنت جونز گفت که این امر ضرورت تنظیم AWS را نشان می دهد، که او افزود که باید حداقل با یک تعریف کاربردی شروع شود.

ناهماهنگی در نحوه تعریف و درک ما از AWS پیامدهای مهمی برای توسعه و مدیریت این فناوری‌ها دارد. با این حال، کمیته نشان داد که یک تعریف کاربردی امکان پذیر است که بین سیستم های کاملاً و جزئی مستقل تمایز قائل شود. همانطور که واکنش آنها نشان داده است، آشکارا همچنان از سوی دولت با مقاومت روبرو است.»

لرد براون، که همچنین یکی از اعضای کمیته بود، گفت که توضیح دولت در مورد اینکه چرا تعریف AWS غیرضروری است، “به وضوح ناکافی است” و افزود: “اگر نمی توانیم به طور فعال به دنبال مشارکت با سیاست در تنظیم AWS باشیم. حتی کلمات آزمایشی برای تعریف آن پیدا کنید؟ مثل این است که بخواهی برای مردی کت و شلوار بسازیم که اندازه هایش در هاله ای از رمز و راز است و وجودش شایعه ای صرف است.

وی افزود: در حالی که موضوع پیچیده ای است، در سیاست گذاری خوب «پیچیدگی نباید پناهگاه باشد، بلکه ملامت باشد». این وظیفه دولت‌ها در سراسر طیف سیاسی است که بتوانند رویکرد خود را بیان کنند و آن را توسط کارشناسان و صداهای مخالف آزمایش کنند.»

با این حال، سایر لردها کمتر از موضع دولت انتقاد کردند و در عوض استدلال کردند که هم احتیاط و هم منفی بافی کمتری در مورد پیامدهای بالقوه هوش مصنوعی نظامی مورد نیاز است.

لرد هاتون، که در کمیته حضور داشت اما تاکید کرد که در طول مناظره به صورت شخصی صحبت می‌کند، برای مثال، گفت که اگرچه الزامات هر مقرراتی “بدون شک ما را به شیوه‌هایی محدود می‌کند که به وضوح مانع بسیاری از پتانسیل‌های ما نمی‌شود. دشمنان، مزایای استراتژیکی که می‌توان از AWS به دست آورد آنقدر زیاد است که «دیوانه می‌شویم که راه‌هایی برای استفاده از آن پیدا نکنیم».

او همچنین خواستار تضمین‌هایی از سوی دولت شد که «اجازه نمی‌دهد احتیاط بیش از حد مانع پیشرفت شود» و منفی‌هایی را که در مورد خطرات هوش مصنوعی نظامی و به‌ویژه AWS در جریان تحقیقات کمیسیون بیان شد، هدف گرفت.

منفی گرایی در بین اعضای هیئت مدیره نبود، بلکه در میان بسیاری از شاهدان متخصص ما بود، که برخی از آنها افراد فنی بودند، در حالی که به نظر می رسید برخی دیگر امرار معاش می کردند و آنچه را که در نهایت یک موضوع عملی مدیریت میدان نبرد است، به چالشی اخلاقی تبدیل کردند. پیچیدگی گوردین،» او گفت.

صحبت از هوش مصنوعی در زمینه ناوگانلرد استیونز استدلال می‌کرد که سیستم‌های مجهز به هوش مصنوعی به‌عنوان یک ضرب‌کننده نیروی مؤثر مورد نیاز هستند و مراقبت لازم است تا اطمینان حاصل شود که مقررات AWS بیش از حد محدودکننده نیست.

او گفت: «مجلس اشتباه بزرگی مرتکب خواهد شد اگر بخواهیم هوش مصنوعی را به عنوان یک دسته جداگانه از سیستم های تسلیحاتی تنظیم کنیم، در حالی که در واقع طیفی از فناوری های با هدف عمومی به سرعت در حال توسعه است.

سیستم‌های هوش مصنوعی به وضوح مزایای بالقوه عظیمی را در محیط دریایی ارائه می‌کنند. پارلمان می تواند و باید به ملت ما کمک کند تا از آنها استفاده کند… سیگنالی که باید به نیروی دریایی سلطنتی ارسال کنیم باید این باشد: به حرکت سریع ادامه دهید.

لرد همیلتون به طور مشابه خاطرنشان کرد که اگر دشمنان ما هوش مصنوعی را با اشتیاق در آغوش بگیرند و ما این کار را نکنیم، بریتانیا در یک ضرر جدی قرار خواهد گرفت.

او افزود که برای نیروهای مسلح بریتانیا بسیار مهم است که از هوش مصنوعی استفاده کنند تا بتوان از آن برای نجات جان سربازانمان و بهبود شانس ما برای پیروزی در جنگ ها استفاده کرد.



Source link