You are currently viewing بریتانیا و ایالات متحده توافق کردند تا در توسعه آزمایش‌های ایمنی برای مدل‌های هوش مصنوعی – TechToday همکاری کنند

بریتانیا و ایالات متحده توافق کردند تا در توسعه آزمایش‌های ایمنی برای مدل‌های هوش مصنوعی – TechToday همکاری کنند


دولت بریتانیا رسما موافقت کرده است که با ایالات متحده در توسعه آزمایش‌هایی برای مدل‌های هوش مصنوعی پیشرفته همکاری کند. یک یادداشت تفاهم، که یک توافقنامه قانونی غیرالزام آور است، در 1 آوریل 2024 توسط میشل دانلان، وزیر فناوری بریتانیا و جینا ریموندو، وزیر تجارت ایالات متحده امضا شد.شکل A).

شکل A

جینا ریموندو وزیر تجارت ایالات متحده و میشل دونلان وزیر فناوری بریتانیا.
جینا ریموندو، وزیر تجارت ایالات متحده (چپ) و وزیر فناوری بریتانیا، میشل دونلان (راست). منبع: دولت انگلستان تصویر: دولت انگلستان

هر دو طرف اکنون “رویکردهای علمی خود را همسو خواهند کرد” و برای “تسریع و تکرار سریع بسته های ارزیابی قوی برای مدل ها، سیستم ها و عوامل هوش مصنوعی” با یکدیگر همکاری خواهند کرد. این اقدام برای رعایت تعهدات در اولین نشست جهانی ایمنی هوش مصنوعی در نوامبر گذشته انجام می شود، جایی که دولت های سراسر جهان نقش خود را در آزمایش ایمنی نسل بعدی مدل های هوش مصنوعی پذیرفتند.

بریتانیا و ایالات متحده چه ابتکارات هوش مصنوعی مورد توافق قرار گرفته اند؟

با این تفاهم نامه، بریتانیا و ایالات متحده توافق کردند که چگونه یک رویکرد مشترک برای آزمایش ایمنی هوش مصنوعی ایجاد کنند و پیشرفت های خود را با یکدیگر به اشتراک بگذارند. به طور خاص، این شامل موارد زیر خواهد بود:

  • توسعه یک فرآیند مشترک برای ارزیابی ایمنی مدل‌های هوش مصنوعی.
  • حداقل یک تمرین آزمایشی مشترک بر روی یک مدل در دسترس عموم انجام دهید.
  • همکاری در تحقیقات فنی ایمنی هوش مصنوعی، هم برای پیشبرد دانش جمعی از مدل‌های هوش مصنوعی و هم برای اطمینان از همسویی هر گونه خط‌مشی جدید.
  • تبادل پرسنل بین موسسات مربوطه.
  • به اشتراک گذاری اطلاعات در مورد کلیه فعالیت های انجام شده در موسسات مربوطه.
  • همکاری با سایر دولت ها برای توسعه استانداردهای هوش مصنوعی، از جمله ایمنی.

وزیر ریموندو در بیانیه‌ای گفت: «از طریق همکاری ما، مؤسسات ما درک بهتری از سیستم‌های هوش مصنوعی به دست خواهند آورد، ارزیابی‌های قوی‌تری انجام خواهند داد و راهنمایی‌های دقیق‌تری صادر خواهند کرد».

ببینید: نحوه استفاده از هوش مصنوعی برای کسب و کار خود را بیاموزید (TechRepublic Academy)

این تفاهم نامه در درجه اول به پیشرفت در برنامه های انجام شده توسط مؤسسات ایمنی هوش مصنوعی بریتانیا و ایالات متحده مربوط می شود. مرکز تحقیقات بریتانیا اجلاس ایمنی هوش مصنوعی را با سه هدف اصلی ارزیابی سیستم های هوش مصنوعی موجود، انجام تحقیقات اساسی ایمنی هوش مصنوعی و به اشتراک گذاری اطلاعات با سایر بازیگران ملی و بین المللی راه اندازی کرد. شرکت‌هایی از جمله OpenAI، Meta و مایکروسافت موافقت کرده‌اند که آخرین مدل‌های هوش مصنوعی تولیدی خود را به‌طور مستقل توسط AISI بریتانیا بررسی کنند.

به طور مشابه، AISI ایالات متحده، که به طور رسمی توسط NIST در فوریه 2024 تأسیس شد، برای کار بر روی اقدامات اولویت بندی شده در دستور اجرایی AI صادر شده در اکتبر 2023 ایجاد شد. این اقدامات شامل توسعه استانداردهایی برای ایمنی و امنیت سیستم های هوش مصنوعی است. AISI ایالات متحده توسط کنسرسیوم مؤسسه ایمنی هوش مصنوعی پشتیبانی می شود که اعضای آن شامل Meta، OpenAI، NVIDIA، Google، Amazon و Microsoft هستند.

آیا این منجر به مقررات شرکت های هوش مصنوعی می شود؟

اگرچه نه بریتانیا و نه AISI ایالات متحده یک نهاد نظارتی نیستند، نتایج تحقیقات ترکیبی آنها احتمالاً به تغییرات سیاستی آینده منجر می شود. به گفته دولت بریتانیا، AISI آن “اطلاعات اساسی را برای رژیم مدیریت ما ارائه خواهد کرد”، در حالی که تاسیسات ایالات متحده “راهنمای فنی را توسعه خواهد داد که توسط تنظیم کننده ها استفاده خواهد شد”.

اتحادیه اروپا احتمالا هنوز یک گام جلوتر است، زیرا قانون شاخص هوش مصنوعی آن در 13 مارس 2024 به قانون تصویب شد. این قانون اقداماتی را برای اطمینان از استفاده ایمن و اخلاقی از هوش مصنوعی، از جمله سایر قوانین مربوط به هوش مصنوعی برای تشخیص چهره و شفافیت، تشریح می کند. .

تماشا کنید: بیشتر متخصصان امنیت سایبری انتظار دارند هوش مصنوعی بر کار آنها تأثیر بگذارد

بسیاری از بازیگران بزرگ فناوری، از جمله OpenAI، گوگل، مایکروسافت و آنتروپیک، در ایالات متحده مستقر هستند، جایی که در حال حاضر هیچ مقررات سختی وجود ندارد که بتواند فعالیت های هوش مصنوعی آنها را محدود کند. EO اکتبر راهنمایی هایی را در مورد استفاده و تنظیم هوش مصنوعی ارائه می دهد و گام های مثبتی از زمان امضای آن برداشته شده است. با این حال، این قانون، قانون نیست. چارچوب مدیریت ریسک هوش مصنوعی که توسط NIST در ژانویه 2023 نهایی شد نیز داوطلبانه است.

در واقع، این شرکت‌های بزرگ فناوری عمدتاً خودشان مسئول مقررات هستند و سال گذشته انجمن مدل Frontier را راه‌اندازی کردند تا «نرده‌های» خود را برای کاهش خطر هوش مصنوعی ایجاد کنند.

نظر کارشناسان حقوقی و هوش مصنوعی در مورد تست ایمنی چیست؟

تنظیم هوش مصنوعی باید در اولویت باشد

ایجاد AISI در بریتانیا یک روش محبوب جهانی برای در دست گرفتن کنترل هوش مصنوعی در این کشور نبود. در فوریه، مدیر عامل دانشکده هوش مصنوعی – یک شرکت وابسته به این موسسه – گفت که توسعه استانداردهای قوی می تواند استفاده عاقلانه تری از منابع دولتی باشد تا تلاش برای بررسی هر مدل هوش مصنوعی.

مارک وارنر به گاردین گفت: “من فکر می کنم مهم است که او استانداردهایی را برای کل جهان تعیین کند، نه اینکه خودش تلاش کند همه کارها را انجام دهد.”

در مورد یادداشت تفاهم این هفته، کارشناسان حقوق فناوری نیز دیدگاه مشابهی دارند. آرون سولومون، تحلیلگر حقوقی و مدیر استراتژی در آژانس بازاریابی قانونی Amplify در ایمیلی به TechRepublic گفت: «در حالت ایده‌آل، تلاش‌های طرفین بسیار بهتر از تحقیق صرف ایجاد مقررات سخت می‌شود».

اما مشکل اینجاست: تعداد کمی از قانون‌گذاران – به‌ویژه در کنگره ایالات متحده – به عمق درک هوش مصنوعی برای تنظیم آن دسترسی دارند.

سولومون اضافه کرد: «ترجیح می‌دهیم که دور شویم تا وارد دوره‌ای از مطالعات عمیق و ضروری شویم که در آن قانون‌گذاران واقعاً ذهن جمعی خود را در مورد نحوه عملکرد هوش مصنوعی و نحوه استفاده از آن در آینده می‌پیچند.» اما، همانطور که با شکست اخیر در ایالات متحده که در آن قانونگذاران سعی کردند TikTok را ممنوع کنند، مشخص شد، آنها به عنوان یک گروه، فناوری را درک نمی کنند، بنابراین در موقعیت خوبی برای تنظیم هوشمندانه آن نیستند.

این ما را در موقعیت سختی که امروز در آن قرار داریم قرار می دهد. هوش مصنوعی بسیار سریعتر از آنچه تنظیم کننده ها می توانند تنظیم کنند در حال تکامل است. اما به تعویق انداختن مقررات به نفع چیز دیگری در این مرحله، امر اجتناب ناپذیر را به تاخیر می اندازد.

در واقع، از آنجایی که قابلیت‌های مدل‌های هوش مصنوعی دائماً تغییر می‌کند و گسترش می‌یابد، آزمایش‌های ایمنی انجام‌شده توسط این دو مؤسسه نیز باید همین کار را انجام دهند. کریستوف زمپر، مدیر عامل پلتفرم مدیریت سریع AIPRM در ایمیلی به TechRepublic گفت: «برخی بازیگران بد ممکن است سعی کنند آزمایش‌ها را دور بزنند یا از قابلیت‌های هوش مصنوعی دوگانه استفاده کنند. استفاده دوگانه به فناوری هایی اطلاق می شود که می توانند برای اهداف صلح آمیز و خصمانه مورد استفاده قرار گیرند.

Cemper گفت: “در حالی که آزمایش ممکن است نشان دهنده نگرانی های ایمنی فنی باشد، اما جایگزین نیاز به راهنمایی در مورد مسائل اخلاقی، سیاسی و حاکمیتی نمی شود… در حالت ایده آل، دو دولت آزمایش را به عنوان مرحله اولیه در روند همکاری در حال انجام خواهند دید.” “

تماشا کنید: بر اساس مطالعه مرکز ملی امنیت سایبری، هوش مصنوعی مولد می تواند تهدید باج افزار جهانی را افزایش دهد.

تحقیقات برای تنظیم موثر هوش مصنوعی مورد نیاز است

به گفته دکتر کل کارلسون، در حالی که دستورالعمل های داوطلبانه ممکن است برای تشویق هر گونه تغییر واقعی در عملیات غول های فناوری کافی نباشد، قوانین سفت و سخت می تواند پیشرفت در هوش مصنوعی را متوقف کند، اگر به درستی فکر نشود.

تحلیلگر سابق ML/AI و رئیس فعلی استراتژی در آزمایشگاه داده Domino در ایمیلی به TechRepublic گفت: «امروزه مناطق مرتبط با هوش مصنوعی وجود دارد که آسیب یک تهدید واقعی و رو به رشد است. اینها زمینه هایی مانند کلاهبرداری و جرایم سایبری هستند که معمولاً مقررات وجود دارد اما بی اثر است.

متأسفانه، تعداد کمی از مقررات پیشنهادی هوش مصنوعی، مانند قانون هوش مصنوعی اتحادیه اروپا، برای مقابله موثر با این تهدیدات طراحی شده‌اند، زیرا بیشتر بر روی پیشنهادات هوش مصنوعی تجاری تمرکز می‌کنند که مجرمان از آن استفاده نمی‌کنند. به این ترتیب، بسیاری از این تلاش‌های نظارتی به نوآوری آسیب می‌رساند و هزینه‌ها را افزایش می‌دهد در حالی که برای بهبود ایمنی واقعی کار چندانی انجام نمی‌دهد.

به همین دلیل است که بسیاری از کارشناسان بر این باورند که اولویت دادن به تحقیق و همکاری موثرتر از قوانین عجولانه در بریتانیا و ایالات متحده است.

دکتر کارلسون گفت: «این مقررات زمانی کار می‌کند که به پیشگیری از آسیب‌های شناخته شده از مصارف شناخته شده می‌رسد. با این حال، امروزه بیشتر موارد استفاده از هوش مصنوعی هنوز کشف نشده است و تقریباً تمام آسیب ها فرضی است. در مقابل، نیاز باورنکردنی به تحقیق در مورد چگونگی آزمایش موثر، کاهش خطرات و اطمینان از ایمنی مدل‌های هوش مصنوعی وجود دارد.

به این ترتیب، ایجاد و تأمین مالی این مؤسسه‌های ایمنی هوش مصنوعی جدید و این تلاش‌های همکاری بین‌المللی یک سرمایه‌گذاری عمومی عالی است، نه تنها برای تضمین ایمنی، بلکه برای ارتقای رقابت شرکت‌های ایالات متحده و بریتانیا».



Source link