دولت بریتانیا رسما موافقت کرده است که با ایالات متحده در توسعه آزمایشهایی برای مدلهای هوش مصنوعی پیشرفته همکاری کند. یک یادداشت تفاهم، که یک توافقنامه قانونی غیرالزام آور است، در 1 آوریل 2024 توسط میشل دانلان، وزیر فناوری بریتانیا و جینا ریموندو، وزیر تجارت ایالات متحده امضا شد.شکل A).
شکل A
هر دو طرف اکنون “رویکردهای علمی خود را همسو خواهند کرد” و برای “تسریع و تکرار سریع بسته های ارزیابی قوی برای مدل ها، سیستم ها و عوامل هوش مصنوعی” با یکدیگر همکاری خواهند کرد. این اقدام برای رعایت تعهدات در اولین نشست جهانی ایمنی هوش مصنوعی در نوامبر گذشته انجام می شود، جایی که دولت های سراسر جهان نقش خود را در آزمایش ایمنی نسل بعدی مدل های هوش مصنوعی پذیرفتند.
بریتانیا و ایالات متحده چه ابتکارات هوش مصنوعی مورد توافق قرار گرفته اند؟
با این تفاهم نامه، بریتانیا و ایالات متحده توافق کردند که چگونه یک رویکرد مشترک برای آزمایش ایمنی هوش مصنوعی ایجاد کنند و پیشرفت های خود را با یکدیگر به اشتراک بگذارند. به طور خاص، این شامل موارد زیر خواهد بود:
- توسعه یک فرآیند مشترک برای ارزیابی ایمنی مدلهای هوش مصنوعی.
- حداقل یک تمرین آزمایشی مشترک بر روی یک مدل در دسترس عموم انجام دهید.
- همکاری در تحقیقات فنی ایمنی هوش مصنوعی، هم برای پیشبرد دانش جمعی از مدلهای هوش مصنوعی و هم برای اطمینان از همسویی هر گونه خطمشی جدید.
- تبادل پرسنل بین موسسات مربوطه.
- به اشتراک گذاری اطلاعات در مورد کلیه فعالیت های انجام شده در موسسات مربوطه.
- همکاری با سایر دولت ها برای توسعه استانداردهای هوش مصنوعی، از جمله ایمنی.
وزیر ریموندو در بیانیهای گفت: «از طریق همکاری ما، مؤسسات ما درک بهتری از سیستمهای هوش مصنوعی به دست خواهند آورد، ارزیابیهای قویتری انجام خواهند داد و راهنماییهای دقیقتری صادر خواهند کرد».
ببینید: نحوه استفاده از هوش مصنوعی برای کسب و کار خود را بیاموزید (TechRepublic Academy)
این تفاهم نامه در درجه اول به پیشرفت در برنامه های انجام شده توسط مؤسسات ایمنی هوش مصنوعی بریتانیا و ایالات متحده مربوط می شود. مرکز تحقیقات بریتانیا اجلاس ایمنی هوش مصنوعی را با سه هدف اصلی ارزیابی سیستم های هوش مصنوعی موجود، انجام تحقیقات اساسی ایمنی هوش مصنوعی و به اشتراک گذاری اطلاعات با سایر بازیگران ملی و بین المللی راه اندازی کرد. شرکتهایی از جمله OpenAI، Meta و مایکروسافت موافقت کردهاند که آخرین مدلهای هوش مصنوعی تولیدی خود را بهطور مستقل توسط AISI بریتانیا بررسی کنند.
به طور مشابه، AISI ایالات متحده، که به طور رسمی توسط NIST در فوریه 2024 تأسیس شد، برای کار بر روی اقدامات اولویت بندی شده در دستور اجرایی AI صادر شده در اکتبر 2023 ایجاد شد. این اقدامات شامل توسعه استانداردهایی برای ایمنی و امنیت سیستم های هوش مصنوعی است. AISI ایالات متحده توسط کنسرسیوم مؤسسه ایمنی هوش مصنوعی پشتیبانی می شود که اعضای آن شامل Meta، OpenAI، NVIDIA، Google، Amazon و Microsoft هستند.
آیا این منجر به مقررات شرکت های هوش مصنوعی می شود؟
اگرچه نه بریتانیا و نه AISI ایالات متحده یک نهاد نظارتی نیستند، نتایج تحقیقات ترکیبی آنها احتمالاً به تغییرات سیاستی آینده منجر می شود. به گفته دولت بریتانیا، AISI آن “اطلاعات اساسی را برای رژیم مدیریت ما ارائه خواهد کرد”، در حالی که تاسیسات ایالات متحده “راهنمای فنی را توسعه خواهد داد که توسط تنظیم کننده ها استفاده خواهد شد”.
اتحادیه اروپا احتمالا هنوز یک گام جلوتر است، زیرا قانون شاخص هوش مصنوعی آن در 13 مارس 2024 به قانون تصویب شد. این قانون اقداماتی را برای اطمینان از استفاده ایمن و اخلاقی از هوش مصنوعی، از جمله سایر قوانین مربوط به هوش مصنوعی برای تشخیص چهره و شفافیت، تشریح می کند. .
تماشا کنید: بیشتر متخصصان امنیت سایبری انتظار دارند هوش مصنوعی بر کار آنها تأثیر بگذارد
بسیاری از بازیگران بزرگ فناوری، از جمله OpenAI، گوگل، مایکروسافت و آنتروپیک، در ایالات متحده مستقر هستند، جایی که در حال حاضر هیچ مقررات سختی وجود ندارد که بتواند فعالیت های هوش مصنوعی آنها را محدود کند. EO اکتبر راهنمایی هایی را در مورد استفاده و تنظیم هوش مصنوعی ارائه می دهد و گام های مثبتی از زمان امضای آن برداشته شده است. با این حال، این قانون، قانون نیست. چارچوب مدیریت ریسک هوش مصنوعی که توسط NIST در ژانویه 2023 نهایی شد نیز داوطلبانه است.
در واقع، این شرکتهای بزرگ فناوری عمدتاً خودشان مسئول مقررات هستند و سال گذشته انجمن مدل Frontier را راهاندازی کردند تا «نردههای» خود را برای کاهش خطر هوش مصنوعی ایجاد کنند.
نظر کارشناسان حقوقی و هوش مصنوعی در مورد تست ایمنی چیست؟
تنظیم هوش مصنوعی باید در اولویت باشد
ایجاد AISI در بریتانیا یک روش محبوب جهانی برای در دست گرفتن کنترل هوش مصنوعی در این کشور نبود. در فوریه، مدیر عامل دانشکده هوش مصنوعی – یک شرکت وابسته به این موسسه – گفت که توسعه استانداردهای قوی می تواند استفاده عاقلانه تری از منابع دولتی باشد تا تلاش برای بررسی هر مدل هوش مصنوعی.
مارک وارنر به گاردین گفت: “من فکر می کنم مهم است که او استانداردهایی را برای کل جهان تعیین کند، نه اینکه خودش تلاش کند همه کارها را انجام دهد.”
در مورد یادداشت تفاهم این هفته، کارشناسان حقوق فناوری نیز دیدگاه مشابهی دارند. آرون سولومون، تحلیلگر حقوقی و مدیر استراتژی در آژانس بازاریابی قانونی Amplify در ایمیلی به TechRepublic گفت: «در حالت ایدهآل، تلاشهای طرفین بسیار بهتر از تحقیق صرف ایجاد مقررات سخت میشود».
اما مشکل اینجاست: تعداد کمی از قانونگذاران – بهویژه در کنگره ایالات متحده – به عمق درک هوش مصنوعی برای تنظیم آن دسترسی دارند.
سولومون اضافه کرد: «ترجیح میدهیم که دور شویم تا وارد دورهای از مطالعات عمیق و ضروری شویم که در آن قانونگذاران واقعاً ذهن جمعی خود را در مورد نحوه عملکرد هوش مصنوعی و نحوه استفاده از آن در آینده میپیچند.» اما، همانطور که با شکست اخیر در ایالات متحده که در آن قانونگذاران سعی کردند TikTok را ممنوع کنند، مشخص شد، آنها به عنوان یک گروه، فناوری را درک نمی کنند، بنابراین در موقعیت خوبی برای تنظیم هوشمندانه آن نیستند.
این ما را در موقعیت سختی که امروز در آن قرار داریم قرار می دهد. هوش مصنوعی بسیار سریعتر از آنچه تنظیم کننده ها می توانند تنظیم کنند در حال تکامل است. اما به تعویق انداختن مقررات به نفع چیز دیگری در این مرحله، امر اجتناب ناپذیر را به تاخیر می اندازد.
در واقع، از آنجایی که قابلیتهای مدلهای هوش مصنوعی دائماً تغییر میکند و گسترش مییابد، آزمایشهای ایمنی انجامشده توسط این دو مؤسسه نیز باید همین کار را انجام دهند. کریستوف زمپر، مدیر عامل پلتفرم مدیریت سریع AIPRM در ایمیلی به TechRepublic گفت: «برخی بازیگران بد ممکن است سعی کنند آزمایشها را دور بزنند یا از قابلیتهای هوش مصنوعی دوگانه استفاده کنند. استفاده دوگانه به فناوری هایی اطلاق می شود که می توانند برای اهداف صلح آمیز و خصمانه مورد استفاده قرار گیرند.
Cemper گفت: “در حالی که آزمایش ممکن است نشان دهنده نگرانی های ایمنی فنی باشد، اما جایگزین نیاز به راهنمایی در مورد مسائل اخلاقی، سیاسی و حاکمیتی نمی شود… در حالت ایده آل، دو دولت آزمایش را به عنوان مرحله اولیه در روند همکاری در حال انجام خواهند دید.” “
تماشا کنید: بر اساس مطالعه مرکز ملی امنیت سایبری، هوش مصنوعی مولد می تواند تهدید باج افزار جهانی را افزایش دهد.
تحقیقات برای تنظیم موثر هوش مصنوعی مورد نیاز است
به گفته دکتر کل کارلسون، در حالی که دستورالعمل های داوطلبانه ممکن است برای تشویق هر گونه تغییر واقعی در عملیات غول های فناوری کافی نباشد، قوانین سفت و سخت می تواند پیشرفت در هوش مصنوعی را متوقف کند، اگر به درستی فکر نشود.
تحلیلگر سابق ML/AI و رئیس فعلی استراتژی در آزمایشگاه داده Domino در ایمیلی به TechRepublic گفت: «امروزه مناطق مرتبط با هوش مصنوعی وجود دارد که آسیب یک تهدید واقعی و رو به رشد است. اینها زمینه هایی مانند کلاهبرداری و جرایم سایبری هستند که معمولاً مقررات وجود دارد اما بی اثر است.
متأسفانه، تعداد کمی از مقررات پیشنهادی هوش مصنوعی، مانند قانون هوش مصنوعی اتحادیه اروپا، برای مقابله موثر با این تهدیدات طراحی شدهاند، زیرا بیشتر بر روی پیشنهادات هوش مصنوعی تجاری تمرکز میکنند که مجرمان از آن استفاده نمیکنند. به این ترتیب، بسیاری از این تلاشهای نظارتی به نوآوری آسیب میرساند و هزینهها را افزایش میدهد در حالی که برای بهبود ایمنی واقعی کار چندانی انجام نمیدهد.
به همین دلیل است که بسیاری از کارشناسان بر این باورند که اولویت دادن به تحقیق و همکاری موثرتر از قوانین عجولانه در بریتانیا و ایالات متحده است.
دکتر کارلسون گفت: «این مقررات زمانی کار میکند که به پیشگیری از آسیبهای شناخته شده از مصارف شناخته شده میرسد. با این حال، امروزه بیشتر موارد استفاده از هوش مصنوعی هنوز کشف نشده است و تقریباً تمام آسیب ها فرضی است. در مقابل، نیاز باورنکردنی به تحقیق در مورد چگونگی آزمایش موثر، کاهش خطرات و اطمینان از ایمنی مدلهای هوش مصنوعی وجود دارد.
به این ترتیب، ایجاد و تأمین مالی این مؤسسههای ایمنی هوش مصنوعی جدید و این تلاشهای همکاری بینالمللی یک سرمایهگذاری عمومی عالی است، نه تنها برای تضمین ایمنی، بلکه برای ارتقای رقابت شرکتهای ایالات متحده و بریتانیا».