You are currently viewing قانون هوش مصنوعی اتحادیه اروپا توضیح داد: آنچه توسعه دهندگان هوش مصنوعی باید بدانند

قانون هوش مصنوعی اتحادیه اروپا توضیح داد: آنچه توسعه دهندگان هوش مصنوعی باید بدانند


پارلمان اروپا قانون هوش مصنوعی اتحادیه اروپا (EU) را در مارس 2024 تصویب کرد، و هدف آن این است که به توسعه دهندگان و مجریان هوش مصنوعی (AI) چیزی را ارائه دهد که سیاستگذاران اتحادیه اروپا اینطور توصیف می کنند.الزامات روشن و تعهدات مربوط به کاربردهای خاص هوش مصنوعی.

آنها همچنین امیدوارند که مقررات بار اداری و مالی را بر مشاغل، به ویژه شرکت های کوچک و متوسط ​​(SMEs) کاهش دهد.

این قانون با هدف ارائه یک چارچوب قانونی برای مدیریت سیستم های هوش مصنوعی با تاکید بر ایمنی، حریم خصوصی و جلوگیری از به حاشیه راندن انسان ها. تعدادی از موارد استفاده برای پیاده سازی هوش مصنوعی وجود دارد از قانون مستثنی شده است. با این حال، برخی از منتقدان آن معتقدند که حفره های بسیار زیادی وجود دارد، به ویژه در مورد امنیت ملیکه ممکن است اثربخشی آن را محدود کند.

دلیل اینکه اتحادیه اروپا و سایر حوزه‌های قضایی به دنبال رفع نگرانی‌های ایمنی هوش مصنوعی هستند این است که چنین سیستم‌هایی را می‌توان بر روی داده‌هایی آموزش داد که می‌توانند در طول زمان تغییر کنند.

گروه هوش مصنوعی سازمان همکاری اقتصادی و توسعه (OECD) هشدار می دهد که سیستم های مبتنی بر هوش مصنوعی تحت تأثیر پویایی های اجتماعی و رفتار انسانی هستند.

خطرات و مزایای هوش مصنوعی می‌تواند ناشی از تأثیر متقابل جنبه‌های فنی همراه با عوامل اجتماعی مربوط به نحوه استفاده از یک سیستم، تعامل آن با سایر سیستم‌های هوش مصنوعی، افرادی که آن را اجرا می‌کنند و زمینه اجتماعی که در آن مستقر شده است، باشد.

به طور کلی، قوانین هوش مصنوعی بر استفاده مسئولانه از سیستم‌های هوش مصنوعی متمرکز است که شامل نحوه آموزش آنها، سوگیری داده‌ها و توانایی توضیح اینکه در کجا خطاها می‌توانند تأثیر مخربی بر یک فرد داشته باشند، می‌شود.

https://www.youtube.com/watch?v=_1-A2TSKOHE

OECD Policy Observatory.ai چارچوب مدیریت ریسک هوش مصنوعی اشاره می‌کند که تغییراتی که در داده‌های آموزشی هوش مصنوعی رخ می‌دهد گاهی اوقات می‌تواند به‌طور غیرمنتظره‌ای بر عملکرد و قابلیت اطمینان سیستم تأثیر بگذارد، به گونه‌ای که درک آن دشوار است. رصدخانه سیاست OECD.ai هشدار می‌دهد که سیستم‌های هوش مصنوعی و زمینه‌هایی که در آن مستقر می‌شوند، اغلب پیچیده هستند و تشخیص و پاسخ به خرابی‌ها را در صورت وقوع مشکل می‌سازند.

قانون هوش مصنوعی اتحادیه اروپا یک رویکرد مبتنی بر ریسک برای ایمنی هوش مصنوعی با چهار سطح خطر برای سیستم‌های هوش مصنوعی و همچنین شناسایی خطرات خاص برای یک مدل هدف کلی اتخاذ می‌کند.

این بخشی از یک بسته گسترده تر از اقدامات سیاستی برای حمایت از توسعه هوش مصنوعی قابل اعتماد است که شامل بسته نوآوری هوش مصنوعی و برنامه هوش مصنوعی هماهنگ نیز می شود. اتحادیه اروپا می گوید این اقدامات ایمنی و حقوق اساسی افراد و مشاغل را در مورد هوش مصنوعی تضمین می کند و پذیرش، سرمایه گذاری و نوآوری در هوش مصنوعی را در سراسر اتحادیه اروپا تقویت می کند.

نکات کلیدی قانون هوش مصنوعی اتحادیه اروپا

قانون مجموعه ای از حفاظت ها را فراهم می کند برای هوش مصنوعی هدف عمومی توسعه دهندگان چنین سیستم هایی باید مستندات فنی را تهیه کنند تا اطمینان حاصل کنند که هوش مصنوعی با قانون حق چاپ اتحادیه اروپا مطابقت دارد و خلاصه های مفصلی از محتوای مورد استفاده برای آموزش را به اشتراک بگذارند. قوانین مختلفی را برای سطوح مختلف ریسک تعیین می کند.

تحت مقوله «خطر غیرقابل قبول»، قانون به دنبال محدود کردن استفاده از سیستم‌های شناسایی بیومتریک توسط سازمان‌های مجری قانون بود. سیستم های طبقه بندی بیومتریک که از ویژگی های حساس استفاده می کنند (مانند عقاید سیاسی، مذهبی و فلسفی، گرایش جنسی و نژاد) ممنوع هستند.

هوش مصنوعی پرخطر تحت پوشش قانون شامل سیستم‌های هوش مصنوعی است که در محصولات تحت پوشش قوانین ایمنی محصولات اتحادیه اروپا استفاده می‌شوند. این شامل اسباب بازی، حمل و نقل هوایی، اتومبیل، تجهیزات پزشکی و آسانسور است. همچنین هوش مصنوعی مورد استفاده در طیف وسیعی از نقش‌های پشتیبانی تصمیم‌گیری، مانند اجرای قانون، پناهندگی، مهاجرت و کنترل مرز، آموزش، اشتغال و مدیریت زیرساخت‌های ملی حیاتی را پوشش می‌دهد.

محصولاتی که در گروه پرخطر قرار می گیرند باید قبل از عرضه به بازار و همچنین در طول چرخه عمرشان مورد ارزیابی قرار گیرند. این قانون به مردم این حق را می دهد که شکایت خود را در مورد سیستم های هوش مصنوعی به برخی مقامات ملی ارائه کنند. هوش مصنوعی (GenAI)، مانند ChatGPT، به عنوان پرخطر طبقه بندی نمی شود. در عوض، قانون بیان می کند که چنین سیستم هایی باید با الزامات شفافیت و قانون کپی رایت اتحادیه اروپا مطابقت داشته باشند.

قانون هوش مصنوعی اتحادیه اروپا بر چه کسانی تأثیر می گذارد؟

استفان کاتانزانو، تحلیلگر ارشد در Enterprise Strategy Group، خاطرنشان می کند که قانون AI برای ارائه دهندگان سیستم های هوش مصنوعی اعمال می شود. او می‌گوید که این بدان معناست که شرکت‌هایی را پوشش می‌دهد که سیستم‌های هوش مصنوعی را توسعه داده و می‌فروشند یا چنین سیستم‌هایی را تحت نام یا علامت تجاری خود، خواه با هزینه یا رایگان، در دسترس قرار می‌دهند.

کاتانزانو در ادامه خاطرنشان می‌کند که قانون هوش مصنوعی واردکنندگان و توزیع‌کنندگان سیستم‌های هوش مصنوعی در اتحادیه اروپا و همچنین «توزیع‌کنندگان» را که به عنوان اشخاص حقیقی یا حقوقی از هوش مصنوعی تحت هدایت خود در فعالیت‌های حرفه‌ای خود استفاده می‌کنند، پوشش می‌دهد.

تحلیلگر ارشد انزا یانوپولو او می‌گوید که علی‌رغم فقدان جزئیات در مورد استانداردها و پروتکل‌های فنی، او از سازمان‌ها می‌خواهد تا برای اندازه‌گیری و گزارش اثربخشی سیستم‌های هوش مصنوعی خود آماده شوند. به گفته ایانوپولو، این شاید یکی از چالش های اصلی الزامات جدید باشد.

او در یک پست وبلاگی که قانون را پوشش می دهد، نوشت: «شرکت ها باید با اندازه گیری عملکرد سیستم های هوش مصنوعی و GenAI خود در برابر اصول حیاتی هوش مصنوعی مسئول، مانند تعصب، تبعیض و بی عدالتی، شروع کنند.

با ظهور استانداردها و مشخصات فنی جدید، انتظار می رود متن بخشی از قانون گسترش یابد.

اتحادیه اروپا از نظر مقررات هوش مصنوعی چه تفاوتی با سایر مناطق دارد؟

در هر منطقه ای که یک سازمان در آن فعالیت می کند، اگر بخواهد هوش مصنوعی را در جای دیگری مستقر کند، باید چارچوب نظارتی را هم در کشور خود و هم در سایر مناطقی که سیستم مورد استفاده قرار می گیرد، درک کنند. در زمان نگارش این مقاله، اتحادیه اروپا رویکردی مبتنی بر ریسک را اتخاذ کرده است.

با این حال، کشورهای دیگر رویکردهای متفاوتی برای مقررات هوش مصنوعی در پیش گرفته اند. اگرچه حوزه های قضایی مختلف در رویکرد نظارتی متفاوت هستند، اما مطابق با هنجارهای فرهنگی و زمینه های قانونی مختلف، EY اشاره می کند آنها به طور گسترده در تشخیص نیاز به کاهش مضرات بالقوه هوش مصنوعی و در عین حال اجازه استفاده از آن برای منافع اقتصادی و اجتماعی برای شهروندان، همانطور که توسط OECD تعریف شده و توسط G20 تأیید شده است، توافق دارند. این موارد شامل احترام به حقوق بشر، پایداری، شفافیت و مدیریت ریسک قوی است.

طرح کلی چارچوب نظارتی هوش مصنوعی دولت بریتانیا، که در فوریه منتشر شد، یک رویکرد “طرفدار نوآوری” را ارائه می دهد. مشاهده این شناخت نیاز به راهنمایی امیدوارکننده است، اما اصول غیرقانونی بر روی بازیگران کلیدی درگیر در توسعه هوش مصنوعی متمرکز است.

برای تقویت نوآوری فراگیر، بریتانیا باید تا آنجا که ممکن است صداهای بیشتری را در شکل دادن به چشم انداز نظارتی وارد کند. این با توجه به گاوین پولمدیرعامل Here East به این معنی است که سیاستگذاران و تنظیم‌کننده‌ها باید نه تنها با شرکت‌های بزرگ فناوری، بلکه با استارت‌آپ‌ها، مؤسسات آموزشی و کسب‌وکارهای کوچک‌تر مشارکت فعال داشته باشند.

او می‌گوید: «تصویب قانون پیشگامانه هوش مصنوعی اتحادیه اروپا زنگ خطری برای بریتانیا است – یادآوری این که ما باید دستورالعمل‌های خود را تطبیق داده و تکامل دهیم تا جلوتر از منحنی‌ها باقی بمانیم». سناریوی ایده آل چارچوبی است که رشد را تشویق می کند و روی استعدادهای محلی و پتانسیل آینده سرمایه گذاری می کند تا موقعیت ما را به عنوان یک رهبر جهانی در نوآوری هوش مصنوعی تقویت کند.

اهمیت تأثیر متقابل

رویکرد اتحادیه اروپا بسیار متفاوت از رویکرد ایالات متحده است. به گفته ایوانا بارتولتی، مدیر ارشد حریم خصوصی و مدیریت هوش مصنوعی در Wipro، این در واقع چیز خوبی است. او می گوید: «لقاح متقابل و تأثیر متقابل مورد نیاز است زیرا ما بهترین راه را برای مدیریت این فناوری قدرتمند پیدا می کنیم.

همانطور که بارتولتی اشاره می کند، در حالی که قوانین ایالات متحده و اتحادیه اروپا تا حدودی متفاوت هستند، این دو استراتژی نشان دهنده همگرایی در برخی از عناصر کلیدی است. به عنوان مثال، تمرکز بر انصاف، ایمنی و استحکام وجود دارد. همچنین یک تعهد قوی و اقدام محکم برای ایجاد تعادل بین نوآوری و تمرکز قدرت در شرکت های بزرگ فناوری وجود دارد.

چین همچنین در تنظیم مقررات هوش مصنوعی پیشرفت چشمگیری داشته است. رویکرد او قبلاً به جای ایجاد یک رژیم نظارتی جامع برای سیستم‌های هوش مصنوعی، بر حوزه‌های خاصی از هوش مصنوعی متمرکز بود. مثلا، جیمی رولندزشریک، و انگوس میلن، از همکاران Haseltine Lake Kempner، خاطرنشان می کنند که چین قوانین جداگانه ای را برای الگوریتم های توصیه، GenAI و دیپ فیک معرفی کرده است. آنها می گویند که به نظر می رسد این رویکرد به جای اینکه فعالانه به دنبال شکل دادن به این توسعه باشد، به توسعه هوش مصنوعی واکنش نشان داده است.

در ژوئن 2023، چین تایید کرد که روی قانون هوش مصنوعی کار می کند. در حال حاضر مشخص نیست که قانون جدید چه مواردی را پوشش می دهد زیرا این پیش نویس هنوز منتشر نشده است، اما انتظار می رود که هدف آن ارائه یک چارچوب نظارتی جامع باشد و بنابراین به طور بالقوه از نظر دامنه و جاه طلبی با قانون هوش مصنوعی اتحادیه اروپا رقابت می کند.

تاثیر آن بر بخش هوش مصنوعی اروپا چیست؟

انجمن آلمان برای هوش مصنوعی هشدار داد که قانون هوش مصنوعی اتحادیه اروپا در شکل فعلی خود به طور جدی بر اکوسیستم هوش مصنوعی اروپا تأثیر منفی خواهد گذاشت و رقبای ایالات متحده و چین را به طور بالقوه در یک نقطه ضعف رقابتی قرار می دهد.

در مقاله‌ای که در مورد موضع او بحث می‌کند، او هشدار داد که هوش مصنوعی همه منظوره و مدل‌های زبان بزرگ باید کنار گذاشته شوند، یا حداقل به‌طور قطعی به عنوان موارد استفاده پرخطر طبقه‌بندی شوند.

نویسندگان مقاله «ما برای ارزیابی مجدد الزامات فعلی که سیستم‌های هوش مصنوعی را به عنوان موارد استفاده پرخطر طبقه‌بندی می‌کنند، حمایت و ترویج سرمایه‌گذاری‌های اروپایی در مدل‌های زبانی بزرگ و مدل‌های چندوجهی، و شفاف‌سازی تعاریف نامشخص و عبارت‌های انتخاب شده را می‌خواهیم». روزنامه نوشت



Source link