You are currently viewing AI Deepfakes به عنوان خطری برای سازمان ها در آسیا و اقیانوسیه در حال رشد است – TechToday

AI Deepfakes به عنوان خطری برای سازمان ها در آسیا و اقیانوسیه در حال رشد است – TechToday


دیپ فیک های هوش مصنوعی چندی پیش در رادار ریسک سازمان ها نبودند، اما در سال 2024 در حال افزایش هستند. با وجود پتانسیل تقلبی های عمیق هوش مصنوعی که همه چیز را از کاهش قیمت سهام گرفته تا از دست دادن اعتماد به برند از طریق اطلاعات نادرست ایجاد می کند، احتمالاً برای مدتی آینده به عنوان یک خطر محسوب می شوند.

رابرت هوبر، افسر ارشد امنیتی و رئیس تحقیقات شرکت امنیت سایبری Tenable، در مصاحبه ای با TechRepublic ادعا کرد که دیپ فیک های هوش مصنوعی می توانند توسط تعدادی از بازیگران مخرب استفاده شوند. در حالی که ابزارهای تشخیص هنوز در حال تکامل هستند، مشاغل APAC می توانند با افزودن جعل عمیق به ارزیابی ریسک خود و محافظت بهتر از محتوای خود آماده شوند.

در نهایت، با همگرایی هنجارهای بین المللی حول هوش مصنوعی، حفاظت بیشتر از سازمان ها محتمل است. هوبر از بازیکنان پلتفرم فناوری بزرگ‌تر خواست تا با شناسایی قوی‌تر و واضح‌تر محتوای تولید شده توسط هوش مصنوعی، به جای واگذاری آن به کاربران فردی که متخصص نیستند، قدم بردارند.

دیپ فیک های هوش مصنوعی یک خطر فزاینده برای جامعه و کسب و کار است

خطر اطلاعات نادرست و اطلاعات نادرست تولید شده توسط هوش مصنوعی به عنوان یک خطر جهانی در حال ظهور است. در سال 2024، پس از راه اندازی موجی از ابزارهای مولد هوش مصنوعی در سال 2023، رده ریسک به طور کلی دومین خطر بزرگ در گزارش ریسک های جهانی 2024 مجمع جهانی اقتصاد بود.شکل A).

شکل A

اطلاعات نادرست هوش مصنوعی پتانسیل این را دارد "بحران مادی در مقیاس جهانی" در سال 2024، بر اساس گزارش جهانی ریسک های 2024.
بر اساس گزارش Global Risks 2024، اطلاعات غلط هوش مصنوعی تا سال 2024 به یک “بحران مهم در مقیاس جهانی” تبدیل خواهد شد تصویر: مجمع جهانی اقتصاد

بیش از نیمی (53٪) از پاسخ دهندگان، که از مشاغل، دانشگاه ها، دولت و جامعه مدنی هستند، اطلاعات نادرست و اطلاعات نادرست تولید شده توسط هوش مصنوعی را که شامل دروغ های عمیق می شود به عنوان یک خطر ذکر می کنند. اطلاعات نادرست همچنین به عنوان بزرگترین عامل خطر در دو سال آینده شناسایی شد (شکل B).

شکل B

انتظار می رود خطر اطلاعات نادرست و اطلاعات نادرست در کوتاه مدت زیاد باشد و در طی 10 سال در پنج رتبه اول باقی بماند.
انتظار می رود خطر اطلاعات نادرست و اطلاعات نادرست در کوتاه مدت زیاد باشد و در طی 10 سال در پنج رتبه اول باقی بماند. تصویر: مجمع جهانی اقتصاد

شرکت‌ها آنقدر سریع نمی‌توانند خطر AI deepfake را در نظر بگیرند. برای مثال، مطالعه Aon در مورد مدیریت ریسک جهانی، به آن اشاره ای نمی کند، حتی اگر سازمان ها نگران اختلال در کسب و کار یا آسیب به نام تجاری و شهرت خود هستند که می تواند توسط هوش مصنوعی ایجاد شود.

هوبر گفت که خطر جعل‌های عمیق هوش مصنوعی همچنان در حال ظهور و تغییر است زیرا تغییرات در هوش مصنوعی با سرعتی سریع رخ می‌دهد. با این حال، او گفت که این خطری است که سازمان‌های منطقه آسیا و اقیانوسیه باید در نظر بگیرند. «این لزوماً یک خطر سایبری نیست. این یک ریسک سازمانی است.”

دیپ‌فیک‌های هوش مصنوعی ابزار جدیدی را برای تقریباً هر تهدیدی ارائه می‌کنند

انتظار می رود دیپ فیک های هوش مصنوعی گزینه دیگری باشد که هر دشمن یا تهدیدی برای رسیدن به اهداف خود از آن استفاده می کند. هوبر گفت که این می تواند شامل دولت-ملت ها با اهداف ژئوپلیتیک و گروه های فعال با برنامه های آرمان گرایانه با انگیزه هایی از جمله سود و نفوذ مالی باشد.

«در اینجا شما طیف وسیعی را اجرا خواهید کرد، از گروه‌های دولت ملی گرفته تا گروه‌های آگاه از محیط‌زیست تا هکرهایی که فقط می‌خواهند از depfakes کسب درآمد کنند. من فکر می‌کنم این ابزار دیگری در جعبه ابزار برای هر بازیگر مخربی است،” هوبر توضیح داد.

ببینید چگونه هوش مصنوعی مولد ممکن است تهدید جهانی باج افزار را افزایش دهد

هزینه کم دیپ فیک به معنای موانع کم برای ورود بازیگران مخرب است

سهولت استفاده از ابزارهای هوش مصنوعی و هزینه پایین تولید مواد هوش مصنوعی به این معنی است که موانع کمی برای عوامل مخرب وجود دارد که بخواهند از ابزارهای جدید استفاده کنند. هوبر گفت که یک تفاوت با گذشته سطح کیفیتی است که اکنون در نوک انگشتان تهدیدها قرار دارد.

“چند سال پیش، [cost] مانع ورود کم بود، اما کیفیت نیز ضعیف بود. “اکنون نوار هنوز پایین است، اما [with generative AI] کیفیت بسیار بهبود یافته است. بنابراین تشخیص عمیق دیپ فیک به تنهایی و بدون نشانه های اضافی برای اکثر مردم دشوار می شود.

خطرات ناشی از دیپ فیک های هوش مصنوعی برای سازمان ها چیست؟

هوبر گفت، خطرات دیپ‌فیک‌های هوش مصنوعی آنقدر مرتبط هستند که در دستور کار ارزیابی ریسک سازمانی در APAC قرار ندارند. با این حال، او با اشاره به حمله سایبری اخیر دولت علیه مایکروسافت، که خود مایکروسافت گزارش داد، از مردم دعوت کرد که بپرسند: اگر این یک دیپ‌فیک بود چه می‌شد؟

مایکروسافت چه اطلاعات نادرست باشد و چه نفوذ، در حال مناقصه برای قراردادهای بزرگ برای شرکت خود با دولت ها و اهداف مختلف در سراسر جهان است. این می تواند از قابلیت اطمینان شرکتی مانند مایکروسافت صحبت کند یا آن را برای هر سازمان بزرگ فناوری اعمال کند.

از دست دادن قراردادهای شرکتی

شرکت‌های انتفاعی از همه نوع می‌توانند تحت تأثیر مواد AI جعلی عمیق قرار بگیرند. به عنوان مثال، تولید اطلاعات نادرست می‌تواند باعث پرسش‌ها یا از بین رفتن قراردادها در سراسر جهان شود، یا نگرانی‌های اجتماعی یا واکنش‌هایی را به یک سازمان برانگیزد که می‌تواند به چشم‌انداز آنها آسیب برساند.

خطرات امنیتی فیزیکی

دیپ‌فیک‌های هوش مصنوعی می‌توانند بعد جدیدی به خطر اصلی اختلال در کسب‌وکار اضافه کنند. برای مثال، اطلاعات نادرست ناشی از هوش مصنوعی می‌تواند باعث شورش یا حتی ادراک شورش شود، یا باعث ایجاد خطر برای افراد یا عملیات یا صرفاً درک خطر شود.

تاثیر بر برند و شهرت

Forrester فهرستی از کلاهبرداری های عمیق جعلی بالقوه را منتشر می کند. اینها شامل خطراتی برای شهرت و نام تجاری یا تجربه کارکنان و منابع انسانی سازمان است. یکی از ریسک‌ها تقویت بود، که در آن از دیپ‌فیک‌های هوش مصنوعی برای انتشار سایر دیپ‌فیک‌های هوش مصنوعی استفاده می‌شود و مخاطبان بیشتری را به دست می‌آورند.

اثرات مالی

خطرات مالی شامل امکان استفاده از AI عمیق برای دستکاری قیمت سهام و خطر تقلب مالی است. اخیراً، یکی از افسران مالی یک شرکت چند ملیتی در هنگ کنگ فریب خورد و به مجرمان 25 میلیون دلار آمریکا (40 میلیون دلار استرالیا) پرداخت کرد، زیرا آنها از یک دیپ جعلی پیشرفته هوش مصنوعی برای معرفی به عنوان مدیر ارشد مالی شرکت در یک تماس ویدیویی کنفرانسی استفاده کردند.

قضاوت فردی یک تصمیم عمیقا نادرست برای سازمان ها نیست

مشکل بزرگ سازمان‌ها در منطقه آسیا و اقیانوسیه این است که تشخیص تقلبی عمیق با هوش مصنوعی برای همه دشوار است. از آنجایی که تنظیم‌کننده‌ها و پلت‌فرم‌های فناوری خود را با رشد هوش مصنوعی تطبیق می‌دهند، بسیاری از مسئولیت‌ها بر عهده خود کاربران است که تقلبی‌های عمیق را شناسایی کنند، نه واسطه‌ها.

این می تواند ببیند که چگونه باورهای افراد و جمعیت بر سازمان ها تأثیر می گذارد. از مردم خواسته می شود در زمان واقعی تصمیم بگیرند که آیا یک داستان آسیب رسان در مورد یک نام تجاری یا یک کارمند ممکن است درست یا نادرست باشد در محیطی که ممکن است شامل اطلاعات نادرست رسانه ها و رسانه های اجتماعی باشد.

تک تک کاربران برای مرتب کردن واقعیت از داستان مجهز نیستند

هوبر گفت که انتظار از مردم برای تشخیص اینکه چه چیزی یک جعلی عمیق تولید شده توسط هوش مصنوعی است و چه چیزی نیست، “مشکلاتی” است. او استدلال می‌کند که در حال حاضر تشخیص تقلبی‌های عمیق هوش مصنوعی حتی برای متخصصان فناوری دشوار است و افرادی که تجربه کمی در شناسایی تقلبی‌های هوش مصنوعی عمیق دارند، با مشکل مواجه خواهند شد.

“مثل این است که بگوییم، “ما همه را آموزش خواهیم داد تا امنیت سایبری را درک کنند.” اکنون ACSC (مرکز امنیت سایبری استرالیا) راهنمایی‌های امنیتی سایبری بسیار خوبی دارد، اما چه کسی واقعاً آن را می‌خواند به غیر از افرادی که واقعاً اینطور هستند. در فضای امنیت سایبری؟» از او پرسید.

اعتیاد نیز یک عامل است. «اگر به مطالبی نگاه می‌کنید که برایتان مهم است، یک تعصب با خود دارید. شما کمتر روی تفاوت های ظریف حرکات یا ژست ها یا سه بعدی بودن تصویر تمرکز می کنید. اگر محتوایی است که به آن علاقه دارید، از آن حواس پراکنده استفاده نمی‌کنید و به دنبال ناهنجاری‌ها نمی‌گردید.”

ابزارهای تشخیص دیپ فیک هوش مصنوعی در حال بازی کردن هستند

شرکت‌های فناوری در تلاش هستند تا ابزارهایی برای مقابله با افزایش دیپ‌فیک‌های هوش مصنوعی فراهم کنند. به عنوان مثال، ابزار Real-time FakeCatcher اینتل برای شناسایی تقلبی‌های عمیق با ارزیابی انسان‌ها در ویدیوهای جریان خون با استفاده از پیکسل‌های ویدئویی، شناسایی تقلبی‌ها از طریق «آنچه ما را انسان می‌سازد» طراحی شده است.

هوبر گفت که قابلیت‌های ابزارهایی برای شناسایی و شناسایی دیپ‌فیک‌های هوش مصنوعی همچنان در حال ظهور است. او پس از بررسی برخی ابزارهای موجود در بازار، گفت که در حال حاضر چیزی که به طور خاص توصیه کند ندارد زیرا “فضا خیلی سریع در حال حرکت است.”

چه چیزی به سازمان‌ها در مقابله با خطرات دروغین عمیق هوش مصنوعی کمک می‌کند؟

هوبر گفت که ظهور دیپ‌فیک‌های هوش مصنوعی احتمالاً منجر به بازی «گربه و موش» بین بازیگران مخربی که دیپ‌فیک تولید می‌کنند و کسانی که سعی در شناسایی و خنثی کردن آن‌ها دارند، می‌شود. به همین دلیل، ابزارها و قابلیت‌هایی که از شناسایی دیپ‌فیک‌های هوش مصنوعی پشتیبانی می‌کنند، احتمالاً به سرعت تغییر می‌کنند، زیرا «مسابقه تسلیحاتی» یک جنگ واقعی را ایجاد می‌کند.

برخی از سازمان های حفاظتی وجود دارند که ممکن است آنها را در اختیار داشته باشند.

شکل گیری هنجارهای نظارتی بین المللی برای هوش مصنوعی

استرالیا یکی از حوزه های قضایی است که در حال بررسی تنظیم محتوای هوش مصنوعی از طریق اقداماتی مانند واترمارکینگ است. همانطور که سایر حوزه های قضایی در سراسر جهان به سمت اجماع در مورد حکمرانی هوش مصنوعی حرکت می کنند، احتمالاً روی رویکردهای بهترین عملکرد برای کمک به شناسایی بهتر محتوای هوش مصنوعی همگرایی وجود دارد.

هوبر گفت که اگرچه این بسیار مهم است، اما دسته‌هایی از بازیگران وجود دارند که از هنجارهای بین‌المللی پیروی نمی‌کنند. “باید درک ضمنی وجود داشته باشد که صرف نظر از اینکه چه مقرراتی وضع کنیم یا چگونه سعی کنیم آن را به حداقل برسانیم، همچنان افرادی هستند که این کار را انجام خواهند داد.”

دیدن: خلاصه قوانین جدید اتحادیه اروپا بر هوش مصنوعی

پلت‌فرم‌های فناوری اصلی که دیپ‌فیک‌های هوش مصنوعی را شناسایی می‌کنند

یک گام کلیدی برای رسانه‌های اجتماعی و پلتفرم‌های فناوری بزرگ مانند متا و گوگل برای مبارزه بهتر با محتوای جعلی عمیق هوش مصنوعی و شناسایی واضح‌تر آن برای کاربران پلتفرم‌هایشان است. به عهده گرفتن بیشتر این مسئولیت به این معنی است که کاربران نهایی غیرمتخصص مانند سازمان‌ها، کارمندان و عموم مردم کار کمتری برای شناسایی عمیق بودن چیزی دارند.

هوبر گفت که به تیم های فناوری اطلاعات نیز کمک خواهد کرد. وجود پلتفرم‌های فناوری اصلی که در قسمت جلویی دیپ‌فیک‌های هوش مصنوعی را شناسایی می‌کند و کاربران را با اطلاعات یا ابزارهای بیشتر مسلح می‌کند، این وظیفه را از سازمان‌ها دور می‌کند. برای پرداخت و مدیریت ابزارهای تشخیص جعلی و تخصیص منابع امنیتی برای مدیریت آنها، سرمایه گذاری کمتری در فناوری اطلاعات مورد نیاز خواهد بود.

افزودن دیپ فیک های هوش مصنوعی به ارزیابی ریسک

سازمان‌ها در منطقه آسیا و اقیانوسیه ممکن است به زودی نیاز داشته باشند که خطرات مرتبط با دیپ‌فیک‌های هوش مصنوعی را بخشی از رویه‌های ارزیابی ریسک منظم کنند. به عنوان مثال، هوبر گفت که سازمان‌ها ممکن است در کنترل و محافظت از محتوایی که سازمان‌ها در داخل و خارج تولید می‌کنند، و همچنین مستندسازی این اقدامات برای اشخاص ثالث، بسیار فعال‌تر باشند.

«بیشتر شرکت‌های امنیتی بالغ ارزیابی‌های ریسک شخص ثالث را از فروشندگان انجام می‌دهند. او می‌گوید: «من هرگز سؤالی درباره نحوه محافظت از محتوای دیجیتال خود ندیده‌ام. هوبر انتظار دارد که ارزیابی‌های ریسک شخص ثالث که توسط شرکت‌های فناوری انجام می‌شود به زودی نیاز به سوالاتی در رابطه با به حداقل رساندن خطرات ناشی از دیپ فیک داشته باشد.



Source link