دیپ فیک های هوش مصنوعی چندی پیش در رادار ریسک سازمان ها نبودند، اما در سال 2024 در حال افزایش هستند. با وجود پتانسیل تقلبی های عمیق هوش مصنوعی که همه چیز را از کاهش قیمت سهام گرفته تا از دست دادن اعتماد به برند از طریق اطلاعات نادرست ایجاد می کند، احتمالاً برای مدتی آینده به عنوان یک خطر محسوب می شوند.
رابرت هوبر، افسر ارشد امنیتی و رئیس تحقیقات شرکت امنیت سایبری Tenable، در مصاحبه ای با TechRepublic ادعا کرد که دیپ فیک های هوش مصنوعی می توانند توسط تعدادی از بازیگران مخرب استفاده شوند. در حالی که ابزارهای تشخیص هنوز در حال تکامل هستند، مشاغل APAC می توانند با افزودن جعل عمیق به ارزیابی ریسک خود و محافظت بهتر از محتوای خود آماده شوند.
در نهایت، با همگرایی هنجارهای بین المللی حول هوش مصنوعی، حفاظت بیشتر از سازمان ها محتمل است. هوبر از بازیکنان پلتفرم فناوری بزرگتر خواست تا با شناسایی قویتر و واضحتر محتوای تولید شده توسط هوش مصنوعی، به جای واگذاری آن به کاربران فردی که متخصص نیستند، قدم بردارند.
دیپ فیک های هوش مصنوعی یک خطر فزاینده برای جامعه و کسب و کار است
خطر اطلاعات نادرست و اطلاعات نادرست تولید شده توسط هوش مصنوعی به عنوان یک خطر جهانی در حال ظهور است. در سال 2024، پس از راه اندازی موجی از ابزارهای مولد هوش مصنوعی در سال 2023، رده ریسک به طور کلی دومین خطر بزرگ در گزارش ریسک های جهانی 2024 مجمع جهانی اقتصاد بود.شکل A).
شکل A
بیش از نیمی (53٪) از پاسخ دهندگان، که از مشاغل، دانشگاه ها، دولت و جامعه مدنی هستند، اطلاعات نادرست و اطلاعات نادرست تولید شده توسط هوش مصنوعی را که شامل دروغ های عمیق می شود به عنوان یک خطر ذکر می کنند. اطلاعات نادرست همچنین به عنوان بزرگترین عامل خطر در دو سال آینده شناسایی شد (شکل B).
شکل B
شرکتها آنقدر سریع نمیتوانند خطر AI deepfake را در نظر بگیرند. برای مثال، مطالعه Aon در مورد مدیریت ریسک جهانی، به آن اشاره ای نمی کند، حتی اگر سازمان ها نگران اختلال در کسب و کار یا آسیب به نام تجاری و شهرت خود هستند که می تواند توسط هوش مصنوعی ایجاد شود.
هوبر گفت که خطر جعلهای عمیق هوش مصنوعی همچنان در حال ظهور و تغییر است زیرا تغییرات در هوش مصنوعی با سرعتی سریع رخ میدهد. با این حال، او گفت که این خطری است که سازمانهای منطقه آسیا و اقیانوسیه باید در نظر بگیرند. «این لزوماً یک خطر سایبری نیست. این یک ریسک سازمانی است.”
دیپفیکهای هوش مصنوعی ابزار جدیدی را برای تقریباً هر تهدیدی ارائه میکنند
انتظار می رود دیپ فیک های هوش مصنوعی گزینه دیگری باشد که هر دشمن یا تهدیدی برای رسیدن به اهداف خود از آن استفاده می کند. هوبر گفت که این می تواند شامل دولت-ملت ها با اهداف ژئوپلیتیک و گروه های فعال با برنامه های آرمان گرایانه با انگیزه هایی از جمله سود و نفوذ مالی باشد.
«در اینجا شما طیف وسیعی را اجرا خواهید کرد، از گروههای دولت ملی گرفته تا گروههای آگاه از محیطزیست تا هکرهایی که فقط میخواهند از depfakes کسب درآمد کنند. من فکر میکنم این ابزار دیگری در جعبه ابزار برای هر بازیگر مخربی است،” هوبر توضیح داد.
ببینید چگونه هوش مصنوعی مولد ممکن است تهدید جهانی باج افزار را افزایش دهد
هزینه کم دیپ فیک به معنای موانع کم برای ورود بازیگران مخرب است
سهولت استفاده از ابزارهای هوش مصنوعی و هزینه پایین تولید مواد هوش مصنوعی به این معنی است که موانع کمی برای عوامل مخرب وجود دارد که بخواهند از ابزارهای جدید استفاده کنند. هوبر گفت که یک تفاوت با گذشته سطح کیفیتی است که اکنون در نوک انگشتان تهدیدها قرار دارد.
“چند سال پیش، [cost] مانع ورود کم بود، اما کیفیت نیز ضعیف بود. “اکنون نوار هنوز پایین است، اما [with generative AI] کیفیت بسیار بهبود یافته است. بنابراین تشخیص عمیق دیپ فیک به تنهایی و بدون نشانه های اضافی برای اکثر مردم دشوار می شود.
خطرات ناشی از دیپ فیک های هوش مصنوعی برای سازمان ها چیست؟
هوبر گفت، خطرات دیپفیکهای هوش مصنوعی آنقدر مرتبط هستند که در دستور کار ارزیابی ریسک سازمانی در APAC قرار ندارند. با این حال، او با اشاره به حمله سایبری اخیر دولت علیه مایکروسافت، که خود مایکروسافت گزارش داد، از مردم دعوت کرد که بپرسند: اگر این یک دیپفیک بود چه میشد؟
مایکروسافت چه اطلاعات نادرست باشد و چه نفوذ، در حال مناقصه برای قراردادهای بزرگ برای شرکت خود با دولت ها و اهداف مختلف در سراسر جهان است. این می تواند از قابلیت اطمینان شرکتی مانند مایکروسافت صحبت کند یا آن را برای هر سازمان بزرگ فناوری اعمال کند.
از دست دادن قراردادهای شرکتی
شرکتهای انتفاعی از همه نوع میتوانند تحت تأثیر مواد AI جعلی عمیق قرار بگیرند. به عنوان مثال، تولید اطلاعات نادرست میتواند باعث پرسشها یا از بین رفتن قراردادها در سراسر جهان شود، یا نگرانیهای اجتماعی یا واکنشهایی را به یک سازمان برانگیزد که میتواند به چشمانداز آنها آسیب برساند.
خطرات امنیتی فیزیکی
دیپفیکهای هوش مصنوعی میتوانند بعد جدیدی به خطر اصلی اختلال در کسبوکار اضافه کنند. برای مثال، اطلاعات نادرست ناشی از هوش مصنوعی میتواند باعث شورش یا حتی ادراک شورش شود، یا باعث ایجاد خطر برای افراد یا عملیات یا صرفاً درک خطر شود.
تاثیر بر برند و شهرت
Forrester فهرستی از کلاهبرداری های عمیق جعلی بالقوه را منتشر می کند. اینها شامل خطراتی برای شهرت و نام تجاری یا تجربه کارکنان و منابع انسانی سازمان است. یکی از ریسکها تقویت بود، که در آن از دیپفیکهای هوش مصنوعی برای انتشار سایر دیپفیکهای هوش مصنوعی استفاده میشود و مخاطبان بیشتری را به دست میآورند.
اثرات مالی
خطرات مالی شامل امکان استفاده از AI عمیق برای دستکاری قیمت سهام و خطر تقلب مالی است. اخیراً، یکی از افسران مالی یک شرکت چند ملیتی در هنگ کنگ فریب خورد و به مجرمان 25 میلیون دلار آمریکا (40 میلیون دلار استرالیا) پرداخت کرد، زیرا آنها از یک دیپ جعلی پیشرفته هوش مصنوعی برای معرفی به عنوان مدیر ارشد مالی شرکت در یک تماس ویدیویی کنفرانسی استفاده کردند.
قضاوت فردی یک تصمیم عمیقا نادرست برای سازمان ها نیست
مشکل بزرگ سازمانها در منطقه آسیا و اقیانوسیه این است که تشخیص تقلبی عمیق با هوش مصنوعی برای همه دشوار است. از آنجایی که تنظیمکنندهها و پلتفرمهای فناوری خود را با رشد هوش مصنوعی تطبیق میدهند، بسیاری از مسئولیتها بر عهده خود کاربران است که تقلبیهای عمیق را شناسایی کنند، نه واسطهها.
این می تواند ببیند که چگونه باورهای افراد و جمعیت بر سازمان ها تأثیر می گذارد. از مردم خواسته می شود در زمان واقعی تصمیم بگیرند که آیا یک داستان آسیب رسان در مورد یک نام تجاری یا یک کارمند ممکن است درست یا نادرست باشد در محیطی که ممکن است شامل اطلاعات نادرست رسانه ها و رسانه های اجتماعی باشد.
تک تک کاربران برای مرتب کردن واقعیت از داستان مجهز نیستند
هوبر گفت که انتظار از مردم برای تشخیص اینکه چه چیزی یک جعلی عمیق تولید شده توسط هوش مصنوعی است و چه چیزی نیست، “مشکلاتی” است. او استدلال میکند که در حال حاضر تشخیص تقلبیهای عمیق هوش مصنوعی حتی برای متخصصان فناوری دشوار است و افرادی که تجربه کمی در شناسایی تقلبیهای هوش مصنوعی عمیق دارند، با مشکل مواجه خواهند شد.
“مثل این است که بگوییم، “ما همه را آموزش خواهیم داد تا امنیت سایبری را درک کنند.” اکنون ACSC (مرکز امنیت سایبری استرالیا) راهنماییهای امنیتی سایبری بسیار خوبی دارد، اما چه کسی واقعاً آن را میخواند به غیر از افرادی که واقعاً اینطور هستند. در فضای امنیت سایبری؟» از او پرسید.
اعتیاد نیز یک عامل است. «اگر به مطالبی نگاه میکنید که برایتان مهم است، یک تعصب با خود دارید. شما کمتر روی تفاوت های ظریف حرکات یا ژست ها یا سه بعدی بودن تصویر تمرکز می کنید. اگر محتوایی است که به آن علاقه دارید، از آن حواس پراکنده استفاده نمیکنید و به دنبال ناهنجاریها نمیگردید.”
ابزارهای تشخیص دیپ فیک هوش مصنوعی در حال بازی کردن هستند
شرکتهای فناوری در تلاش هستند تا ابزارهایی برای مقابله با افزایش دیپفیکهای هوش مصنوعی فراهم کنند. به عنوان مثال، ابزار Real-time FakeCatcher اینتل برای شناسایی تقلبیهای عمیق با ارزیابی انسانها در ویدیوهای جریان خون با استفاده از پیکسلهای ویدئویی، شناسایی تقلبیها از طریق «آنچه ما را انسان میسازد» طراحی شده است.
هوبر گفت که قابلیتهای ابزارهایی برای شناسایی و شناسایی دیپفیکهای هوش مصنوعی همچنان در حال ظهور است. او پس از بررسی برخی ابزارهای موجود در بازار، گفت که در حال حاضر چیزی که به طور خاص توصیه کند ندارد زیرا “فضا خیلی سریع در حال حرکت است.”
چه چیزی به سازمانها در مقابله با خطرات دروغین عمیق هوش مصنوعی کمک میکند؟
هوبر گفت که ظهور دیپفیکهای هوش مصنوعی احتمالاً منجر به بازی «گربه و موش» بین بازیگران مخربی که دیپفیک تولید میکنند و کسانی که سعی در شناسایی و خنثی کردن آنها دارند، میشود. به همین دلیل، ابزارها و قابلیتهایی که از شناسایی دیپفیکهای هوش مصنوعی پشتیبانی میکنند، احتمالاً به سرعت تغییر میکنند، زیرا «مسابقه تسلیحاتی» یک جنگ واقعی را ایجاد میکند.
برخی از سازمان های حفاظتی وجود دارند که ممکن است آنها را در اختیار داشته باشند.
شکل گیری هنجارهای نظارتی بین المللی برای هوش مصنوعی
استرالیا یکی از حوزه های قضایی است که در حال بررسی تنظیم محتوای هوش مصنوعی از طریق اقداماتی مانند واترمارکینگ است. همانطور که سایر حوزه های قضایی در سراسر جهان به سمت اجماع در مورد حکمرانی هوش مصنوعی حرکت می کنند، احتمالاً روی رویکردهای بهترین عملکرد برای کمک به شناسایی بهتر محتوای هوش مصنوعی همگرایی وجود دارد.
هوبر گفت که اگرچه این بسیار مهم است، اما دستههایی از بازیگران وجود دارند که از هنجارهای بینالمللی پیروی نمیکنند. “باید درک ضمنی وجود داشته باشد که صرف نظر از اینکه چه مقرراتی وضع کنیم یا چگونه سعی کنیم آن را به حداقل برسانیم، همچنان افرادی هستند که این کار را انجام خواهند داد.”
دیدن: خلاصه قوانین جدید اتحادیه اروپا بر هوش مصنوعی
پلتفرمهای فناوری اصلی که دیپفیکهای هوش مصنوعی را شناسایی میکنند
یک گام کلیدی برای رسانههای اجتماعی و پلتفرمهای فناوری بزرگ مانند متا و گوگل برای مبارزه بهتر با محتوای جعلی عمیق هوش مصنوعی و شناسایی واضحتر آن برای کاربران پلتفرمهایشان است. به عهده گرفتن بیشتر این مسئولیت به این معنی است که کاربران نهایی غیرمتخصص مانند سازمانها، کارمندان و عموم مردم کار کمتری برای شناسایی عمیق بودن چیزی دارند.
هوبر گفت که به تیم های فناوری اطلاعات نیز کمک خواهد کرد. وجود پلتفرمهای فناوری اصلی که در قسمت جلویی دیپفیکهای هوش مصنوعی را شناسایی میکند و کاربران را با اطلاعات یا ابزارهای بیشتر مسلح میکند، این وظیفه را از سازمانها دور میکند. برای پرداخت و مدیریت ابزارهای تشخیص جعلی و تخصیص منابع امنیتی برای مدیریت آنها، سرمایه گذاری کمتری در فناوری اطلاعات مورد نیاز خواهد بود.
افزودن دیپ فیک های هوش مصنوعی به ارزیابی ریسک
سازمانها در منطقه آسیا و اقیانوسیه ممکن است به زودی نیاز داشته باشند که خطرات مرتبط با دیپفیکهای هوش مصنوعی را بخشی از رویههای ارزیابی ریسک منظم کنند. به عنوان مثال، هوبر گفت که سازمانها ممکن است در کنترل و محافظت از محتوایی که سازمانها در داخل و خارج تولید میکنند، و همچنین مستندسازی این اقدامات برای اشخاص ثالث، بسیار فعالتر باشند.
«بیشتر شرکتهای امنیتی بالغ ارزیابیهای ریسک شخص ثالث را از فروشندگان انجام میدهند. او میگوید: «من هرگز سؤالی درباره نحوه محافظت از محتوای دیجیتال خود ندیدهام. هوبر انتظار دارد که ارزیابیهای ریسک شخص ثالث که توسط شرکتهای فناوری انجام میشود به زودی نیاز به سوالاتی در رابطه با به حداقل رساندن خطرات ناشی از دیپ فیک داشته باشد.