تنها KYC کافی نیست

اثبات، مدافع واقعیت درباره تهدید تقلب مبتنی بر هوش مصنوعی

0

تنها KYC کافی نیست

اثبات، مدافع واقعیت درباره تهدید تقلب مبتنی بر هوش مصنوعی

رواج روزافزون هوش مصنوعی مولد پتانسیل مثبتی را در صنایع مختلف باز کرده است، اما همچنین چالش‌هایی را به ویژه در زمینه تقلب هویتی و اعتماد به تراکنش‌های دیجیتال تشدید کرده است. رهبران صنعت از شرکت‌های Proof و Reality Defender درباره تغییرات در نحوه انجام تقلب‌های مبتنی بر هوش مصنوعی و تدابیر لازم برای مقابله با تهدیدات جدید بحث کردند.

کلی پیدیرسکی، معاون مشاوره راه‌حل‌ها در Proof، سفر این شرکت را از ریشه‌هایش به عنوان Notarize تا تبدیل شدن به یک پلتفرم متمرکز بر تأمین امنیت تعاملات دیجیتال با ارزش بالا مورد تاکید قرار داد.

او گفت: “ما به عنوان اولین شرکتی که تأییدات قانونی را به صورت آنلاین ارائه کرد، آغاز کردیم و از آن زمان واقعاً فرآیندهای سنتی مبتنی بر کاغذ را متحول کرده‌ایم و همه چیز در مورد تعیین یک استاندارد جدید برای تعاملات دیجیتال است.” پیدیرسکی ادامه می‌دهد: “امروز، این موضوع خیلی بیشتر از فقط تأییدات آنلاین است، نه اینکه این موضوع اهمیت فوق‌العاده‌ای ندارد، این هنوز هم بنیاد است، اما اکنون ما در حال تبدیل شدن به این پلتفرم جامع و متمرکز بر هویت هستیم.”

شبکه تأیید هویت Proof هویت‌های واقعی تأیید شده را به اسناد دیجیتال به صورت رمزنگاری شده پیوند می‌دهد و هدف آن کاهش تقلب و اطمینان از رعایت قوانین است. با یک پایگاه مشتری که شامل بیش از ۷۰۰۰ سازمان، از جمله مؤسسات مالی، ارائه‌دهندگان خدمات بهداشتی و شرکت‌های املاک و مستغلات است، Proof اعتماد را در محیط‌های مجازی بازتعریف کرده است.

اجماع عمومی از سوی پنلیست‌ها این است که هوش مصنوعی مولد به طور قابل توجهی تکامل یافته است و ویدیوهای عمیق جعلی در زمان واقعی به عنوان مرز بعدی ظهور کرده‌اند. در حالی که محدودیت‌های قبلی، مانند خطا در زوایای صورت شدید یا اقداماتی مانند لمس مو، حتی شش ماه پیش مشهود بود، پیشرفت‌های اخیر این موانع را پشت سر گذاشته است. این پیشرفت به کلاهبرداران این امکان را می‌دهد که به طور قانع‌کننده‌ای افراد را در زمان واقعی تقلید کنند، که این کار نیاز به آموزش و منابع محاسباتی پیشرفته دارد.

پیدیرسکی اضافه می‌کند: “ظهور هوش مصنوعی مولد مسائل اعتماد هویتی را تشدید می‌کند” و به سادگی اشاره می‌کند که چگونه بازیگران بد می‌توانند از ابزارهای پیشرفته برای تقلید افراد و تضعیف پروتکل‌های KYC (شناسایی مشتری) استفاده کنند. او هشدار می‌دهد: “تنها KYC کافی نیست” و به یک زیان سالانه ۸۱ میلیارد دلاری ناشی از تقلب‌های مرتبط با هویت اشاره می‌کند.

تنها KYC کافی نیست

مبارزه با تهدیدات عمیق جعلی

میسون آلن، رئیس فروش در Reality Defender به افزایش پیچیدگی فناوری عمیق جعلی اشاره می‌کند که از تقلیدهای دیجیتال خام به دستکاری‌های فوق‌العاده واقعی تبدیل شده است که قادر به تضعیف سیستم‌های سازمانی و دولتی هستند. Reality Defender، یک شرکت امنیت سایبری مستقر در نیویورک، از رویکردهای چندمدلی برای شناسایی سیگنال‌های رسانه‌های مصنوعی در زمان واقعی استفاده می‌کند و دفاع‌هایی در برابر فعالیت‌های کلاهبرداری ارائه می‌دهد. این شرکت در ماه گذشته ۳۳ میلیون دلار در یک دور تأمین مالی سری A خود به دست آورد و مدل‌های تشخیص هوش مصنوعی آن، که بر روی مجموعه داده‌های گسترده آموزش دیده‌اند، امکان شناسایی در زمان واقعی جعل‌های عمیق جعلی را در لحظات بحرانی تأیید هویت کاربر فراهم می‌کند.

آلن می‌گوید: “عمیق جعلی‌ها نسل بعدی یک بازی موش و گربه شبیه به نرم‌افزارهای ضد ویروس هستند” و توضیح می‌دهد که چگونه Reality Defender به طور مداوم با تکنیک‌های جدید عمیق جعلی سازگار می‌شود. او به مقیاس نگران‌کننده این مشکل اشاره می‌کند و به پیش‌بینی Deloitte اشاره می‌کند که تقلب‌های مبتنی بر هوش مصنوعی مولد می‌تواند تا سال ۲۰۲۷ به یک چالش سالانه ۴۰ میلیارد دلاری تبدیل شود.

در زمینه‌های مالی، تماس‌های ویدیویی زمان واقعی اغلب برای فرآیندهای KYC و تراکنش‌های با ارزش بالا استفاده می‌شوند. با این حال، کلاهبرداران شروع به بهره‌برداری از این مکانیزم‌ها کرده‌اند. به عنوان مثال، یک کلاهبرداری عمیق جعلی در اوایل امسال شامل تقلید از یک مدیر مالی ارشد و دو معاون او در یک تماس زنده زوم بود که منجر به سرقت ۲۵ میلیون دلار شد. چنین حوادثی آسیب‌پذیری‌های سیستم‌های تأیید هویت موجود را برجسته می‌کند.

خطرات فراتر از جرایم مالی می‌روند. فناوری عمیق جعلی برای تقلید از مدیران عامل در کلاهبرداری‌ها و کمپین‌های اطلاعات نادرست استفاده شده است و از داده‌های صوتی و تصویری عمومی در دسترس مدیران اجرایی بهره‌برداری کرده است. حتی شخصیت‌های برجسته‌ای مانند سناتور بن کاردین از ایالت متحده نیز قربانی عمیق جعلی‌ها شده‌اند، با یک حادثه اخیر که شامل یک تعامل جعل شده با یک مقام اوکراینی ادعایی بود.

پلتفرم‌های هوش مصنوعی مولد مانند Runway و ChatGPT به سرعت پیشرفت کرده‌اند و تمایز بین رسانه‌های واقعی و مصنوعی را به طور فزاینده‌ای دشوار کرده‌اند. آلن این موضوع را با مثال‌هایی از پیشرفت‌های فناوری تولید ویدیو توضیح می‌دهد و به نحوی اشاره می‌کند که عمیق جعلی‌ها به حدی تکامل یافته‌اند که از محتوای واقعی غیرقابل تشخیص هستند. در حالی که این ابزارها خلاقیت و کارایی را افزایش می‌دهند، همچنین به بازیگران بد این امکان را می‌دهند که حملات مهندسی اجتماعی و تقلب‌های مالی را با حداقل تخصص فنی گسترش دهند.

تنها KYC کافی نیست

فراخوان به اقدام 

سخنرانان فراخوان به اقدام را به اشتراک گذاشتند: ارزیابی مجدد سیستم‌های تأیید هویت دیجیتال برای رسیدگی به آسیب‌پذیری‌هایی که توسط هوش مصنوعی مولد آشکار شده است. پیدهیرسکی بر اهمیت تأیید “شخص زنده و حاضر” پشت مدارک تأکید می‌کند، در حالی که آلن بر نیاز شرکت‌ها به اتخاذ تدابیر پیشگیرانه در شناسایی و کاهش خطرات دیپ‌فیک تأکید دارد.

پیدهیرسکی هشدار می‌دهد: “هوش مصنوعی مولد تنها یک مشکل آینده نیست، بلکه یک واقعیت حال حاضر است.” وبینار به همکاری بیشتر بین ارائه‌دهندگان فناوری و ذینفعان برای تأمین امنیت تعاملات دیجیتال در برابر تهدیدات روزافزون پیچیده‌تر تأکید می‌کند.

Proof، Entrust و TransUnion نیز در حال معرفی ابزارهایی برای رسیدگی به خطرات تقلب هستند. به عنوان مثال، Entrust یک سرویس تأیید هویت مبتنی بر ابر راه‌اندازی کرده است که از بررسی‌های بیومتریک پشتیبانی می‌کند، در حالی که TransUnion بر روی بینش‌های تقلبی ناشی از تحلیل‌های رفتاری تمرکز دارد. علاوه بر این، دفاع دیپ‌فیک Verify Proof هدفش کاهش خطر فعالیت‌های تقلبی مانند دیپ‌فیک‌ها با اطمینان از مشروع بودن کاربران است.

پلتفرم Verify Proof در حال حاضر به بیش از ۷۰۰۰ سازمان، از جمله مؤسسات مالی، ارائه‌دهندگان خدمات بهداشتی، کسب‌وکارهای کوچک و نهادهای دولتی خدمت می‌کند.

این کارشناسان همچنین بر نظارت مداوم و ارزیابی ریسک دینامیک به عنوان استراتژی‌های کلیدی تأکید می‌کنند. فناوری‌هایی که هویت را از طریق ویدئو، صدا و الگوهای رفتاری در زمان واقعی تأیید می‌کنند می‌توانند به جلوگیری از حملات کمک کنند در حالی که سهولت استفاده برای کاربران واقعی را حفظ می‌کنند.

با در دسترس‌تر شدن فناوری دیپ‌فیک، احتمال سوءاستفاده به احتمال زیاد افزایش خواهد یافت.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.