تنها KYC کافی نیست
اثبات، مدافع واقعیت درباره تهدید تقلب مبتنی بر هوش مصنوعی
رواج روزافزون هوش مصنوعی مولد پتانسیل مثبتی را در صنایع مختلف باز کرده است، اما همچنین چالشهایی را به ویژه در زمینه تقلب هویتی و اعتماد به تراکنشهای دیجیتال تشدید کرده است. رهبران صنعت از شرکتهای Proof و Reality Defender درباره تغییرات در نحوه انجام تقلبهای مبتنی بر هوش مصنوعی و تدابیر لازم برای مقابله با تهدیدات جدید بحث کردند.
کلی پیدیرسکی، معاون مشاوره راهحلها در Proof، سفر این شرکت را از ریشههایش به عنوان Notarize تا تبدیل شدن به یک پلتفرم متمرکز بر تأمین امنیت تعاملات دیجیتال با ارزش بالا مورد تاکید قرار داد.
او گفت: “ما به عنوان اولین شرکتی که تأییدات قانونی را به صورت آنلاین ارائه کرد، آغاز کردیم و از آن زمان واقعاً فرآیندهای سنتی مبتنی بر کاغذ را متحول کردهایم و همه چیز در مورد تعیین یک استاندارد جدید برای تعاملات دیجیتال است.” پیدیرسکی ادامه میدهد: “امروز، این موضوع خیلی بیشتر از فقط تأییدات آنلاین است، نه اینکه این موضوع اهمیت فوقالعادهای ندارد، این هنوز هم بنیاد است، اما اکنون ما در حال تبدیل شدن به این پلتفرم جامع و متمرکز بر هویت هستیم.”
شبکه تأیید هویت Proof هویتهای واقعی تأیید شده را به اسناد دیجیتال به صورت رمزنگاری شده پیوند میدهد و هدف آن کاهش تقلب و اطمینان از رعایت قوانین است. با یک پایگاه مشتری که شامل بیش از ۷۰۰۰ سازمان، از جمله مؤسسات مالی، ارائهدهندگان خدمات بهداشتی و شرکتهای املاک و مستغلات است، Proof اعتماد را در محیطهای مجازی بازتعریف کرده است.
اجماع عمومی از سوی پنلیستها این است که هوش مصنوعی مولد به طور قابل توجهی تکامل یافته است و ویدیوهای عمیق جعلی در زمان واقعی به عنوان مرز بعدی ظهور کردهاند. در حالی که محدودیتهای قبلی، مانند خطا در زوایای صورت شدید یا اقداماتی مانند لمس مو، حتی شش ماه پیش مشهود بود، پیشرفتهای اخیر این موانع را پشت سر گذاشته است. این پیشرفت به کلاهبرداران این امکان را میدهد که به طور قانعکنندهای افراد را در زمان واقعی تقلید کنند، که این کار نیاز به آموزش و منابع محاسباتی پیشرفته دارد.
پیدیرسکی اضافه میکند: “ظهور هوش مصنوعی مولد مسائل اعتماد هویتی را تشدید میکند” و به سادگی اشاره میکند که چگونه بازیگران بد میتوانند از ابزارهای پیشرفته برای تقلید افراد و تضعیف پروتکلهای KYC (شناسایی مشتری) استفاده کنند. او هشدار میدهد: “تنها KYC کافی نیست” و به یک زیان سالانه ۸۱ میلیارد دلاری ناشی از تقلبهای مرتبط با هویت اشاره میکند.
تنها KYC کافی نیست
مبارزه با تهدیدات عمیق جعلی
میسون آلن، رئیس فروش در Reality Defender به افزایش پیچیدگی فناوری عمیق جعلی اشاره میکند که از تقلیدهای دیجیتال خام به دستکاریهای فوقالعاده واقعی تبدیل شده است که قادر به تضعیف سیستمهای سازمانی و دولتی هستند. Reality Defender، یک شرکت امنیت سایبری مستقر در نیویورک، از رویکردهای چندمدلی برای شناسایی سیگنالهای رسانههای مصنوعی در زمان واقعی استفاده میکند و دفاعهایی در برابر فعالیتهای کلاهبرداری ارائه میدهد. این شرکت در ماه گذشته ۳۳ میلیون دلار در یک دور تأمین مالی سری A خود به دست آورد و مدلهای تشخیص هوش مصنوعی آن، که بر روی مجموعه دادههای گسترده آموزش دیدهاند، امکان شناسایی در زمان واقعی جعلهای عمیق جعلی را در لحظات بحرانی تأیید هویت کاربر فراهم میکند.
آلن میگوید: “عمیق جعلیها نسل بعدی یک بازی موش و گربه شبیه به نرمافزارهای ضد ویروس هستند” و توضیح میدهد که چگونه Reality Defender به طور مداوم با تکنیکهای جدید عمیق جعلی سازگار میشود. او به مقیاس نگرانکننده این مشکل اشاره میکند و به پیشبینی Deloitte اشاره میکند که تقلبهای مبتنی بر هوش مصنوعی مولد میتواند تا سال ۲۰۲۷ به یک چالش سالانه ۴۰ میلیارد دلاری تبدیل شود.
در زمینههای مالی، تماسهای ویدیویی زمان واقعی اغلب برای فرآیندهای KYC و تراکنشهای با ارزش بالا استفاده میشوند. با این حال، کلاهبرداران شروع به بهرهبرداری از این مکانیزمها کردهاند. به عنوان مثال، یک کلاهبرداری عمیق جعلی در اوایل امسال شامل تقلید از یک مدیر مالی ارشد و دو معاون او در یک تماس زنده زوم بود که منجر به سرقت ۲۵ میلیون دلار شد. چنین حوادثی آسیبپذیریهای سیستمهای تأیید هویت موجود را برجسته میکند.
خطرات فراتر از جرایم مالی میروند. فناوری عمیق جعلی برای تقلید از مدیران عامل در کلاهبرداریها و کمپینهای اطلاعات نادرست استفاده شده است و از دادههای صوتی و تصویری عمومی در دسترس مدیران اجرایی بهرهبرداری کرده است. حتی شخصیتهای برجستهای مانند سناتور بن کاردین از ایالت متحده نیز قربانی عمیق جعلیها شدهاند، با یک حادثه اخیر که شامل یک تعامل جعل شده با یک مقام اوکراینی ادعایی بود.
پلتفرمهای هوش مصنوعی مولد مانند Runway و ChatGPT به سرعت پیشرفت کردهاند و تمایز بین رسانههای واقعی و مصنوعی را به طور فزایندهای دشوار کردهاند. آلن این موضوع را با مثالهایی از پیشرفتهای فناوری تولید ویدیو توضیح میدهد و به نحوی اشاره میکند که عمیق جعلیها به حدی تکامل یافتهاند که از محتوای واقعی غیرقابل تشخیص هستند. در حالی که این ابزارها خلاقیت و کارایی را افزایش میدهند، همچنین به بازیگران بد این امکان را میدهند که حملات مهندسی اجتماعی و تقلبهای مالی را با حداقل تخصص فنی گسترش دهند.
تنها KYC کافی نیست
فراخوان به اقدام
سخنرانان فراخوان به اقدام را به اشتراک گذاشتند: ارزیابی مجدد سیستمهای تأیید هویت دیجیتال برای رسیدگی به آسیبپذیریهایی که توسط هوش مصنوعی مولد آشکار شده است. پیدهیرسکی بر اهمیت تأیید “شخص زنده و حاضر” پشت مدارک تأکید میکند، در حالی که آلن بر نیاز شرکتها به اتخاذ تدابیر پیشگیرانه در شناسایی و کاهش خطرات دیپفیک تأکید دارد.
پیدهیرسکی هشدار میدهد: “هوش مصنوعی مولد تنها یک مشکل آینده نیست، بلکه یک واقعیت حال حاضر است.” وبینار به همکاری بیشتر بین ارائهدهندگان فناوری و ذینفعان برای تأمین امنیت تعاملات دیجیتال در برابر تهدیدات روزافزون پیچیدهتر تأکید میکند.
Proof، Entrust و TransUnion نیز در حال معرفی ابزارهایی برای رسیدگی به خطرات تقلب هستند. به عنوان مثال، Entrust یک سرویس تأیید هویت مبتنی بر ابر راهاندازی کرده است که از بررسیهای بیومتریک پشتیبانی میکند، در حالی که TransUnion بر روی بینشهای تقلبی ناشی از تحلیلهای رفتاری تمرکز دارد. علاوه بر این، دفاع دیپفیک Verify Proof هدفش کاهش خطر فعالیتهای تقلبی مانند دیپفیکها با اطمینان از مشروع بودن کاربران است.
پلتفرم Verify Proof در حال حاضر به بیش از ۷۰۰۰ سازمان، از جمله مؤسسات مالی، ارائهدهندگان خدمات بهداشتی، کسبوکارهای کوچک و نهادهای دولتی خدمت میکند.
این کارشناسان همچنین بر نظارت مداوم و ارزیابی ریسک دینامیک به عنوان استراتژیهای کلیدی تأکید میکنند. فناوریهایی که هویت را از طریق ویدئو، صدا و الگوهای رفتاری در زمان واقعی تأیید میکنند میتوانند به جلوگیری از حملات کمک کنند در حالی که سهولت استفاده برای کاربران واقعی را حفظ میکنند.
با در دسترستر شدن فناوری دیپفیک، احتمال سوءاستفاده به احتمال زیاد افزایش خواهد یافت.