تشخیص دیپفیک با رویکرد چند سیگنالی در حال پیشرفت است
تلاشهای تقلبی که با استفاده از دیپفیکها انجام میشود، به عنوان بخشی از چشمانداز امنیت آنلاین تثبیت شدهاند و سازمانها به تشخیص حملات ارائه و تشخیص حملات تزریق روی آوردهاند تا در برابر تقلبها در سیستمهای بیومتریک چهره یا صدا مقابله کنند. آنها همچنین به طور فزایندهای از ابزارهای تحلیل بیومتریک چندوجهی و سیگنالها استفاده میکنند.
Reality Defender یک وبینار برگزار کرد تا دیدگاه خود را درباره “حفاظت از مراکز تماس در برابر تقلب صوتی مبتنی بر هوش مصنوعی” ارائه دهد. بنیانگذار و مدیر عامل بن کولمن و رئیس محصول دیانا هسیا توضیح دادند که چگونه این شرکت از تشخیص بلادرنگ و تأیید هویت چندعاملی استفاده میکند.
کولمن اشاره کرد که صدا مدالیتهای است که بیشتر با هوش مصنوعی تولیدی تقلب میشود و مثالهای واقعی از دیپفیکهای صوتی را ارائه داد. این شرکت دریافته است که از ۱۰,۰۰۰ تماس در روز که برای یک مشتری بانک سطح یک انجام میشود، ۰.۱۷ درصد دیپفیک هستند.
گاب ریگان، معاون تعامل انسانی Reality Defender، در یک پست وبلاگی شرکت مینویسد که حرکت به سمت تشخیص دیپفیک چندوجهی و بلادرنگ نشاندهنده یک تغییر استراتژیک در رویکردهای سازمانها به تشخیص رسانههای مصنوعی است.
ریگان اشاره میکند که گزارش اخیر تقلب هویتی Entrust نشان میدهد که حملات دیپفیک به سیستمهای بیومتریک بخشی از ۴۰ درصد تلاشهای تقلب هویتی هستند.
تشخیص دیپفیک با رویکرد چند سیگنالی در حال پیشرفت است
روش جدید چند سیگنالی برای لیستهای نظارتی از داون
داون برای روشی که به ساخت لیستهای نظارتی بهتر برای صدای دیپفیک کمک میکند، یک پتنت دریافت کرده است.
پتنت “روشها و سیستمها برای بهبود تشخیص دادههای تقلبی” هفته گذشته توسط سازمان پتنت و علامت تجاری ایالات متحده به داون اعطا شد و رالف رودریگز، مدیر ارشد محصول، به عنوان مخترع آن ذکر شده است.
بر اساس سند پتنت، لیستهای نظارتی صوتی فعلی در حال کاهش ارزش هستند، زیرا آنها تهدیدات شناخته شده برای سیستمهای بیومتریک را شناسایی میکنند، اما قادر به سازگاری با روشهای تقلب در حال تحول نیستند. آنها همچنین “به طور معمول قادر به تجزیه و تحلیل الگوهای رفتاری مرتبط با تعاملات صوتی نیستند و بنابراین نشانههایی که میتواند نشاندهنده فعالیت تقلبی باشد را شناسایی نمیکنند.”
سیستم بهبود تشخیص دادههای تقلبی که در پتنت توصیف شده، شامل یک مکانیزم امتیاز ریسک است که دادههای رفتاری، زمینهای و صوتی را دریافت میکند. دادهها برای ارزیابی کلی سطح ریسک تحلیل میشوند و امتیازهای ریسک بالا اقداماتی مانند بررسی یا تعلیق تراکنش را فعال میکنند. مانند Reality Defender، این تحلیل به صورت بلادرنگ برای شناسایی ناهنجاریهای مرتبط با گفتار مصنوعی انجام میشود.
رودریگز به بیومتریک آپدیت در یک ایمیل میگوید که داون قصد دارد این فناوری نوآورانه را در راهحل xDeTECH خود برای استقرارهای تولیدی در سال ۲۰۲۵ به کار گیرد.
تشخیص دیپفیک در پروژههای هوش مصنوعی هند
در هند، ابتکار MEITY (وزارت الکترونیک و فناوری اطلاعات) به نام IndiaAI یک فراخوان برای علاقهمندان و سازمانها منتشر کرده است تا مجموعهای از پروژههای توسعه را برای افزایش ایمنی و انصاف هوش مصنوعی هدایت کنند.
IndiaAI به دنبال ابزارهایی برای واترمارک یا برچسبگذاری محتوای تولید شده با هوش مصنوعی، انجام ارزیابیها و مدیریت ریسک هوش مصنوعی، تست استرس و تشخیص دیپفیک، همراه با چارچوبهایی برای هوش مصنوعی اخلاقی است.
ابزارهای تشخیص دیپفیک باید شناسایی و کاهش دیپفیکها را به صورت بلادرنگ انجام دهند.
درخواستها هماکنون تا ۹ ژانویه ۲۰۲۵ باز است و دستورالعملهای ارسال در اینجا در دسترس است.
افزایش اطلاعات نادرست و تقلبهای عمیق جعلی در یک مشاوره ۲۷ نوامبر از تیم پاسخ به حوادث رایانهای هند (CERT-In) شناسایی شده است. روزنامه هندوستان تایمز گزارش میدهد که این مشاوره پس از انتشار چندین کلیپ صوتی جعلی توسط حزب بهاراتیا جاناتا به رهبری رئیسجمهور مودی صادر شد.
تشخیص دیپفیک با رویکرد چند سیگنالی در حال پیشرفت است
تشخیص عمیق جعلی BioID جایزه گرفت
تکنولوژی تشخیص عمیق جعلی BioID برای عکسها و ویدئوها در نوامبر جایزه نهمین نوآوری دیجیتال مونیخ را دریافت کرد.
برنده جایزه از طریق رأیگیری زنده مخاطبان در طول این رویداد که تحت عنوان “بررسی واقعیت AI” برگزار شد، تعیین شد.
هو چانگ، مدیرعامل BioID میگوید: “با افزایش حملات عمیق جعلی و جعل هویت، حفاظت از هویتهای دیجیتال بیش از هر زمان دیگری حیاتی است.”
این شرکت نسخه جدیدی از نرمافزار تشخیص عمیق جعلی خود را که ویژگیهای صورت را برای نشانههای دستکاری تحلیل میکند، اوایل امسال راهاندازی کرد.
 
			 
				 
											