هوش مصنوعی و انواع آن-4

مخاطرات و تهدیدات امنیتی چت بات ها و مدل های دستیار مبتنی هوش مصنوعی

0

هوش مصنوعی و انواع آن-4

مخاطرات و تهدیدات امنیتی چت بات ها

و مدل های دستیار مبتنی هوش مصنوعی

 قسمت قبل… 

مسائل‌ امنیتی

برای اطمینان از حریم خصوصی و امنیت کاربر، پنج نوع داده کلیدی که نباید با چت‌بات‌ هوش مصنوعی به اشتراک گذاشته شود:

  1. جزئیات مالی؛
  2. افکار شخصی و خصوصی؛
  3. رمزهای عبور در چت بات هوش مصنوعی؛
  4. جزئیات محل سکونت؛
  5. اطلاعات شخصی:
  • شماره ‌ملی‌، آدرس‌ منزل‌، شماره‌ تلفن؛
  • اطلاعات ‌پزشکی ‌و‌ سوابق ‌درمانی؛
  • اطلاعات‌ مالی ‌و ‌بانکی
  • شماره‌ کارت‌های ‌اعتباری؛
  • رمزهای‌ عبور‌بانکی ‌و‌ اطلاعات ‌حساب؛

 اطلاعات ‌محرمانه ‌سازمانی ‌و ‌کاری:

  • اسناد‌ محرمانه ‌شرکت‌ها؛
  • کدهای ‌پروژه‌های ‌نرم‌افزاری؛
  • اطلاعات‌ ورود‌(لاگین) در ‌سامانه‌های ‌داخلی؛

اطلاعات‌امنیتی:

  • رمزهای‌عبور‌شخصی؛
  • کلیدهای API و ‌توکن‌های‌ دسترسی؛

 مکالمات‌ حساس ‌سیاسی ‌یا‌ امنیتی:

انتقادات ‌سیاسی ‌که ‌ممکن‌ است ‌توسط‌ نهادهای‌ نظارتی‌ رصد‌ شود؛

چت‌بات‌هایی‌ مانند ChatGPT و‌Gemini  گوگل ‌بسیار ‌محبوب‌ هستند؛ ‌زیرا‌ می‌توانند ‌پاسخ‌های ‌شبیه‌ به‌ انسان ‌تولید ‌کنند؛ وابستگی‌ آن‌ها ‌به ‌مدل‌های ‌زبان ‌بزرگ‌ یا LLM با‌ خطرات‌ حریم ‌خصوصی ‌و‌ امنیتی ‌همراه‌ است؛

 آسیب‌پذیری‌ها:

اطلاعات‌ شخصی ‌در‌حین‌ تعامل ‌به‌ اشتراک‌ گذاشته‌ می‌شود ‌و‌ در‌ معرض ‌سو‌استفاده ‌قرار‌ می‌گیرد؛

شیوه‌های‌جمع‌آوری‌داده:

چت‌بات‌های‌ هوش‌مصنوعی ‌از ‌داده‌های‌ آموزشی‌ وسیعی ‌استفاده‌ می‌کنند ‌که‌ ممکن‌ است‌ تعاملات‌ کاربران‌ را‌ در ‌بر‌بگیرد؛

شرکت‌هایی ‌مانند OpenAI به ‌کاربران ‌این ‌امکان ‌را‌ می‌دهند‌ که‌ از ‌جمع‌آوری‌ داده‌ها‌ انصراف ‌دهند‌، اما‌ تضمین‌ کامل‌ حریم‌ خصوصی‌ چالش‌ برانگیز‌ است؛

آسیب‌پذیری‌های‌سرور:

داده‌های ‌ذخیره‌‌ شده‌ کاربران‌ مستعد‌ حملات‌ هکری‌ هستند؛

مجرمان‌ سایبری‌ ممکن‌ است ‌این ‌اطلاعات‌ را ‌سرقت‌ و ‌برای ‌اهداف ‌مخرب ‌از ‌آن‌ها ‌سو‌استفاده‌ کنند

دسترسی ‌شخص‌ثالث:

داده‌های ‌تعامل ‌کاربران‌ با‌ چت‌بات‌ هوش‌مصنوعی ‌احتمالا‌ با ‌ارائه ‌دهندگان‌ خدمات ‌شخص ‌ثالث‌ به‌ اشتراک ‌گذاشته ‌می‌شود؛

پرسنل ‌مجاز ‌امکان ‌دسترسی ‌به ‌آن‌ها‌ را ‌پیدا‌ می‌کنند؛  و این ‌امر ‌خطر ‌نقض ‌حریم‌خصوصی‌ را‌ افزایش ‌می‌دهد؛

عدم ‌استفاده ‌تبلیغاتی:

در‌حالی که ‌شرکت‌ها‌ ادعا ‌می‌کنند ‌داده‌ها ‌را‌ برای ‌مقاصد ‌بازاریابی ‌نمی‌فروشند‌، این‌ داده‌ها ‌برای‌ نگهداری‌ سیستم ‌و‌ اهداف‌ عملیاتی ‌به‌ اشتراک ‌گذاشته‌ می‌شود؛

  نگرانی‌های ‌مربوط‌ به‌ هوش‌مصنوعی‌ مولد:

üمنتقدان ‌بر‌این ‌باورند ‌که‌ پذیرش ‌روز افزون‌ هوش‌مصنوعی‌ مولد ‌ممکن‌ است ‌خطرات‌ امنیتی ‌و ‌حریم‌خصوصی ‌را‌ تشدید ‌کند.

مشکلات‌ امنیتی ‌استفاده‌ از‌ چت‌بات‌ها ‌و‌ مدل‌های ‌هوش‌مصنوعی مولد

1(‌ ذخیره‌ و ‌پردازش‌ داده‌های‌ کاربران

بسیاری‌ از‌ چت‌بات‌ها‌ برای‌ بهبود‌ عملکرد ‌خود‌، داده‌های‌ کاربران ‌را‌ ذخیره‌ و ‌تحلیل‌ می‌کنند؛

افشای‌اطلاعات‌محرمانه:

اگر ‌کاربر ‌اطلاعات‌ شخصی ‌یا ‌سازمانی‌ را‌ با‌ چت‌بات ‌به‌ اشتراک ‌بگذارد‌، ممکن‌است ‌این‌ داده‌ها‌ در‌ سرورهای آن‌ شرکت ‌ذخیره‌ شود‌ و ‌در ‌آینده ‌مورد‌ سوءاستفاده ‌قرار ‌گیرد.

 دسترسی‌اشخاص‌ثالث:

برخی ‌از ‌شرکت‌ها‌ ممکن‌ است ‌داده‌های‌ کاربران‌ را‌ به‌ اشخاص ‌ثالث‌ بفروشند ‌یا‌ در‌ صورت ‌نقض ‌امنیتی‌، این‌ اطلاعات ‌در‌اختیار‌ هکرها‌ قرار ‌گیرد.

 

2‌( خطر ‌فیشینگ‌ و ‌مهندسی ‌اجتماعی

چت‌بات‌های ‌مخرب‌ یا‌ حتی‌ قانونی ‌که ‌توسط‌ هکرها‌ دستکاری‌ شده‌اند‌، می‌توانند ‌برای‌ فریب ‌کاربران‌ و ‌سرقت ‌اطلاعات‌ حساس‌ استفاده‌ شوند؛

  جعل‌ هویت:

یک‌ چت‌بات‌ وانمود‌ می‌کند ‌که ‌از‌ طرف‌ بانک ‌یا‌ یک ‌سازمان ‌معتبر‌ است ‌و‌ از‌کاربر ‌درخواست‌ اطلاعات‌ حساب ‌بانکی‌ یا‌ رمز‌عبور‌ کند.

ارسال‌ لینک‌های ‌مخرب:

برخی ‌چت‌بات‌ها ‌لینک‌های‌ آلوده ‌به ‌بدافزار‌ را‌ ارائه‌ می دهند‌ که ‌منجر ‌به‌ نصب‌ نرم ‌افزارهای ‌جاسوسی‌شود

 

3( نقض‌ حریم‌خصوصی:

‌ در ‌برخی ‌کشورها‌، دولت‌ها‌ ممکن‌ است‌ از‌ چت‌بات‌ها‌ برای‌ نظارت‌ بر‌کاربران‌ استفاده‌ کنند؛  ارسال ‌اطلاعات‌ حساس‌ سیاسی ‌یا‌ انتقادی ‌در‌ چت‌بات‌ها‌ می‌تواند ‌منجر‌به‌ شناسایی ‌و ‌پیگرد ‌قانونی‌ شود؛

 

 4‌( سوءاستفاده ‌از‌ کدها‌ و‌ اسکریپت‌های ‌تولید شده:

چت‌بات‌های‌ هوش‌مصنوعی‌ می‌توانند ‌کدهای‌ برنامه‌ نویسی ‌تولید‌ کنند‌، اما‌ این‌ کدها‌ ممکن‌ است ‌دارای ‌آسیب‌پذیری‌های‌ امنیتی ‌باشند؛

استفاده‌ از‌ چنین‌ کدهایی ‌بدون ‌بررسی ‌دقیق ‌می‌تواند‌ سامانه‌ها‌ را‌ در ‌معرض‌ حملات ‌سایبری قرار ‌دهد؛

درباره ‌کدهایی ‌که ‌یک ‌چت‌بات ‌هوش‌مصنوعی ‌می‌نویسد ‌یک ‌باور‌ نادرست‌ وجود‌ دارد‌، کاربران ‌فکر ‌می‌کنند ‌این‌ کدها ‌کاملا ‌ًدرست‌، ایمن‌ و‌  بی‌نقص‌ هستند‌. این ‌کدها‌ باید ‌توسط ‌توسعه‌ دهنده‌ با تجربه ‌بررسی‌ و‌ اصلاح‌ شوند؛

تهدیدات امنیتی

الف(نشت داده و حریم خصوصی

  • ذخیره ‌سازی پیام‌ها در سرورهای ابری یا پایگاه داده بدون رمزنگاری مناسب، منجر به نشت داده‌های حساس می‌شود
  • امکان استخراج اطلاعات خصوصی کاربران توسط افراد غیرمجاز یا هکرها از طریق حملات سایبری
  • اگر چت‌بات به داده‌های ایمیل، شماره تلفن، سوابق پزشکی یا داده‌های شغلی دسترسی دارد، در صورت آسیب‌پذیری می‌تواند ریسک GDPR و قوانین حفاظت داده‌ها ایجاد کند

ب( حملات تزریق دستور

  • ( Attacks Injection Command) کاربران یا مهاجمان می‌توانند دستورات مخرب وارد کنند تا چت‌بات خروجی ناخواسته، اطلاعات حساس، یا دستورات سیستمی اجرا کند
  • امکان تغییر رفتار چت‌بات برای انجام اقدامات خارج از محدوده وظایف از طریق Injection Prompt Indirect

   ج( حملات مهندسی اجتماعی

  • مهاجم می‌تواند با تعامل هدفمند با چت‌بات، اطلاعات داخلی سیستم یا داده‌های سایر کاربران را استخراج کند
  • استفاده از چت‌بات برای فیشینگ و متقاعد کردن کاربران به کلیک روی لینک‌های آلوده

د( آسیب‌پذیری در یکپارچگی با API ها

اگر چت‌بات به API های مالی یا عملیاتی متصل باشد، امکان سوءاستفاده و ارسال درخواست‌های غیرمجاز به این سرویس‌ها وجود دارد

 

تهدیدات اخلاقی و اجتماعی

 الف(تولید محتوای نادرست یا گمراه ‌کننده

  • امکان تولید پاسخ‌های نادرست یا ناقص که کاربران را به تصمیم‌گیری غلط سوق دهد
  • خطر انتشار اطلاعات جعلی یا تحریف‌شده در صورت استفاده به عنوان منبع پاسخ‌دهی

ب(تولید محتوای نامناسب

در صورت عدم فیلترگذاری، چت‌بات ممکن است پاسخ‌های حاوی توهین، تبعیض، یا مطالب غیراخلاقی ارائه کند

ج(نقض مالکیت فکری

ü احتمال تولید پاسخ‌هایی که حاوی محتوای دارای کپی‌رایت یا مالکیت معنوی دیگران باشد

 

تهدیدات عملیاتی و فنی

   الف( هزینه‌های پردازش و حملات

  • (DoS )Denial of Service اگر چت‌بات بدون محدودیت به API های پردازشی مدل‌های سنگین متصل باشد، می‌تواند هدف حملات ارسال درخواست‌های مکرر (Flooding) قرار گیرد و منابع سیستم را مصرف کند.
  • امکان افزایش هزینه‌های پردازش ابری بدون کنترل

ب( خرابی‌های مدل (Failure Model)

  • در برخی سناریوها مدل زبانی، ممکن است نتواند پاسخ مناسبی تولید کند و کاربران را دچار سردرگمی کند
  • به ‌روزرسانی مدل بدون آزمون می‌تواند به خرابی در جریان‌های کاری متصل به چت‌بات منجر شود

ج(مشکلات سازگاری و به‌روزرسانی

چت‌بات‌هایی که به API های خارجی متکی هستند، در صورت تغییر نسخه API یا تغییر در ساختار پاسخ‌ها، ممکن است از کار بیفتند.

 

تهدیدات مربوط به بایاس یا سوگیری

  • Bias)) مدل‌های زبانی ممکن است دارای بایاس‌های نژادی، جنسیتی یا فرهنگی باشند که به پاسخ‌های تبعیض‌آمیز منجر می‌شود.
  • تقویت بایاس‌ها در پاسخ‌ها ممکن است آسیب اعتباری به سازمان وارد کند.

 

تهدیدات حقوقی و تطبیق با قوانین

  • عدم رعایت قوانین حفاظت از داده مانند GDPR، قانون حفاظت از داده‌های سلامت HIPAA ممکن است منجر به جرایم حقوقی و جریمه‌های مالی سنگین شود
  • ایجاد ریسک‌های حقوقی و ادعاهای قضایی در استفاده از چت‌بات در حوزه‌های حساس )پزشکی، حقوقی( بدون نظارت انسانی؛

تهدیدات مربوط به اعتماد کاربران  چت‌بات‌های دستیار اگر پاسخ‌های بی‌کیفیت، ناهماهنگ یا اشتباه بدهند، اعتماد کاربران به سازمان کاهش می‌یابد و اگر کاربر تصور کند پاسخ اشتباه چت‌بات، دیدگاه رسمی سازمان است امکان سوءاستفاده از شخصیت و برند سازمانوجود خواهد داشت.

 جدول تحلیل ریسک و سطح شدت هر تهدید برای مدیریت ریسک سازمانی برای چت بات دستیار هوش مصنوعی

  جمع‌بندی؛

  • راهکارهای کاهش ریسک، مخاطرات و تهدیدات:
  • استفاده از رمزنگاری داده‌ها در API RESTful و دیتابیس؛
  • تعریف محدودیت نرخ (Limit Rate )برای جلوگیری از سوءاستفاده؛
  • پیاده‌سازی فیلترهای محتوایی و بررسی اخلاقی پاسخ‌ها؛
  • استفاده از Shielding Prompt و دستورهای محافظ برای جلوگیری از تزریق دستور؛
  • تست مداوم مدل و به‌روزرسانی کنترل‌شده؛
  • اطلاع‌رسانی به کاربران در مورد حدود پاسخگویی چت‌بات و استفاده از سلب مسئولیت؛
  • رعایت کامل قوانین GDPR، HIPAA و سایر قوانین مرتبط؛
  • مانیتورینگ مداوم الگو‌ها برای کشف رفتارهای غیرمعمول؛
  • افزایش امنیت و کنترل داده ها، و فراهم کردن سرعت پردازش، هزینه های عملیاتی، و انعطاف پذیری بیشتر؛
  • درحالی که بسیاری از دستیارهای متنی وابسته به سرورهای ابری هستند، مدل های لوکال روی سیستم داخلی سازمان یک گزینه قدرتمند برای سازمان ها و کاربران حساس به امنیت و حریم خصوصی ارائه می دهند؛

 

ادامه دارد…

 

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.