چشم‌ انداز حکمرانی جهانی دیجیتال و هوش مصنوعی در سال 2025

از سلسله مطالعات ژئواکونومی دیجیتال

0

چشم‌ انداز حکمرانی جهانی دیجیتال و هوش مصنوعی در سال 2025

از سلسله مطالعات ژئواکونومی دیجیتال

چشم‌ انداز حکمرانی جهانی دیجیتال و هوش مصنوعی در سال 2025

تمرکز بر اجرا سال ۲۰۲۵ سال تحول از مرحله مذاکرات به اجرا در حوزه حکمرانی هوش مصنوعی و فضای دیجیتال خواهد بود. پس از یک سال مذاکرات فشرده در سال ۲۰۲۴، اکنون نوبت به عملیاتی کردن توافق‌ها و قطعنامه‌ها رسیده است. و موضوع کلیدی در این سال مورد توجه قرار خواهد گرفت:

هماهنگی بین «پیمان جهانی دیجیتال» و چارچوب قدیمی‌تر «اجلاس جهانی جامعه اطلاعاتی» برای جلوگیری از تکرار و موازی‌ کاری، و دوم، عبور از اغراق‌ گویی‌ ها درباره ریسک‌ های هوش مصنوعی و تمرکز بر مدیریت ریسک‌ های واقعی.

در کنار این تحولات، مسیرهای جدیدی هم در حال شکل‌ گیری است. کارگروه امنیت سایبری سازمان ملل (OEWG) در حال نهایی کردن مکانیسمی برای مذاکرات امنیت سایبری جهانی آینده است.

همچنین کنوانسیون بین‌المللی جدید علیه جرایم سایبری (Hanoi Convention on Cybercrime) با امضای ۴۰ کشور آغاز به کار خواهد کرد.

از سوی دیگر، با ریاست آفریقای جنوبی بر گروهG20، شاهد تقویت همکاری‌ های سه‌ جانبه هند، برزیل و آفریقای جنوبی (IBSA) در پیوند دادن توسعه فناوری ‌های دیجیتال و هوش مصنوعی با اهداف توسعه ‌ای خواهیم بود.

نکته حائز اهمیت در حکمرانی هوش مصنوعی، تغییر نگرش از ترس‌ های غیرواقعی به سمت واقع ‌گرایی و مدیریت ریسک‌ های ملموس است.

در حال حاضر به جای ترس از آینده ‌ای آخرالزمانی، بر مسئولیت انسان‌ ها در طراحی و استفاده از فناوری در قبال پیامدهای اجتماعی «قانون حمورابی» تأکید می‌شود.

در واقع چالش اصلی سال ۲۰۲۵، ایجاد یک پارچگی و تبدیل ده‌ ها نهاد و طرح ابتکاری پراکنده در حوزه حکمرانی هوش مصنوعی به یک چارچوب منسجم و عملیاتی است که بتواند به جای پرداختن به سناریوهای خیالی، بر چالش‌ های واقعی در حوزه‌ هایی مانند آموزش، تجارت و رسانه متمرکز شود.

این مسائل در چهار لایه بررسی می‌شوند:

  • سخت‌افزار: در حالی که استانداردهای فنی همچنان حاکم خواهند بود، ازتأثیر زیست محیطی مصرف انرژی فناوری هوش مصنوعی منجر به وضع مقررات سختگیرانه تری خواهد شد.

علاوه بر این، پیامدهای امنیتی هوش مصنوعی باعث شده نیمه رساناها و زیرساخت های مرتبط در برخی کشورها تحت کنترل صادرات و تحریم‌ها قرار گیرند.

  • داده: در حالی‌ که قوانین حفاظت از داده‌ و مالکیت فکری وجود دارد، دعواهای حقوقی درباره استفاده از داده‌ های مالکیتی، مثل شکایت نیویورک ‌تایمز از OpenAI، همچنان ادامه دارد.

برخی کشورها هم قوانین خاصی برای حفاظت از تصاویر و مقابله با جعل عمیق تصویب کرده‌اند.

بیشتر کشورها به دنبال برقراری تعادل هستند و در حالی که با استفاده از بندهای انصرافی ( امکان عدم موافقت با استفاده از اطلاعات شخصی که به افراد این اجازه را می‌دهد که از حقوق مالکیت خود در برابر استفاده ناخواسته دفاع کنند) اجازه استفاده از داده‌ها و دانش تحت مالکیت را می دهند، در عین حال مالکیت آنها را به رسمیت می شناسند.

  • الگوریتم‌ها: تمرکز صرف بر معیارهای فنی در حال تغییر است. پلتفرم‌ هایی مثل DeepSeek نشان داده‌ اند که کیفیت داده و نوآوری می‌ تواند بر قدرت محاسباتی غلبه کند.
  • کاربردها: تأثیرات اجتماعی و حقوقی هوش مصنوعی بیشتر از کاربرد آن ناشی می ‌شود. اصل مسئولیت توسعه ‌دهندگان باید احیا شود. مطابق اصل حقوقی اساسی؛ توسعه دهندگان یک فناوری مسئول خطرات آن هستند. با این حال، این اصل توسط «بخش ۲۳۰» US Communications Decency Act, که به پلتفرم‌های فناوری مصونیت در برابر محتوای میزبانی ‌شده اعطا می کند، تضعیف شده است.

گسترش چنین مصونیتی به هوش مصنوعی می تواند خطراتی بزرگ ‌تر از الگوریتم‌ های کنترل ‌نشده ایجاد کند.

در نهایت، اگر قرار است آینده ‌ای امن و انسانی در فضای هوش مصنوعی داشته باشیم، باید از پراکندگی نهادی عبور کرده و با تنظیم ‌گری واقع ‌گرایانه و نه واکنش‌ های هیجانی بر مسئولیت ‌پذیری چندجانبه متمرکز شویم.

زهرا میرزاحسین

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.