چطور می‌توانیم خطوط قرمز برای هوش مصنوعی ترسیم کنیم؟

مقابله با خطرات جدید، جامعه قوی‌تری می‌خواهد
آخرین تاریخ ویرایش : ۲۲ تیر ۱۴۰۴
5 دقیقه
0 نظر
خط قرمزهای هوش مصنوعی

برداشتی آزاد از مجموعه‌ی سه‌گانه The Future Society با نویسندگی Niki Iliadis و Tereza Zoumpalova

این روزها [و بعد از جنگ و صدها مسئله دیگری که ایران با آن درگیر است] نگران آینده‌ای هستم که به سرعت به‌سوی ما می‌آید. آینده‌ای که در آن هوش مصنوعی می‌تواند مسیر زندگی ما را شکل دهد، انتخاب‌هایمان را جهت دهد و حتی ارزش‌هایمان را زیر سؤال ببرد. برای نسل‌های بعدی در ایران، بهتر است که امروز ما جامعه بهتری باشیم.

اخیرا مقاله‌ای سه‌قسمتی از دو پژوهشگر برجسته یعنی نیکی ایلیادیس و ترزا زومپالوا مطالعه کردم که به مسئله‌ی حیاتی خطوط قرمز جهانی برای هوش مصنوعی پرداخته بودند. شاید برای جامعه امروز ما، این مسئله، حیاتی‌ترین نباشد؛ اما به‌هرحال باید از خودمان بپرسیم چرا این دغدغه فقط در سطح بین‌المللی باقی بماند؟ چرا ما در ایران، از همین امروز، صدای خود را برای ترسیم این خطوط به گوش یکدیگر نرسانیم؟

اول از همه: خط قرمز یعنی چه؟

در بخش اول این مجموعه، نویسندگان توضیح دادند که خط قرمز به زبان ساده، مرزی است که عبور از آن برای هوش مصنوعی، غیرقابل قبول و خطرناک تلقی می‌شود. این مرزها نه برای محدود کردن نوآوری، بلکه برای محافظت از ارزش‌های انسانی، کرامت آدمی، و صلح اجتماعی طراحی می‌شوند. مثلاً ممنوعیت استفاده از AI برای امتیازدهی اجتماعی (مثل چیزی که در برخی شهرهای چین شاهدش هستیم) یا جلوگیری از توسعه سیستم‌هایی که می‌توانند به‌صورت خودکار و بدون دخالت انسان تصمیم‌های نظامی بگیرند.

بخش دوم: این خطوط قرمز همین حالا هم وجود دارند

باور عمومی این است که هنوز قانونی برای AI وضع نشده. اما حقیقت این است که بسیاری از کشورها و نهادها از همین حالا در حال ترسیم این مرزها هستند. برای نمونه:

  • اتحادیه اروپا با تصویب قانون AI Act استفاده از سیستم‌هایی مثل تشخیص چهره در فضاهای عمومی، دست‌کاری احساسی کاربران یا دسته‌بندی بیومتریک افراد را ممنوع کرده.
  • ایالت تگزاس قانونی تصویب کرده که استفاده از هوش مصنوعی برای تشویق به خودآزاری، تولید محتوای مستهجن جعلی یا تبعیض را ممنوع می‌کند.
  • برزیل در حال بررسی قانونی است که استفاده از AI برای امتیازدهی اجتماعی، تبلیغات فریبنده یا سلاح‌های خودمختار را غیرقانونی می‌داند.

در سطح جهانی هم، معاهداتی مانند بیانیه سئول، بیانیه هیروشیما از گروه G7، و بیانیه علمی پکن (Beijing Consensus) خطوط قرمز مشخصی را پیشنهاد داده‌اند. یکی از مهم‌ترین این خطوط، ممنوعیت توسعه سیستم‌های خودتکرارشونده یا هوش‌هایی است که به دنبال کسب قدرت هستند.

سؤال: ایران کجای این نقشه است؟

بخش سوم: راه سخت، اما ضروری برای رسیدن به چارچوب جهانی

در سومین قسمت این مجموعه، نویسندگان به روش‌هایی پرداختند که می‌توان از طریق آن‌ها یک چارچوب جهانی برای خطوط قرمز AI ساخت. البته که کار آسانی نیست. سه مانع اصلی در این راه وجود دارد:

  1. تعارض‌های ژئوپولیتیک: قدرت‌های بزرگ مثل آمریکا، چین و اتحادیه اروپا دیدگاه‌های متفاوتی درباره AI دارند.
  2. ابهام‌های فنی: برخی از خطرناک‌ترین رفتارهای AI مثل فریب، خودتکثیری یا دنبال کردن قدرت، هنوز به‌درستی قابل تشخیص نیستند.
  3. فقدان نهاد نظارتی جهانی: فعلاً سازمان مشخصی برای نظارت و اعمال این خطوط قرمز وجود ندارد.

اما راه‌حل‌هایی هم هست. نویسندگان چهار مسیر برای رسیدن به یک رژیم جهانی پیشنهاد می‌دهند:

  • معاهدات الزام‌آور بین‌المللی
  • استانداردها و بیانیه‌های غیرالزام‌آور
  • توافق‌نامه‌های دوجانبه یا چندجانبه
  • تعهدات داوطلبانه از سوی دولت‌ها و شرکت‌ها

به نظر من، مسیر درست، استفاده هم‌زمان از همه‌ی این ابزارهاست. همان‌طور که برای کنترل تسلیحات هسته‌ای یا گسترش بیماری‌های واگیردار، کشورهای مختلف به مرور و با هم همکاری کردند، در حوزه‌ی AI هم این همکاری ممکن است.

سه قدم فوری برای اقدام جهانی

در پایان، این دو پژوهشگر سه پیشنهاد عملی و مهم برای آغاز حرکت ارائه می‌دهند:

  1. تشکیل ائتلافی از بازیگران داوطلب: نیازی به اجماع جهانی از روز اول نیست. گروهی از کشورها، شرکت‌ها و نهادهای علمی و مدنی می‌توانند کار را شروع کنند.
  2. تعامل جدی با دیپلمات‌ها برای طراحی معاهده بین‌المللی: قدم‌به‌قدم، با بهره‌گیری از حمایت سیاسی موجود، باید معاهده‌ای برای ترسیم این خطوط قرمز طراحی کرد.
  3. ساخت زیرساخت برای نظارت و راستی‌آزمایی: بدون ابزارهای فنی و حقوقی برای بررسی رعایت این خطوط قرمز، هیچ مقرراتی کارآمد نخواهد بود.

دعوتی به آینده‌ای ایمن‌تر برای ایران

و اما چرا این مقاله را برای شما نوشتم؟ چون احساس کردم ما هم در ایران، اگر امروز نجنبیم، فردا ممکن است تنها مصرف‌کننده‌ی قوانینی باشیم که دیگران برایمان نوشته‌اند. ما نیاز داریم در طراحی خطوط قرمز برای هوش مصنوعی مشارکت کنیم، نه فقط برای خودمان، بلکه برای نسل‌های آینده.

امروز، همان روزی‌ست که باید به صدای کارشناسان جهانی گوش بدهیم، دانش آن‌ها را با واقعیت‌های کشورمان تطبیق بدهیم، و قوانینی بنویسیم که از حقوق فردی، حریم خصوصی، کرامت انسانی و عدالت اجتماعی در ایران آینده دفاع کند.

شاید هنوز نهاد مشخصی برای این کار در کشور ما وجود نداشته باشد، اما همین که شما این مقاله را می‌خوانید، یعنی می‌توانیم گفت‌وگو را آغاز کنیم. من این مقاله را خواندم و با شما به اشتراک گذاشتم؛ حالا نوبت شماست که این بحث را گسترش بدهید، قبل از این که روزی برسد که با فناوری‌هایی مثل تشخیص چهره، برای شما طبقه یا امتیاز اجتماعی تعیین کنند.

رضا حاتمی
رضا حاتمی نویسنده و محقق
رضا حاتمی هستم؛ علاقه‌مند و شیفتهٔ هوش مصنوعی، کسی که از مطالعه و پژوهش در این زمینه خسته نمی‌شود.
اشتراک گذاری
ثبت نظر
اپلیکیشن ویرا