برداشتی آزاد از مجموعهی سهگانه The Future Society با نویسندگی Niki Iliadis و Tereza Zoumpalova
این روزها [و بعد از جنگ و صدها مسئله دیگری که ایران با آن درگیر است] نگران آیندهای هستم که به سرعت بهسوی ما میآید. آیندهای که در آن هوش مصنوعی میتواند مسیر زندگی ما را شکل دهد، انتخابهایمان را جهت دهد و حتی ارزشهایمان را زیر سؤال ببرد. برای نسلهای بعدی در ایران، بهتر است که امروز ما جامعه بهتری باشیم.
اخیرا مقالهای سهقسمتی از دو پژوهشگر برجسته یعنی نیکی ایلیادیس و ترزا زومپالوا مطالعه کردم که به مسئلهی حیاتی خطوط قرمز جهانی برای هوش مصنوعی پرداخته بودند. شاید برای جامعه امروز ما، این مسئله، حیاتیترین نباشد؛ اما بههرحال باید از خودمان بپرسیم چرا این دغدغه فقط در سطح بینالمللی باقی بماند؟ چرا ما در ایران، از همین امروز، صدای خود را برای ترسیم این خطوط به گوش یکدیگر نرسانیم؟
اول از همه: خط قرمز یعنی چه؟
در بخش اول این مجموعه، نویسندگان توضیح دادند که خط قرمز به زبان ساده، مرزی است که عبور از آن برای هوش مصنوعی، غیرقابل قبول و خطرناک تلقی میشود. این مرزها نه برای محدود کردن نوآوری، بلکه برای محافظت از ارزشهای انسانی، کرامت آدمی، و صلح اجتماعی طراحی میشوند. مثلاً ممنوعیت استفاده از AI برای امتیازدهی اجتماعی (مثل چیزی که در برخی شهرهای چین شاهدش هستیم) یا جلوگیری از توسعه سیستمهایی که میتوانند بهصورت خودکار و بدون دخالت انسان تصمیمهای نظامی بگیرند.
بخش دوم: این خطوط قرمز همین حالا هم وجود دارند
باور عمومی این است که هنوز قانونی برای AI وضع نشده. اما حقیقت این است که بسیاری از کشورها و نهادها از همین حالا در حال ترسیم این مرزها هستند. برای نمونه:
- اتحادیه اروپا با تصویب قانون AI Act استفاده از سیستمهایی مثل تشخیص چهره در فضاهای عمومی، دستکاری احساسی کاربران یا دستهبندی بیومتریک افراد را ممنوع کرده.
- ایالت تگزاس قانونی تصویب کرده که استفاده از هوش مصنوعی برای تشویق به خودآزاری، تولید محتوای مستهجن جعلی یا تبعیض را ممنوع میکند.
- برزیل در حال بررسی قانونی است که استفاده از AI برای امتیازدهی اجتماعی، تبلیغات فریبنده یا سلاحهای خودمختار را غیرقانونی میداند.
در سطح جهانی هم، معاهداتی مانند بیانیه سئول، بیانیه هیروشیما از گروه G7، و بیانیه علمی پکن (Beijing Consensus) خطوط قرمز مشخصی را پیشنهاد دادهاند. یکی از مهمترین این خطوط، ممنوعیت توسعه سیستمهای خودتکرارشونده یا هوشهایی است که به دنبال کسب قدرت هستند.
سؤال: ایران کجای این نقشه است؟
بخش سوم: راه سخت، اما ضروری برای رسیدن به چارچوب جهانی
در سومین قسمت این مجموعه، نویسندگان به روشهایی پرداختند که میتوان از طریق آنها یک چارچوب جهانی برای خطوط قرمز AI ساخت. البته که کار آسانی نیست. سه مانع اصلی در این راه وجود دارد:
- تعارضهای ژئوپولیتیک: قدرتهای بزرگ مثل آمریکا، چین و اتحادیه اروپا دیدگاههای متفاوتی درباره AI دارند.
- ابهامهای فنی: برخی از خطرناکترین رفتارهای AI مثل فریب، خودتکثیری یا دنبال کردن قدرت، هنوز بهدرستی قابل تشخیص نیستند.
- فقدان نهاد نظارتی جهانی: فعلاً سازمان مشخصی برای نظارت و اعمال این خطوط قرمز وجود ندارد.
اما راهحلهایی هم هست. نویسندگان چهار مسیر برای رسیدن به یک رژیم جهانی پیشنهاد میدهند:
- معاهدات الزامآور بینالمللی
- استانداردها و بیانیههای غیرالزامآور
- توافقنامههای دوجانبه یا چندجانبه
- تعهدات داوطلبانه از سوی دولتها و شرکتها
به نظر من، مسیر درست، استفاده همزمان از همهی این ابزارهاست. همانطور که برای کنترل تسلیحات هستهای یا گسترش بیماریهای واگیردار، کشورهای مختلف به مرور و با هم همکاری کردند، در حوزهی AI هم این همکاری ممکن است.
سه قدم فوری برای اقدام جهانی
در پایان، این دو پژوهشگر سه پیشنهاد عملی و مهم برای آغاز حرکت ارائه میدهند:
- تشکیل ائتلافی از بازیگران داوطلب: نیازی به اجماع جهانی از روز اول نیست. گروهی از کشورها، شرکتها و نهادهای علمی و مدنی میتوانند کار را شروع کنند.
- تعامل جدی با دیپلماتها برای طراحی معاهده بینالمللی: قدمبهقدم، با بهرهگیری از حمایت سیاسی موجود، باید معاهدهای برای ترسیم این خطوط قرمز طراحی کرد.
- ساخت زیرساخت برای نظارت و راستیآزمایی: بدون ابزارهای فنی و حقوقی برای بررسی رعایت این خطوط قرمز، هیچ مقرراتی کارآمد نخواهد بود.
دعوتی به آیندهای ایمنتر برای ایران
و اما چرا این مقاله را برای شما نوشتم؟ چون احساس کردم ما هم در ایران، اگر امروز نجنبیم، فردا ممکن است تنها مصرفکنندهی قوانینی باشیم که دیگران برایمان نوشتهاند. ما نیاز داریم در طراحی خطوط قرمز برای هوش مصنوعی مشارکت کنیم، نه فقط برای خودمان، بلکه برای نسلهای آینده.
امروز، همان روزیست که باید به صدای کارشناسان جهانی گوش بدهیم، دانش آنها را با واقعیتهای کشورمان تطبیق بدهیم، و قوانینی بنویسیم که از حقوق فردی، حریم خصوصی، کرامت انسانی و عدالت اجتماعی در ایران آینده دفاع کند.
شاید هنوز نهاد مشخصی برای این کار در کشور ما وجود نداشته باشد، اما همین که شما این مقاله را میخوانید، یعنی میتوانیم گفتوگو را آغاز کنیم. من این مقاله را خواندم و با شما به اشتراک گذاشتم؛ حالا نوبت شماست که این بحث را گسترش بدهید، قبل از این که روزی برسد که با فناوریهایی مثل تشخیص چهره، برای شما طبقه یا امتیاز اجتماعی تعیین کنند.