پوریا ناظمی
گزارشی که یک شرکت آمریکایی به سفارش وزارت خارجه ایالات متحده طی ۱۳ ماه تهیه و اخیراً ارائه کرده، از هشدارآمیزترین گزارشهایی است که تاکنون دربارهٔ هوش مصنوعی و خطرات احتمالی آن منتشر شده. با این حال، نقدهایی جدی بر این گزارش وجود دارد که نمیتوان آنها را نادیده گرفت.
گزارش نهایی با عنوان «برنامهٔ اقدام برای افزایش ایمنی و امنیت هوش مصنوعی پیشرفته» مجموعهای از اقدامات سیاسی گسترده و بیسابقه را توصیه و حتی پیشنهاد میکند که آموزش مدلهای هوش مصنوعی در سطح مشخصی از توان محاسباتی محدود بماند و کنگره استفادهٔ بیش از این سطح را غیرقانونی کند.
این گزارش چگونه تهیه شده؟
ماه نوامبر سال ۲۰۲۲ وزارت امور خارجه آمریکا در قالب قراردادی ۲۵۰ هزار دلاری به شرکتی به نام «گلدستون اِیآی» مأموریت داد تا گزارشی دربارهٔ خطرات هوش مصنوعی و تمهیداتی که در این زمینه وجود دارد، تهیه کند.
این شرکت چهارنفری، که دو بنیانگذار آن برادر هم هستند، عمدتاً برای کارمندان دولت دورههای آموزشی دربارهٔ آموزش و توضیح عملکرد هوش مصنوعی برگزار میکند.
این شرکت پس از ۱۳ ماه گزارشی ۲۴۷ صفحهای منتشر کرده که دسترسی به نسخهٔ کامل آن تنها از طریق درخواست مستقیم از شرکت ممکن است و بهطور عمومی منتشر نشده، اما خلاصهای از آن در اختیار عموم قرار گرفته است.
این گزارش که ادعا میکند براساس مصاحبه با بیش از ۲۰۰ شخصیت امنیتی، سیاسی، متخصص نظامی و تعدادی از متخصصان هوش مصنوعی – بهصورت مستقیم یا غیرمستقیم – تهیه شده، یکی از هشدارآمیزترین سندهایی است که تاکنون دربارهٔ هوش مصنوعی و خطرات احتمالی آن منتشر شده و نقشهٔ راهی را هم برای مهار خطرات مطرحشده در این گزارش ترسیم کرده است.
هشدارهای مطرحشده در گزارش
گزارش در مورد آنچه خود خطرات شبیه به سلاحهای کشتارجمعی هوش مصنوعی خوانده، رویدادهای منجر به انقراض بشریت و قیام هوش مصنوعی و در اختیار گرفتن کنترل امور جهان هشدار میدهد و بر خطرات این فناوری بر امنیت ملی و امنیت جهانی تأکید دارد.
این گزارش از یک سو با اشاره به رشد سریع فناوری هوش مصنوعی و امکان سوءاستفاده از آن، نسبت به خطرات منجر به انقراض بشریت ناشی از توسعهٔ فناوری هوش عمومی مصنوعی هشدار میدهد.
در مجموع، تصویری که این گزارش از چشمانداز آیندهٔ خطرات هوش مصنوعی تصویر میکند، شاید از تیرهترین چشماندازهای مربوط به آیندهٔ این فناوری باشد.
هوش عمومی مصنوعی، تصور و فناوری – فعلاً – تخیلی و غیرواقعی است که فرض میکند ماشین توانایی آن را دارد که به حد مشابه هوش انسان و نوعی خودآگاهی دست پیدا کند. در این مورد میتوانید اپیزود «کدام هوش مصنوعی؟ کدام خطر؟» از پادکست چیستا را گوش کنید.
https://audio.rferl.org/FRD/2024/03/09/01000000-c0a8-0242-0a56-08dc408da1f1_hq.mp3
توصیهها و راهحلها
نویسندگان این گزارش توصیه میکنند برای مهار و مقابله با این خطرات، دولت ایالات متحده مهارهایی را برای توسعه این فناوری مطرح و اجرا کند و از این فرصت برای وارد کردن مهارهای فناوری در روند قانون ملی استفاده و با استفاده از نفوذ خود این قوانین مهارکننده را در قوانین جهانی وارد کند.
این نقشهٔ راه همچنین توصیه میکند که بر مبنای قوانینی که برای مهار و نظارت بر هوش مصنوعی طراحی میشود، سازمانی جهانی برای اِعمال نظارت بر روند جهانی این فناوری تأسیس شود و در عین حال نهادهای امنیتی و اطلاعاتی برنامههایی را برای مهار سناریوهای فاجعهٔ احتمالی و پاسخ به آنها آماده کنند.
این گزارش همچنین توصیه میکند که بهطورجدی بر آموزش کارمندان دولت ایالات متحده بر آموزش دربارهٔ روندها و پیشرفتهای هوش مصنوعی سرمایهگذاری شود؛ توصیهای که با توجه به اینکه فعالیت اصلی این شرکت برگزاری دورههای آموزشی برای نهادهای دولتی است، میتواند بهنوعی مشمول تضاد منافع باشد.
نقدهایی بر گزارش
مسئلهٔ هوش مصنوعی و آیندهٔ آن و نگرانیها از سوءاستفادههای ناشی از آن امری واقعی و مهم در دنیای امروز ما است. از کانادا و ایالات متحده گرفته تا اتحادیهٔ اروپا و چین، طرحها و قوانینی را برای نظارت بر هوش مصنوعی و توسعهٔ آن و بهطور خاص دفاع از حقوق شهروندان در مقابل سوءاستفادههای احتمالی پیشنهاد و حتی تصویب کردهاند.
در ایالات متحده، دستور اجرایی رئیسجمهور مبنی بر رعایت استانداردهایی در توسعهٔ هوش مصنوعی و در اتحادیهٔ اروپا قانونی که همین روزها در پارلمان این کشور برای ایجاد استانداردهای توسعهٔ هوش مصنوعی تصویب شد، نمونههایی از این موارد است.
با این حال، در مجموع توصیهنامههای این نقشهٔ راه مواردی نیز وجود دارد که بر مبنای خرد جمعی پذیرفته شده است؛ مواردی مانند آماده بودن برای سناریوهای احتمالی خطا در توسعهٔ هوش مصنوعی.
اما نکتهٔ مهم در این نقشهٔ راه یا گزارش بزرگنمایی مبتنی بر هراس از آیندهٔ محکوم به ویرانی فناوری است.
این گزارش تمایز چندانی بین هوش مصنوعی فعلی و هوش مصنوعی عمومی قائل نمیشود، درحالیکه این دو نوع فناوری به نظر بسیاری از متخصصان اصولاً دو بستر فناوری متفاوت هستند و توسعهٔ یکی به ظهور دیگری نمیانجامد.
از سوی دیگر، این گزارش بهطورجدی به روایت و سخنان چهرههای امنیتی و نظامی تکیه و سعی کرده بهنوعی بدترین گزینهٔ ممکن را محتملترینِ آنها نشان دهد. فقدان حضور دانشمندان و متخصصان علوم هوش مصنوعی در میان مراجع اصلی تهیهٔ گزارش، سطح پایین دادههای فناوری و بنیانهای علمی این فناوری باعث شده است تا سناریوهایی مبتنی بر برداشتهای غیرکامل از فناوری ترسیم شود.
یکی دیگر از نکاتی که این گزارش را با چالش مواجه میکند، مجموعه راهحلهایی است که برای مقابله با خطرات احتمالی مطرح میکند.
بهطور خلاصه، این راهحلها در قالب محدود کردن فناوری، ایجاد امتیاز و توانایی برای دولت در نظارت و مهار و کنترل این فناوری، زیر نظر گرفتن رشد آن در کشورهای دیگر توسط نهادهای آمریکایی یا نهادهای بینالمللی (که ایالات متحده آنها را ایجاد کند) و ایجاد نظام قضایی و جرمانگاری توسعهٔ فناوری خارج از نظارت دولت است.
این روند که بهطور خلاصه شاید بتوان آن را امنیتی کردن فناوری توصیف کرد، پیشتر در فناوریهای دیگری که توسعهٔ آنها بهشدت دشوارتر بود، بارها آزموده شده و شکست خورده است.
شاید مسیر دیگری در مقابل ما باشد؛ اینکه بهجای امنیتی کردن و تلاش برای محدود کردن و بستن و سانسور و زیرزمینی کردن توسعهٔ فناوری، بر باز شدن منابع این فناوری تأکید شود.
بهجای سپردن عنان اختیار به دست دولتها، میتوان به نقش نهادهای مدنی متشکل از متخصصان این حوزه و حوزههای مرتبط توجه کرد تا خرد جمعی متخصصان راهنمای توسعه شود.
در عین حال، میتوان با خارج کردن این عرصه از انحصار شرکتها و باز کردن آن، به نیروهای مدنی این حوزه اجازه داد که همزمان با رشد فناوری و نگرانی از سوءاستفادههایی احتمالی، بدون اینکه جلوی مسیر پیشرفت را بگیرند، ابزارهای مهار و خنثی کردن سوءاستفاده از هوش مصنوعی را با استفاده از همان فناوری بسازند.
برگرفته از رادیو فردا