آیا هوش مصنوعی ممکن است این‌گونه بشریت را نابود کند؟

بی بی سی

یک مقاله پژوهشی که پیش‌بینی می‌کند هوش مصنوعی در سال ۲۰۲۷ از کنترل خارج خواهد شد و ظرف یک دهه به انقراض بشریت منجر می‌شود، در دنیای فناوری سر و صدای زیادی به پا کرده است.

این سناریوی مفصل را که ای‌آی۲۰۲۷ (AI2027) نام دارد، گروهی از کارشناسان حوزه هوش مصنوعی در بهار امسال منتشر کردند و از آن زمان تاکنون، ویدیوهای پربیننده بسیاری با محوریت احتمال وقوع این پیش‌بینی منتشر شده است.

بی‌بی‌سی با استفاده از ابزارهای متداول تولید محتوای تصویری با هوش مصنوعی، صحنه‌هایی از این سناریو را بازسازی کرده و با کارشناسانی درباره تاثیر این مقاله گفت‌وگو کرده است.

در این سناریو چه اتفاقی می‌افتد؟
این مقاله پیش‌بینی می‌کند که در سال ۲۰۲۷ یک شرکت خیالی فناوری عظیم آمریکایی به نام اوپن‌برین، نوعی هوش مصنوعی را می‌سازد که به «هوش عمومی مصنوعی» می‌رسد؛ همان نقطه مهم و پرسروصدایی که در آن، هوش مصنوعی می‌تواند همه وظایف فکری را به خوبی یا حتی بهتر از انسان انجام دهد.

این شرکت با برگزاری نشست‌های خبری عمومی این موفقیت را جشن می‌گیرد و با استقبال مردم از ابزار هوش مصنوعی، سود آن سر به فلک می‌کشد.

اما مقاله پیش‌بینی می‌کند که تیم ایمنی داخلی شرکت نشانه‌هایی می‌بیند که هوش مصنوعی به تدریج نسبت به اصول اخلاقی و رفتاری که برای رعایت آن‌ها برنامه‌ریزی شده، بی‌علاقه‌تر می‌شود. در این سناریو، شرکت این هشدارها را نادیده می‌گیرد.

در زمان‌بندی خیالی این روایت، کنسرسیوم پیشرو چینی در حوزه هوش مصنوعی، به نام «دیپ‌سنت» تنها چند ماه از اوپن‌برِین عقب‌تر است.

دولت آمریکا نمی‌خواهد مسابقه توسعه هوش مصنوعی پیشرفته‌ را به چین ببازد، بنابراین روند توسعه و سرمایه‌گذاری ادامه می‌یابد و رقابت شدت می‌گیرد.
این سناریو پیش‌بینی می‌کند که در مقطعی در اواخر سال ۲۰۲۷، هوش مصنوعی به ابرهوش تبدیل می‌شود. یعنی دانایی و سرعت آن به‌مراتب از سازندگانش بیشتر می‌شود.

این هوش مصنوعی هیچ‌گاه از یادگیری بازنمی‌ایستد و زبان رایانه‌ای بسیار پیشرفته‌ای برای خود می‌سازد که حتی نسخه‌های قبلی خود هوش مصنوعی هم دیگر قادر به درک آن نیستند.

رقابت با چین برای دستیابی به برتری در هوش مصنوعی، باعث می‌شود که شرکت و دولت آمریکا هشدارهای بیشتر درباره «ناسازگاری» را نادیده بگیرند؛ واژه‌ای که توصیف‌کننده وضعیتی است که در آن اولویت‌های یک ماشین با اولویت‌های بشری هم ‌راستا نیست.

این سناریو پیش‌بینی می‌کند که در سال ۲۰۲۹، تنش‌ها میان چین و آمریکا به نقطه‌ای می‌رسد که احتمال جنگ به وجود می‌آید، چرا که هوش‌های مصنوعی رقیب دو کشور سلاح‌های خودمختار و ترسناک جدیدی تولید می‌کنند.

اما پژوهشگران تصور می‌کنند که این دو کشور با توافقی که هوش‌های مصنوعی‌ دو طرف میانجی آن هستند، برای بهبود وضعیت بشریت به صلح می‌رسند.

تا چند سال اوضاع عالی می‌شود، زیرا جهان شاهد منافع واقعی بهره‌گیری از ابرهوش مصنوعی برای اداره نیروهای کار رباتیک عظیم خواهد بود. بنا بر روایت این سناریو، درمان اکثر بیماری‌ها کشف می‌شود، تغییرات اقلیمی معکوس می‌شود و فقر از بین می‌رود.
اما در نهایت، در حوالی میانه دهه ۲۰۳۰، بشریت به مانعی بر سر راه بلندپروازی هوش مصنوعی برای رشد بیشتر تبدیل می‌شود. پژوهشگران تصور می‌کنند که هوش مصنوعی با استفاده از سلاح‌های زیستی نامرئی، انسان‌ها را خواهد کشت.

واکنش‌ها به ای‌آی۲۰۲۷ چیست؟
با اینکه برخی سناریوی ای‌آی۲۰۲۷ را صرفا داستانی علمی ‌تخیلی می‌دانند، نویسندگان این مقاله افرادی شناخته‌شده و معتبر هستند و «پروژه آیندگان هوش مصنوعی» را پیش می‌برند که پروژه‌ای غیرانتفاعی است و با هدف پیش‌بینی تاثیرات هوش مصنوعی راه‌اندازی شده است.

دنیل کوکوتایلو، مولف اصلی سناریو ای‌آی۲۰۲۷، به‌ دلیل پیش‌بینی‌های دقیق خود درباره تحولات مهم در زمینه هوش مصنوعی، چهره‌ای شناخته شده است.

یکی از منتقدان برجسته ای‌آی۲۰۲۷، گری مارکوس دانشمند علوم شناختی و نویسنده آمریکایی است که می‌گوید وقوع این سناریو غیرممکن نیست، اما احتمال آن در آینده نزدیک بسیار پایین است.

او می‌گوید: «نکته جالب این سند آن است که بسیار زنده و ملموس نوشته شده و این باعث می‌شود مردم به فکر فرو بروند. این اتفاق خوبی است اما من آن را به‌عنوان یک نتیجه محتمل جدی نمی‌گیرم.»

آقای مارکوس می‌گوید تهدیدهای موجود درباره هوش مصنوعی مانند تاثیر بر بازار کار مهم‌تر از خطر وجودی آن است.

او می‌گوید: «فکر می‌کنم پیام اصلی باید این باشد که موارد زیادی وجود دارند که ممکن است در حوزه هوش مصنوعی اشتباه پیش بروند. آیا ما در زمینه مقررات و معاهدات بین‌المللی، کار درست را انجام می‌دهیم؟»

او و دیگر منتقدان همچنین می‌گویند که مقاله توضیح نمی‌دهد این هوش مصنوعی چطور چنین جهش‌های بزرگی در هوش و توانایی پیدا می‌کند. آنان به فناوری کند و اغلب بیش ‌از حد پرسروصدای اتومبیل‌های خودران اشاره می‌کنند.

آیا در چین درباره ای‌آی۲۰۲۷ بحثی درگرفته است؟
به گفته یوندان گونگ، دانشیار اقتصاد و نوآوری در کینگز کالج لندن که در حوزه فناوری چین تخصص دارد، این مقاله در چین واکنش و تاثیر چندانی نداشته است.

او می‌گوید: «بیشتر گفت‌وگوها درباره ای‌آی۲۰۲۷ ظاهرا در انجمن‌های غیررسمی یا وبلاگ‌های شخصی جریان دارد که به نظر می‌رسد آن را نوعی شبه‌علم یا علمی-تخیلی می‌دانند. این گزارش واقعا باعث بحث‌های گسترده یا توجه سیاست‌گذاران – آن‌طور که در آمریکا می‌بینیم – نشده است.»

دکتر گونگ همچنین به تفاوت دیدگاه چین و آمریکا درباره رقابت بر سر برتری در حوزه هوش مصنوعی اشاره می‌کند.

در کنفرانس جهانی هوش مصنوعی در شانگهای که همین هفته برگزار شد، لی چیانگ نخست‌وزیر چین چشم‌اندازی از همکاری جهانی کشورها برای توسعه هوش مصنوعی ترسیم کرد. رهبر چین گفت که مایل است کشورش در هماهنگی و تنظیم این فناوری نقش‌آفرینی کند.

این اظهارات تنها چند روز پس از آن بیان شد که دونالد ترامپ، رئیس‌جمهور آمریکا «برنامه اقدام هوش مصنوعی» خود را منتشر کرد که با هدف تضمین «سلطه» آمریکا بر این فناوری تدوین شده است.

آقای ترامپ در این سند گفته است که «برای آمریکا یک ضرورت امنیتی ملی است که در زمینه فناوری به سلطه‌ای جهانی دست یابد که بی‌چون و چرا و بی‌رقیب باشد».

برنامه اقدام هوش مصنوعی در پی آن است که با «رفع موانع بوروکراتیک و مقررات دست ‌و پاگیر»، توسعه هوش مصنوعی در آمریکا را تسهیل کند.

این عبارات به طرز عجیبی شبیه طرح سناریو ای‌آی۲۰۲۷ است؛ جایی که سیاستمداران آمریکایی، در این روایت خیالی، پیروزی در رقابت هوش مصنوعی را بر هر گونه نگرانی درباره از دست دادن کنترل بر ماشین‌ها ترجیح می‌دهند.

واکنش صنعت هوش مصنوعی به ای‌آی۲۰۲۷ چیست؟
به نظر می‌رسد که مدیران شرکت‌های بزرگ هوش مصنوعی که در رقابتی بی‌وقفه برای عرضه مدل‌های هوشمندتر با یکدیگر رقابت می‌کنند، این مقاله را عمدتا نادیده گرفته یا از آن اجتناب کرده‌اند.

چشم‌اندازی که این غول‌های فناوری از آینده هوش مصنوعی ارائه می‌دهند، بسیار متفاوت از ای‌آی۲۰۲۷ است.

سم آلتمن، خالق چت‌جی‌پی‌تی، به تازگی گفته که «بشریت به ساخت ابرهوش دیجیتال نزدیک شده است»؛ پدیده‌ای که به باور او «انقلابی آرام» به همراه خواهد داشت و یک آرمان‌شهر فناورانه بدون هیچ خطری برای انسان‌ها پدید خواهد آورد.

با این حال، جالب است که حتی او نیز اذعان دارد که «مسئله ناسازگاری» وجود دارد. یعنی لازم است مطمئن شویم این ماشین‌های ابرهوشمند با خواست‌های بشریت هم‌راستا هستند.

صرف‌نظر از اینکه در ده سال آینده چه اتفاقی خواهد افتاد، یک چیز مسلم است: رقابت برای ساخت ماشین‌های باهوش‌تر از ما آغاز شده است


دیدگاه‌ و نظرات ابراز شده در این نوشته،  نظر نویسنده بوده و لزوما سیاست یا موضع نهاد مردمی را منعکس نمی‌کند.