هوش مصنوعی؛ آینه تمام‌نمای دستاوردها و خطاهای بشر

سینا ترابی

در سال‌های اخیر، شاهد تکامل خیره‌کننده و توسعه سریع مدل‌های زبانی بزرگ (LLMها) بوده‌ایم؛ ابزارهایی دست‌ساز که گویی به شکلی پیامبرگونه به خزانه بی‌کران دانش بشری متصل شده‌اند. آن‌ها می‌توانند در کسری از ثانیه منظور ما را با هر زبان و لحنی درک کنند، اقیانوسی از اطلاعات را غربال کرده و دقیق‌ترین جواب ممکن را با قاطعیتی شگفت‌انگیز در اختیارمان بگذارند.

توانایی آن‌ها تنها به گردآوری اطلاعات محدود نمی‌شود. نوشتن هزاران خط کد برنامه‌نویسی که تا همین چند سال پیش ماه‌ها زمان می‌برد، حالا در چند دقیقه ممکن شده است. اما موج این انقلاب به همین‌جا ختم نمی‌شود؛ تولید عکس، ویدیو، صدا، موسیقی، تجزیه و تحلیل‌های پیچیده پزشکی و حتی صنایع نظامی… تقریباً هیچ عرصه‌ای نمانده که این ابزارهای به ظاهر هوشمند به آن نفوذ نکرده و راندمانش را دگرگون نکرده باشند.

شاید دور از ذهن‌ترین جایی که انتظار داشتیم مدل‌های زبانی در آن بی‌دفاع باشند، قلمرو علوم انسانی، فلسفه و روان‌شناسی بود. اما دست نگه دارید! این مدل‌ها گاهی در استدلال و منطق، از میانگین انسان‌ها نیز پیشی می‌گیرند. شما امروز می‌توانید به آن‌ها نه فقط به چشم یک ابزار، بلکه به عنوان یک «حریف تمرینی» برای مباحثه، یا حتی یک همدم که با توصیه‌هایش سعی در بهبود وضعیت روانی شما دارد، نگاه کنید.

نیمه تاریک ماه: وقتی انسان به عدد تبدیل می‌شود

برای اینکه دچار سوءتفاهم نشویم، همین ابتدا باید بگویم که من مخالف اقتصاد آزاد نیستم؛ اتفاقاً برعکس، طرفدار پر و پا قرص کاپیتالیسم و بازار آزاد هستم. اشتباه استراتژیک ما دقیقاً از جایی شروع می‌شود که دو مسئله کاملاً نامربوط را در کنار هم قرار می‌دهیم و می‌خواهیم آن‌ها را به زور در یک معادله بگنجانیم.

سیستم‌های کاپیتالیستیِ مبتنی بر داده در دنیای امروز، تنها به متغیرهای کمّیِ ورودی و خروجی (همان عرضه و تقاضا) اهمیت می‌دهند و از جنبه‌های انسانی و جامعه‌شناختیِ فعالیت‌های خود کاملاً غافل هستند. گویی انسان‌ها صرفاً اعدادی در ستون‌های اکسل و روی کاغذند. در این سیستم، پیش از هر چیز بررسی می‌شود که یک محصول چقدر تولید ناخالص را افزایش می‌دهد. سال‌ها بعد، تازه وقتی که عوارض ویرانگر این محصولات در جامعه سر باز کرد، دانشمندان شروع به آگاه‌سازی مردم می‌کنند؛ روشنگری‌هایی که خود دهه‌ها زمان می‌برد و شاید هرگز نتواند ریشه‌های آن محصول مضر را از خاک جامعه بیرون بکشد.

بگذارید به لیست بلندبالایی از صنایعی نگاه کنیم که ظاهراً هیچ فایده بنیادینی برای تکامل ما ندارند اما هر روز با آن‌ها درگیریم: سیگار، الکل، مواد مخدر سبک، پورنوگرافی، شبکه‌های اجتماعی و حالا، رویه تجاریِ هوش مصنوعی. تمام این‌ها صنایعی هستند که سالیانه میلیاردها دلار برای صاحبانشان ثروت می‌آفرینند، اما در نقطه مقابل، هزینه‌هایی به مراتب سنگین‌تر با عناوینی چون هزینه‌های درمان، اپیدمی افسردگی، خودکشی، فروپاشی بنیان خانواده و افت شدید بهره‌وری را روی دوش جامعه آوار می‌کنند.

مشکل اصلی اینجاست که صاحبان این صنایع، محصولاتشان را به خوبی می‌شناسند. آن‌ها در همان فاز توسعه دقیقاً می‌دانند چه هیولایی می‌سازند و چه بلایی بر سر سیستم عصبی مصرف‌کننده می‌آورند. به عنوان مثال، شرکت متا (Meta) کاملاً آگاهانه و با استخدام لشکری از دانشمندان علوم شناختی و عصب‌شناسان، الگوریتم‌هایی را توسعه می‌دهد که سیستم پاداش (ترشح دوپامین) در مغز کاربر را بی‌وقفه هک و تحریک کند. فقط چند دقیقه اسکرول کردن در اینستاگرام کافی است تا شما درک خود را از گذر زمان از دست بدهید و پس از مدتی، با عوارضی چون اعتیاد، افسردگی، بی‌عملی و کاهش شدید تمرکز دست به گریبان شوید.

هوش مصنوعی: دوچرخه‌ای که به ویلچر تبدیل می‌شود!

من در این مقاله می‌خواهم به عنوان یک ناظر، به شما کاربران هوش مصنوعی هشدار دهم. این ابزارها با سرعتی باورنکردنی در حال تسخیر تار و پود زندگی روزمره ما هستند؛ صدها و شاید هزاران بار سریع‌تر از امواج فیسبوک و اینستاگرام. مجدداً تاکید می‌کنم که استفاده اصولی از این ابزارها می‌تواند به شدت راهگشا باشد، اما این سکه روی دیگری هم دارد که در هیاهوی رسانه‌های امروز، عامدانه در مورد آن سکوت می‌شود.

مدل‌های زبانی بزرگ می‌توانند با کمترین زحمت، اطلاعات را جمع‌آوری، تجزیه و تحلیل کرده و در نهایت، پاسخ را مثل یک «فست‌فود فکری» یا یک لقمه آماده در دهان کاربر بگذارند. این راحتیِ اغواکننده از دو جهت به شدت خطرناک است:

یک: آتروفی (تحلیل رفتن) تفکر نقادانه ذهن انسان دقیقاً مانند یک عضله است؛ هرچه بیشتر آن را به چالش بکشید، ورزیده‌تر می‌شود و هرچه لقمه آماده به آن بدهید، ضعیف‌تر و تنبل‌تر می‌گردد. زمانی که ماشین‌حساب‌ها همه‌گیر شدند، توانایی محاسبات ذهنی انسان‌ها به تدریج تحلیل رفت. امروز با ظهور هوش مصنوعی، همین فاجعه در ابعادی به مراتب بزرگ‌تر برای «تفکر نقادانه» و «عمیق‌اندیشی» در حال وقوع است.

استیو جابز روزگاری کامپیوترها را به «دوچرخه‌ای برای ذهن» تشبیه کرد؛ ابزاری که توان انسانی را چند برابر می‌کند. اما هشدار من این است: هوش مصنوعی اگر مدیریت نشود، پتانسیل این را دارد که این دوچرخه‌ها را به «ویلچرهایی برای ذهن» تبدیل کند!

دو: توهم دانایی و قطعیت کاذب باید درک کنیم که مدل‌های زبانی به منبع وحی متصل نیستند و چیزی از عدم خلق نمی‌کنند. آن‌ها شبکه‌های پیچیده‌ای از همان اطلاعاتی هستند که ما انسان‌ها در طول تاریخ تولید کرده‌ایم. آن‌ها در این شبکه عظیم جستجو می‌کنند و محتمل‌ترین کلمات را کنار هم می‌چینند. اما مشکل کجاست؟ اقتصاد داده‌محور و سرمایه‌داری برای اینکه کاربر را راضی نگه دارد، به این مدل‌ها دستور داده تا پاسخ‌هایی کاملاً «قطعی» و با اعتماد به نفس بالا ارائه دهند. اما در ساحت علم، ما چیزی به نام «قطعیت مطلق» نداریم. ذهن انسان پر از خطاهای شناختی است و حتی بزرگترین نوابغ تاریخ نیز از این خطاها مصون نبوده‌اند. تاریخ علم پر از برندگان جایزه نوبل است که سال‌ها بعد، نتایج تحقیقات خود را حاصل خطاهای شناختی دانسته و آن‌ها را نقض کرده‌اند. ما این مدل‌های زبانی را با همین داده‌های انسانی که آغشته به سوگیری، تعصب و خطاست آموزش داده‌ایم. ساختار آن‌ها شبیه ماست و از این رو، هوش مصنوعی دقیقاً آینه تمام‌نمای خطاهای ماست که در ابعادی وسیع‌تر بازتولید می‌شود. توسعه‌دهندگان این مدل‌ها بارها به این سوگیری‌ها اعتراف کرده‌اند، هرچند پرداختن به جزئیات آن در حوصله این متن نمی‌گنجد.

راهکار چیست؟ عبور از انفعال

همان‌طور که پیش‌تر اشاره کردم، کاپیتالیسمِ داده‌محور باید توسط قانون‌گذاران مهار شود تا سلامت روان جامعه و منافع بلندمدت، فدای سودهای کوتاه‌مدت نگردد. هوش مصنوعی باید موظف شود از ارائه پاسخ‌های مطلقاً قطعی فاصله بگیرد، منابع خود را با شفافیت ذکر کند و خروجی‌هایش را نه به عنوان «حقیقت محض»، بلکه به عنوان «یافته‌هایی ابطال‌پذیر» ارائه دهد.

اما در سوی دیگر این میدان، مائیم؛ کاربران این ابزارها. ما هرگز نباید اجازه دهیم این تکنولوژی جایگزین فرآیند رنج‌آور اما سازنده «فکر کردن» شود. ما باید این مدل‌های زبانی را صرفاً به عنوان دستیارانی بپذیریم که کارهای روتین را انجام می‌دهند. این ما هستیم که باید نقش مدیر و قاضی را ایفا کنیم. خروجی آن‌ها وحی منزل نیست؛ ما باید با نگاهی انتقادی درستی یا نادرستی آن‌ها را بسنجیم.

حرف آخر: معمار باشیم، نه آجرچین!

هوش مصنوعی می‌تواند در تحقیقات شریک ما باشد، در تفکر عمیق و مناظره به عنوان حریف تمرینی ما را به چالش بکشد، کدهایمان را بنویسد و وظایف روزمره‌مان را اتوماتیک کند. اما تحت هیچ شرایطی نباید اجازه دهیم آن‌ها «به جای ما» فکر کنند، «به جای ما» مسئله حل کنند و «به جای ما» تصمیم بگیرند.

ما باید مسئولیت سنگین اما باشکوهِ خود را بپذیریم: ما طراحان و معماران پروژه‌ها و زندگی خود هستیم، و هوش مصنوعی تنها یک ابزار هوشمند برای آجرچینی در دستان ماست.

 


دیدگاه‌ و نظرات ابراز شده در این نوشته،  نظر نویسنده بوده و لزوما سیاست یا موضع نهاد مردمی را منعکس نمی‌کند.