از میمون تا هوش مصنوعی (بخش پنج)

در بخش پیش به دو کمبود بنیادین انسان‌ها در حوزۀ شناخت اشاره کردیم: ۱) مبنای فرآیند تصمیم‌‌گیری‌های ما، انتخاب است و این انتخاب / انتخاب‌ها خروجی و پیامدِ زندگیِ درونی و بیرونی ماست، موردی که مستقل از اراده و شعور من به صورت هیجانی (emotional) رخ می‌دهد، ۲) برای حل مشکلات خُرد و کلان پیچیدۀ امروزی، ما به مطالعات میان‌رشته‌ای نیازمندیم ولی انسان‌ به دلیلِ انتخاب‌های هیجانی و پیشداوری‌هایش باز هم نمی‌تواند در روند مطالعات میان‌رشته‌ای همۀ داده‌های گردآوری‌شده را به درستی طبقه‌بندی و گزینش کند و سرانجام آنها را به همکارانش انتقال بدهد، ۳) انسان اساساً قادر نیست در فرآیند بررسی و شناختِ خود، تأثیرات با یا بی‌واسطۀ رویدادهای پیرامونی و یا احساسات و هیجان‌های خود را خاموش کند.

تا زمانی که کمبودهای فوق‌الذکر وجود دارند، ما انسان‌ها پی در پی در پروژه‌های کوچک و بزرگ خود دچار اشتباه می‌شویم، اشتباهاتی که هم میلیاردها دلار خسارت بوجود می‌آورند و هم باعث مرگ یا بدبختی میلیون‌ها انسان می‌شوند.

در اینجا سخن من بر سر این یا آن مقاله، رساله یا کتاب و نظریه از سوی یک نویسنده یا پژوهشگر مبتدی یا حرفه‌ای نیست، زیرا اهمیتِ این یا آن نوشته نسبت به پروژهای کلان در زندگی واقعی مردم تأثیر چندانی ندارد. کمبودهای در بالا گفته شده زمانی به فاجعه تبدیل می‌شوند که به پروژه‌های کلانی مربوط می‌شوند که بی‌واسطه روی زندگی روزمرۀ انسان‌ها تأثیر می‌گذارند، مانند جاده‌سازی، کارخانه‌سازی، سدسازی، شیرین‌سازی آبِ شور، پروژه‌های آموزشی، نظام سلامت، تعیین بودجه و …

برای نمونه ایالات متحده آمریکا مجموعاً ۷۵۰۰۰ سد و آبگیر دارد که تعدادِ ۸۰۹۲ از آنها جزو سدهای بزرگ به شمار می‌روند. بخش بزرگی از این سدها و آبگیرها، نه سود می‌دهند و نه با اقلیم ایالات متحده آمریکا همخوانی دارند. به همین دلیل در طی ۴۰ سال اخیر، ۱۴۹۲ از این سدها تخریب شدند تا شاید بتوان ذره‌ای از محیط زیست آسیب‌زدایی کرد. این تخریب‌ها، هزینه‌های بس هنگفتی دارند، گاهی هزینۀ تخریب حتا از ساختِ خود سد بیشتر است. خواننده می‌تواند از فانتزی خود بهره بگیرد که این ۱۴۹۲ سدی که تخریب شدند چه هزینۀ هنگفتی برای مردم آمریکا داشته، و چه آسیب‌هایی برای اقلیم ملی ایالات متحده آمریکا و جهان داشته است. حالا شما تصور کنید که از این دست پروژه‌های کلان چند میلیون‌ در جهان وجود دارد، خوب دقت شود چند میلیون و نه چند هزار!

چرا نتایج پروژه‌ها این چنین فاجعه‌بار هستند؟ اگر بخواهیم خوشبینانه به موضوع بنگریم و از آز انسانی یعنی رسیدن به پول و قدرت صرفِ نظر کنیم، می‌توانیم اینگونه فرموله کنیم: زیرا به هنگام ساختن این سدها، به بسیاری از پارامتر‌های حیاتی در طرح‌های ساخت این سدها توجه نشده، بهتر بگوییم حتا به ذهن طراحان آن هم نرسیده بود. به هنگام طراحی و برنامه‌ریزی، صرفاً امکانات تکنیکی و قابل اجرای سد و این که آب آن به کجا منتقل شود و آیا می‌شود برق از آن تولید کرد یا نه و چقدر زمین کشاورزی را می‌تواند تأمین کند، فکر شده بود. از منظر امروزی، چنین نگاهی یک نگاه کوتاه‌مدت، سودمحور و فناوری‌محور است. در حالی که برای تولید یک سد باید هزاران عامل ملی، منطقه‌ای یا جهانی در نظر گرفته شود: از جنس خاک بگیرید تا مسیرهای گذشتۀ رودخانه، از داده‌های اقلیمی تا مصالح مورد استفاده، مقدار ریزش باران در منطقه، داده‌ها دربارۀ پرندگان کوچی، آب‌های زیرزمینی، مقدار ریزش ماسه[۱] از رودخانه‌ها به دریا و …

سدسازی یک نمونه بارز و مرجع است. مابقی پروژه‌های کلان که ما انسان‌ها تاکنون به فرجام رسانیده‌ایم با حداقل داده‌ها انجام داده‌ایم و بسیاری از داده‌ها و پارامتر‌های دیگر را که برای میان‌مدت و بلندمدت بامورد (relevant) هستند یا آگاهانه از قلم می‌اندازیم یا اصلاً به فکرمان خطور نمی‌کند.

زمانۀ ماشین‌های هوشمند

ما هم اکنون نه در زمانۀ هوش فراگیر مصنوعی، بلکه در بُرشِ زمانی ماشین‌های هوشمند بسر می‌بریم. این که چند دهه ما در این مرحله خواهیم بود قابل پیش‌بینی نیست ولی در بهترین حالت شاید بتوان گفت که دست کم به پنج دهه نیازمندیم. ماشین‌های هوشمند در واقع مراکز داده‌ها (Data Center) هستند که صرفاً برای یک وظیفۀ ویژه و معین طراحی می‌شوند. برای نمونه، تشخیص سرطان یا تشخیص و شناختِ حرکت صفحات زمین (Plate Techtonics) یا تشخیص تبارِ ژنتیکی یا نوشتن فیلم‌نامه یا آهنگ‌سازی و هزاران ماشین هوشمند متفاوت در حوزه‌های دیگر. ماشین‌های هوشمند می‌توانند در شکلِ سخت‌افزارهای معینی عرضه شوند. برای نمونه، رباط‌های پرستار – که هم اکنون در ژاپن در خانۀ سالمندان به کار گرفته شده‌اند- که عملاً با یک مرکز داده‌ها یا سامانۀ مادر گره خورده‌اند، یا پهپادها، هواپیماهای بدون خلبان یا خودروهای بدون راننده نیز با یک مرکز داده مرتبط هستند. ما در آینده برای هر چیز مهم یا حتا بی‌اهمیت یک ماشین هوشمند خواهیم ساخت، زیرا فقط از این طریق است که می‌توانیم در یک روند نسبتاً طولانی ضعف‌های انسانی [یعنی تصمیمات هیجانی و پیشداورانه] خود را در حوزه‌های گوناگون آرام آرام به ماشین‌هایی واگذار کنیم که صرفاً مبتنی بر منطق و داده‌های منطقی عمل می‌کنند. این ماشین‌ها برخلاف ما انسان‌ها که با داده‌ها سلیقه‌ای و گزینشی رفتار می‌کنند با همۀ داده‌ها، بدون تبعیض و با حقوق برابر رفتار می‌کنند، چون نه احساس دارند و نه قرار است پول یا قدرت نصیب‌شان شود.

ولی مگر ماشین‌های هوشمند چه دارند که ما انسان‌ها نداریم؟ برگردیم به یک نمونه یعنی ماشین‌های هوشمند تشخیص سرطان. تاکنون چنین بوده و هست که یک یا چند پزشک متخصص یا فوق متخصص پرتونگارهای بیمار را نگاه می‌کنند و بر اساس آن تشخیص خود را اعلام می‌نمایند. برای تفسیر پرتونگارها، گاهی پزشک / پزشکان به چندین ساعت نیاز دارند. اینکه این تشخیص تا چه اندازه می‌تواند درست یا نادرست باشد از پزشک تا پزشک متفاوت است.

ماشین‌های تشخیص سرطان با چند میلیون داده – در اینجا پرتونگارهای انبوهی از گونه‌های سرطان- تغذیه می‌شوند. این پرتونگارها ابتدا طبق معیارهای گوناگون طبقه‌بندی می‌شوند و در یک شبکه کامپیوتری ذخیره می‌گردند. هر [مجموعه] کامپیوتر در این شبکه مانند یک پیوستگاه مغز انسان (سیناپس) کار می‌کند – در اصطلاح علم کامپیوتر به آنها گره‌های شبکه (Network Node) گفته می‌شود- که اطلاعات وسیعی دربارۀ یک بخش یا یک جز از یک نوع سرطان را دارا می‌باشد. به این نوع شبکه‌ها که تقلیدی از مغز انسان است، شبکه‌های نویرونی یا عصبی (Neural Network) نیز گفته می‌شود. این انبوه سُترگ از داده‌ها در گره‌ها تقسیم می‌شود، هر گره توسط آلگوریتم‌های هوشمندی که دارد تمامی اطلاعات داده‌های خود را با ظرافت و دقت بالایی طبقه‌‌بندی و ویژگی‌های آنها را مشخص می‌کند. زمانی که پرتونگار یک فرد احتمالاً مبتلا به سرطان به این ماشین پیچیده داده می‌شود، این شبکه نویرونی با سرعتی بس بالا پرتونگار را با بیش از یک میلیون تجربۀ دیگر مقایسه کرده، ارزیابی می‌کند و سرانجام – پس از ده دقیقه- نتیجه خود را اعلام می‌کند.

از این، چه نتیجه‌ای می‌گیریم؟ اینکه ماشین‌های هوشمند به داده‌ نیاز دارند[۲]، یعنی هر چه داده‌ها بیشتر باشند، دقتِ ماشین نیز بیشتر می‌شود. طبعاً تک تک ما به عنوان انسان توانایی نگهداری این همه داده [در اینجا بیش از یک میلیون پرتونگار بیماران سرطانی] را نداریم، چه برسد به این که بخواهیم آنها را در مغز خود طبقه‌بندی کنیم و نتایج منطقی از آنها بگیریم. هر چه ما بیشتر داده داشته باشیم، می‌توانیم آلگوریتم‌های هوشمند‌تر و دقیق‌تری بنویسیم. بنابراین حجم داده رابطه مستقیمی با هوشمندی ماشین مربوطه دارد.

برای این که روشن کنیم که برای ساخت شبکۀ نویرونی کامپیوتری یعنی تقلید از مغز انسان چه راه طولانی را باید پیمود به یک نمونه دیگر نیاز داریم: حدود ۳۰۰۰۰ گونۀ سیب‌ِ درختی در انواع رنگ‌ها و شکل‌ها و مزه‌ها در جهان وجود دارد. یک انسان بزرگسال، به محض این که یک سیب را می‌بیند، چه کامل روی میز باشد، یا گربه با آن بازی کند، یا نصف آن خورده شده باشد، یا انعکاس آن در آینه افتاده باشد، یا با یک بند به درختِ انار آویزان شده باشد، خلاصه تقریباً در هر حالتی می‌تواند تشخیص بدهد که این چیز، یک سیب درختی است.

برای این که کامپیوتر بتواند یک سیب را از یک پرتقال یا یک کیوی یا هر چیز دیگر در این جهان به درستی تشخیص بدهد و خطا نکند، باید میلیون‌ها نگاره سیب درختی [به عنوان داده] در حالت‌های گوناگون، از زوایای گوناگون، در دست یا نزد انسان‌‌ها و حیوانات یا اشیاء گوناگون به این شبکه داده شود تا ماشین بتواند به یک تصور و تصویر کلی-انتزاعی از آن به دست بیاورد. هنگامی که ماشین به یک انتزاع از سیب درختی دست یافت، آنگاه می‌تواند از آن استفاده کند. به همین دلیل، هر شرکت یا نهاد تلاش می‌کند در فعالیت‌های اقتصادی، فناوری یا اجتماعی خود، تا آنجا که می‌تواند داده گردآوری کند. مثلاً هر چه یک رسانه اجتماعی (Social Media) اعضای بیشتری داشته باشد، به همان اندازه هوش مصنوعی‌ آن سامانه، نیرومندتر و دقیق‌تر می‌گردد.

ماشین‌های هوشمند، فقط برای یک کار یا وظیفۀ معینی طراحی می‌شوند. این ماشین‌ها اساساً هیچ امکانی ندارند که بتوانند مستقل عمل کنند. زیرا همانگونه که گفته شد هر ماشینی فقط برای یک کار طراحی شده یعنی از همان آغاز، «هدف» آن تعریف می‌شود: پیدا کردن بافت‌های سرطانی، مونتاژ چند جزء ظریف یک محصول صنعتی، برنده شدن در شطرنج و … به عبارتی این ماشین‌ها چیزی نیستند مگر آلگوریتم‌های بهینه‌ساز (Optimizing algorithms) تا ماشین با بالاترین سرعت و دقت به هدف خود برسد. ولی مرز محاسبه ماشین از «روز نخست» از سوی توسعه‌دهنده ماشین تعیین می‌شود و ماشین هوشمند از این مرز نمی‌تواند جلوتر برود. بنابراین تا زمانی که ما با ماشین‌های هوشمند سر و کاریم – دست کم تا چند دهۀ دیگر- هیچ ماشین هوشمندی قادر نیست که مستقل و قائم به ذات عمل نماید و تا آن زمان این ماشین‌ها فقط به عنوان دستیار انسان عمل می‌کنند.

کار برنامه‌ریز ماشین این است که تا آنجایی که می‌تواند، ماشین را با داده‌های بامورد (relevant) تغذیه کند، آلگوریتم‌هایی بنویسد که ماشین بتواند با داده‌هایش «تجربه‌اندوزی» کند، یعنی بتواند هزاران بار اشتباه کند و آن دفعاتی که درست عمل می‌کند آنها را ذخیره کند، آن را با اشتباهات پیشین خود مقایسه کند، باز نتیجه‌گیری کند و هر بار برای رسیدن به هدفش، خود را بهینه کند (optimize).

با توجه به آنچه که گفته شد می‌توان نتیجه گرفت که ماشین‌های هوشمند در واقع دستیاران ما هستند، مانند آن ماشین تشخیص سرطان، رباط‌های پرستار، رباط‌های مین‌یاب و … بنابراین، باید گفت که در این مقطع زمانی، ما در حال ساختِ ماشین‌های هوشمندی هستیم که بتوانند ضعف‌های ما را در حوزه‌ای که کار می‌کنیم بر طرف کنند.

ماشین‌های هوشمند خطرناک

بسیاری از منش‌شناسان (Ethicist) هشدار می‌دهند که باید در سطح جهانی یک سلسله مقرراتِ منش‌شناختی تصویب شود تا هر گونه ورود به حوزه‌هایی که می‌توانند جان و امنیت مردم را به خطر بیندازند جلوگیری شود. یک نمونه از این ماشین‌های خطرناک نشان می‌دهد که منظور چیست. ماشین‌های هوشمند تولید ویروس و باکتری یا میکروارگانیسم‌های خطرناک. زیرا عملاً می‌توان ماشین‌های هوشمندی ساخت که بتوانند ویروس‌هایی تولید کنند که هیچ کس دیگر نتواند آنتی‌ویروس‌های متناسب با آنها را پیدا کند. در این جا تنها منش‌شناسان نیستند که نگران هستند، بسیاری از برنامه‌نویسان و آلگوریتم‌نویسان نیز به همان اندازه نگران هستند. در دست داشتن چنین ماشین هوشمندی که بتواند ویروس بیافریند، خطرش صدها بار از بمب اتمی هم بیشتر است. ولی به فرجام رساندن چنین پروژه‌های امنیتی-نظامی با توجه به دیجیتالی شدن انتقالِ داده‌ها نسبتاً پیچیده ولی امکان‌پذیر است.

از این رو، ضروری است که در جبهه‌ای قرار بگیریم که خواهان چنین مقررات منش‌شناختی جهانی در حوزۀ ماشین‌های هوشمند است. از سوی دیگر، این رویکرد باید همۀ کشورهای جهان – از ایالات متحده آمریکا گرفته تا چین تا بورکینافاسو – را شامل شود، هیچ کشوری نباید از قلم بیفتد.

خلاصه این که در حال حاضر- و البته برای چند دهۀ آینده- ما در دورۀ ماشین‌های هوشمند که دستیار انسان هستند قرار داریم و برای رسیدن به یک هوش فراگیر مصنوعی[۳] (Artificial General Intelligence – AGI) [یا ابرهوش] به زمانی نسبتاً طولانی نیاز داریم. این که چرا رسیدن به یک هوش فراگیر مصنوعی هنوز به چند دهه نیاز دارد در بخش بعدی به آن خواهیم پرداخت.

ادامه دارد
برگرفته از ایران امروز

بخش‌های پیشین:
* از میمون تا هوش مصنوعی (بخش یک)
* از میمون تا هوش مصنوعی (بخش دو)
* از میمون تا هوش مصنوعی (بخش سه)
* از میمون تا هوش مصنوعی (بخش چهار)

———————————————
[۱] شاید برای بسیاری از خوانندگان شگفت‌انگیز باشد اگر گفته شود که مهم‌‌ترین «عنصر» در جهان پس از هوا و آب، ماسه است. البته ماسه با شن فرق دارد، ماسه توسط رودخانه‌های جهان طی روند بسیار طولانی فراورده و به دریاها ریخته می‌شود. یکی از مصالح تعیین کننده در ساخت تمامی جاده‌ها و ساختمان‌ها، «ماسه» است. باز لازم به گفتن است که بسیاری از دست‌اندرکاران سیاست در جهان از موضوع بااهمیت بی‌اطلاع هستند و این در حالی است که ما انسانها با بحران ماسه روبرو هستیم. امیدوارم بتوانم در آینده به طور مفصل در این مورد بنویسم.
[۲] درست مانند یک نویسنده یا شاعر که هر چه بیشتر کتاب خوانده و گنجینۀ واژگانش بیشتر باشد دستش در نگارش متن یا شعر بازتر و دقتش بالاتر است.
[۳] موضوعاتی مانند «تراانسانگرایی» و یا «تکینگی» اساساً ربطی به ماشین‌های هوشمند کنونی ندارند بلکه به هوش فراگیر مصنوعی مربوط می‌گردند. در آینده در بارۀ این دو فنواژه نیز خواهم نوشت.

Loading