در وضعیتی، یک AGI حتی میتواند مانند انسان صاحب توانایی در هر زمینهای گردد. اما فعلا جای نگرانی نیست، چرا که در حال حاضر این تکنولوژی به اندازه یک سنگ زنده نیست و بیش از یک ماشینحساب، قدرت محاسبه ندارد. اما این موضوع، فناوری مذکور را از انجام کارهای فراانسانی باز نمیدارد.
البته نگرانی و ترس اصلی این است که ماشینها باهوشتر شده و در برابر انسان قد علم کنند. به سبک داستانهای علمی-تخیلی، آنها ممکن است در بهترین حالت تصمیم بگیرند که از انسان محافظت نمایند یا سیاره زمین را نجات دهند، اما در بدترین وضعیت این امکان وجود دارد که آنها قصد جان ما کنند.
البته مورد دوم خوشایند هیچکس نیست و مسلما بحثهای زیادی درباره آن میتواند وجود داشته باشد، اما اجازه دهید تصور کنیم که AGI یا ابرهوش امکان پذیر باشد، در این صورت، بر عهده ماست که فکری برای ظهور احتمالی آن بکنیم؛ اینکه برای متوقف کردن آن، چه کاری میتوان انجام داد.
Michaël Trazzi و Roman V. Yampolskiy محققینی از دانشگاههای سوربن و لوییویل اعتقاد دارند که پاسخ این پرسش در خنگی مصنوعی (Artificial Stupidity) قرار دارد. بله، خنگی مصنوعی! شاید فکر کنید این موضوع، شوخی است اما بههیچوجه اینگونه نیست. اغلب رسانهها دوست دارند تا درباره کشفیات هیجانانگیز صحبت کنند، اما مطالعه مذکور توسط پژوهشگرانی جدی پذیرفته است. در بخشی از این تحقیق بیان شده:
به نظر ما، زمانیکه (تعمدا) محدودیتیهایی بر هوش مصنوعی اعمال میشود تا با تواناییهای انسان در انجام کاری مطابقت داشته باشد، در واقع آن را بهطور مصنوعی خنگ کردهایم. میتوان با محدود کردن قدر محاسبه و حافظه AGI و یا با استفاده از خنگی مصنوعی در برخی زمینههای خاص، آن را بیخطرتر نمود. ما محدودههای هوش بشری را ارزیابی کرده و توصیههایی را در جهت اینکه بهکارگیری کدامیک از این موارد باعث ساخت یک AGI امن و بیخطر خواهد شد، ارایه میکنیم.
واقعیت این است که ماشینها در بسیاری از کارها عملکرد بهتری از انسان دارند. بنابراین اگر به AGI معتقد باشید، میتوانید تصور کنید که تواناییها و قابلیتهای ابرانسانی کنونی آنها، ممکن است منجر به نوعی ابرهوشی واقعی گردد. به گفته پژوهشگران مطالعه حاضر:
انسانها محدودیتهای محاسباتی مشخص (از نظر حافظه، سرعت پردازش و محاسبه) و سوگیریهای شناختی (الگویی که در قضاوت و استدلال انحراف ایجاد کرده و باعث نتیجهگیریهای غیرمنطقی میشود) پیشرفتهای دارند. اما یک AGI چنین محدویتهای محاسباتی و شناختی پیشینی ندارد.
به عقیده این محققین، یک راه برای جلوگیری از طغیان AGI، ایجاد موانع سختافزاری است. اما نباید فراموش کرد که یک کامپیوتر ابرهوشمند میتواند نیروی آنلاین بیشتری را از طریق محاسبات ابری سفارش دهد، یا حتی افرادی را برای انجام آن به خدمت بگیرد.
به گفته آنها، مرحله بعدی باید کدگذاری یک قانون خاص در این نوع کامپیوترها باشد تا آنها نتوانند خود را ارتقا دهند. اما اگر توانستند این کدها را تغییر بدهند چه؟ البته راهحلی برای این مشکل وجود دارد. بهغیر از محدودیتهای سختافزاری، موضوع مهمی که ما انسانها را واقعی میکند تمایلات و سوگیریهای ماست.
وارد کردن سوگیریهای انسانی در AGI چندین مزیت دارد: این جهتگیریها میتوانند هوش AGI را محدود کرده و با جلوگیری از رفتارهایی که ممکن است به انسان آسیب برسانند، آن را کاملا بیخطر سازند.
مطالعه مذکور، ۱۴ سوگیری خاص را لیست کرده که یک شبکه مصنوعی رمزنگاریشده بهوسیله آنها، اساسا خنگتر از آن خواهد بود که بتواند بر هوش بشری برتری یابد. در این فرصت به آنها نمیپردازیم اما اگر میخواهید کل مقاله را بر روی وبسایت arXive بخوانید به اینجا مراجعه نمایید.
بنابراین نتیجهای که تیم تحقیقاتی گرفته این است که خنگی مصنوعی نهتنها ما را از خطر AGI ابرهوشمند محافظت خواهد کرد، بلکه میتواند هوش مصنوعی را هم بیشتر شبیه انسان کند.