احتمالا میدانید که در طراحی سیستمهای مبتنی بر هوش مصنوعی از قدرت هوش و ذهن انسان الگوبرداری شده است. آیا ممکن است همانطور که برخی از انسانها از اختلالات مختلف شخصیتی و روانتنی رنج میبرند و نیاز به درمان دارند و گاهی با درمان درست بهبودی برایشان حاصل میشود، سیستمهای مبتنی بر هوش مصنوعی هم دچار اختلالاتی همانند اختلالات شخصیتی در انسانها شوند؟ آیا ممکن است در آیندهی نزدیک همان مسایلی که در رفتار برخی انسانها مشاهده میکنیم، روزی در هوش مصنوعی هم ببینیم؟ و آیا ممکن است روزی فرا برسد که محققان به فکر درمان اختلالات ناشی از هوش مصنوعی بیافتند؟
چندی پیش محققان MIT یک هوش مصنوعی روانی (Psychopathic AI) به نام نورمن (Norman) طراحی کردند که با الگوریتمهایی، شبیه به یک فرد روانی عمل میکرد و به چیزی جز قتل و کشتار نمیاندیشید. هدف محققان MIT از طراحی نورمن، نشان دادن نیمهی تاریک و خطرناک هوش مصنوعی بود.
محققان دانشگاه ایالتی کانزاس هم مطالعاتی در زمینهی خطرات هوش مصنوعی انجام دادهاند. آنها بر این باورند که با توجه به اینکه هوش مصنوعی در حالت بسیار پیچیده رشد میکند و در حال توسعه است، این احتمال وجود دارد که با «چالش پیچیدگی» مواجه شویم. چالش پیچیدگی در سیستمهای مبتنی بر هوش مصنوعی، چیزی شبیه به اختلالات شخصیتی در انسانها است؛ البته با توجه به دههها تلاش و گستردگی دانش موجود در زمینهی درمان اختلالات شخصیتی در انسانها و کمک به درمان افراد مبتلا به PTSD و افسردگی وبیماریهای روانی، شاید بتوان مجددا از همان اطلاعات و دانش برای درمان اختلالات و پیچیدگی های سیستمهای مبتنی بر هوش مصنوعی هم کمک گرفت.
رفتار درمانی شناختی (CBT) تلاش میکند که بهصورت سیستماتیک، احساسات و رفتارهای ناکارآمد را در انسانها نشانه بگیرد و تغییر بدهد. آیا ممکن است همین روش سیستماتیک برای تغییر رفتار در سیستمهای مبتنی بر هوش مصنوعی نیز به کار برده شود؟ از آنجایی که چارچوبهای فکری سیستمهای مبتنی بر هوش مصنوعی، شباهتهای بسیاری به چارچوبهای فکری انسانها در حین فکر کردن دارد، لذا برای شناسایی سوءرفتار، تشخیص اختلالات هوش مصنوعی و سپس شناسایی سیستمی برای درمان و حل مسائل رفتاری، میتوان از روشهای درمان مورد استفاده برای انسانها کمک گرفت.
برای درمان هوش مصنوعی، محققان دو روش را برای شروع پیشنهاد میکنند. اولین روش، «آموزش اصلاح شونده» است که کمتر حالت تهاجمی دارد و منطبق بر رفتارشناسی درمانی برای انسانها تبیین شده است. دومین روش که بیشتر به درمان دارویی شباهت دارد، با دستکاری سیگنالهای پاداش از طریق ابزارهای خارجی، به عنوان راهی برای تغییر رفتار اساسی هوش مصنوعی مورد استفاده قرار میگیرد. در مقالهای در همین رابطه نوشته شده است:
هنگامی که اختلالی در عامل هوش مصنوعی رخ میدهد، همیشه مجاز به حذف یا بازنشانی عامل نیستیم.
بهطور خلاصه نمیتوانیم با یک بار خاموش و روشن کردن، از بروز اختلال خلاص شویم. با اینکه موارد مطرح شده در این مقوله، تنها بهصورت خلاصه به نقطهی شروع اختلالات هوش مصنوعی اشاره دارد، اما طرح چنین موضوعاتی بسیار جذاب و هیجانانگیز است. هنگامی که شما مقولهای همچون اضطراب را در سیستم مبتنی بر هوش مصنوعی در نظر میگیرید، واقعا بررسی آن جالب است. تصور اینکه روزی مجبور شویم با تحلیلهای روانشناختی فروید به هوش مصنوعی نگاه کنیم و آن را مورد تجزیه و تحلیل قرار دهیم، واقعا کمی دور از ذهن به نظر میرسد؛ ولی وقتی موضوعاتی مربوط به آیندهی هوش مصنوعی مطرح میشود که خبر از برخی اختلالات رفتاری میدهد، نمیتوانیم چنین آیندهای را خیالی تصور کنیم. شاید روزی فرا برسد که چنین تجزیه و تحلیلهای رفتارشناختی روی هوش مصنوعی هم انجام شود و کاربرد داشته باشد.