آیا مدلهای هوش مصنوعی مانند GPT-3 میتوانند احساسات را تجربه کنند؟

وقتی جمله ای مانند این را می خوانید، تجربه گذشته شما به شما می گوید که این جمله توسط یک انسان دارای فکر و احساس نوشته شده است، و در این مورد، واقعاً انسانی وجود دارد که این کلمات را تایپ می کند. اما این روزها، برخی از جملات که به طور قابل توجهی شبیه به جملات انسان است، در واقع توسط سیستمهای هوش مصنوعی مانند GPT-3 تولید میشوند که بر روی مقادیر انبوهی از متن تولید شده توسط انسان آموزش دیده اند.
تله فکری زبان روان منجر به گفتار روان
مردم به قدری عادت دارند که فرض کنند که زبان روان از یک تفکر و احساس انسانی ناشی میشود که به سختی میتوان شواهدی خلاف آن را به دست آورد. به دلیل تمایل مداوم به مرتبط کردن بیان روان با تفکر روان که بسیار گمراهکننده است طبیعی است که فکر کنیم که اگر یک مدل هوش مصنوعی بتواند خود را روان بیان کند، به این معنی است که مانند انسانها دارای فکر و احساس است. بنابراین، شاید تعجب آور نباشد که یک مهندس سابق گوگل اخیرا ادعا کرده است که سیستم هوش مصنوعی گوگل به نام LaMDA دارای احساسی از خود است زیرا می تواند به شیوائی متنی را درباره احساسات ادعا شده خود تولید کند. این اتفاق و پوشش رسانهای پس از آن منجر به منتشر شدن تعدادی مقاله و پستهایی شد که به درستی در مورد این ادعا شک کرده بودند که مدلهای محاسباتی زبان، دارای احساس هستند یعنی توانایی تفکر، احساس و تجربه کردن را دارند.
اما به عنوان پژوهشگران زبان، میتوانیم از کار و پژوهشهای خود در علوم شناختی و زبانشناسی استفاده کنیم برای توضیح اینکه چرا برای انسانها بسیار آسان است که در دام شناختی این تفکر بیفتند که موجودی که میتواند زبان را روان استفاده کند، با احساس، آگاه یا باهوش است
استفاده از هوش مصنوعی برای تولید زبان شبه انسانی
تشخیص تفاوت متن تولید شده توسط مدلهایی مانند GPT-3 از متن نوشته شده توسط انسان سخت است. این دستاورد چشمگیر نتیجه یک برنامه چندین دههای برای ساخت مدل هایی است که زبان دستوری و معنادار تولید می کنند.

نسخههای اولیه حداقل به دهه 1950 میرسد که معروف به مدلهای n-gram هستند و به سادگی تعداد عبارات خاصی را شمارش میکردند و از آنها برای حدس زدن کلماتی که احتمالاً در موضوعی خاص رخ میدادند استفاده میکردند. به عنوان مثال، به راحتی می توان فهمید که “کره بادام زمینی و ژله” محتملتر از “کره بادام زمینی و آناناس” است. اگر متن انگلیسی کافی در اختیار باشد، عبارت “کره بادام زمینی و ژله” را بارها و بارها خواهید دید اما ممکن است هرگز عبارت “کره بادام زمینی و آناناس” را نبینید.
مدلهای امروزی از چندین جهت با تلاشهای اولیه متفاوت است. اول اینکه مدلهای امروزی اساساً از کل مطالب موجود در اینترنت آموزش دیدهاند. دوم اینکه، آنها میتوانند روابط بین کلماتی که از هم دور هستند را یاد بگیرند. سوم، این مدلها توسط تعداد زیادی “پارامتر” داخلی تنظیم می شوند، آنقدر زیاد که حتی برای مهندسانی که آنها را طراحی می کنند درک اینکه چرا یک دنباله از کلمات را به جای دنباله دیگری از کلمات ایجاد می کنند دشوار است. برای مثال در این مقاله نحوه کار مدل هوش مصنوعی ChatGPT توضیح داده شده است.
با این حال، وظیفه مدلها مانند دهه 1950 همان است که بود: تعیین شود که احتمالاً کدام کلمه بعدی خواهد آمد. امروزه آنها آنقدر در این کار خوب هستند که تقریباً تمام جملاتی که تولید می کنند روان است و از نظر دستوری طبیعی به نظر می رسند. در این مطلب میت
کره بادامزمینی و آناناس
از یک مدل زبان بزرگ به نام GPT-3 خواسته شد که جمله «کره بادام زمینی و آناناس___» را تکمیل کند. در جمله تولید شده توسط این مدل آمده است که: «کره بادام زمینی و آناناس ترکیبی عالی هستند. طعم شیرین و خوش طعم کره بادام زمینی و آناناس کاملاً مکمل یکدیگر هستند» اگر انسانی این جمله را می گفت، می توان چنین استنباط کرد که کره بادام زمینی و آناناس را با هم امتحان کرده است و نظر خود را در این مورد گفته است.
اما چگونه مدل GPT-3 به این پاراگراف رسید؟ با تولید کلمه ای متناسب با زمینهای (context) که ارائه شد. این مدل هرگز آناناس را ندیده، لمس نکرده یا مزه نکرده است – فقط تمام متون موجود در اینترنت را که به آناناس اشاره می کند پردازش کرده است. با این حال، خواندن این پاراگراف می تواند ذهن انسان – حتی ذهن یک مهندس گوگل – را به تصور GPT-3 به عنوان موجودی باهوش که می تواند در مورد کره بادام زمینی و آناناس استدلال کند، سوق دهد.
کمی کاوش بیشتر می تواند بزرگی این اشتباه را آشکار کند. این جمله را در نظر بگیرید: «کره بادام زمینی و پرها با هم طعم عالی دارند زیرا___”. GPT-3 ادامه داد: «کره بادام زمینی و پر در کنار هم طعم عالی دارند زیرا هر دو طعم آجیلی دارند. کره بادام زمینی نیز صاف و خامه ای است که حس بافت پر را کم میکند. »
متن در این مثال ما در مورد آناناس روان است، اما این بار مدل چیزی به وضوح کمتر معقولانه میگوید و انسان به شک میافتد که درواقع GPT-3 هرگز کره بادام زمینی را با پر را امتحان نکرده است.
نسبتدادن هوش به سیستمها و انکار آن در انسان
یک طنز غم انگیز این است که همان سوگیری شناختی که باعث می شود مردم انسانیت را به GPT-3 نسبت دهند، می تواند باعث شود که آنها با انسانهای واقعی به شیوه های غیرانسانی رفتار کنند. زبان شناسی اجتماعی-فرهنگی نشان می دهد که اگر فرض شود که یک پیوند بسیار محکم بین بیان روان و تفکر روان وجود دارد این خود می تواند منجر به سوگیری علیه افرادی شود که متفاوت صحبت می کنند.
به عنوان مثال، افرادی که لهجه خارجی دارند اغلب به عنوان افرادی با هوش کمتر در نظر گرفته می شوند و احتمال کمتری دارد که مشاغلی را که برای آن واجد شرایطاند را به دست آورند. سوگیریهای مشابهی در مورد افراد ناشنوا که از زبان اشاره استفاده میکنند و افرادی که دارای اختلالات گفتاری مانند لکنت زبان نیز وجود دارد. این سوگیریها عمیقاً برای جامعه مضر هستند و بارها و بارها ثابت شدهاند که بیاساس هستند.
زبان روان به تنهایی دلالت بر انسانیت ندارد
آیا هوش مصنوعی با احساس خواهد شد؟ این پرسش مستلزم بررسی عمیق است و فیلسوفان دههها در مورد آن فکر کردهاند. با این حال، آنچه محققان تشخیص دادهاند این است که وقتی یک مدل زبان به شما میگوید چه احساسی دارد، نمیتوانید به سادگی اعتماد کنید. کلمات می توانند گمراه کننده باشند و فرض کردن گفتار روان با تفکر روان بسیار آسان اما اشتباه است.
دیدگاهتان را بنویسید