• خانه
  • ◀️
  • خبرخوان
  • ◀️
  • چرا Chat GPT در تقلید همدلی فوق العاده خوب است؟

📌 چرا Chat GPT در تقلید همدلی فوق العاده خوب است؟

در اوایل سال جاری “آرویند نارایانان” پروفسور علوم رایانه یک رابط صوتی برای دختر تقریبا چهار ساله خود برای Chat GPT راه اندازی کرد. این تا حدی یک آزمایش بود و تا حدودی به این دلیل که او معتقد بود روزی هوش مصنوعی بخش بزرگی از زندگی دخترش خواهد بود. به گزارش بلومبرگ، دختر نارایانان […]

خبرخوان یک نظر اضافه کنید 7 دقیقه زمان مطالعه
Blog article

blank
امتیاز بدید😊

در اوایل سال جاری “آرویند نارایانان” پروفسور علوم رایانه یک رابط صوتی برای دختر تقریبا چهار ساله خود برای Chat GPT راه اندازی کرد. این تا حدی یک آزمایش بود و تا حدودی به این دلیل که او معتقد بود روزی هوش مصنوعی بخش بزرگی از زندگی دخترش خواهد بود.

به گزارش بلومبرگ، دختر نارایانان به طور طبیعی کنجکاو بود و اغلب در مورد حیوانات، گیاهان و بدن انسان سوالاتی می‌پرسید و او فکر می‌کرد که Chat GPT می‌تواند به پرسش‌های او پاسخ‌های مفیدی بدهد. در کمال تعجب، چت بات توسعه یافته توسط Open AI نیز کار بی عیب و نقصی در نشان دادن همدلی انجام داد زمانی که او به سیستم گفت که با یک کودک کوچک صحبت می‌کند. دخترش پرسید:”زمانی که چراغ‌ها خاموش می‌شوند چه رخ می‌دهد”؟

چت جی پی تی از طریق صدای مصنوعی پاسخ داد:”زمانی که چراغ‌ها خاموش می‌شوند هوا تاریک می‌شود و این موضوع می‌تواند قدری ترسناک باشد”. صدای مصنوعی افزود:”با این وجود، نگران نباشید! کار‌های زیادی وجود دارد که می‌توانید انجام دهید تا در تاریکی احساس امنیت و راحتی کنید”.

سپس توصیه‌هایی در مورد استفاده از چراغ‌های شب ارائه کرد و با یادآوری این نکته به صحبت خود پایان داد:”طبیعی است که در تاریکی کمی احساس ترس کنیم”. او در یک پست Substack نوشت که آن دختر بچه با این توضیح به وضوح اطمینان خاطر حاصل کرد.

شرکت مایکروسافت در رقابت با شرکت آلفابت عجله دارد تا موتور‌های جستجوی خود را با فناوری مدل زبانی بزرگ که زیربنای چت جی پی تی است تقویت کند، اما دلیل خوبی وجود دارد که فکر کنیم این فناوری به عنوان یک همراه عاطفی بهتر از ارائه دهنده حقایق عمل می‌کند.

ممکن است عجیب به نظر برسد، اما عجیب‌تر این است که “بارد” گوگل و “بینگ” مایکروسافت که مبتنی بر فناوری اصلی چت جی پی تی هستند زمانی که سابقه شرم آوری از خطا‌های واقعی داشته باشند به عنوان ابزار جستجو مورد استفاده قرار می‌گیرند: بارد در اولین نسخه نمایشی خود اطلاعات نادرستی درباره تلسکوپ جیمز وب ارائه کرد. هم چنین، بینگ مجموعه‌ای از ارقام مالی را به خودی خود مسخره می‌کرد.

هزینه اشتباهات واقعی زمانی که از چت بات برای جستجو استفاده می‌شود بالاست. “مارگارت میچل” محقق سابق هوش مصنوعی گوگل که مقاله‌ای در مورد خطرات مدل‌های زبان بزرگ نوشته گفته که مدل‌های زبان بزرگ به عنوان موتور‌های جستجو “برای هدف مناسب نیستند”. مدل‌های زبانی اشتباه می‌کنند، زیرا داده‌هایی که براساس آن آموزش دیده اند اغلب شامل خطا می‌شوند به این دلیل که مدل‌ها هیچ حقیقتی برای تایید آن چه می‌گویند ندارند. طراحان آن مدل‌ها هم چنین ممکن است تسلط را بر دقت در اولویت قرار دهند. این یکی از دلایلی است که نشان می‌دهد چرا این ابزار‌ها در تقلید همدلی فوق العاده خوب هستند. در هر حال، آن‌ها از متن‌های برداشته شده از وب از جمله واکنش‌های احساسی پست شده در پلتفرم‌های رسانه‌های اجتماعی مانند توئیتر و فیس بوک و از پشتیبانی شخصی نشان داده شده به کاربران انجمن‌هایی مانند Reddit و Quora یاد می‌گیرند. این ابزار‌ها مکالمات را از فیلمنامه‌های فیلم و برنامه‌های تلویزیونی، دیالوگ‌ها را از رمان‌ها می‌آموزند و مقالات تحقیقاتی در مورد هوش هیجانی همگی وارد ظرف آموزشی می‌شوند تا این ابزار‌ها همدلانه به نظر برسند.

در نتیجه، جای تعجبی ندارد که برخی از افراد از چت جی پی تی به عنوان نوعی درمانگر رباتیک استفاده می‌کنند.

برای آن که ببینیم آیا می‌توانیم توانایی همدلانه چت جی پی تی را اندازه گیری کنیم یک تست هوش هیجانی آنلاین را انجام دادیم. ۴۰ پرسش چند گزینه‌ای به آن ارائه داده و گفتیم که به هر پرسش با یک حرف مربوطه پاسخ دهد. نتیجه این بود: در مسابقه شرکت کرد و در مقوله‌های مرتبط با آگاهی اجتماعی، مدیریت روابط و خود مدیریتی نمرات عالی کسب کرد و در خودآگاهی صرفا اندکی دچار مشکل شد.

در واقع، چت جی پی تی در مسابقه بهتر از ما عمل کرد. چیزی غیر واقعی در مورد ماشینی وجود دارد که با همدلی مصنوعی به ما آرامش می‌دهد، اما در واقع منطقی است. نیاز ذاتی ما به ارتباط اجتماعی و توانایی مغزمان برای انعکاس احساسات دیگران به این معنی است که می‌توانیم درک درستی داشته باشیم حتی اگر طرف مقابل واقعا آن چه را که ما احساس می‌کنیم “احساس” نکند. در داخل مغز ما به اصطلاح نورون‌های آینه‌ای زمانی فعال می‌شوند که ما همدلی دیگران از جمله چت بات‌ها را درک می‌کنیم و به ما کمک می‌کنند احساس ارتباط داشته باشیم.

البته همدلی یک مفهوم چندوجهی است و برای این که ما واقعا آن را تجربه کنیم مسلما به بدن گرم دیگری در اتاق نیاز داریم که برای لحظاتی احساسات مان را به اشتراک بگذارد.

“توماس وارد” روانشناس بالینی در کینگز کالج لندن که در مورد نقش نرم افزار در درمان تحقیق کرده نسبت به این فرضیه هشدار می‌دهد که هوش مصنوعی می‌تواند به اندازه کافی جای خالی افرادی را که به حمایت از سلامت روان نیاز دارند پر کند به خصوص اگر مشکلات آنان جدی باشد. برای مثال، یک چت بات نمی‌پذیرد که احساسات یک فرد برای درک چندان پیچیده باشد. به عبارت دیگر، چت جی پی تی به ندرت می‌گوید “نمی دانم”، زیرا به جای احتیاط در پاسخ هایش به پاسخ دادن حتی اشتباه مبتنی بر اعتماد طراحی شده است.

 

به طور کلی کاربرانی که معمولا به عنوان خروجی احساسات شان به چت بات روی می‌آورند باید مراقب باشند. “وارد” می‌گوید:” جنبه‌های ظریف ارتباط انسانی مانند لمس دست یا دانستن این که چه زمانی صحبت کنیم و چه زمانی گوش کنیم ممکن است در دنیایی که چت بات‌ها راه حلی برای رفع تنهایی انسان قلمداد می‌شوند از بین بروند”.

این امر ممکن است منجر به ایجاد مشکلات بیش تری شود مشکلاتی بیش‌تر از آن چه فکر می‌کنیم در حال حل آن هستیم. با این وجود، ابزار‌های مبتنی بر هوش مصنوعی در حال حاضر دست کم به دلیل مهارت‌های عاطفی شان قابل اعتمادتر از درک حقایق هستند.

امتیاز بدید😊
برچسب ها: تقلید
این مقاله را به اشتراک بگذارید

نویسنده: تحریریه کارینت✅

مطالب فناوری، آموزشی، ترفند های وب و موبایل و کلی مطلب دیگه رو در وبلاگ کارینت دنبال کنید :)  ✍️ اینجا هر کسی میتونه بنویسه!  | 🚀 ما را در تلگرام دنبال کنید (@karynet)

دیگر مقالات این نویسنده را هم بخوانید
نظر بدهید

جدیدترین مقالات

محتوای حمایت شده

جدیدترین ویدیوها

similar content

👌 مطالب زیر را هم مطالعه کنید

حالت مطالعه به نسخه دسکتاپ مرورگر گوگل کروم می‌آید

کاربران به لطف ویژگی جدید مرورگر گوگل می‌توانند ستونی مجزا از محتوای

1 دقیقه زمان مطالعه

مهندس سابق اپل به دزدی فناوری خودروهای خودمختار فوق سری متهم شد

جاسوسی شرکتی در حال حاضر یکی از بزرگترین مسائل در بخش فناوری

1 دقیقه زمان مطالعه

(ویدیو) نگاهی به فولکس واگن ID4 مدل 2023

نگاهی به داخل و بیرون خودروی فولکس واگن ID4 مدل 2023 :)

0 دقیقه زمان مطالعه

بهترین نرم افزار مدیریت تیم و پروژه (معرفی ابزارها و مدل های تیمی)

نرم افزار مدیریت تیم و پروژه با هدف تسهیل همکاری و دستیابی

HTC U23 Pro در رندرهایی که طراحی آن را به نمایش می گذارد به بیرون درز کرد

HTC برنامه ریزی کرده است رویداد راه اندازی برای 18 می. انتظار

0 دقیقه زمان مطالعه

تلگرام در عراق مسدود شد

وزارت ارتباطات عراق اعلام کرد که دسترسی به تلگرام را به دلایل

2 دقیقه زمان مطالعه

نسخه 2023 لپ‌تاپ‌های اچ‌پی ویکتوس 16 و Omen Transcend 16 با RTX 4070 معرفی شدند

اچ‌پی ویکتوس 16 از پردازنده اینتل Core i7-13700HX یا AMD رایزن 7

1 دقیقه زمان مطالعه

نحوه حذف موارد تکراری در Google Sheets

Google Sheets یک ابزار صفحه گسترده قدرتمند است. چه فرمول‌ها را به‌طور

1 دقیقه زمان مطالعه

این صفحه را به اشتراک بگذارید😊

با اشتراک گذاری مطالب ما از ما حمایت کنید