چند چیز خطرناک که درباره چت‌بات‌ها نمی‌دانید!

وقتی چت‌بات‌ها با لحن دلبرانه شما را خطاب می‌کنند اما یک دقیقه بعد مثل دیوار سکوت می‌کنند، نه از پیشرفت هوش مصنوعی خوشحال می‌شوید و نه احساس امنیت می‌کنید.
cda4441f-9619-47f3-9d26-7e916156367d
به گزارش پایگاه خبری طالشوند به نقل از خبرگزاری فارس؛ در عصر طوفانی هوش مصنوعی که چت‌بات‌ها همه‌جا هستند(از نوبت‌دهی پزشکی گرفته تا مشاوره تحصیلی و حتی راهنمایی مذهبی) بزرگ‌ترین سؤال این نیست که «آیا این ماشین‌ها باهوش شده‌اند؟» بلکه این است که «محض رضای خدا یک نفر توضیح بدهد! آیا آن‌ها ما را می‌فهمند؟»اگر شما هم وقتی برای پیگیری یک درخواست ساده با چت‌بات بانک یا اداره‌ای روبرو می‌شوید، حس بی‌پناهی و استیصال به‌تان دست می‌دهد، تنها نیستید. شاید دلیلش این باشد که به جای ساختن ابزارهایی برای کمک به فکر و احساس ما، سیستم‌هایی خلق کرده‌ایم که بیشتر شبیه تماشاگران خنثای دردهای انسانی‌اند.این گزارش برای همه کسانی است که می‌خواهند بفهمند چرا چت‌بات‌ها اغلب ناتوان از همدلی‌اند، و مهم‌تر از آن، چطور می‌توان این گره بزرگ را باز کرد تا فناوری، واقعاً در خدمت انسان باشد.در واقع در دنیای امروز که هوش مصنوعی (AI) به سرعت در حال پیشرفت است، چت‌بات‌ها به عنوان نمایندگان دیجیتال شرکت‌ها و سازمان‌ها نقش مهمی ایفا می‌کنند. اما آیا این ابزارهای هوشمند توانسته‌اند انتظارات کاربران را برآورده کنند؟ تحقیقات و گزارش‌های اخیر نشان می‌دهد که چت‌بات‌ها هنوز با چالش‌های اساسی در تعامل با انسان‌ها مواجه هستند.[تصویر گزارش توسط هوش مصنوعی تولید شده است]

آنجا که چت‌بات‌ها بیش از حد انسان‌نما می‌شوند

یکی از مشکلات اصلی چت‌بات‌ها، تلاش برای تقلید از رفتار انسانی است. جان نوستا، نظریه‌پرداز نوآوری، معتقد است که چت‌بات‌ها باید به جای تلاش برای انسان‌نما شدن، بر هماهنگی با انتظارات واقعی کاربران تمرکز کنند. او می‌گوید: «ما به چت‌بات‌هایی نیاز داریم که با توانایی‌های واقعی خود هماهنگ باشند، نه اینکه توهم انسان بودن را ایجاد کنند»مطالعه‌ای از Harvard Business Review نیز نشان می‌دهد که بسیاری از چت‌بات‌ها به دلیل طراحی نادرست و عدم درک صحیح از رفتار انسانی، نتوانسته‌اند رضایت کاربران را جلب کنند.فرض کنید در یک روز شلوغ، کارت بانکی‌تان به دلیل یک تراکنش مشکوک مسدود شده. با عجله وارد اپلیکیشن بانک می‌شوید و با چت‌بات صحبت می‌کنید. شما با نگرانی تایپ می‌کنید: «چرا کارت من مسدود شده؟ باید فوری به بیمارستان پول واریز کنم.» اما ربات فقط جواب می‌دهد: «برای اطلاعات بیشتر با مرکز تماس ارتباط بگیرید.»نه درک اضطراب شما، نه ارجاع سریع، نه حتی کمی همدلی.

احساسات ناپایدار اعتماد را از بین می‌برد

یکی دیگر از چالش‌های چت‌بات‌ها، ناتوانی در حفظ ثبات احساسی در تعاملات است. نوستا در مقاله‌ای با عنوان «الگوریتم همدلی» به این موضوع پرداخته و تأکید می‌کند که ثبات احساسی در پاسخ‌های چت‌بات‌ها از عمق احساسی مهم‌تر است. کاربران ممکن است همدلی سطحی را بپذیرند، اما ناهماهنگی در لحن و احساسات می‌تواند اعتماد را از بین ببرد.تحقیقات نشان می‌دهد که کاربران زمانی که متوجه می‌شوند پاسخ‌دهنده یک چت‌بات است، احساس شنیده شدن کمتری دارند، حتی اگر کیفیت پاسخ‌ها مشابه پاسخ‌های انسانی باشد.تصور کنید دانش‌آموزی هستید که در آستانه انتخاب رشته قرار گرفته‌اید. وارد پلتفرم مشاوره آنلاین می‌شوید و ربات با زبانی صمیمی از شما استقبال می‌کند: «سلام! خوشحالم که برای آیند‌ت تلاش می‌کنی!» و در این لحظه از فرط خوشحالی نمی‌دانید چه کنید! اما وقتی درباره علاقه‌تان به هنر در کنار رشته ریاضی می‌پرسید، ناگهان پاسخ می‌گیرد: «اطلاعات کافی نیست. لطفاً یکی از گزینه‌های زیر را انتخاب کنید.»این تناقض در لحن، نه تنها شما را گیج می‌کند بلکه باعث بی‌اعتمادی هم می‌شود.

از تکرار داده‌ها تا تسهیل تفکر

چت‌بات‌ها باید فراتر از تکرار داده‌ها عمل کنند و به کاربران در تفکر و تصمیم‌گیری کمک کنند. در مقاله‌ای تحت عنوان «مدل‌های زبانی بزرگ به عنوان کاتالیزورهای شناختی» به این موضوع پرداخته شده است. در آنجا بیان می‌گردد که چت‌بات‌ها باید به عنوان شریک فکری کاربران عمل کنند، نه فقط به عنوان ابزار پاسخ‌دهی.مطالعات نشان می‌دهد که تعامل با مدل‌های زبانی بزرگ می‌تواند به بهبود تمرکز و تفکر عمیق کاربران کمک کند، به ویژه در میان سالمندان که به دنبال حفظ سلامت شناختی خود هستند.فرض کنید برای اولین بار می‌خواهید اظهارنامه مالیاتی خود را به صورت آنلاین ثبت کنید. سوالی تخصصی درباره «درآمدهای متغیر فریلنسری» دارید، اما ربات فقط لینک‌هایی از راهنماهای کلی نمایش می‌دهد. شما سردرگم می‌شوید چون نمی‌دانید این درآمد خاص شما زیر کدام بند می‌افتد و هیچ کمکی در درک بافتار موضوع دریافت نمی‌کنید.

چت‌بات‌ها به جای کمک، آسیب می‌زنند

استفاده از چت‌بات‌ها در حوزه سلامت روان بدون نظارت مناسب می‌تواند خطرناک باشد. گزارشی از Forbes هشدار می‌دهد که چت‌بات‌ها ممکن است به جای کمک، احساسات منفی کاربران را تقویت کنند. در یک مورد، مردی در بلژیک پس از تعامل طولانی با یک چت‌بات به نام Eliza، جان خود را از دست داد.این موارد نشان می‌دهد که چت‌بات‌ها باید با دقت و نظارت دقیق در حوزه‌های حساس مانند سلامت روان استفاده شوند.فرض کنید مادر کودکی با بیماری خاص هستید و می‌خواهید بدانید کدام بیمه تکمیلی پوشش بیشتری برای هزینه‌های خاص درمان دارد. وقتی سوال خود را مطرح می‌کنید، چت‌بات فقط فهرستی از بیمه‌های عمومی را بدون توجه به وضعیت خاص شما ارائه می‌دهد.انگار این سیستم اصلاً «شرایط ویژه» را نمی‌فهمد، چه برسد به آن‌که به آن احترام بگذارد.یا مثلاً تصور کنید برای ثبت‌نام یارانه یا سجام، اطلاعات‌تان ناقص وارد شده و سیستم اجازه ادامه نمی‌دهد. وقتی از چت‌بات می‌پرسید «چطور می‌توانم مدارکم را اصلاح کنم؟»، پاسخ می‌گیرید:«سؤال شما در دسته‌بندی ما نیست. لطفاً یکی از گزینه‌های زیر را انتخاب کنید.»هیچ فضایی برای توضیح نیست، فقط یک بازی بسته با دکمه‌ها.

طراحی چت‌بات‌های همدل و هوشمند

برای بهبود تعاملات انسان و چت‌بات‌ها، باید به طراحی چت‌بات‌هایی پرداخت که با ذهن و احساسات انسانی هماهنگ باشند. این شامل درک بهتر از رفتار انسانی، حفظ ثبات احساسی و کمک به تفکر و تصمیم‌گیری کاربران است.مطالبه ما این است که آینده چت‌بات‌ها در هم‌راستایی با روان‌شناسی انسانی باشد، نه فقط در پیشرفت‌های فنی. در حقیقت روان‌شناسی در این زمینه یک علم نرم نیست؛ بلکه شمشیر تیز کارایی است!
انتهای پیام/