به گزارش پایگاه خبری طالشوند به نقل از خبرگزاری فارس؛ در عصر طوفانی هوش مصنوعی که چتباتها همهجا هستند(از نوبتدهی پزشکی گرفته تا مشاوره تحصیلی و حتی راهنمایی مذهبی) بزرگترین سؤال این نیست که «آیا این ماشینها باهوش شدهاند؟» بلکه این است که «محض رضای خدا یک نفر توضیح بدهد! آیا آنها ما را میفهمند؟»اگر شما هم وقتی برای پیگیری یک درخواست ساده با چتبات بانک یا ادارهای روبرو میشوید، حس بیپناهی و استیصال بهتان دست میدهد، تنها نیستید. شاید دلیلش این باشد که به جای ساختن ابزارهایی برای کمک به فکر و احساس ما، سیستمهایی خلق کردهایم که بیشتر شبیه تماشاگران خنثای دردهای انسانیاند.این گزارش برای همه کسانی است که میخواهند بفهمند چرا چتباتها اغلب ناتوان از همدلیاند، و مهمتر از آن، چطور میتوان این گره بزرگ را باز کرد تا فناوری، واقعاً در خدمت انسان باشد.در واقع در دنیای امروز که هوش مصنوعی (AI) به سرعت در حال پیشرفت است، چتباتها به عنوان نمایندگان دیجیتال شرکتها و سازمانها نقش مهمی ایفا میکنند. اما آیا این ابزارهای هوشمند توانستهاند انتظارات کاربران را برآورده کنند؟ تحقیقات و گزارشهای اخیر نشان میدهد که چتباتها هنوز با چالشهای اساسی در تعامل با انسانها مواجه هستند.[تصویر گزارش توسط هوش مصنوعی تولید شده است]
آنجا که چتباتها بیش از حد انساننما میشوند
یکی از مشکلات اصلی چتباتها، تلاش برای تقلید از رفتار انسانی است. جان نوستا، نظریهپرداز نوآوری، معتقد است که چتباتها باید به جای تلاش برای انساننما شدن، بر هماهنگی با انتظارات واقعی کاربران تمرکز کنند. او میگوید: «ما به چتباتهایی نیاز داریم که با تواناییهای واقعی خود هماهنگ باشند، نه اینکه توهم انسان بودن را ایجاد کنند»مطالعهای از Harvard Business Review نیز نشان میدهد که بسیاری از چتباتها به دلیل طراحی نادرست و عدم درک صحیح از رفتار انسانی، نتوانستهاند رضایت کاربران را جلب کنند.فرض کنید در یک روز شلوغ، کارت بانکیتان به دلیل یک تراکنش مشکوک مسدود شده. با عجله وارد اپلیکیشن بانک میشوید و با چتبات صحبت میکنید. شما با نگرانی تایپ میکنید: «چرا کارت من مسدود شده؟ باید فوری به بیمارستان پول واریز کنم.» اما ربات فقط جواب میدهد: «برای اطلاعات بیشتر با مرکز تماس ارتباط بگیرید.»نه درک اضطراب شما، نه ارجاع سریع، نه حتی کمی همدلی.
احساسات ناپایدار اعتماد را از بین میبرد
یکی دیگر از چالشهای چتباتها، ناتوانی در حفظ ثبات احساسی در تعاملات است. نوستا در مقالهای با عنوان «الگوریتم همدلی» به این موضوع پرداخته و تأکید میکند که ثبات احساسی در پاسخهای چتباتها از عمق احساسی مهمتر است. کاربران ممکن است همدلی سطحی را بپذیرند، اما ناهماهنگی در لحن و احساسات میتواند اعتماد را از بین ببرد.تحقیقات نشان میدهد که کاربران زمانی که متوجه میشوند پاسخدهنده یک چتبات است، احساس شنیده شدن کمتری دارند، حتی اگر کیفیت پاسخها مشابه پاسخهای انسانی باشد.تصور کنید دانشآموزی هستید که در آستانه انتخاب رشته قرار گرفتهاید. وارد پلتفرم مشاوره آنلاین میشوید و ربات با زبانی صمیمی از شما استقبال میکند: «سلام! خوشحالم که برای آیندت تلاش میکنی!» و در این لحظه از فرط خوشحالی نمیدانید چه کنید! اما وقتی درباره علاقهتان به هنر در کنار رشته ریاضی میپرسید، ناگهان پاسخ میگیرد: «اطلاعات کافی نیست. لطفاً یکی از گزینههای زیر را انتخاب کنید.»این تناقض در لحن، نه تنها شما را گیج میکند بلکه باعث بیاعتمادی هم میشود.
از تکرار دادهها تا تسهیل تفکر
چتباتها باید فراتر از تکرار دادهها عمل کنند و به کاربران در تفکر و تصمیمگیری کمک کنند. در مقالهای تحت عنوان «مدلهای زبانی بزرگ به عنوان کاتالیزورهای شناختی» به این موضوع پرداخته شده است. در آنجا بیان میگردد که چتباتها باید به عنوان شریک فکری کاربران عمل کنند، نه فقط به عنوان ابزار پاسخدهی.مطالعات نشان میدهد که تعامل با مدلهای زبانی بزرگ میتواند به بهبود تمرکز و تفکر عمیق کاربران کمک کند، به ویژه در میان سالمندان که به دنبال حفظ سلامت شناختی خود هستند.فرض کنید برای اولین بار میخواهید اظهارنامه مالیاتی خود را به صورت آنلاین ثبت کنید. سوالی تخصصی درباره «درآمدهای متغیر فریلنسری» دارید، اما ربات فقط لینکهایی از راهنماهای کلی نمایش میدهد. شما سردرگم میشوید چون نمیدانید این درآمد خاص شما زیر کدام بند میافتد و هیچ کمکی در درک بافتار موضوع دریافت نمیکنید.
چتباتها به جای کمک، آسیب میزنند
استفاده از چتباتها در حوزه سلامت روان بدون نظارت مناسب میتواند خطرناک باشد. گزارشی از Forbes هشدار میدهد که چتباتها ممکن است به جای کمک، احساسات منفی کاربران را تقویت کنند. در یک مورد، مردی در بلژیک پس از تعامل طولانی با یک چتبات به نام Eliza، جان خود را از دست داد.این موارد نشان میدهد که چتباتها باید با دقت و نظارت دقیق در حوزههای حساس مانند سلامت روان استفاده شوند.فرض کنید مادر کودکی با بیماری خاص هستید و میخواهید بدانید کدام بیمه تکمیلی پوشش بیشتری برای هزینههای خاص درمان دارد. وقتی سوال خود را مطرح میکنید، چتبات فقط فهرستی از بیمههای عمومی را بدون توجه به وضعیت خاص شما ارائه میدهد.انگار این سیستم اصلاً «شرایط ویژه» را نمیفهمد، چه برسد به آنکه به آن احترام بگذارد.یا مثلاً تصور کنید برای ثبتنام یارانه یا سجام، اطلاعاتتان ناقص وارد شده و سیستم اجازه ادامه نمیدهد. وقتی از چتبات میپرسید «چطور میتوانم مدارکم را اصلاح کنم؟»، پاسخ میگیرید:«سؤال شما در دستهبندی ما نیست. لطفاً یکی از گزینههای زیر را انتخاب کنید.»هیچ فضایی برای توضیح نیست، فقط یک بازی بسته با دکمهها.
طراحی چتباتهای همدل و هوشمند
برای بهبود تعاملات انسان و چتباتها، باید به طراحی چتباتهایی پرداخت که با ذهن و احساسات انسانی هماهنگ باشند. این شامل درک بهتر از رفتار انسانی، حفظ ثبات احساسی و کمک به تفکر و تصمیمگیری کاربران است.مطالبه ما این است که آینده چتباتها در همراستایی با روانشناسی انسانی باشد، نه فقط در پیشرفتهای فنی. در حقیقت روانشناسی در این زمینه یک علم نرم نیست؛ بلکه شمشیر تیز کارایی است!
انتهای پیام/