مقدمه
فرصت های جدید هوش مصنوعی و احساسات به نفوذ در رفتار کاربران تکنولوژی منجر میشود. برنامه نویسان وب اکنون میتوانند از این فرصت ها استفاده کنند و برنامه های تأثیرگذاری برای محصولات اینترنت اشیا (IoT) طراحی نمایند. اما برخی تأثیرات غیرممکن به نظر میرسد زیرا ما بیشتر تحت تأثیر عوامل فیزیکی مانند رنگ، صدا، بو، گرما و حرکت قرار میگیریم که نمیتوانند در برنامه های اینترنت اشیا منعکس شوند.
با این حال برخی از تکنولوژی های هوش مصنوعی و احساسات راه کارهای جدیدی را برای شبیه سازی هر چه بیشتر محیط های فیزیکی در اپلیکیشن های اینترنت اشیا ارائه دادهاند. با شفاف سازی روند استفاده از تکنولوژی های جدید، میتوانیم با استفاده از محصولات اینترنت اشیا (IoT) و AI آنها را به اهداف اعلام شده خود هدایت کنیم.
اگر هدف ما بهبود شاخص هایی مانند شادی کاربر باشد، ابتدا باید آن را اندازه گیری کنیم. امروزه برای انجام این کار چندین ابزار وجود دارد که حتی بهتر از انسان ها عمل میکنند:
- تشخیص مشخصه فردی
- تجزیه و تحلیل تن صدا
- تشخیص عاطفه
این ابزارها می توانند برای ایجاد تعاملات جدید و برنامه های کاربردی که قبل از آن امکان پذیر نبودند و حتی با بینش هایی که ما قادر به مشاهده آن نبودیم، ترکیب شوند. الزام به دست آوردن این بینش در دستگاه، داشتن حداقل یک یا چند میکروفن، استفاده از تعامل صوتی و بالقوه شامل یک دوربین است.
تشخیص تن صدا
خدمات به رسمیت شناختن گفتار به طور معمول با متن بازگشتی (API ها) امکان پذیر می شود، با این حال، آن ها همچنین می توانند اطلاعات زیادی را در مورد کاربر فراهم آورند. این اطلاعات می توانند به صورت به هنگام در زمان تعامل کاربر یا به طور بالقوه برای تجزیه و تحلیل داده ها در آینده ذخیره شوند. برنامه نویسان تنها با استفاده از تن صدا می توانند اطلاعات زیر را در مورد شخص سخنران به دست آورند:
- جنسیت سخنران
- زبان
- سن
- لهجه
- شناسایی بیومتریک سخنران
در رأس این امور، می توان تشخیص داد که یک یا چند نفر صحبت می کنند. یک توسعه دهنده هوشمند UX می تواند پس از اتمام سخنرانی متن را به گفتار تبدیل نماید یا دیگر ویژگی های گفتاری را مطابق با نظر کاربر تنظیم کند. همچنین، با شناسایی کاربر، ممکن است محتوا به طور خاص به آن کاربر با بارگذاری مشخصات فردی ارائه شود. شرکت هایی که API ها را شناسایی و طبقه بندی میکنند عبارتند از مایکروسافت، Alchemy و Kaggle
تحلیل هوش مصنوعی و احساسات
گام بعدی تجزیه و تحلیل و درک معنی ظریف تر از تشخیص آنچه که کسی می گوید، است. درحالی که درک زبان طبیعی می تواند یک بیانیه را به متن پیوست کند، درک هدف کاربر و همچنین ارجاع به آن متمایز از تجزیه و تحلیل احساسات از انتخاب کلمات کاربر است. در حال حاضر خدمات متعددی توانایی تجزیه و تحلیل متن و ارائه بخش های مختلف زبان را ارائه می دهند.
آی بی ام واتسون یکی از این خدمات است که چندین جنبه از استفاده فرد از زبان و شخصیت را مشخص میکند:
- احساساتی مانند موافقت، خستگی، غرور، محدوده عاطفی، و اجتماعی بودن
- نیازها
- ارزشها
یکی از محدودیت های این خدمات، میزان منبع اطلاعاتی مورد نیاز برای انجام تجزیه و تحلیل است. از نظر واتسون، آنها حداقل 100 کلمه نیاز دارند. این به طور معمول طولانی تر از آنچه کسی در فرمان دادن یک دستگاه با صدای یا یک ورودی معمولی استفاده می کند، می باشد.
چند راه برای ساختن دستگاه وجود دارد. اول، یک راه وجود دارد که می تواند برای کاربران آزار دهنده باشد: ضبط مداوم صدا و تبدیل گفتگو به نوشتار. محدودیت این روش این است که ممکن است بیش از یک نفر صحبت کند و همچنین به طور معمول رونویسی مستمر مستلزم خطا است.
یکی دیگر از روشها، جمع آوری اظهارات افراد در طول زمان و ارسال آن برای تحليل احساسات پس از رسیدن به حداقل زمان ممکن است. نقطهی قوت این روش در سادگی آن است ولی از طرف دیگر ضعف آن این است که تجزیه و تحلیل به هنگام را فراهم نمیکند و هم زمانی بین نمونه ها و محتوا و زمینه میتواند متفاوت باشد. در نتیجه تجزیه و تحلیل ممکن است درهم شکسته و پراکنده شود.
احساس عاطفی
در CES چهار سال پیش، به یاد داشته باشید که در معرض تشخیص احساسات فراتر از قلب است. فوق العاده بود که چگونه این فناوری به نظر می رسید احساسات مختلف سخنران را در زمان واقعی شناسایی کند.
امروزه چند شرکت دیگر وجود دارد که می توانند این را به عنوان API و همچنین از طریق نرم افزار جاسازی شده انجام دهند. این شامل Affectiva، EmoVoice، و Vokaturi است. API علاوه بر صدا، در حال حاضر شامل چشم انداز یادگیری ماشین برای ارائه داده های احساسی در زمان واقعی و ارائه اطلاعات شخصیتی است.
برای مثال، بینگ، هر دو سن، جنس و احساس را بر اساس تجزیه و تحلیل صورت فراهم می کند. هر دستگاهی با یک دوربین می تواند عکس بگیرد، آنها را به API آپلود کند، و به طور مداوم اطلاعات را به هر برنامه ای که به صورت موازی روی دستگاه اجرا میشود، تغذیه کند. شاید بر اساس تشخیص احساسات منفی میتواند وجود داشته باشد؟
عاطفی احساساتی
در کنار همه این ویژگی ها، برخی از میوه های حلق آویز وجود دارد که برای کمک به تکنولوژی ما را برای رسیدن به اهداف ما سوق می دهد. این اهداف ممکن است به صراحت توسط کاربر بیان شده یا توسط دستگاه برطرف شود. اولین برنامه مطابق است. وقتی که من به طرف جنوب کنتاکی تماس گرفتم، گاهی اوقات وقتی که چشم انداز تلفن را پاسخ دادم، خودم را به تصویب رساندم و گفتار من را تسکین داد. تلاش ناخودآگاه این بود که خودم را بیشتر نسبت به شخصی که با آن صحبت می کردم مقایسه کنم.
یک مانع بزرگ برای AI ها برای تشخیص و انجام همان کار در تعاملات صوتی وجود ندارد. Cadence، جنسیت و لحن می تواند خیلی سریع هماهنگ باشد. بر اساس تحلیل احساسات، ما همچنین می توانیم انعطاف پذیری تعامل را تطبیق دهیم. آیا پاسخ کاربر کوتاه است؟ سپس پاسخ های ما باید کوتاه باشد.
برنامه دوم واکنش به احساسات منفی است. هنگام تشخیص عواقب منفی، یک سیستم میتواند پاسخ های مختلفی را برای کاهش منفی انجام دهد:
- پخش موسیقی مورد علاقه کاربر
- تغییر رنگ چراغ ها
- در ابتدا افزایش و سپس کاهش حجم گفتار
- تغییر صدای تأیید
- تغییر زبان مورد استفاده در پاسخ
چالش این است که توسعه دهندگان اکنون باید یک ماتریس ورودیها و پاسخ ها را مدنظر قرار دهند. به عنوان مثال، اگر آمازون قادر به تشخیص احساسات به عنوان بخشی از مهارت الکسا بود، هر دو درخواست کاربر و همچنین احساسات اولیه و ثانوی کاربر را به سازنده مهارت انتقال میداد. سازنده مهارت باید پاسخ های نه تنها برای درخواست کاربر بلکه برای احساسات خود ایجاد کند.
یک فرصت برای توسعه دهندگان برای ایجاد پاسخ های خودکار مبتنی بر هوش مصنوعی و احساسات وجود دارد و برای تطبیق دادن لایه بندی شده، همانطور که در مورد وضعیت ذهن کاربر میدانیم، وجود دارد. این جایی است که ما میتوانیم به یادگیری ماشین بپردازیم تا بدانیم که کدام سازگاری بیشترین تأثیر را در حالت ذهن کاربر دارد.
ما پیشرفت قابل توجهی در زمینه هوش مصنوعی و احساسات داشتهایم. هر روز تکامل مداومی همراه با پیشرفت های سریع وجود دارد. با این حال، مشابه هوش عمومی مصنوعی، به نظر میرسد که ما کاملا دور از دستیابی به هدف ترجمه احساسات به AI هستیم. در حالی که ممکن است کمی دلسرد کننده باشد که هنوز به سطحی نرسیدهایم که بتوانیم مدلهای AI خود را برای بیان احساسات آموزش دهیم، لازم به ذکر است که پیشرفت ما تا کنون قابل توجه و چشمگیر است.
در حال حاضر، تکرار احساسات انسانی برای هوش مصنوعی ممکن نیست. با این حال، مطالعات نشان می دهند که ممکن است AI شکل های خاصی از بیان را تقلید کند. اکنون، بیایید ببینیم که آیا به دست آوردن این احساسات بر رفتار AI نسبت به بشریت تاثیر میگذارد؟ به عبارت سادهتر، آیا این میتواند یک خطر بالقوه برای وجود انسان باشد؟
درک پاسخ صریح به این سوال دشوار خواهد بود. اما، مزایای متعددی از هوش مصنوعی عاطفی وجود دارد. می تواند چشم انداز کسب و کارها را تغییر دهد و فضای کاملا متفاوتی را برای جهان فراهم کند. آن می تواند با فراهم کردن راحتی اجتماعی، درک و ابراز احساسات به نیازمندان و همچنین انبوهی از برنامههای کاربردی صنعتی به روش های مختلف به نفع بشریت باشد.
این یک تهدید ناشناخته است و ترس از ناشناختهها بزرگ ترین تهدید است. در حالی که ابراز احساسات به طور طبیعی چیز خوبی برای انسانها است و در نهایت آنچه که ما به عنوان یک موجودیت زنده هستیم را ترکیب میکند، درک این که نیازهای AI چیست و چگونه چیزها دقیقا تحقق خواهند یافت سخت خواهد بود.
تنها زمان میتواند به این سوالات جذاب پاسخ دهد. صرف نظر از این، گمانه زنی در مورد درخشش هایی که می توانند در آینده نزدیک به دست آیند، سرگرم کننده است. من در مورد آنچه که آینده برای همه ما با پیشرفت های سریع در زمینه هوش مصنوعی و علوم اعصاب نگه می دارد هیجان زده هستم.
نتیجهگیری:
« دنیا برای کسانی که احساس میکنند یک تراژدی است، اما برای کسانی که فکر میکنند یک کمدی است.»
هوش مصنوعی و احساسات یک موضوع درخشان برای حدس و گمان و پیشبینی برای چیزهایی است که در آینده اتفاق میافتند. در این موضوع دامنه وسیعی وجود دارد، و من واقعا هیجانزده هستم که ببینم آینده منتظر چه چیزی است. در این مقاله، ما متوجه شدیم که پیک پتانسیل هوش مصنوعی از نظر احساسات هنوز به دست نیامده است. در حالی که AI میتواند احساسات انسان را تا حدی تقلید کند، اما هنوز هم تکرار آن کاملا کاربردی نیست.
من دوست دارم بدانم شما در مورد این موضوع چه فکر میکنید. لطفا نظرات خود را در مورد این موضوع بیان کنید. همچنین آیا شما در پیشبینی ظهور هوش عمومی مصنوعی و هوش هیجانی در آینده نزدیک هیجانزده هستید؟
مطالب پیشنهادی