29 lipiec 2019
Dlaczego Siri i Alexa są kobietami, czyli informatyka afektywna w praktyce
W oczekiwaniu na empatyczne, rozumiejące emocje roboty jest być może tyle samo nadziei, co obaw. Mogą one być dużą pomocą na przykład w obsłudze klienta lub w opiece na osobami starszymi i obłożnie chorymi. A co, jeśli maszyny wykorzystają nowe możliwości wbrew naszym oczekiwaniom?
Czym jest informatyka afektywna?
Amerykański psycholog Paul Ekman podróżował po świecie, aby zbadać emocje ludzi różnych kultur i ras i stwierdzić, że istnieje sześć emocji, które rozpoznajemy niezależnie od różnic kulturowych. Na podstawie wielkiego zbioru fotografii ocenianych przez różnych ludzi wykazał, że gniew, obrzydzenie, pogarda, strach i smutek są tak samo wyrażane i powszechnie rozpoznawane przez różne społeczeństwa. Badanie Ekmana opisane przez niego w książce z 1978 r. można uznać za rodzaj pierwotnej genezy współczesnej informatyki afektywnej, chociaż lista emocji, którymi zajmuje się ona obecnie jest dużo dłuższa.
Nazwę „affective computing” (przetłumaczoną na język polski jako „informatyka afektywna”) nadała nowej dziedzinie nauki Rosalind Picard – profesor Massachusetts Institute of Technology. Nauka ta zajmuje się sposobami i narzędziami rozpoznawania, analizy, interpretacji i symulacji stanów emocjonalnych użytkowników komputerów oraz innych urządzeń cyfrowych i mobilnych. Dokonuje się tego na podstawie skodyfikowania różnorodnych cech i zachowań, jak mimika twarzy, postawa ciała, parametry fizjologiczne, głos, wypowiadanie określonych słów. Precyzyjny opis stanów emocjonalnych człowieka umożliwia informatyczne przetwarzanie danych, budowanie aplikacji i modeli interwencji afektywnych, analizę ładunku emocjonalnego tekstu oraz – co bardzo ważne – naśladowanie stanów emocjonalnych na potrzeby wirtualnych postaci. Dyscyplina ta łączy informatykę z psychologią, kognitywistyką, neurobiologią, socjologią, edukacją, projektowaniem, a w końcu, i z etyką. Skwantyfikowanie i uporządkowanie emocji pozwala maszynom lepiej je zrozumieć i odtwarzać, dzięki czemu w przyszłości staną się one naszymi towarzyszami. Możliwości te wykorzystują już funkcjonujące z powodzeniem projekty, takie jak Alexa Amazonu czy Siri Apple. Nawiasem mówiąc – pierwsze boty to postacie kobiet. Dlaczego? O tym w dalszej części artykułu.
Gdzie może być zastosowana informatyka afektywna?
Za pomocą precyzyjnego pomiaru mimiki twarzy urządzenia badają reakcje użytkownika na prezentowane mu treści: czy podoba mu się film, czy reklama go nie nudzi, czy gra jest dość wciągająca? Odpowiednio wyposażony robot jest też w stanie zauważyć, że ktoś ma obniżony nastrój albo nawet depresję. W Japonii roboty już opiekują się osobami starszymi, dają im poczucie, że są rozumiane, że robot im współczuje, pomoże w razie potrzeby. W naszej kulturze trudno póki co wyobrazić sobie tego rodzaju interakcję starszego człowieka z maszyną, ale już depresjomierz w telefonie w postaci aplikacji, która rozpozna tembr głosu i wstępnie zdiagnozuje pogorszony stan zdrowia, wydaje się zupełnie realny i przydatny. Takie urządzenia mogą być bardzo pomocne w badaniu i leczeniu dzieci, które nie potrafią zwerbalizować swoich emocji.
Różnorodne zastosowania informatyki afektywnej można wyobrazić sobie w dziedzinie IoT. Na przykład w inteligentnym aucie, które rozpozna, jak czuje się jego właściciel, czy nie jest zbyt wzburzony lub zmęczony, aby je prowadzić. System może zaproponować w takim momencie przerwę w podróży lub włączyć ulubioną muzykę, żeby kierowca się zrelaksował.
Informatyka afektywna w marketingu
Zastosowanie informatyki afektywnej w celu zrozumienia zachowań, wyborów i decyzji konsumentów jest niewątpliwie drogą do osiągnięcia wyższych przychodów i lepszej sprzedaży. Nie od dziś wiadomo także, że to emocje wyzwalają sposób, w jaki jednostki angażują się w marki i produkty. Rozpoznanie tych emocji i możliwość odpowiedniego zareagowania na nie będzie sposobem na zwiększenie satysfakcji klienta i osiągnięcie sukcesu biznesowego.
Pierwszym obszarem, który w sposób oczywisty skorzysta z technologii, jakie rozwiną się dzięki nowej nauce, są badania konsumenckie. Tradycyjnie stosowane techniki, takie jak ankiety i grupy fokusowe, nie mierzą dokładnie reakcji emocjonalnych i są podatne na błędy. Stosuje się je często w zaaranżowanych sytuacjach. Żaden sondaż nie zastąpi odczytywania w czasie rzeczywistym emocji klienta przeglądającego ofertę sklepu internetowego czy nawet tradycyjnego i bieżąca rejestracja wywołanego wrażenia. Potem trzeba tylko dokładnie przeanalizować pozyskane dane.
W sklepie tradycyjnym sprzedawca doskonale odbiera emocje klienta, jeśli jest sprawny, odczyta nawet reakcję na kolor produktu. Sklep internetowy wyposażony w odpowiedni mechanizm korzystający z affective computing może automatycznie dostosowywać towary w czasie rzeczywistym w zależności od nastroju kupującego. Podobne systemy i procesy można wykorzystywać do testowania produktów, stron internetowych, aplikacji. Chatbot, z którym rozmawia klient, może dobrać odpowiedni ton głosu oraz słownictwo i może być skonstruowany tak, aby wzbudzić zaufanie rozmówcy, dać mu poczucie, że jest dobrze zrozumiany i bezpieczny.
Eksperci, którzy stworzyli Siri i Alexę, wykorzystali fakt, że na ogół bardziej ufamy kobiecemu głosowi, niż męskiemu, co potwierdzone jest w badaniach. Psycholog Phil McAleer z University of Glasgow przeprowadził eksperyment, dzięki któremu wykazał, że wyższy ton kobiecego głosu budzi większe zaufanie niż niższy – męskiego, który uczestnicy badania uznali za przytłaczający. Kobiecy głos wypowiadający frazę z obniżonym tonem na końcu daje wrażenie, że rozmówczyni jest pewna tego co mówi, a to wzmacniało pewność respondenta. Z kolei w ankiecie agencji badań marketingowych Harris Interactive badani stwierdzili, że słuchając kobiecego głosu czuli się komfortowo, a ludzie, którzy czują się komfortowo są bardziej skłonni zaufać rozmówcy. Profesor Clifford Nass z Uniwersytetu Stanford zauważył natomiast, że preferencje co do głosu kobiecego wykształcają się w ludzkim mózgu w czasie rozwoju: jeszcze przed narodzeniem dziecko reaguje na głos matki, a nie na inne ludzkie głosy. Wszystko to sprawia, że głos kobiecy daje użytkownikowi poczucie, że rozmawia z kimś, kto chce mu pomóc w rozwiązaniu problemu, a nie po prostu nakazuje mu zakup lub wymusza inną decyzję. To właśnie wyjaśnia płeć Alexy i Siri, a jednocześnie pokazuje, jak informatyka afektywna korzysta z innych nauk.
Pozostaje kwestia poczucia komfortu użytkownika, który ma do czynienia z interfejsem zbudowanym zgodnie z najnowszymi osiągnięciami techniki. Czy kiedyś tak do końca zaufamy robotom? Jakie emocje będzie wywoływał kontakt z uśmiechniętą maszyną? Z badań Masahiro Mori wynika, że istnieje pewna granica, za którą zbyt przypominająca człowieka maszyna wywołuje w nas niemiłe uczucie, nawet strach. Ten efekt nazywa się doliną niesamowitości. Aby mądrze wykorzystać zdobycze informatyki afektywnej, marketing musi stać bardzo blisko swojego klienta i bacznie obserwować… jego reakcje emocjonalne i zachowania, a dalej – wyniki swojej firmy.