26.03.2019
PL EN
17.12.2018 aktualizacja 17.12.2018
Kamil Szubański
Kamil Szubański

System do klasyfikacja emocji na podstawie wzroku w dialogach gier wideo

Fot. Fotolia Fot. Fotolia

System do klasyfikacji emocji użytkownika w scenie dialogowej gry wideo, na podstawie analizy wzroku gracza, opracowali naukowcy z Wydziału Fizyki Technicznej, Informatyki i Matematyki Stosowanej Politechniki Łódzkiej. Wykorzystują w nim Eye-Trackera pozwalającego na kontrolowanie komputera za pomocą wzroku użytkownika.

"Nasze rozwiązanie może znacząco wpłynąć na przyszłe sposoby interakcji człowiek – komputer oraz pozyskiwane przez maszyny informacje na temat użytkownika w grach wideo” – mówi PAP współtwórca rozwiązania mgr inż. Konrad Jadwiszczak z PŁ.

Obecnie, dzięki szybkiemu rozwojowi technologii oraz mocy obliczeniowej maszyn, na rynek gier wprowadzane są nowe rozwiązania wspierające obsługę komputerów oraz konsol przez ruch ciała, zmysły oraz stany emocjonalne użytkownika.

„Pozwalają one na uzyskanie informacji nie tylko w formie zero–jedynkowej jak mysz i klawiatura, ale także dodatkowych informacji na temat użytkownika. Takie rozwiązania wprowadzane w rozrywce multimedialnej wpływają znacząco na zjawisko immersji, czyli głębokie zaangażowanie się użytkownika w rzeczywistość wirtualną” - wyjaśnił współtwórca systemu.

Jedynym z nich takich rozwiązań jest Eye–Tracking, które pozwala na kontrolowanie komputera za pomocą wzroku użytkownika. Można go jednak wykorzystać także do innych celów. System stworzony na Wydziale Fizyki Technicznej, Informatyki i Matematyki Stosowanej PŁ wykorzystuje Eye-Tracking do klasyfikacji emocji użytkownika w scenie dialogowej gry wideo na podstawie analizy wzroku gracza.

Według twórców systemu, bazując na cechach użytkownika, tj. wielkości źrenicy oka czy częstotliwości mrugania oczami, możliwe jest określenie aktualnego stanu emocjonalnego badanej osoby. Aby przenieść rozwiązanie do rozrywki multimedialnej, mgr inż. Konrad Jadwiszczak i dr inż. Jarosław Andrzejczak stworzyli klasyfikator, który bazując na wartościach możliwych do odczytania przez Eye–Trackera, jest w stanie rozpoznać aktualny stan emocjonalny badanej osoby.

Pozwala to wykorzystać uzyskaną informację w świecie wirtualnym, w tym przypadku stan emocjonalny, który ma wpływ na przebieg sceny dialogowej w grze wideo.

„Zaimplementowany algorytm decyduje o dalszym przebiegu rozmowy bazując nie tylko na opcjach wybranych przez użytkownika za pomocą tradycyjnego kontrolera, ale również na towarzyszących mu w danej chwili emocjach, często wywołanych przebiegiem dialogu w grze wideo” - zaznaczył dr inż. Jarosław Andrzejczak, drugi z autorów rozwiązania.

Naukowiec podaje przykład zastosowania systemu. Jeśli wypowiedź NPC, czyli postaci w grach wideo, w którą nie wciela się żaden z graczy, spowoduje u gracza zdziwienie, taka emocja zostanie rozpoznana przez stworzony klasyfikator.

„W wyniku tego postać, z którą rozmawiamy, może zapytać nas, dlaczego jesteśmy tym stwierdzeniem zaskoczeni. Analogiczne reakcje można przypisać do pozostałych rozpoznawanych emocji, dzięki czemu dialogi w grze wideo mogą być bardziej naturalne i wpływać pozytywnie na poczucie realizmu” - przekonuje dr Andrzejczak.

Badania wykazały znaczne zwiększenie immersji użytkownika w scenie dialogowej z użyciem Eye–Trackera w stosunku do sceny dialogowej bez wykorzystania urządzenia – dodają naukowcy.

PAP - Nauka w Polsce

szu/ agt/

Copyright © Fundacja PAP 2019