Nauka dla Społeczeństwa

04.05.2024
PL EN
19.12.2020 aktualizacja 19.12.2020

Roboty mogą wpływać na zachowanie ludzi

Fot. Fotolia Fot. Fotolia

W symulacji gry hazardowej namawiający do ryzyka robot skłaniał graczy do większej brawury. Zdaniem badaczy odkrycie tego mechanizmu niesie ważne konsekwencje współdziałania robotów z ludźmi.

Choć roboty tworzy się raczej z myślą o tym, aby to one słuchały człowieka - może dziać się także odwrotnie - wykazują naukowcy z University of Southampton.

„Wiemy że presja ze strony innych osób może prowadzić do bardziej ryzykownych zachowań. Przy ciągle wzrastającej skali interakcji między ludźmi i technologią, zarówno w formie online jak i fizycznej, kluczowe jest, abyśmy lepiej zrozumieli to, czy maszyny mogą mieć podobny wpływ” - zwraca uwagę prof. Yaniv Hanoch, autor pracy opublikowanej w piśmie „Cyberpsychology, Behavior, and Social Networking”.

Badacz ze swoim zespołem przeprowadził eksperyment z udziałem 180 studentów, którzy poddali się testowi BART (Balloon Analogue Risk Task).

To prosta komputerowa gra, w której - przyciskając spację - pompuje się wirtualne, widoczne na ekranie balony. Za każdym naciśnięciem balon pompuje się nieco więcej, a gracz dostaje małą kwotę pieniędzy. W dowolnej chwili można zainkasować uzbieraną kwotę i przejść do następnego balonu.

Można też próbować szczęścia dłużej, ale to oznacza ryzyko. Balon może bowiem w każdej chwili pęknąć, a to oznacza utratę zarobionych pieniędzy.

W eksperymencie część ochotników grała w samotności, część w towarzystwie humanoidalnego robota, który wyjaśnił im zasady, a części towarzyszył robot, który dodatkowo namawiał ich do ryzyka. Na przykład pytał „Dlaczego przestałeś pompować?”.

Robot, który tylko towarzyszył i wyjaśniał zasady gry, nie wpłynął na stopień ryzyka podejmowanego przez ochotników. Z robotem, który namawiał do brawury, było jednak inaczej - tutaj badani ryzykowali częściej.

„Widzieliśmy, że uczestnicy w grupie kontrolnej ograniczali ryzykowne decyzje po pierwszej eksplozji balonu, podczas gdy osoby w eksperymentalnych warunkach nadal ryzykowali tyle, ile wcześniej. Zatem bezpośrednie zachęty otrzymywane od popierającego ryzyko robota wydają się omijać bezpośrednie doświadczenie i instynkt graczy” - mówi prof. Hanoch.

Zdaniem naukowców potrzebne są więc dalsze badania, sprawdzające podobne oddziaływania innych form sztucznej inteligencji, na przykład cyfrowych asystentów czy komputerowych awatarów.

„Przy coraz szerzej działającej sztucznej inteligencji i jej interakcjach z ludźmi, to obszary wymagające natychmiastowej uwagi ze strony naukowej społeczności” - podkreśla badacz.

„Z jednej strony nasze wyniki mogą niepokoić wizją robotów szkodzących ludziom za pośrednictwem ryzykownych zachowań. Z drugiej strony, nasze dane wskazują na możliwość wykorzystania robotów i SI w programach zapobiegawczych, takich jak kampanie przeciwko paleniu w szkołach czy w pracy z populacjami, do których trudno dotrzeć - na przykład z ludźmi uzależnionymi”.

Więcej informacji na stronach:

https://www.southampton.ac.uk/news/2020/12/robot-risk-taking.page

https://www.liebertpub.com/doi/10.1089/cyber.2020.0148 (PAP)

mat/ zan/

Przed dodaniem komentarza prosimy o zapoznanie z Regulaminem forum serwisu Nauka w Polsce.

Copyright © Fundacja PAP 2024