Strona główna Aktualności

Dobry robot

23.08.2017 Blog

Fot. Fotolia

Sztuczna inteligencja i roboty coraz śmielej wkraczają między ludzi. Aby zapobiec nieszczęściom i zapewnić komfortową pracę z maszynami naukowcy starają się nauczyć je moralności.

Pierwsze prawo: robot nie może skrzywdzić człowieka, ani z powodu zaniechania działania dopuścić do jego krzywdy. Drugie prawo: robot musi być posłuszny poleceniom człowieka, jeśli nie stoją one w sprzeczności z pierwszym prawem. Trzecie: robot musi chronić siebie samego, o ile nie jest to sprzeczne z pierwszym i drugim prawem. Słynny pisarz science-fiction Isaac Asimov stworzył te reguły już w 1942, potem dodał jeszcze prawo zerowe - robot nie może skrzywdzić ludzkości, lub w wyniku zaniechania akcji doprowadzić, aby doznała uszczerbku. Fantastyka powoli staje się rzeczywistością i w obliczu komputerów, które decydują o przyznaniu kredytu, sterują samochodami czy maszynami latającymi; robotów, które powoli wkraczają do domów, szpitali czy na ulice (na przykład Dubaj testuje roboty – policjantów) moralność maszyn staje się coraz bardziej potrzebna.

 

Czy jednak prawa Asimova wystarczą? Nawet w jego książkach czasami stwarzały problemy, a na szali leżało nie tylko dobro pojedynczego człowieka. Postacie znane ze świata nauki i nowych technologii jak np. Stephen Hawking czy Elon Musk głośno wręcz ostrzegają przed inteligencją zamkniętą w krzemowych procesorach.

 

Jej rozwój jednak przyspiesza i naukowcy na poważnie zajęli się uczeniem maszyn moralności. Problem jest skomplikowany. Bo jak ma na przykład zachować się autonomiczny samochód, przed który na drogę wybiegło dziecko z piłką? Czy ma je potrącić, czy skręcić w jedną stronę i rozjechać postronnego dorosłego, czy może skręcić w drugą stronę i uderzyć w drzewo ryzykując śmierć kierowcy i pasażerów?

 

Eksperci próbują różnych sposobów, by wpoić komputerom i robotom właściwe zachowanie. Naukowcy z University of Osnabrück pracują na przykład nad etycznym modelem jazdy po ulicy. Twierdzą, że różnym "obiektom" na drodze można nadać odpowiednią wartość, i tak na przykład człowiek będzie wart więcej, niż inny samochód czy pies, więc komputerowy kierowca będzie go chronił. "Ludzkie zachowanie w obliczu dylematów może być odtworzone przy pomocy całkiem prostego modelu opartego na wartości życia, przypisywanej istotom ludzkim, zwierzętom czy obiektom martwym" - mówi jeden z twórców pomysłu, Leon Sütfeld. Niektóre wybory mogą być jednak trudne i przez wiele osób etycznie kwestionowane, jak np. w sytuacji z dzieckiem i przechodniem.

 

Tymczasem sztuczna inteligencja, w skrócie nazywana AI (ang. artificial intelligence) wykracza daleko poza autonomiczne samochody. Dzisiejsi specjaliści podobnie jak Asimov poszukują więc uniwersalnych zasad, które mogłyby kierować maszynami. Jeden z pomysłów to regulacja w cyfrowych mózgach pewności siebie. Takie rozwiązanie proponują badacze z University of California w Berkeley. W przeprowadzonych symulacjach robot o zdrowym poziomie pewności siebie był w stanie zignorować polecenie człowieka mówiące, aby się wyłączył, ponieważ według posiadanych informacji dobrze wykonywał powierzone mu zadanie. Taka zdolność byłaby niezbędna na przykład w interakcjach robotów z dziećmi, które wydawałyby im różne polecenia. Z drugiej strony zbyt pewny siebie robot mógłby spowodować kłopoty nie słuchając swojego właściciela. Kluczem do sukcesu jest też według badaczy dostarczenie robotowi dostatecznej ilości informacji - tak, aby mógł dobrze ocenić swoją sytuację.

 

Z kolei zespół z University of Hertfordshire chce dać maszynom jak największe możliwości. To jednak nie powód do obaw, bo pod tym pojęciem kryje się sprytne podejście do ochrony zarówno ludzi, jak i samych robotów. Badacze proponują tak programować inteligentne urządzenia, aby zawsze szukały rozwiązań pozostawiających maksymalną możliwość wpływu na otoczenie.

 

"Dla prostego robota oznaczałoby to np. bezpieczny powrót do ładowarki bez utknięcia gdzieś po drodze, które ograniczyłoby jego możliwości ruchu. W przypadku przypominających ludzi robotów przyszłości zasada ta nie dotyczyłaby tylko ruchu ale różnorodnych parametrów, które skutkowałyby przypominającymi ludzkie motywacjami" - tłumaczy jeden z autorów pomysłu, dr Christoph Salge. Maszyny starałyby się także zapewnić jak największe możliwości wpływania na otoczenie ludziom, a tym samym dbałyby o ich dobro. Z drugiej strony taki robot nie naruszałby granic człowieka, poprzez np. opresyjną chęć pomocy. "Chcieliśmy robota, który będzie patrzył oczami ludzi, z którym będzie wchodził w interakcje. Utrzymanie człowieka w bezpieczeństwie zakłada zadbanie o zachowanie jego możliwości działania" - tłumaczy jeden z naukowców prof. Daniel Polani.

 

Oczywiście takie maszyny musiałyby w pewnym sensie rozumieć warunki, w których się znajdują, ale właśnie do tego też zmierza rozwój sztucznej inteligencji. Czy więc jej potencjał, który teoretycznie może stworzyć zagrożenia, pozwoli jednocześnie sobie z nimi poradzić? Jeśli prace nad AI nie ustaną, a raczej trudno się tego spodziewać, to prawdopodobnie już niebawem się przekonamy.

 

Nauka w Polsce, Marek Matacz

Tagi: ai , roboty , etyka
Podziel się
Ocena: 0 głosów

Logowanie



Nie pamiętam hasła

Rejestracja

Komentarze: 0
Skomentuj Zobacz wszystkie  

Uwaga Redakcje!

Wszelkie materiały PAP (w szczególności depesze, zdjęcia, grafiki, pliki video) zamieszczone w serwisie "Nauka w Polsce" chronione są przepisami ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych oraz ustawy z dnia 27 lipca 2001 r. o ochronie baz danych.

 

PAP S.A. zezwala na bezpłatny przedruk artykułów z Serwisu Nauka w Polsce pod warunkiem mailowego poinformowania nas raz w miesiącu o fakcie korzystania z serwisu oraz podania źródła artykułu. W portalach i serwisach internetowych prosimy o zamieszczenie podlinkowanego adresu: Źródło: www.naukawpolsce.pap.pl a w czasopismach adnotacji: Źródło: Serwis Nauka w Polsce - www.naukawpolsce.pap.pl. W przypadku portali społecznościowych prosimy o umieszczenie jedynie tytułu i leadu naszej depeszy z linkiem prowadzącym do treści artykułu na naszej stronie, podobnie jak to jest na naszym profilu facebookowym. 

 

Powyższe zezwolenie nie dotyczy: informacji z kategorii "Świat" oraz wszelkich fotografii i materiałów video.

 

Informacje tekstowe z kategorii "Świat" można pozyskać odpłatnie abonując Serwis Nauka i Zdrowie PAP. Serwis ten zawiera ponadto wiele innych najnowszych doniesień naukowych z zagranicy oraz materiałów dotyczących szeroko rozumianej problematyki zdrowotnej. 

 

Informacje na temat warunków umowy można uzyskać w Dziale Sprzedaży i Obsługi Klienta PAP, tel.: (+48 22) 509 22 25, e-mail:  pap@pap.pl

 

Informacje o przedruku artykułów z Serwisu Nauka w Polsce, prośby o patronaty medialne, informacje o prowadzonych badaniach, organizowanych konferencjach itd., prosimy przesyłać na adres: naukawpolsce@pap.pl

 

 

Najpopularniejsze materiały

więcej

Książka

Historia o królestwie antynaukowości Historia o królestwie antynaukowości

"W królestwie Monszatana. GMO, gluten i szczepionki" Marcina Rotkiewicza już w samym tytule obiecuje ciekawą opowieść o trzech kontrowersyjnych tematach: żywności modyfikowanej genetycznie, diecie bezglutenowej i ruchach antyszczepionkowych. I tej opowieści dostarcza - ale głównie na jeden z tych tematów.

Więcej

Myśl na dziś

Bądźmy ludźmi, choćby tak długo, póki nauka nie odkryje, że jesteśmy, czym innym.
Stanisław Jerzy Lec

Nasz blog

Planetarne zoo Planetarne zoo

Ciemne jak smoła, lekkie jak styropian czy pokryte szafirowymi chmurami – takie bywają badane w ostatnim czasie pozasłoneczne planety. Niektóre z nich mogą się okazać bardzo przydatne dla nauki.

Więcej

Tagi