15.12.2018
PL EN
04.12.2018 aktualizacja 04.12.2018

Hawking: nasza przyszłość zależy od tego, jak wykorzystamy nowe technologie

Nasza przyszłość zależy od wyniku wyścigu pomiędzy coraz potężniejszymi technologiami, jakimi dysponujemy, a mądrością w ich wykorzystaniu – ostrzega Stephen Hawking w książce „Krótkie odpowiedzi na wielkie pytania”.

Stephen Hawking zmarł w marcu 2018 r. i był jednym z najwybitniejszych fizyków teoretycznych oraz myślicieli. Napisał kilka bestsellerowych książek, w tym „Krótką historię czasu”. Już po jego śmierci na rynku polskim ukazała się najnowsza książka - „Krótkie odpowiedzi na wielkie pytania”.

Ta praca jest jak testament intelektualny, który naukowiec pozostawia ludzkości do rozważenia. W przeciwieństwie do wielu innych badaczy, nigdy nie bał się wielkich pytań, nawet tych niezwiązanych z fizyką i wszechświatem.

Oto kilka z nich: Skąd się wzięliśmy? Jaki jest sens i zmysł wszystkiego, co istnieje? Czy jest jeszcze ktoś we wszechświecie oprócz nas? A także: Jaka może być przyszłość naszej cywilizacji? I czy przetrwa Ziemia?

Hawking zwraca w książce uwagę, że powstałe w odległej przeszłości mity o stworzeniu zastąpiliśmy, jak to nazywa, narracjami, które zasługują co najwyżej na miano przesądów, od Nowej Ery po „Star Treka”. „Tymczasem autentyczna nauka potrafi zadziwić znacznie bardziej niż fantastyka i daje o wiele więcej satysfakcji” - pisze.

Hawking jako bezkompromisowy naukowiec dość łatwo rozprawia się z pytaniem: czy Bóg istnieje? Uważa, że wszechświat samorzutnie wyłonił się z nicości, zgodnie z prawami nauki. Nie ma początku ani końca. I w takim ujęciu nie ma miejsca dla Boga. Są jedynie prawa nauki, materia, energia, przestrzeń i czas.

„Jak ktoś chce, może sobie nazwać prawa nauki +Bogiem+, ale w żadnym wypadku nie byłby to Bóg-osoba, którą można byłoby spotkać i zadać jakieś pytanie. Niemniej, gdyby taki Bóg istniał, zapytałbym go, co sądzi o czymś tak skomplikowanym, jak M-teoria w jedenastu wymiarach” - pisze naukowiec.

Hawking w młodości zachorował na stwardnienie zanikowe boczne (ALS), mógł umrzeć już po kilku latach. W 1985 r. mógł umrzeć z powodu zapalenie płuc, ale zmarł znacznie później, w wieku 76 lat.

W pytaniach, które zadawał, widać, że bardziej niż Boga obawiał się sztucznej inteligencji (AI), bo uważał, że w przyszłości może ona zdominować ludzką. Potencjalne korzyści są ogromne – przyznaje w książce. "Nie sposób wręcz przewidzieć czego będziemy w stanie dokonać, gdy naszą inteligencję wspomożemy narzędziami dostarczonymi przez AI" - podkreśla.

Jednak, zdaniem brytyjskiego fizyka, AI może się uniezależnić od nas i sama z siebie w coraz szybszym tempie zacznie się modyfikować. „A w dalszej perspektywie AI może zacząć kierować się własnymi celami, i to takimi, które będą sprzeczne z naszymi” - zauważa Hawking.

Naukowiec zastępuje w ten sposób jednego Boga drugim: dla niego jest nim wszechpotężna sztuczna inteligencja, która może zapanować na ludźmi i światem. Wpada tym samym w tę samą narracje, co „Star Trek”, przed którą tak przestrzega.

Sztuczna superinteligencja - ostrzega Hawking - może się okazać „najgorszą rzeczą, jaka przytrafiła się ludzkości na całej przestrzeni jej dziejów”. Ale naukowiec wierzy w potencjał ludzkiego umysłu. Nie powinny – twierdzi - istnieć żadne ograniczenia tego, czego są w stanie dokonać ludzie.

Fizyk uważa, że człowiek swoją inteligencję powinien wykorzystać przede wszystkim do tego, żeby odkryć planety nadające się do zamieszkania, ponieważ Ziemia staje się dla nas zbyt mała. O ile ludzkość wcześniej nie unicestwi swej cywilizacji na skutek wojny jądrowej.

„Istniej teoria wyjaśniająca fakt, że do tej pory nie nawiązały z nami kontaktu żadne istoty pozaziemskie, tym, że kiedy jakaś cywilizacja osiąga nasz etap rozwoju, destabilizuje się i unicestwia sama siebie” - pisze. (PAP)

Zbigniew Wojtasiński

zbw/ agt/
 

Zapisz się na newsletter
Copyright © Fundacja PAP 2018