Maciej Pinkwart

Inteligencja barona Münchhausena

 

Wszyscy dziś mówią o sztucznej inteligencji. No, nie wszyscy – w zasadzie tylko ci, którzy są na tyle inteligentni, żeby mówić o czymś więcej niż polityka, złodziejstwo elit, cwaniactwo Daniela Obajtka i uroda pewnej części ciała pięknej Maryni. Niektórzy nawet o tym piszą. Jedni o Maryni i Obajtku, drudzy o AI. Ważna książka o sztucznej inteligencji ukazała się niedawno (w Polsce w maju 2024) i wyszła spod pióra Mustafy Suleymana.

Chciałem się dowiedzieć czegoś więcej o autorze, więc oczywiście sięgnąłem do Google’a. Ten skierował mnie do Wikipedii, ale niestety angielskiej. Wyskakujące okienko zaproponowało mi tłumaczenie na polski. Tekst był łatwy, ale i tak kliknąłem, żeby był łatwiejszy. Bingo! 1:0 dla sztucznej inteligencji.

Gdyby nie było Internetu, prawdopodobnie w ogóle nie dowiedziałbym się o Mustafie Suleymanie, ani o jego książce. Urodził się 40 lat temu w Londynie, jako syn pielęgniarki i pochodzącego z Syrii taksówkarza. Swoją edukację zakończył w wieku 19 lat, po pierwszym roku filozofii na Oxfordzie. Potem założył z kolegami firmę Deep Mind i wkrótce stał się jednym z największych specjalistów od sztucznej inteligencji. Dziś jest głównym fachowcem od AI w znanej każdemu firmie Microsoft. A teraz opublikował najmodniejszą książkę sezonu, w której pisze o rosnącej w tempie wykładniczym ludzkiej technologii, która – jeśli nie będzie przez człowieka kontrolowana – może zniszczyć ludzkość.

Książkę czyta się świetnie, do czego z pewnością przyczynia się współpraca pisarska Michaela Bhaskara i dobry przekład (Justyn Hunia), tekst, mimo mnóstwa zawartych z nim technikaliów, płynie jak woda, jednak gdzieś tak około 300-setnej strony zaczynamy się zastanawiać: ale, zaraz, to właściwie o co chodzi? Bo Suleyman przedstawiwszy nader ciekawie rozwój ludzkości, będący niejako funkcją rozwoju technologii, od pierwszych kamiennych narzędzi, przez ujarzmienie ognia, przejście do gospodarki osiadłej, wynalezienie koła, silnika parowego, mechanicznego krosna (czemu próbował przeciwdziałać ruch burzycieli maszyn, tzw. luddystów) po najważniejsze w historii odkrycia: wykorzystanie elektryczności, budowę silnika spalinowego, stworzenie komputerów i Internetu – dochodzi do wynalazku sztucznej inteligencji, co uważa za równie przełomowe wydarzenie w dziejach ludzkości, jak opanowanie ognia, wykorzystanie elektryczności i stworzenie globalnej sieci internetowej. Potem, po przedstawieniu drogi, jaką ów wynalazek przebył od 1956 r., kiedy to amerykański informatyk John McCarthy na konferencji w Bostonie użył tego terminu po raz pierwszy – a może od 1950 roku, kiedy to słynny Alan Turing dopuścił możliwość tego, że maszyna może tak skutecznie udawać (w zdalnej rozmowie) człowieka, iż ten nie zorientuje się z kim – z czym – ma do czynienia – Suleyman roztacza dystopijną wizję tego, że owa wciąż nie zmaterializowana w jednym systemie sztuczna inteligencja zawładnie wszystkimi naszymi danymi i nas zniszczy. Dlaczego i jak miałaby to zrobić – nie jest jasne. Oczywiście, Suleyman przypomina, że systemy z AI mogłyby służyć do stworzenia przerażającej, działającej autonomicznie broni, która z niezwykłą skutecznością służyłaby do niszczenia ludzi. Ale przez i w interesie innych ludzi. Żaden robot, żadna AI nie miałaby żadnego interesu w tym, żeby niszczyć te maziowate białka na kościach. Ba! Co z tego? Pamiętacie Ucznia czarnoksiężnika? Zaczarowana miotła nie miała żadnego interesu w noszeniu wody do balii dla niedouczonego czeladnika, który nie umiał zatrzymać tego procesu – ale nosiła, ryzykując nawet zatopienie siebie samej.

W Nadchodzącej fali jest oczywiście wymieniona lista mnóstwa konkretnych korzyści, jakie ludzkość będzie mogła mieć wykorzystując AI, choć można przewidzieć, że niektórzy specjaliści (lekarze, prawnicy, nauczyciele, rozmaici decydenci) mogą rozpocząć ruch neoluddystów. Ale nie wiemy co będzie dalej, bo od pewnego momentu sztuczna inteligencja będzie rozwijać się autonomicznie. A zatem – przez kilkaset stron przekonuje Suleyman – świat (ludzki, oczywiście) musi się zintegrować, żeby powstrzymać ten rozwój. A przynajmniej go spowolnić, byśmy do tej – nie do końca wiadomo jakiej – zmiany dojrzeli.

Nie chcę z tym polemizować, ani pokazując niejasne prognozy tego nieszczęścia, które nas czeka, ani wskazując na nieskuteczność takich prób cenzury i nieproliferacji. Przypisywanie sztucznej inteligencji destrukcyjnych zamiarów zapewne jest tak samo fantastyczne, jak oskarżanie ognia, że podpalił katedrę Notre Dame. Ale Suleyman dołącza do katastroficznych, choć niesprecyzowanych prognoz rozwoju AI drugie zagrożenie, jakie staje obecnie przed światem: majstrowanie przy ludzkim genomie, w celu jego poprawy, wyeliminowania chorób, usunięcia agresji, wydłużenia życia. Ciach – i wycinamy gen odpowiedzialny za raka, cukrzycę, niechęć do matematyki, krzywe nogi, łysienie…

To już zaczyna być groźne w sposób wyraźniejszy: wiele razy stawiano przed ludzkością teorie o ludziach lepszych i gorszych, nadludziach i podludziach czy w końcu o żałosnych próbach zastąpienia natury przy rozwoju człowieka. Eugenika zawsze była nieludzka i co też istotne – nieskuteczna. Oczywiście, można marzyć o tym, żeby nasze potomstwo było bardziej podobne do Margot Robbie i George’a Clooneya niż do nas, ale zawsze z tyłu głowy trzeba mieć to, że jakby się nie udało, to czeka nas konfrontacja z dziełem doktora Frankensteina. Świetną powieść o takim żałosnym świecie przyszłości opublikował już dawno (1961) Stanisław Lem – i jak dotąd nie ma lepszego (gorszego?) obrazu skutków takiej ręcznie sterowanej genetyki jak jego Powrót z gwiazd, gdzie w świecie przyszłości pozornej poprawie uległ nie tylko wygląd i zachowanie istot ludzkich, ale także całe życie społeczne, które przekształciło Ziemię w zbiorowisko dziwaków, nieodpornych na rzeczywistość, która nie daje się tak łatwo i dogłębnie stworzyć na nowo.

Oczywiście, opanowanie czy wręcz wyhamowanie badań naukowych czy nawet wdrażania tych procesów do działania nie jest możliwe. A w każdym razie nie może być skuteczne wyłącznie poprzez nawoływania publicystów czy apele umiejących przewidywać przyszłość naukowców. Porozumienia międzynarodowe są zawsze obarczone sporym marginesem niepewności: ludzie, a także państwa mają tendencję do stosowania się do przepisów tylko wtedy, gdy im to pasuje. W wyeliminowaniu tego zagrożenia może pomóc tylko rozwinięta technologia: żeby nie dopuścić do opanowania świata przez sztuczną inteligencję, musimy zatrudnić do tego sztuczną inteligencję… Przypomina to trochę opowieść o baronie Münchhausenie, który podnosił sam siebie za włosy. A poza tym to już teraz jest kwestia nie do zrobienia: AI to przede wszystkim wielki biznes, być może największy obecnie w skali globu. Według niektórych szacunków kilogram chipów, używanych przy produkcji najnowocześniejszych komputerów może być wart nawet dziesięć miliardów dolarów. A reszta sprzętu?

A przecież to tylko hardware, technologiczne szpeje. Żeby owe sztuczne mózgi ruszyły, potrzebny jest wyrafinowany software, pomysł przekształcany w zespół skomplikowanych algorytmów, opracowywanych przez najwyżej na świecie opłacanych prawdziwych inteligentów. A my tu się ekscytujemy jakimiś nędznymi setkami milionów złociszów wydatkowanych na zakonnika spod znaku świętego Salcesonego…

Czy to wszystko koniecznie musi się obrócić przeciwko nam, czy jednak strachy Suleymana są to strachy na Lachy? Może tak. Wierzę głęboko, że nauczymy się – może przy pomocy AI – korzystać z tego narzędzia, nie przejawiając wobec niego ani luddystycznej agresji, ani religijnego uwielbienia. Ale musimy pogodzić się z tym, że nasz świat będzie już inny, pełen nowych odkryć, ale i pełen paradoksów. Te ostatnie mamy już dziś: ile to razy musieliście, żeby zostać dopuszczonymi do jakichś zasobów danych udowadniać, że nie jesteście robotami? Służy do tego najczęściej test CAPTCHA, w którym trzeba odczytać na obrazku zatarty czy celowo zdeformowany napis i wpisać go na klawiaturze. Test ten zadaje nam sztuczna inteligencja. Robot sprawdza, czy aby jesteśmy człowiekami, bo strzeże nasze dane przed robotami…

Książkę Suleymana warto przeczytać choćby dlatego, żeby zastanowić się nad tym wszystkim – nie po to, żeby się dowiedzieć jak wyjść z tego dylematu, tylko jak sprawić, żeby efekty działania współczesnej technologii przynosiły więcej korzyści niż szkód, a już na pewno nie powodowały szkód nieodwracalnych. Ale Nadchodzaca fala, która gdzieś tak od połowy zaczyna nudzić przez ciągłe powtórzenia i wywoływanie upiorów, które mogą nadejść i którym możemy się przeciwstawić, jeśli wszyscy będziemy zdolni się porozumieć (ale śmieszne!), albo wzmocnimy państwa narodowe, chroniąc je przed obcymi (ale straszne!) – nie jest farmakopeą i nie podaje nam spisu leków, ani procedur, które mogą nas uchronić przed skutkami naszej własnej mądrości, wspomaganej przez wiedzę naszych komputerów. Oczywiście, ja też takich recept nie znam i nawet nie umiem sobie ich wyobrazić. Wiem tylko, że po wynalezieniu siekiery nie wydano zakazu jej używania w niecnych celach, tylko napisano kodeks karny. Też zresztą nieskuteczny. Nie należy chyba się spodziewać, że zakaz dalszych prac nad AI powstrzyma rozwój tej technologii. Warto może popracować nad człowiekiem, a nie nad jego narzędziami.

We wszystkich opowieściach katastroficznych sztuczna inteligencja występuje w charakterze dżina, którego wypuściliśmy z butelki i teraz nie możemy go z powrotem do niej zagnać. Dżin ten coraz bardziej wzrasta w siłę, wypowiada nam w końcu posłuszeństwo i przejmuje nad nami władzę. Pytanie – po co? Co AI zrobi z tą władzą nad światem? Ktoś może powiedzieć: a po co Putinowi była wojna z Ukrainą, jeżeli jego kraj, Rosja, ma wszystko, a na Ukrainie może tylko wszystko stracić? No tak, ale tyrani, despoci, autokraci, mają to do siebie, że jeżeli mają jakąś inteligencję, to ta inteligencja idzie się paść i wreszcie się okazuje, że jedynym sensem i celem ich działania jest władza. Jej zdobycie, albo utrzymanie. Bo brak władzy to dla nich najczęściej proces, więzienie, czy nagła śmierć, choroba, wypadek, nieznani sprawcy. Żadne zyski, żadne straty w tej walce o władzę się nie liczą.

No, ale czy sztuczna inteligencja może być aż tak głupia? Rzecz w tym, że my naprawdę nie wiemy, jaka ona może być, jaka będzie – bo od pewnego momentu zaczyna się ona rozwijać sama, bez naszego udziału. My na ten rozwój przestajemy mieć wpływ. Bo globalna sztuczna inteligencja się rozwijać podobnie jak życie białkowe w procesie ewolucji, tylko że w naturalnej ewolucji naturalnie eliminowane były wszelkie szkodliwe mutacje genetyczne: mutant albo się nie rodził, albo wkrótce umierał, albo nie przekazywał wadliwych genów następnemu pokoleniu. A któż wie, co będzie równie szkodliwe dla ewolucji AI?

Dlatego zawsze w powieściach czytamy, że budując inteligentne roboty konstruktorzy starają się umieścić im z tyłu taki wyłącznik, który po prostu wystarczy pstryknąć i robot idzie grzecznie do kąta, żeby się podładować, albo po prostu, żeby czekać na dalsze rozkazy. Kłopot w tym, że sztucznej inteligencji nie można wbudować takiego wyłącznika, bo ona nie ma materialnego ciała, żyje sobie w naszych komputerach, w chmurach pamięci, w przepastnych serwerach Google’a, Microsoftu, Amazona. A tam nie ma miejsca, w którym można by zainstalować taki guzik.

No i od pewnego momentu guzik z tego wszystkiego może nam wyjść. Stanisław Lem, który przed laty opisał już wszystko, co tylko było do opisania w dziedzinie technologii i postępu w życiu ludzkości, przestrzegał, że epoka wielkich i coraz szybszych odkryć może, a nawet musi doprowadzić do tego, że przekształci się w epokę wielkich zakryć, ale poniesie ona fiasko: nie można zakryć tego, co zostało odkryte. Dylemat Suleymana także wydaje się nierozwiązywalny, ale nieuchronnie przypomina nam futurologiczne stwierdzenie Einsteina: nie wiem, czym walczyć będą ludzie w trzeciej wojnie światowej, ale wiem, że w czwartej będą walczyć na kije i kamienie.

-----------------------------------

Mustafa Suleyman, Michael Bhaskar, Nadchodząca fala. Sztuczna inteligencja, władza i najważniejszy dylemat ludzkości w XXI wieku, tłumaczenie Justyn Hunia, wydawnictwo Szczeliny, Kraków 2024, 504 strony.