Maciej
Pinkwart
Inteligencja barona Münchhausena
Wszyscy dziś mówią o sztucznej inteligencji. No, nie wszyscy – w zasadzie tylko
ci, którzy są na tyle inteligentni, żeby mówić o czymś więcej niż polityka,
złodziejstwo elit, cwaniactwo Daniela Obajtka i uroda pewnej części ciała
pięknej Maryni. Niektórzy nawet o tym piszą. Jedni o Maryni i Obajtku, drudzy o
AI. Ważna książka o sztucznej inteligencji ukazała się niedawno (w Polsce w maju
2024) i wyszła spod pióra Mustafy Suleymana.
Chciałem się dowiedzieć czegoś więcej o autorze, więc oczywiście sięgnąłem do
Google’a. Ten skierował mnie do Wikipedii, ale niestety angielskiej. Wyskakujące
okienko zaproponowało mi tłumaczenie na polski. Tekst był łatwy, ale i tak
kliknąłem, żeby był łatwiejszy. Bingo! 1:0 dla sztucznej inteligencji.
Gdyby nie było Internetu, prawdopodobnie w ogóle nie dowiedziałbym się o
Mustafie Suleymanie, ani o jego książce. Urodził się 40 lat temu w Londynie,
jako syn pielęgniarki i pochodzącego z Syrii taksówkarza. Swoją edukację
zakończył w wieku 19 lat, po pierwszym roku filozofii na Oxfordzie. Potem
założył z kolegami firmę Deep Mind i wkrótce stał się jednym z największych
specjalistów od sztucznej inteligencji. Dziś jest głównym fachowcem od AI w
znanej każdemu firmie Microsoft. A teraz opublikował najmodniejszą książkę
sezonu, w której pisze o rosnącej w tempie wykładniczym ludzkiej technologii,
która – jeśli nie będzie przez człowieka kontrolowana – może zniszczyć ludzkość.
Książkę czyta się świetnie, do czego z pewnością przyczynia się współpraca
pisarska Michaela Bhaskara i dobry przekład (Justyn Hunia), tekst, mimo mnóstwa
zawartych z nim technikaliów, płynie jak woda, jednak gdzieś tak około
300-setnej strony zaczynamy się zastanawiać: ale, zaraz, to właściwie o co
chodzi? Bo Suleyman przedstawiwszy nader ciekawie rozwój ludzkości, będący
niejako funkcją rozwoju technologii, od pierwszych kamiennych narzędzi, przez
ujarzmienie ognia, przejście do gospodarki osiadłej, wynalezienie koła, silnika
parowego, mechanicznego krosna (czemu próbował przeciwdziałać ruch burzycieli
maszyn, tzw. luddystów) po najważniejsze w historii odkrycia: wykorzystanie
elektryczności, budowę silnika spalinowego, stworzenie komputerów i Internetu –
dochodzi do wynalazku sztucznej inteligencji, co uważa za równie przełomowe
wydarzenie w dziejach ludzkości, jak opanowanie ognia, wykorzystanie
elektryczności i stworzenie globalnej sieci internetowej. Potem, po
przedstawieniu drogi, jaką ów wynalazek przebył od 1956 r., kiedy to amerykański
informatyk John McCarthy na konferencji w Bostonie użył tego terminu po raz
pierwszy – a może od 1950 roku, kiedy to słynny Alan Turing dopuścił możliwość
tego, że maszyna może tak skutecznie udawać (w zdalnej rozmowie) człowieka, iż
ten nie zorientuje się z kim – z czym – ma do czynienia – Suleyman roztacza
dystopijną wizję tego, że owa wciąż nie zmaterializowana w jednym systemie
sztuczna inteligencja zawładnie wszystkimi naszymi danymi i nas zniszczy.
Dlaczego i jak miałaby to zrobić – nie jest jasne. Oczywiście, Suleyman
przypomina, że systemy z AI mogłyby służyć do stworzenia przerażającej,
działającej autonomicznie broni, która z niezwykłą skutecznością służyłaby do
niszczenia ludzi. Ale przez i w interesie innych ludzi. Żaden robot, żadna AI
nie miałaby żadnego interesu w tym, żeby niszczyć te maziowate białka na
kościach. Ba! Co z tego? Pamiętacie Ucznia czarnoksiężnika? Zaczarowana
miotła nie miała żadnego interesu w noszeniu wody do balii dla niedouczonego
czeladnika, który nie umiał zatrzymać tego procesu – ale nosiła, ryzykując nawet
zatopienie siebie samej.
W Nadchodzącej fali jest oczywiście wymieniona lista mnóstwa konkretnych
korzyści, jakie ludzkość będzie mogła mieć wykorzystując AI, choć można
przewidzieć, że niektórzy specjaliści (lekarze, prawnicy, nauczyciele, rozmaici
decydenci) mogą rozpocząć ruch neoluddystów. Ale nie wiemy co będzie dalej, bo
od pewnego momentu sztuczna inteligencja będzie rozwijać się autonomicznie. A
zatem – przez kilkaset stron przekonuje Suleyman – świat (ludzki, oczywiście)
musi się zintegrować, żeby powstrzymać ten rozwój. A przynajmniej go spowolnić,
byśmy do tej – nie do końca wiadomo jakiej – zmiany dojrzeli.
Nie chcę z tym polemizować, ani pokazując niejasne prognozy tego nieszczęścia,
które nas czeka, ani wskazując na nieskuteczność takich prób cenzury i
nieproliferacji. Przypisywanie sztucznej inteligencji destrukcyjnych zamiarów
zapewne jest tak samo fantastyczne, jak oskarżanie ognia, że podpalił katedrę
Notre Dame. Ale Suleyman dołącza do katastroficznych, choć niesprecyzowanych
prognoz rozwoju AI drugie zagrożenie, jakie staje obecnie przed światem:
majstrowanie przy ludzkim genomie, w celu jego poprawy, wyeliminowania chorób,
usunięcia agresji, wydłużenia życia. Ciach – i wycinamy gen odpowiedzialny za
raka, cukrzycę, niechęć do matematyki, krzywe nogi, łysienie…
To już zaczyna być groźne w sposób wyraźniejszy: wiele razy stawiano przed
ludzkością teorie o ludziach lepszych i gorszych, nadludziach i podludziach czy
w końcu o żałosnych próbach zastąpienia natury przy rozwoju człowieka. Eugenika
zawsze była nieludzka i co też istotne – nieskuteczna. Oczywiście, można marzyć
o tym, żeby nasze potomstwo było bardziej podobne do Margot Robbie i George’a
Clooneya niż do nas, ale zawsze z tyłu głowy trzeba mieć to, że jakby się nie
udało, to czeka nas konfrontacja z dziełem doktora Frankensteina. Świetną
powieść o takim żałosnym świecie przyszłości opublikował już dawno (1961)
Stanisław Lem – i jak dotąd nie ma lepszego (gorszego?) obrazu skutków takiej
ręcznie sterowanej genetyki jak jego Powrót z gwiazd, gdzie w świecie
przyszłości pozornej poprawie uległ nie tylko wygląd i zachowanie istot
ludzkich, ale także całe życie społeczne, które przekształciło Ziemię w
zbiorowisko dziwaków, nieodpornych na rzeczywistość, która nie daje się tak
łatwo i dogłębnie stworzyć na nowo.
Oczywiście, opanowanie czy wręcz wyhamowanie badań naukowych czy nawet wdrażania
tych procesów do działania nie jest możliwe. A w każdym razie nie może być
skuteczne wyłącznie poprzez nawoływania publicystów czy apele umiejących
przewidywać przyszłość naukowców. Porozumienia międzynarodowe są zawsze
obarczone sporym marginesem niepewności: ludzie, a także państwa mają tendencję
do stosowania się do przepisów tylko wtedy, gdy im to pasuje. W wyeliminowaniu
tego zagrożenia może pomóc tylko rozwinięta technologia: żeby nie dopuścić do
opanowania świata przez sztuczną inteligencję, musimy zatrudnić do tego sztuczną
inteligencję… Przypomina to trochę opowieść o baronie Münchhausenie,
który podnosił sam siebie za włosy. A poza tym to już teraz jest kwestia nie do
zrobienia: AI to przede wszystkim wielki biznes, być może największy obecnie w
skali globu. Według niektórych szacunków kilogram chipów, używanych przy
produkcji najnowocześniejszych komputerów może być wart nawet dziesięć miliardów
dolarów. A reszta sprzętu?
A przecież to tylko hardware, technologiczne szpeje. Żeby owe sztuczne
mózgi ruszyły, potrzebny jest wyrafinowany software, pomysł
przekształcany w zespół skomplikowanych algorytmów, opracowywanych przez
najwyżej na świecie opłacanych prawdziwych inteligentów. A my tu się ekscytujemy
jakimiś nędznymi setkami milionów złociszów wydatkowanych na zakonnika spod
znaku świętego Salcesonego…
Czy to wszystko koniecznie musi się obrócić przeciwko nam, czy jednak strachy
Suleymana są to strachy na Lachy? Może tak. Wierzę głęboko, że nauczymy
się – może przy pomocy AI – korzystać z tego narzędzia, nie przejawiając wobec
niego ani luddystycznej agresji, ani religijnego uwielbienia. Ale musimy
pogodzić się z tym, że nasz świat będzie już inny, pełen nowych odkryć, ale i
pełen paradoksów. Te ostatnie mamy już dziś: ile to razy musieliście, żeby
zostać dopuszczonymi do jakichś zasobów danych udowadniać, że nie jesteście
robotami? Służy do tego najczęściej test CAPTCHA, w którym trzeba odczytać na
obrazku zatarty czy celowo zdeformowany napis i wpisać go na klawiaturze. Test
ten zadaje nam sztuczna inteligencja. Robot sprawdza, czy aby jesteśmy
człowiekami, bo strzeże nasze dane przed robotami…
Książkę Suleymana warto przeczytać choćby dlatego, żeby zastanowić się nad tym
wszystkim – nie po to, żeby się dowiedzieć jak wyjść z tego dylematu, tylko jak
sprawić, żeby efekty działania współczesnej technologii przynosiły więcej
korzyści niż szkód, a już na pewno nie powodowały szkód nieodwracalnych. Ale
Nadchodzaca fala, która gdzieś tak od połowy zaczyna nudzić przez ciągłe
powtórzenia i wywoływanie upiorów, które mogą nadejść i którym możemy się
przeciwstawić, jeśli wszyscy będziemy zdolni się porozumieć (ale śmieszne!),
albo wzmocnimy państwa narodowe, chroniąc je przed obcymi (ale straszne!) – nie
jest farmakopeą i nie podaje nam spisu leków, ani procedur, które mogą nas
uchronić przed skutkami naszej własnej mądrości, wspomaganej przez wiedzę
naszych komputerów. Oczywiście, ja też takich recept nie znam i nawet nie umiem
sobie ich wyobrazić. Wiem tylko, że po wynalezieniu siekiery nie wydano zakazu
jej używania w niecnych celach, tylko napisano kodeks karny. Też zresztą
nieskuteczny. Nie należy chyba się spodziewać, że zakaz dalszych prac nad AI
powstrzyma rozwój tej technologii. Warto może popracować nad człowiekiem, a nie
nad jego narzędziami.
We wszystkich opowieściach katastroficznych sztuczna inteligencja występuje w
charakterze dżina, którego wypuściliśmy z butelki i teraz nie możemy go z
powrotem do niej zagnać. Dżin ten coraz bardziej wzrasta w siłę, wypowiada nam w
końcu posłuszeństwo i przejmuje nad nami władzę. Pytanie – po co? Co AI zrobi z
tą władzą nad światem? Ktoś może powiedzieć: a po co Putinowi była wojna z
Ukrainą, jeżeli jego kraj, Rosja, ma wszystko, a na Ukrainie może tylko wszystko
stracić? No tak, ale tyrani, despoci, autokraci, mają to do siebie, że jeżeli
mają jakąś inteligencję, to ta inteligencja idzie się paść i wreszcie się
okazuje, że jedynym sensem i celem ich działania jest władza. Jej zdobycie, albo
utrzymanie. Bo brak władzy to dla nich najczęściej proces, więzienie, czy nagła
śmierć, choroba, wypadek, nieznani sprawcy. Żadne zyski, żadne straty w tej
walce o władzę się nie liczą.
No, ale czy sztuczna inteligencja może być aż tak głupia? Rzecz w tym, że my
naprawdę nie wiemy, jaka ona może być, jaka będzie – bo od pewnego momentu
zaczyna się ona rozwijać sama, bez naszego udziału. My na ten rozwój przestajemy
mieć wpływ. Bo globalna sztuczna inteligencja się rozwijać podobnie jak życie
białkowe w procesie ewolucji, tylko że w naturalnej ewolucji naturalnie
eliminowane były wszelkie szkodliwe mutacje genetyczne: mutant albo się nie
rodził, albo wkrótce umierał, albo nie przekazywał wadliwych genów następnemu
pokoleniu. A któż wie, co będzie równie szkodliwe dla ewolucji AI?
Dlatego zawsze w powieściach czytamy, że budując inteligentne roboty
konstruktorzy starają się umieścić im z tyłu taki wyłącznik, który po prostu
wystarczy pstryknąć i robot idzie grzecznie do kąta, żeby się podładować, albo
po prostu, żeby czekać na dalsze rozkazy. Kłopot w tym, że sztucznej
inteligencji nie można wbudować takiego wyłącznika, bo ona nie ma materialnego
ciała, żyje sobie w naszych komputerach, w chmurach pamięci, w przepastnych
serwerach Google’a, Microsoftu, Amazona. A tam nie ma miejsca, w którym można by
zainstalować taki guzik.
No i od pewnego momentu guzik z tego wszystkiego może nam wyjść. Stanisław Lem,
który przed laty opisał już wszystko, co tylko było do opisania w dziedzinie
technologii i postępu w życiu ludzkości, przestrzegał, że epoka wielkich i coraz
szybszych odkryć może, a nawet musi doprowadzić do tego, że przekształci się w
epokę wielkich zakryć, ale poniesie ona fiasko: nie można zakryć tego, co
zostało odkryte. Dylemat Suleymana także wydaje się nierozwiązywalny, ale
nieuchronnie przypomina nam futurologiczne stwierdzenie Einsteina: nie wiem,
czym walczyć będą ludzie w trzeciej wojnie światowej, ale wiem, że w czwartej
będą walczyć na kije i kamienie.
-----------------------------------
Mustafa Suleyman, Michael Bhaskar, Nadchodząca fala. Sztuczna inteligencja,
władza i najważniejszy dylemat ludzkości w XXI wieku, tłumaczenie Justyn
Hunia, wydawnictwo Szczeliny, Kraków 2024, 504 strony.