Widma longtermizmu

Jak powinniśmy żyć i co powinniśmy czynić, aby zapewnić długofalowe przetrwanie cywilizacji? Oto kwestia, której zdaje się być poświęcona książka 35-letniego, oksfordzkiego filozofa Williama MacAskilla. Problem w tym, że odpowiedź na to fundamentalne pytanie jest zaskakująco zbieżna z interesem najbogatszych ludzi świata.

Pojęcie „longtermism” nie doczekało się jeszcze dobrego polskiego przekładu. Tymczasem jest to ideologia wspierana przez najpotężniejszych magnatów Doliny Krzemowej. Książka MacAskilla jest w tym kontekście niezwykle interesująca, jednak w sposób raczej niezgodny z intencjami jej autora. Jego zamiarem w książce „What We Owe the Future” było przedstawienie przekonywającej, a przy tym przystępnej dla nie-filozofów argumentacji na rzecz longtermizmu. Kiedy jednak przyjrzymy się bliżej założeniom tej filozofii, a także temu, kto – tu i teraz – odnosi z niej wymierną korzyść, nabierzemy wątpliwości względem uczciwości intelektualnej autora i pożyteczności promowanych przez niego idei.

Warunki długofalowego rozwoju

Longtermiści utrzymują, że zainteresowani są zapobieżeniem „egzystencjalnemu ryzyku”, co po polsku zgrabniej określilibyśmy ryzykiem dla ludzkiego przetrwania. Ryzyko to wiąże się z rozmaitymi zagrożeniami, takimi jak globalne pandemie, zderzenie Ziemi z kometą czy niekontrolowany rozwój sztucznej inteligencji. Jeśli nie będziemy potrafili odpowiednio przygotować się na te scenariusze, możemy doświadczyć, jako cywilizacja, upadku, a nawet zagłady. Ta byłaby czymś tragicznym nie tyle ze względu na nas samych, ile z uwagi na przyszły potencjał ludzkości, który, w razie tego czy innego Armagedonu, nigdy nie zostałby urzeczywistniony. A to właśnie w pełnym rozkwicie przyszłych pokoleń upatrują longtermiści dalekosiężnego celu, a zarazem zobowiązania moralnego ludzkości.

Jak pisze MacAskill, „jeśli podejdziemy do tego bezstronnie, w sensie moralnym przyszli ludzie liczą się nie mniej od obecnie żyjących”. Tym bardziej, że – jeśli pozytywnie pokierujemy naszymi losami – liczebność przyszłych generacji, od dziś do czasu, kiedy wygaśnie ostatnia z gwiazd we wszechświecie, mierzyć należy w trylionach tryliardów. Ambicje longtermistów są bowiem kosmiczne. Ich ostatecznym ideałem jest podbój galaktyk i zasiedlenie ich przez przyszłe pokolenia.

Jak to możliwe? Przyszli ludzie, przewidują longtermiści, mogą od nas zdecydowanie się różnić. Mogą być, na przykład, cyfrowymi umysłami, żyjącymi w symulacji, utrzymywanej przez orbitujące w przestrzeni kosmicznej komputery. Najważniejsze wydaje się jednak być to, że owych przyszłych istot, przynajmniej potencjalnie, może być o wiele więcej od nas, powinniśmy zatem brać je pod uwagę w naszych kalkulacjach moralnych.

MacAskill podkreśla, że przeszkodą w osiągnięciu przez cywilizację pełni potencjału może być nie tylko całkowita zagłada bądź upadek (wywołany np. pandemią, która uśmierci 99% ludzkości), lecz także długotrwałe okresy stagnacji. Te ostatnie mogą być spowodowane spowolnieniem postępu technicznego, ale też tym, co określa on mianem zaklinowania wartości (value lock-in).

Może się bowiem tak zdarzyć, że ludzkość przyjmie zestaw wartości, który nie będzie służył rozwojowi. W tym właśnie kontekście ogólna sztuczna inteligencja – czyli taka, która poziomem dorówna ludzkiej inteligencji bądź będzie od niej wyższa – może stać się instrumentem upowszechniania blokującej rozwój aksjologii. Dlatego też wielu longtermistów skupia się na pytaniu, w jaki sposób ukierunkować prace nad ogólną sztuczną inteligencją, by nie wymknęła się ona spod naszej kontroli.

Od utylitaryzmu do efektywnego altruizmu

Trzon longtermizmu stanowi etyka utylitarystyczna. Jeremy Bentham, centralna postać tego nurtu, twierdził, że nasze sądy moralne powinny opierać się na kalkulacji cierpienia i przyjemności, doświadczanych przez ludzi. Zgodnie z tak zwaną zasadą użyteczności dążyć należy do jak największego szczęścia jak największej liczby ludzi. Oznacza to maksymalizację przyjemności i minimalizację cierpienia pośród wszystkich osób, które dotykają skutki naszego działania.

Od czasów Benthama utylitaryzm rozwijany był przez wielu wpływowych filozofów. Pośród nich był Derek Parfit, o którym William MacAskill pisze w laurkowym wstępie jednego z rozdziałów książki. Parfit w oksfordzkim college’u All Souls spędził ponad czterdzieści lat. (W tym samym czasie żył i pracował w All Souls także Leszek Kołakowski).

Szkicując portret swojego mistrza, MacAskill nadmienia, że przez cały ten czas Parfit nie uzyskał żadnego tytułu naukowego, zajmując się rozważaniami filozoficznymi nawet podczas mycia zębów czy picia rozpuszczalnej kawy, zalewanej gorącą wodą z kranu. Pragnął bowiem, zgodnie z zasadą użyteczności, jak najbardziej efektywnie wykorzystać swój czas, by zmieniać świat na lepsze.

Dla filozoficznej genealogii longtermizmu najważniejsze są ostatnie partie książki Parfita „Racje i osoby” z 1984 roku. Poświęcone są one tak zwanej etyce populacyjnej, która rozważa kwestie naszej odpowiedzialności wobec przyszłych ludzi. MacAskill w swojej książce rekonstruuje argumentację Parfita. Jej istotą jest z ducha benthamowska buchalteria szczęścia i cierpienia, dokonywana w serii charakterystycznych dla anglosaskiej filozofii analitycznej eksperymentów myślowych, w których porównywane są ze sobą hipotetyczne przyszłe populacje, składające się z różnej ilości ludzi szczęśliwych bądź cierpiących.

Parfit doszedł do wniosku, że w pewnych sytuacjach większą ilość szczęścia uzyskamy nie poprzez sprowadzanie na świat ludzi o wysokim poziomie szczęśliwości, lecz dużej liczby ludzi umiarkowanie szczęśliwych (choć wciąż nie cierpiących). Wniosek ten określił mianem „odrażającej konkluzji”, logicznej i racjonalnej, lecz moralnie odpychającej.

Istotniejszy od wyników Partiftowskich analiz – i tego, jak relacjonuje je MacAskill – jest proponowana przez niego, podchwycona przez longtermistów metoda namysłu etycznego. Opiera się ona na szeregu problematycznych założeń. Przede wszystkim zakłada traktowanie szczęścia jako jednolitej, kwantyfikowalnej, a zatem i mierzalnej wartości, możliwej do umieszczenia na jednej skali, tożsamej dla wszystkich ludzi. To otwiera drogę do myślenia o szczęściu jako czymś, co można optymalizować poprzez stwarzanie dla niego jak najbardziej efektywnych warunków.

Tu dochodzimy do ruchu efektywnego altruizmu. Powstał on niecałe 15 lat temu przy aktywnym udziale Williama MacAskilla i wsparciu m.in. Dereka Parfita oraz jeszcze słynniejszego australijskiego etyka Petera Singera. MacAskill w 2009 roku był współzałożycielem fundacji Giving What We Can, a potem Centrum Efektywnego Altruizmu oraz strony internetowej 80,000 Hours, która zachęca do wybierania karier, które w najlepszy sposób będą przyczyniać się do dobra ludzkości. Bardzo szlachetnie brzmi przyjmowane przez efektywnych altruistów zobowiązanie, by przynajmniej 10% swoich dochodów przeznaczać na wspieranie najbardziej efektywnych organizacji charytatywnych. MacAskill przekonuje do tego także w ostatnim rozdziale „What do We Owe the Future”. Dodajmy, że w 2022 roku oszacowano, iż efektywny altruizm uzyskał z tytułu darowizn na swoje cele około 30 miliardów dolarów.

Longtermizm: cui bono?

Idee longtermistyczne potrafią uwieść. Dlaczego zatem spotykają się z bardzo mocną krytyką? Skupię się na trzech przyczynach.

Po pierwsze, poważne wątpliwości budzi sposób uzasadnienia myślenia longtermistycznego. Chodzi tu nie tylko o opisywane wyżej, utylitarystyczne kalkulacje, lecz także o metodę ustalania prawdopodobieństwa zaistnienia „ryzyka egzystencjalnego”. MacAskill opiera się w swojej książce na „wyliczeniach” swojego przyjaciela Toby’ego Orda, filozofia pracującego w Instytucie Przyszłości Ludzkości w Oksfordzie.

W książce „Precipice” (ang. przepaść) Ord twierdzi, że w najbliższych stu latach prawdopodobieństwo katastrofy egzystencjalnej spowodowanej pochodzącą z natury pandemią jest jak 1 do 10 tysięcy., zaś pandemią stworzoną w wyniku bioinżynierii – jak 1 do 30. Prawdopodobieństwo, że zgładzi nas sztuczna inteligencja ocenia jeszcze wyżej, na 1 do 10, natomiast ogólne ryzyko dla naszego przetrwania na 1 do 6. Skąd biorą się te liczby? Lektura książki Orda przekonuje, że wyłącznie… z bardzo mocnego przekonania jej autora, który pisze, iż „liczby te reprezentują moje przypuszczenia”. Sygnał zostaje jednak wysłany, a donatorzy efektywnego altruizmu mogą tym samym uzasadniać swoją hierarchię priorytetów.

Po drugie, longtermizm charakteryzuje skupienie na rozwoju technicznym jako najistotniejszym narzędziu i katalizatorze rozkwitu ludzkości. To podejście, znane jako solucjonizm technologiczny, sprowadza się do przekonania, że wszelkie problemy przezwyciężyć można odpowiednim rozwiązaniem technicznym. Nie musimy rozważać ich złożonych, socjologicznych, politycznych czy kulturowych uwarunkowań. Nie musimy podważać kapitalistycznego przekonania o nadrzędnej wartości wzrostu gospodarczego. Technika ostatecznie przyjdzie nam z pomocą. Czy w tym kontekście dziwić powinno nas, że fanami longtermizmu są właściciele korporacji technologicznych, kreowani na zbawców ludzkości?

Po trzecie, długofalowa, kosmiczna perspektywa, którą próbują narzucić longtermiści oznacza, że obecne problemy, nawet jeśli przynoszą olbrzymią szkodę obecnie żyjącym, wcale nie muszą spotkać się z naszą zdecydowaną reakcją. Jeśli nie wiodą one do „ryzyka egzystencjalnego”, możemy je w dużej mierze zignorować, ponieważ stawką jest szczęście o wiele większej liczby przyszłych ludzi.

W praktyce przekłada się to na kierowanie olbrzymich funduszy na przykład na przeciwdziałanie widmowym zagrożeniom ze strony ogólnej sztucznej inteligencji, podczas gdy negatywne skutki stosowania istniejącej już dziś, wąskiej sztucznej inteligencji są lekceważone. Przeczy to zapewnieniom MacAskilla, że troska o przyszłe pokolenia jest kompatybilna z dążeniem do rozwiązania współczesnych problemów.

Nietrudno dostrzec, komu na rękę jest upowszechnianie ideologii longtermistycznej. Nie trzeba spekulować – wystarczy zapoznać się z publicznymi deklaracjami Elona Muska i innych liderów Doliny Krzemowej, którzy hojnie wspierają fundacje i think tanki efektywnego altruizmu i longtermizmu, tworzone często przy najbardziej prestiżowych uniwersytetach.

Można też zajrzeć na stronę internetową efektywnego altruizmu. Znajdziemy na niej m.in. profil Sama Bankmana-Frieda, który w ubiegłym roku zasłynął wyprowadzeniem kilku miliardów dolarów z giełdy kryptowalut FTX. W kontekście tej afery MacAskill, określany „mentorem” założyciela FTX, wyraził kilka miesięcy temu najgłębsze zdumienie.

Te powiązania longtermizmu z technokapitalizmem północnej Kalifornii nie są przypadkiem. Mamy tu raczej do czynienia z rosnącym w siłę kompleksem intelektualno-biznesowym, którego obie strony odnoszą korzyść: longtermiści przedstawiają filozoficzne uzasadnienia praktyk korporacji technologicznych, otrzymując za to wymierną, finansową korzyść.

Czy wszystko to oznacza, że nie powinniśmy troszczyć się o bardziej odległą przyszłość? Oczywiście, że powinniśmy. Czy jednak powinniśmy myśleć o niej w sposób, który proponują MacAskill i inni longtermiści? Raczej nie. Longtermizm jest wyrazistą ideologią polityczną, snującą narrację o zapierającym dech w piersi rozmachu, w istocie podtrzymującą jednak bardzo tradycyjną, kapitalistyczną ideę postępu i perspektywę wzrostu ograniczonego jedynie rozmiarem i czasem trwania wszechświata. W interesie wąskiej grupy dziś uprzywilejowanych.

William MacAskill,

What We Owe the Future, 2022.

 

 

 

 

 

 

Grafika na podstawie zdjęcia https://commons.wikimedia.org/wiki/File:William_MacAskill_Portrait_2015_(cropped).jpg

Facebook
Twitter
LinkedIn
Pinterest

Działamy dzięki Tobie! Wesprzyj nas:

O rubryce

Proponujemy Państwu nową rubrykę literacką: „Tolle, lege”. Te słowa, które usłyszał niegdyś św. Augustyn, są symbolem wszystkiego, czym jest słowo pisane. Raz w miesiącu przedstawimy książkę ważną, intrygującą, być może kontrowersyjną. Chcemy Państwa zachęcić w nadchodzące jesienne i zimowe wieczory do lektury, bo przecież „Legere necesse est”.

Piotr Mazurkiewicz, redaktor rubryki

O autorze rubryki

Piotr Mazurkiewicz

Piotr Mazurkiewicz

Polonista, czytelnik, wierzący, że książki mogą czynić świat lepszym

Inne recenzje w Tolle, lege

Działamy dzięki Tobie! Wesprzyj nas!