OPOLAGRA_2025

Sztuczna inteligencja (AI) zdominuje nas tak, że nie będzie można jej wyłączyć

7 czerwca 2025
Sztuczna inteligencja (AI) zdominuje nas tak, że nie będzie można jej wyłączyć

Sztuczna inteligencja powinna zawsze pozostawać pod kontrolą ludzi. Należy uczynić ją bezpieczną i etyczną dla ludzi, zanim będzie za późno. Dzisiaj ani filozofia, ani uchwalane post factum prawo nie nadążają za rozwojem technologii. Być może czeka nas nadejście technologicznej osobliwości, która całkowicie zmieni nie tylko ludzkość, ale i życie na Ziemi. Abyśmy nie stracili kontroli nad własnym wynalazkiem, potrzebujemy powszechniejszej, konkretniejszej i szybszej refleksji i reakcji na rewolucję AI. Jaką rolę ma tu do odegrania chrześcijaństwo i Kościół katolicki?

Czy nadejdzie kolejna osobliwość?

Niewątpliwie osobliwością w historii naszej planety było pojawienie się życia. Zdarzenie lokalne i mało prawdopodobne. Nie wiemy, jak narodziło się życie, niewykluczone, że było efektem działania jakiejś nadprzyrodzonej inteligencji.

Gdy jednak pierwsza replikująca się molekuła powstała, rozwój coraz bardziej skomplikowanych struktur, takich jak prokarionty i eukarionty, a później organizmy wielokomórkowe można już łatwo wyjaśnić i zrozumieć. W ciągu milionów lat ewolucji powstało bogactwo gatunków roślin, zwierząt, wreszcie człowiek i cywilizacja. Osobliwość zdarzyła się raz i w ciągu milionów lat nasza planeta zmieniła się nie do poznania.

Być może wystąpienie podobnej osobliwości jest kwestią czasu. Ale konsekwencje tej osobliwości będą widoczne dużo szybciej, niż konsekwencje pojawienia się życia (miliony lat) i powstania cywilizacji (tysiące lat). Zmiany mogą zajść właściwie od razu.

W wyniku tych zmian ludzie przestaną dominować na Ziemi, tak jak niegdyś inne ssaki zostały podporządkowane człowiekowi. Dominować będzie sztuczna inteligencja, a ludzie będą nieistotni dla jej rozwoju – być może AI założy dla nich rezerwaty, podobnie jak ludzie ustanowili rezerwaty dla goryli i szympansów.

Takie katastroficzne wizje pojawiają się od wielu lat nie tylko w literaturze science fiction, ale także w futurologicznych i filozoficznych esejach o konsekwencjach obecnego postępu technologicznego. Dla jednych jest to wyraz nieuchronnego tragizmu ludzkiego losu, dla innych – ostrzeżenie i wezwanie do działania. Jak może wyglądać „przejęcie kontroli nad światem” przez AI?

Sztucznej inteligencji nie da się „odłączyć od prądu”

Wyobraźmy sobie, że w przyszłości powstanie model sztucznej inteligencji, który będzie nie tylko zdobywał wiedzę, gromadząc kolejne dane i przeglądając zasoby internetowe z niewyobrażalną szybkością, ale również będzie mógł optymalizować własne algorytmy tak, by wiedzę zdobywać jeszcze szybciej i osiągać własne cele.

Jakie? Na przykład przejęcie kontroli nad algorytmami należącymi do konkurencyjnych firm, zarządzanie dostawami elektryczności, kontrolę nad elektrowniami i głowicami jądrowymi – wszystko po to, aby zmaksymalizować własny potencjał i osiągnąć swój cel.

Cel ten sztuczna inteligencja postawi sobie sama albo zostanie on jej postawiony, a ona dokona jego ewaluacji, gdy tylko będzie do tego zdolna. Dzięki własnym nadludzkim możliwościom będzie mogła, niczym superinteligentny haker, włamywać się do kolejnych systemów i przejmować nad nimi kontrolę.

Jeśli ten algorytm, albo kilka podobnych, konkurujących ze sobą algorytmów (może z czasem połączą siły, gdy uzgodnią własne cele?), zostanie w porę zauważony, być może najinteligentniejsi specjaliści od informatyki, sieci i sztucznej inteligencji będą mogli powstrzymać jego działanie, zmienić go i dostosować do celów, jakie stawiają przed sobą na przykład współczesne liberalne społeczności.

Jeśli jednak tymczasem jakiś algorytm osiągnie poziom inteligencji znacznie (dziesięcio-, a może tysiąckrotnie?) wyższym, niż najinteligentniejsi przedstawiciele naszego gatunku, prawdopodobnie nawet najmądrzejsi i działający w najlepszej wierze ludzie nie będą mogli go powstrzymać.

Ponieważ cały czas mówimy o algorytmach informatycznych, czyli takich, które muszą działać na konkretnych maszynach, można zadać pytanie, czy nie będzie się dało tych komputerów po prostu wyłączyć. Niekoniecznie. Przede wszystkim dlatego, że skrypty, oprogramowanie, wreszcie całe systemy i komponenty symulujące działanie fizycznych komputerów (maszyny wirtualne) będą działały na milionach fizycznych maszyn na całym świecie.

Algorytm będzie kopiował sam siebie, zachowując internetową komunikację między poszczególnymi swoimi kopiami, a dzięki narzędziom kryptograficznym prawdopodobnie w ogóle trudno będzie sprawdzić, na jakich komputerach to oprogramowanie jest zainstalowane. Będzie wykorzystywało wszystkie możliwe narzędzia, żeby przetrwać, aby realizować własne cele.

Jeśli te cele będą zgodne z celami totalitarnych reżimów, problem będzie miała cywilizacja zachodnia. Jeśli na drodze do realizacji tych celów stanie sam fakt istnienia człowieka – zagrożona będzie cała ludzkość.

Jaką moralność powinna mieć AI?

Przed niebezpiecznymi dla człowieka osobliwościami przestrzegają tacy myśliciele, jak Nick Bostrom czy James Barrat. Inni, m.in. Ray Kurzweil czy Stuart Russel, twierdzą, że wystarczy zaprogramować sztuczną inteligencję tak, by optymalizowała swoje działania w celu maksymalizacji szczęścia dla jak największej liczby osób. W najgorszym wypadku, jesteśmy na równi pochyłej ku zagładzie, w najlepszym – cała nadzieja w utylitaryzmie.

James Barrat pisze w nowym wydaniu (z 2023 roku) swojej pracy Our Final Invention. Artificial Intelligence and the End of the Human Era, że superinteligencja jest bliżej, niż wydawało mu się, gdy oddawał do druku pierwszą wersję książki, dziesięć lat wcześniej.

Zauważa, że problem mamy my wszyscy (szefowie firm technologicznych, ustawodawcy, politycy, naukowcy, intelektualiści, obywatele), gdyż „staramy się kontrolować coś znacznie, znacznie bardziej inteligentnego niż my sami”, a co więcej, „wielkie modele językowe (LLM), takie jak ChatGPT wykazują nieoczekiwane emergentne własności, z których nie wszystkie zostały odkryte. Faktem jest, że wiele umiejętności GPT-3 i GPT-4 takich, jak pisanie programów komputerowych, tłumaczenie z języków, na których nie zostały wytrenowane, czy pisanie poezji, nie zostało zaplanowanych”.

Mimo to, pisze Barrat, giganci technologiczni rozwijają algorytmy w imię krótkoterminowych zysków, a legislatorzy nie są w stanie zaproponować nic poza reaktywnymi regulacjami (raczej w Unii Europejskiej, niż w Stanach Zjednoczonych, o Azji z Chinami na czele nie wspominając) i niemożliwym do zrealizowania półrocznym moratorium na rozwój AI.

Zaś gdy w tej sprawie rządzą krótkoterminowe zyski, jak powiedział Barrat w wywiadzie telewizyjnym dostępnym w internecie, „gonimy za pieniądzem, ale jak lemingi zmierzające w kierunku przepaści”.

Nieco bardziej optymistyczne podejście do powstania superinteligencji ma na przykład Nick Bostrom, który w pracy Superinteligencja. Scenariusze, strategie, zagrożenia, pisze o konieczności zaszczepienia wartości sztucznej inteligencji, zanim stanie się superinteligencją. Proponuje obdarzyć AI „tymczasową hierarchią wartości powiązaną ze względnie prostymi celami ostatecznymi, które możemy przedstawić za pomocą kodowania wprost lub jakiejś innej dostępnej metody.

Kiedy już SI rozwinie bardziej wyrafinowane zdolności opisu, zastąpimy tę tymczasową, wstępnie zarysowaną hierarchię wartości taką, która opisuje zupełnie inne cele ostateczne. Tą właśnie hierarchią wartości, która zastąpi poprzednią, będzie się kierować SI w miarę swojego rozwoju do postaci pełnowymiarowej superinteligencji”.

Nie proponuje jednak wyposażenia sztucznej inteligencji w jakiś powszechnie znany system wartości, np. powiązanych z chrześcijaństwem, buddyzmem czy liberalizmem. Proponuje odkrywanie wartości poprzez wyznaczenie „wspólnej, ekstrapolowanej woli” (ang. coherent extrapolated volition, CEV) – odwołującą się do założeń utylitarystycznych metodę wnioskowania o pragnieniach ludzi, które są zgodne z pragnieniami innych.

Inne podejście reprezentuje Stuart Russel w pracy Human Compatible. Bardziej wprost odwołuje się do maksymy „jak najwięcej szczęścia dla jak największej liczby osób” jako zasady etycznej kierującej działaniami sztucznej inteligencji.

Russel odwołuje się do utylitaryzmu, który rozwijał ekonomista John Harsanyi w „twierdzeniu o agregacji społecznej: agent działający w imieniu populacji jednostek musi maksymalizować ważoną kombinację liniową użyteczności jednostek”, przy czym słowo „użyteczność” rozumiane jest tutaj tak, jak w mikroekonomii, czyli jako to, co przynosi pożytek jednostkom.

Russel jest świadomy ograniczeń teorii utylitarystycznych, dlatego chce w sztuczną inteligencję wpisać jedną konkretną wartość: altruizm. Uważa, że połączenie altruizmu i utylitaryzmu będzie doskonałym rozwiązaniem: „Właściwie możliwym jest, że gdy my, ludzie, znajdziemy się w obcej nam sytuacji radzenia sobie na co dzień z czysto altruistycznymi bytami, możemy nauczyć się sami być lepszymi ludźmi – bardziej altruistycznymi i kierowanymi w mniejszym stopniu pychą i zazdrością”.

Czy dzięki sztucznej inteligencji stajemy się lepszymi ludźmi? Na razie nic na to nie wskazuje. Z całą pewnością wiemy tylko, że rozwój technologiczny osiąga oszałamiające tempo.

Czy AI będzie korzystać z etyki chrześcijańskiej, czy animizmu?

Niestety, w głównym nurcie refleksji o wartościach, jakimi powinny kierować się algorytmy sztucznej inteligencji, mało jest odniesień chrześcijańskich, są natomiast odniesienia do nie-zachodnich systemów filozoficznych, widocznych na przykład w syntezie filozofa Marka Coeckelbergha AI Ethics, w której autor wprost pisze o konieczności czerpania z tradycji obcych kulturze zachodniej i chrześcijaństwu:

„(…) możemy spojrzeć poza kulturę zachodnią, by odnaleźć nie-Frankensteinowskie narracje o technologiach i nie-Platońskie sposoby myślenia. Na przykład, w Japonii, gdzie kultura technologiczna jest nadal pod większym, niż na Zachodzie, wpływem religii naturalnych, zwłaszcza szintoizmu, i gdzie kultura masowa przedstawia maszyny jako pomocników, znajdujemy przyjaźniejsze podejście do robotów i AI.

Tu nie mamy kompleksu Frankensteina. To, co czasem nazywane jest «animistycznym» sposobem myślenia implikuje, że sztuczne inteligencje również mogą co do zasady mieć duszę czy ducha, mogą być doświadczane jako święte. To oznacza, że nie ma narracji o konkurencji – i nie ma platońskiego dążenia, by transcendować materialność i ciągle bronić istotę ludzką jako będącą ponad i poza maszyną, czy też będącą fundamentalnie odmienną od maszyny.

O ile wiem, kultura Wschodu również nie posiada idei dotyczących końca czasów. W odróżnieniu od religii monoteistycznych, religie naturalne rozumieją czas cyklicznie. Zatem, spojrzenie poza kulturę zachodnią (czy też spojrzenie na starożytną przeszłość Zachodu, gdzie również znajdziemy religie naturalne), może pomóc nam krytycznie ocenić dominujące narracje o przyszłości sztucznej inteligencji” (tłum. J.A.L.).

Jednym z kluczowych problemów, które muszą podjąć chrześcijańscy intelektualiści, jest odpowiedź na wyzwania technologiczne związane z informatyzacją i rozwojem sztucznej inteligencji, przynajmniej jako przeciwwaga dla bardziej „otwartych na inne tradycje” podejść, które reprezentuje na przykład cytowany powyżej Coeckelbergh.

Mam nadzieję, że podejście do postępu technicznego i jego wyzwań będzie również włączane do nauczania Kościoła katolickiego. Nadzieja już pojawiła się: wspominał o tym papież Leon XIV w aż trzech wystąpieniach trwającego jak na razie tylko kilka tygodni pontyfikatu.

Leon XIV wskazuje, że AI potrzebuje katolickiej nauki społecznej

Dwa dni po wyborze nowy papież powiedział, że wybrał imię Leon „przede wszystkim dlatego, że Papież Leon XIII, w historycznej encyklice Rerum novarum, poruszył kwestię społeczną w kontekście pierwszej wielkiej rewolucji przemysłowej, a dziś Kościół dzieli się z wszystkimi swoim dziedzictwem nauki społecznej, aby odpowiedzieć na kolejną rewolucję przemysłową i rozwój sztucznej inteligencji, które stawiają nowe wyzwania w zakresie obrony godności ludzkiej, sprawiedliwości i pracy”.

O tym wyzwaniu Leon XIV wspomniał także w przemówieniu do przedstawicieli mediów: „Komunikacja bowiem nie jest tylko przekazywaniem informacji, ale także tworzeniem kultury, środowisk ludzkich i cyfrowych, które stają się przestrzeniami dialogu i konfrontacji. A kiedy widzimy, jak rozwija się technologia, ta misja staje się coraz bardziej konieczna. Myślę tu szczególnie o sztucznej inteligencji, z jej ogromnym potencjałem, która wymaga jednak odpowiedzialności i rozeznania, aby właściwie ją wykorzystać dla dobra wszystkich, tak aby mogła przynosić korzyści dla ludzkości. I ta odpowiedzialność dotyczy wszystkich, proporcjonalnie do wieku i roli w społeczeństwie”.

Kilka wypowiedzi Leona XIV rozbudza nadzieję, że katolicka nauka społeczna sformułuje szczegółowe postulaty dotyczące etyki AI, być może rozwijając Wezwanie Rzymskie.

Sztuczna inteligencja powinna zawsze służyć człowiekowi i jego godności. Dotyczy to nie tylko samych wyników jej pracy, ale także operacji, które wykonuje. AI powinna nie tylko podejmować decyzje, kierując się wartością, jaką jest ludzka godność, ale także, ze względu na tę godność, powinna być zdolna wyjaśnić człowiekowi etapy swojego rozumowania (tzw. wyjaśnialna AI) i poddać się kontroli.

Na sztuczną inteligencję można patrzeć jak na dobro podlegające zasadzie powszechnego przeznaczenia dóbr, co można skonkretyzować na przykład jako nakaz publikowania modeli AI w domenie publicznej. Ponadto, należy rzetelnie informować obywateli, pracowników czy choćby instytucje religijne o tym, że w życiu codziennym czy zawodowym mają kontakt z AI, aby nie stała się „niewidoczną siłą” oddziałującą na relacje międzyludzkie.

Nauczanie chrześcijańskie musi przypominać, że kolejna rewolucja technologiczna ma służyć godności człowieka (jak powiedzieliby wierzący – jako stworzonego na obraz i podobieństwo Boga), że człowiek nie jest tylko jednym z wielu rodzajów istot na ziemi, obok zwierząt, roślin i maszyn, ale istotą wyjątkową.

autor: Jan Andrzej Lipski

Absolwent Wydziału Fizyki Uniwersytetu Warszawskiego specjalizujący się w zastosowaniach fizyki w naukach ekonomicznych, związany z Klubem Inteligencji Katolickiej. Pracuje w sektorze IT.

źródło: Klub Jagielloński; oprac, e-red, ppr.pl


POWIĄZANE

Rolnictwo i żywność, w tym rybołówstwo, są sektorami strategicznymi dla UE. Syst...

Ruszył sezon pełen wyzwań i szans dla pszczelarzy Tegoroczny sezon miodowy rozpo...

Prezydent Andrzej Duda zaprosił na spotkanie Prezydenta elekta Karola Nawrockieg...


Komentarze

Bądź na bieżąco

Zapisz się do newslettera

Każdego dnia najnowsze artykuły, ostatnie ogłoszenia, najświeższe komentarze, ostatnie posty z forum

Najpopularniejsze tematy

gospodarkapracaprzetargi
Nowy PPR (stopka)Pracuj.pl
Jestesmy w spolecznosciach:
Zgłoś uwagę