Zdrowy umysł w sieci algorytmów

W 2023 roku sztuczna inteligencja była odmieniana przez wszystkie przypadki. Zachłysnęliśmy się możliwościami ChataGPT, dzięki któremu możemy napisać mejle, napisać opowiadanie, stworzyć obraz, znaleźć odpowiedź na dręczące nas pytania… Na razie świat się raczej bawi (i dziwi), ale pojawiły się też ostrzeżenia o wielu możliwościach wykorzystania SI do niecnych celów. Wychynęły też znowu obawy przed stworzeniem SI potężniejszej od nas, która może nas zniszczyć - w sensie dosłownym, a nie tylko generując kolejne podziały i zabierając nam pracę. Ta kwestia była szeroko dyskutowana m.in. przez Sama Harrisa.

Książka niemieckiego naukowca sprowadza nas z tych wyżyn na ziemię. Musimy tu wyjść od definicji inteligencji. Już dawno temu, kiedy powstawały maszyny liczące i pierwsze komputery ludzie zrównali inteligencję z przetwarzaniem danych i liczeniem - dlatego kiedyś szczytowym osiągnięciem komputera wydawała się jego wygrana z człowiekiem w szachy. I to samo dzieje się dziś. Zastanówmy się przez chwilę: czy komputer lub jakikolwiek program “myśli” w sensie takim, w jakim myśli człowiek? No nie - algorytm może wykonać zadanie, jakie mu zleciliśmy, ale wykonuje to dzięki całej masie danych wejściowych, jakie mu najpierw dostarczyliśmy i ogromnej mocy obliczeniowej. Nic dziwnego, że komputer wygrywa z człowiekiem w szachy, skoro ma dostęp do całej bazy różnych zagrań i może to przetworzyć tysiąc razy szybciej, niż człowiek. Tylko, czy to jest myślenie? Sztuczna inteligencja nie wie też po co w ogóle wykonuje to, co jej kazaliśmy zrobić, nie ma przecież świadomości otaczającego jej świata. Kwestia tego, czy maszyny uzyskają kiedyś świadomość i wolną wolę jest oczywiście też przedmiotem troski naukowców i futurologów. W świetle tego, co napisałam powyżej wydaje się to być mrzonką, zwłaszcza że ludzie de facto sami nie potrafią określić czym tak naprawdę jest świadomość i z czego się ona bierze (o czym też poczytamy u Sama Harrisa).

Moc obliczeniowa nie zapewnia jednak myślenia przyczynowego ani intuicyjnej psychologii, fizyki czy uspołecznienia. Znakomity program szachowy nie wie o tym, że gra w coś, co nazywamy szachami, ani że jego przeciwnik jest człowiekiem, nie odczuwa także radości z wygranej.
Gerd Gigerenzer analizuje powyższe, zwracając uwagę właśnie na nasze błędne postrzeganie kwestii algorytmów i nadmierne im zawierzanie, mimo, że wyniki ich działań wcale nie cechują się zbytnią trafnością. SI bowiem sprawdza się najlepiej w sytuacjach stabilnych, natomiast wiele sytuacji cechuje niestabilność - i tu SI zawodzi. Autor podaje przykłady prognozowania przestępczości czy rozpoznawania twarzy. Szeroko omawia problem autonomicznych samochodów, nie tylko z punktu widzenia dylematu wagonika. Krytykuje również stosowanie skomplikowanych algorytmów bazujących na sieciach neuronowych, co do których nikt nie wie tak naprawdę jak działają - w szczególności, gdy algorytmy te stosowane są w dziedzinach życia dla ludzi istotnych, jak przyznawanie kredytów albo nie daj boże sądownictwo. W przypadku negatywnej oceny brak przejrzystości i niewiadoma, dlaczego zostaliśmy ocenieni przez algorytm tak, a nie inaczej działa podobnie jak w przypadku, kiedy zostaliśmy porzuceni przez kochanka bez słowa wyjaśnienia. Dręczy nas wtedy pytanie: dlaczego? Co zrobiliśmy nie tak? Uniemożliwia to też człowiekowi korektę zachowania. Tymczasem tego typu algorytmy się rozpowszechniają, a posługujemy się nimi, bo firmy technologiczne przekonują nas o ich użyteczności (a nie dlatego, że faktycznie są one użyteczne), a my uznajemy, że to wygodne… Tak samo, jak wygodne jest korzystanie z internetu w zamian za własną prywatność: jeszcze do niedawna prywatność była wysoko cenionym dobrem, dziś dobrowolnie ją oddajemy, jednocześnie ciągle szermując hasłami o “wolności” (i szukając zamachu na nią nie tam, gdzie trzeba). Dobitnym przykładem jest kwestia inteligentnych domów. Jeden z technologicznych portali (uprzedzając komentarze malkontentów) pisze tak:

(...) z racji tego, że żyjemy w 2024 r., to coraz więcej ludzi ma w domu urządzenia AGD, które nie dość, że można, to wręcz trzeba podłączyć do internetu. Postęp to piękna rzecz, więc nie ma sensu pochylać się nad problemami ludzi, którzy na przekór wszystkim poszliby w styczniu prać majtki w rzece. Skupmy się na nowoczesności. Czy pralka może pobierać dane?

Jasne, że może i że ten cudowny postęp i nowoczesność odbywa się kosztem postępującej inwigilacji, kiedy to szpiegują nas już sprzęty domowe, zegarki czy samochody.* Wszystko to mieści się w znanym mi już pojęciu kapitalizmu inwigilacji, o którym autor także pisze. Wg. Gigerenzera ludzkość powoli, krokiem somnambulika przemierza drogę do niewolności:
W nowym świecie technologicznego paternalizmu prawo będzie egzekwowane automatycznie przez komputery. Ludzie nie będą już oszukiwać w zeznaniach podatkowych, korupcja będzie od razu wykrywana, kierowcy nie będą przekraczać prędkości ani zagrażać pieszym. Inwigilacja przyniesie sprawiedliwość, prawo i ład. 
Demokracje będą musiały dokonać wyboru. Jedną opcją będzie porzucenie pierwotnego ideału internetu jako miejsca swobodnego dostępu do informacji (...), co w końcu doprowadzi do zaniku demokracji. Inną opcją będzie trwanie przy tym ideale i zmierzenie się z faktem, że te same demokracje przyczyniły się do zniszczenia go przez to, że tolerowały rozwój monopoli informatycznych, kierowany chęcią większego zysku…

A może to właśnie wolność jest problemem, jak twierdził Skinner? - gdyż nie stać nas na wolność toczenia wojen, niszczenia klimatu i wyzyskiwania innych ludzi.

Gigerenzer prezentuje zatem zdroworozsądkowe podejście, poddając w wątpliwość zarówno wiarę w cudowne możliwości technologii, ale także obawy o to, że SI przejmie nad nami kontrolę. Człowiek cały czas ma przewagę, bo sposób, w jaki my myślimy, kojarzymy fakty jest zupełnie inny od tego, w jaki sposób działa SI. Weźmy prosty przykład: SI by rozpoznać, że na zdjęciu jest kot, potrzebuje wsadu danych w postaci kilku tysięcy zdjęć. Człowiekowi - i to nawet małemu dziecku - wystarczy zobaczyć kota raz lub dwa. SI, którą obecnie dysponujemy nie dopowie sobie też niczego, nie zrozumie dwuznaczności, nie odczyta z kontekstu - wszystko trzeba jej podać jak “krowie na rowie” (co też jest umiejętnością). Nadal też inteligentnemu człowiekowi łatwo jest wyprowadzić ChataGPT w pole (co sama sprawdziłam).

Książka ta napisana jest w bardzo przystępny sposób: nie ma tu opisu żadnych skomplikowanych algorytmów, jest to raczej praca z dziedziny nauk społecznych. Zresztą sam autor definiuje jej przedmiot tak

Książka ta nie stanowi akademickiego wprowadzenia do AI lub jej poddziedzin, takich jak uczenie maszynowe czy Big Data. Mówi ona o naszych doświadczeniach ze sztuczną inteligencją: zaufaniu, zawodach, zrozumieniu, uzależnieniu oraz osobistych i społecznych przeobrażeniach.
Przyznaję, że większość tematyki zawartej w Zdrowym umyśle była dla mnie powtórką z rozrywki, bo dużej dawce materiału, jaką wchłonęłam w ubiegłym roku. Bardziej oczekiwałam wskazówek jak faktycznie odnajdować się w nowoczesnym świecie, jak radzić sobie z technologiami tak, by nie wpaść do ich króliczej nory: problemem nie jest technologia, ale to czy rozumiemy jej oddziaływanie na nas. A tego trochę tu zabrakło. Poza tym z uwagi na błyskawiczny rozwój w tej dziedzinie podejrzewam, że część wiedzy już się zdezaktualizowała, np. istnieją już roboty, które potrafią wykonywać precyzyjne czynności. ChatGPT (czy analogiczne programy oferowane przez konkurentów) też się błyskawicznie rozwijają. Moim zdaniem ChatGPT to fajne narzędzie, które może do wielu rzeczy się przydać, ale trzeba z niego korzystać z głową i tylko wtedy, kiedy jest to konieczne. Problem tkwi w podejściu ludzi, chcących SI zaprząc do wszystkiego, co tylko możliwe, gdyż to WYGODNE. Jak zawsze. I myślą, że wygoda nas ocali, bo "żyje się nam najwygodniej w dziejach"? Cieszą się z tego, że już nie trzeba będzie MYŚLEĆ, żeby zrobić to, czy tamto, bo SI zrobi to za nich. Tylko że w ten sposób pozbawiamy się na własne życzenie naszej najważniejszej cechy, stanowiącej przecież o naszej przewadze ewolucyjnej nad innymi gatunkami. Jeśli przestaniemy samodzielnie myśleć, to co się z nami stanie? Łatwa ścieżka nie zawsze jest ścieżką najlepszą. Że przytoczę cytat z Dżentelmena w Moskwie:

Powiem ci, co to są wygody - (...) - Spać do południa i mieć kogoś, kto przyniesie ci śniadanie na tacy. Odwołać spotkanie w ostatniej chwili. Trzymać powóz przed drzwiami jednego przyjęcia, by w mgnieniu oka mógł cię dostarczyć na drugie. Uniknąć ślubu w młodości i zrezygnować z dzieci. To największe wygody, Anuszka - i kiedyś miałem je wszystkie. Ale ostatecznie to właśnie niewygody okazały się dla mnie najważniejsze.
Dlatego też o wiele bardziej realne jest, że kontrolę nad światem przejmą ludzie (czyt. korporacje technologiczne), którzy tą inteligencją zawiadują, a nie ona sama, jako jakiś odrębny nowy i świadomy byt. I to za naszym milczącym pozwoleniem.

Moim zdaniem problemem jest też to, że możliwości technologii się zwiększają, więc zdobywanie cyfrowych umiejętności i radzenie sobie z potencjalnymi zagrożeniami staje się coraz trudniejsze. Bawi mnie ta anachroniczna narracja, że "to tylko internet", tzn. nie ma to wpływu na realne życie - podczas kiedy ludzie nie potrafią odkleić się od telefonu, a bez internetu powoli przestaje być możliwe normalne funkcjonowanie. To jak "nie ma wpływu na realne życie"? Przestępcy i Big Techy zawsze są krok do przodu, tymczasem ze strony państwa otrzymujemy niewielkie wsparcie, zagadnienia te są lekceważone (w szkole zamiast fact checkingu i higieny cyfrowej planują uczyć programowania? - jakby 20 lat za późno), prawo nie nadąża, więc jesteśmy z tym zostawieni sami sobie z narracją, że to my jesteśmy odpowiedzialni za kontrolowanie tego.

Metryczka:
Gatunek: popularnonaukowa
Główny bohater: SI, nowoczesne technologie
Miejsce akcji: cały świat
Czas akcji: współcześnie
Ilość stron: 400
Moja ocena: 5/6
 
Gerd Gigerenzer, Zdrowy umysł w sieci algorytmów, Wydawnictwo Copernicus Center Press, 2023


*A potem naraz się okazuje, że pralka albo szczoteczka do zębów (sic!) pobiera dane (i więcej prądu), bo np. posłużyła hakerom do dokonywania ataków DDOS.

Komentarze

instagram @dzienpozniej

Copyright © Dzień później