Mamy boom na sztuczną inteligencję, więc pojawia się też mnóstwo książek na jej temat. Jedne chwalą jej możliwości, drugie ostrzegają przed zagrożeniami. W cieniu AI należy do tej drugiej grupy - nie dotyczy ona jednak potencjalnego przejęcia władzy nad ludźmi przez superinteligencję, czy wykorzystania AI jako broń, ale bardziej przyziemnych spraw - tego, co odczuwamy na co dzień, i to już, w tej chwili, a nie w przyszłości (która nadejdzie szybciej, niż się nam wydaje). Autorka pokazuje jaki wpływ może mieć AI na takie sprawy jak: nasza praca, tożsamość, zdrowie, wolność, prawa czy społeczeństwo. 

Wszystkie rewolucje odbywają się kosztem niewolników. Jeśli zatem sztuczna inteligencja to kolejna rewolucja przemysłowa, jej niewolnikami są ludzie pracujący przy jej szkoleniu i moderacji treści. 

Czy zdajemy sobie sprawę, że za kulisami AI stoi rzesza ludzi, którzy pracują, by tę AI rozwijać? I to są nie tylko programiści czy naukowcy, ale zwykli “obrabiacze danych” - ludzie, którzy po całych dniach tagują, opisują, klasyfikują, sortują zdjęcia i dane, wykonują monotonną pracę po to, by AI mogła na nich trenować. Albo moderatorzy treści. A na końcu AI ich zastąpi - co już się dzieje. To jest ten sam problem, co zawsze w kapitalizmie - są ludzie, którzy podejmą się takich prac, nie zastanawiając się nad ich dalszymi konsekwencjami, nad tym, co będzie za X lat, bo oni muszą za coś żyć “tu i teraz”. I w sumie trudno się temu dziwić. Ta cała mrówcza praca, stojąca za kulisami tworzenia AI ma miejsce najczęściej w biednych krajach, gdzie ludziom mającym tę pracę wydaje się i tak, że złapali Boga za nogi. Jest też praca pod dyktando algorytmów - praca de facto niewolnicza - tu autorka opisuje wszystkim nam dobrze znanego Ubera i to, jak algorytm, będący de facto szefem, śrubuje normy i “oszukuje” kierowców czy kurierów. Ci pracownicy są traktowani zresztą jak maszyny: bez prawa do samodzielnego myślenia, do odpoczynku, nie wspominając już o skarżeniu się. Pojawiają się już zresztą pierwsze obiektywne analizy, mówiące że pożytku wielkiego (ani zysków) z AI w pracy nie ma, za to jesteśmy coraz bardziej zestresowani i zmęczeni, bo - jak zauważa jedna z rozmówczyń w książce - ludzie rywalizują ze sobą jeszcze intensywniej, wszyscy pracują ciężej i dłużej. Z pewnością pasuje to pracodawcom, ale czy nam samym też? Pamiętam, jak wypuszczony został ChatGPT i mój znajomy, cały zafascynowany mówił mi “teraz każdy będzie miał swojego agenta AI i z ich pomocą będziemy ze sobą rywalizować” - a ja sobie pomyślałam “człowieku, ale ja nie chcę z nikim rywalizować, ja chcę spokojnie żyć!”.

Bardzo duża część książki poświęcona jest różnego rodzaju systemom monitoringu i inwigilacji, działających na bazie AI. W państwach demokratycznych są one zawsze wdrażane pod hasłami “bezpieczeństwa”- tu autorka podaje przykłady programów stworzonych po to by “prognozować” problemy/wykroczenia/przestępstwa popełniane przez młodych ludzi. Brzmi to bardzo niepokojąco, jak z Raportu mniejszości, zwłaszcza, że wiadomo, że algorytmy te są nacechowane tymi samymi uprzedzeniami, co ludzie, więc, wbrew pozorom, programy te wcale nie są obiektywne i w efekcie często działają jako samosprawdzająca się przepowiednia  Madhumita Murgia alarmuje przede wszystkim, że technologie i AI znowu dyskryminują słabszych, te grupy, które są dyskryminowane od zawsze: kobiety, mniejszości, ubogich, osoby niebiałe, itp. Jeszcze inny problem polega na tworzeniu rozwiązań, które dobrze wyglądają w teorii, ale nie sprawdzają się w praktyce, bo nie uwzględniają czynnika ludzkiego - tego, że ludzie zachowują się nie zawsze racjonalnie i przewidywalnie. Algorytmy widzą liczby, a nie ludzi… Świetnie adresuje te problemy przykład podawany w książce dotyczący argentyńskiego programu mającego przewidywać które nastolatki zajdą w ciążę. 

(...) zbudowano model, który miał przewidywać, czy dana dziewczynka zajdzie w ciąże w wieku 12, 15 czy 18 lat. (...) w ogóle nie pytano nastolatek, czy czują się bezpiecznie w swojej społeczności, czy mają jakąkolwiek autonomię, jakie są ich nadzieje na przyszłość. Nie pytano czy chcą mieć dzieci albo czy nie obawiają się, że mogą nie mieć wyboru w tej kwestii. Zabrakło pytań o mężczyzn obecnych w ich życiu. W całym procesie zbierania danych traktowano młode kobiety jak zupełnie bezwolne istoty. 

Pierwsze co mi się nasunęło, kiedy o tym czytałam, to: i w jaki niby sposób miałoby to pomóc tym dziewczynom? Czy faktycznie system ten wyposażałby młode kobiety w “narzędzia umożliwiające dokonywanie świadomych wyborów dotyczących macierzyństwa”? To znaczy jakie narzędzia? A jeśli dziewczyna de facto nie ma wyboru, bo została zgwałcona, co niestety jest sporym problemem w Ameryce Łacińskiej? Czy “wytypowanie”, że jedna czy druga może zajść w ciążę nie skutkowałoby np. objęciem jej nadzorem, co de facto byłoby karaniem przed popełnieniem “czynu”? W dodatku karaniem znowu, tradycyjnie ofiar -  dlaczego nie powstaje zatem jakiś program, mający na celu zapobieganiu przemocy wobec kobiet? Wytypowania potencjalnych gwałcicieli? 

Krytycy uznali algorytm za zbyt wyszukane, a jednocześnie niedoskonałe narzędzie stworzone z myślą o korygowaniu w jakiś sposób domniemanych wad dziewczynek, a nie rozwiązywaniu problemów społecznych będących przyczyną ich opłakanego położenia. W ogóle nie zbierano danych na temat mężczyzn. “Ta koncentracja na jednej płci służy umocnieniu patriarchalnych wzorców i prowadzi do obwiniania wyłącznie nastoletnich dziewcząt o niechciane ciąże, tak jakby dało się począć dziecko bez udziału mężczyzny”. 
Czyli jak zwykle: bo się puszczała… Jak zwykle wszystko skupia się na kobietach, nieważne czy jest to ubieranie ich w burki, czy monitorowanie przez AI. Jak zwykle “ojca dziecka nie ma”. I jest to też świetny przykład pokazujący znowu stare, dobre uprzedmiotawianie kobiet, patriarchat, tylko że w nowej, technologicznej odsłonie. 

Ludzie żyjący pod dyktando algorytmów mają poczucie ciągłej inwigilacji, osaczenia, a co gorsza bezsilności - bo nie wiadomo jak działają te algorytmy, na jakiej podstawie podejmują decyzje (problem “czarnej skrzynki”), a do tego nie ma nawet komu się poskarżyć, skoro za wszystko odpowiada algorytm (problem skądinąd znany chyba wszystkim dobrze z sytuacji takich, kiedy chcemy uzyskać pomoc z jakąś sprawą, a jedyną “pomocą”, jaka jest oferowana klientowi, są standardowe odpowiedzi generowane przez bota). A od cyfrowego państwo opiekuńczego tylko krok do państwa opresyjnego. I tu pojawia się kwestia wykorzystywania AI w państwach niedemokratycznych, do inwigilowania przeciwników politycznych, albo po prostu ludności - jak w Chinach… 

Ze względu na brak standardów i wymagań audytowych dotyczących algorytmów sztucznej inteligencji w różnych częściach kraju i świata mogą być wdrażane całkowicie różne rodzaje oprogramowania. (...) W Moskwie algorytmy mogą być uprzedzone wobec kobiet, a w Hongkongu - wobec osób białych. Żaden obywatel poddany działaniu tych systemów nie będzie miał pojęcia, jakie zasady one stosują i dlaczego został wytypowany do obserwacji albo zidentyfikowany. 
Kolejnym problemem jest nie tylko to, że tracimy naszą prywatność (często zresztą na własne życzenie), ale także to, że nie mamy prawa do zapomnienia, i do wybaczenia. Choć takie “prawo” zostało zapisane w unijnych dokumentach, w praktyce to, co znalazło się w sieci, czy systemie - nie ginie. I zawsze można się tym posłużyć przeciwko komuś, nawet po latach. Znacie to? Bo 10 lat temu X powiedział to i to... Popełniłeś błąd 30 lat temu? Byłeś “młody i głupi”? Odpokutowałeś? Nieważne, system wszystko pamięta. Przyczynia się to do stygmatyzowania ludzi, a dzieje się to i za sprawą indywidualnych osób, jak i niestety instytucji, takich jak sądy, policja, opieka społeczna. Autorka uważa, że tego typu działania mają więcej wspólnego z odwetem, niż z “pilnowaniem porządku”:

Kiedy przychodzi moment, w którym społeczeństwo może komuś wybaczyć? cy nie wystarczy ukarać człowieka raz, zamiast w nieskończoność go obserwować i podejrzewać, by zapobiec przyszłym występkom? I czy stosowanie tępych narzędzi interwencji nie jest przypadkiem dodatkową sankcją, a nie pomocą? 
Idea wybaczenia zajmuje poczesne miejsce w psychologii behawioralnej, a szczególną rolę odgrywa w rozwoju dzieci. Powtarzamy im, że wybaczamy im bez względu na wszystko, że kochamy je nawet wtedy, kiedy się gniewamy. (...) Narzędzia oparte na sztucznej inteligencji i inne rodzaje oprogramowania statystycznego do przewidywania trajektorii życia człowieka mają działanie odwetowe. Pilnowanie porządku przy użyciu algorytmów predykcyjnych nie ma nic wspólnego z troską i przebaczeniem, gdyż polega na ciągłym szacowaniu, że komuś powinie się noga. Każdy czyn, każde spostrzeżenie, każdy aspekt codzienności zostają w jakiś sposób powiązane z przestępstwem, ponieważ z tej perspektywy analizowane jest ludzkie życie. 
No niestety, sztuczna inteligencja nie ma uczuć… Informatycy podchodzą do rozwiązywania problemów w sposób: “zbierzmy więcej danych”, gdy problemem często wcale nie jest brak danych, tylko brak pochylenia się nad ludźmi. Poza tym rozwiązywanie problemów społecznych to jest zadanie nauczycieli, lekarzy, pracowników opieki społecznej, psychologów, a nie informatyków, którzy po prostu się na tym nie znają (ale pewnie zarabiają 10 razy więcej, niż jakikolwiek personel pracujący bezpośrednio z ludźmi). Tymczasem:
Niezależny ekspert ONZ ds. skrajnego ubóstwa i praw człowieka ogłosił w 2019 roku alarmujący raport na temat pojawienia się tzw. cyfrowego państwa opiekuńczego, czyli zjawiska zastępowania prerogatyw rządów, analizą danych. (...) Cyfrowe technologie, w tym sztuczna inteligencja, których zadaniem teoretycznie jest określanie, komu należy przyznać pomoc społeczną, w gruncie rzeczy “przewidują, identyfikują, inwigilują, wykrywają, osaczają i piętnują” biedę. Raport przestrzegał również przed rosnącym wpływem zachodnich korporacji na rządy państw na całym świecie, czyli istotą kolonializmu danych. 
Od Mjanmy po Mumbaj i Melbourne wielkie firmy z sektora nowoczesnych technologii podejmują codzienne decyzje polityczne, etyczne i kulturalne w imieniu miliardów użytkowników. W większości kierują się przy tym swoim uprzywilejowanym oglądem świata z perspektywy Stanów Zjednoczonych. Zwłaszcza w krajach rozwijających się te algorytmiczne sterowane platformy tworzą własne rynki pracy, definiują granice internetu, naruszają lokalne prawa, ustanawiają własne zasady wolności słowa, a czasem nawet ułatwiają przemoc polityczną, wojny i ludobójstwo. (...) Haczyk tkwi w nazwie to są spółki z ograniczoną odpowiedzialnością -mówi prawniczka. Nieograniczona za to jest ich władza, co nasunęło jej myśl, że walka z nimi będzie trudniejsza, niż z rządami demokratycznych państw. 
Nawet w branży medycznej, której też poświęcony jest rozdział, gdzie wykorzystanie AI wydaje się być jak najbardziej pożądane i budzić największe nadzieje, okazuje się, że znów dyskryminowani są słabsi: rozwiązania oparte na AI są kosztowne, a tym samym dostępne jako usługa “premium”. Tymczasem najbardziej przydałyby się tam, gdzie ludzie ubodzy mają problem z dostępem do opieki medycznej - tylko że korporacje nie mają żadnego interesu w inwestowanie i wdrażanie rozwiązań, na których nie zarobi, prawda? Problemy tych grup też zawsze decydentom wydają się mniej ważne, jak np. - tradycyjnie - problemy kobiet. Zawsze też są jakieś ważniejsze sprawy niż to, że tysiące kobiet pada ofiarami stalkingu, czy kradzieży wizerunku i wykorzystywania go do szerzenia pornografii (co też opisano w książce). A kolejne tego typu sprawy się mnożą: ostatnio afera z Grokiem, który jawnie służy jako narzędzie cyberprzemocy wobec kobiet. Albo tożsama sprawa nastolatki, której nagiego deepfake'a wrzucili "koledzy" do sieci - a nasza policja stwierdziła, że "nic się nie stało" (na szczęście dzięki uporowi UODO sprawa została ponownie otworzona). 

To jest ważna książka, bo ludzie na ogół nie zdają sobie z tego wszystkiego sprawy. Podchodzą do technologii bezkrytycznie, a AI traktują jak wyrocznię. Tu przychodzą mi na myśl mi się wszyscy ci mądrale, którzy zawsze komentują z wyższością i protekcjonalizmem w necie to, co przytrafiło się innym, myśląc, że ich to nie dotyczy. Ofiary są same sobie winne, bo były za głupie, zbyt nieostrożne, winni są ludzie, a nie technologie, itp. Owym komentującym nie przyjdzie do głowy, że sami mogą paść ofiarą jakiegoś cyfrowego przekrętu albo wpaść w szpony systemu inwigilacji. Wystarczy tylko jeden zły krok… Nie wspominam już o tym, że tak naprawdę niewiele nas dzieli od utraty demokracji i zmiany w państwo totalitarne. Autorka trafnie rozpoznaje ten problem, pisząc o Chinach i zwracając uwagę na to, że przymykanie oczu na łamanie praw człowieka, akceptowanie niesprawiedliwości dlatego, że dzieje się ono gdzieś daleko, może doprowadzić do tego, że stanie się to [znowu] powszechną praktyką.  

I o tym jest ta książka. To nie jest książka o technologii, więc “jeśli ktoś chce sobie poczytać o kodach, algorytmach i LLM”, to tutaj tego nie znajdzie. To jest książka o społecznych i etycznych konsekwencjach użycia AI, o ludziach, którzy mogą na tym ucierpieć (i tak, to możesz być ty, mogę być ja), o tym, że technologia wdrażana w taki sposób i bez regulacji, jak dziś, powoduje mnóstwo szkód, służąc głównie do inwigilacji, kontrolowania i zbierania danych, o czym technokraci nam nie mówią, reklamując swoje cudowne narzędzia. O odpowiedzialności technokratów i rządów, oddających władzę w ręce tych pierwszych. Nie chodzi o to, że autorka “nienawidzi Big Techów”, jak to ktoś skonstatował (ale naprawdę, naprawdę trudno je kochać), tylko o to, że fakty są takie, że oddaliśmy zbyt wielką władzę w ręce tych korporacji, wierząc w ich “dobre intencje”, pokładając nadzieje że “technologia ułatwi nam życie” albo rozwiąże nasze problemy, i teraz już widać gołym okiem, jakie są tego skutki. To są firmy, którym chodzi - jak wszystkim innym - przede wszystkim o zysk, a nie o naprawianie świata - a za zyskiem też idzie władza. Poza tym AI jest tworzona głównie przez białych mężczyzn i wspiera ich wizję świata, znowu. Ta wizja nie zawsze jest oparta na egalitarności i demokracji, a etyka i moralność to nie są sprawy, które zajmują technokratów. O branży nowoczesnych technologii piszę od 10 lat. Oprócz Karla nie spotkałam w tym czasie ani jednego informatyka, który wyraziłby na głos jakiekolwiek wątpliwości moralne dotyczące swojej pracy - konstatuje Murgia. To, co się obecnie dzieje można śmiało nazwać neokolonializmem (i znowu, nie tylko Madhumita Murgia o tym pisze, także nasza dziennikarka, Sylwia Czubkowska) czy technofeudalizmem.  

Przedmiotem opisywanego (...) kolonialnego zaboru jest dziś ludzkie życie, konwertowane na nieprzerwane strumienie informacji. W tym niekończącym się przepływie danych autorzy dostrzegają historyczne analogie do dawnego kolonializmu. Nierówności będące pozostałością dawnych podbojów wciąż bowiem rosną, a ekstrakcja danych ze społeczeństwa jest niczym innym jak nową formą grabieży i ucisku. 
Firmy z sektora Big Tech gromadzą pieniądze, akumulują wartość płynącą z posiadania danych, ale też skupiają w swoich rękach coraz większą wiedzę, i to jest najważniejsze (...). Ponieważ nie mamy dostępu do gromadzonej przez nich wiedzy na nasz temat, zostajemy z tyłu. To bardzo nierówna relacja, widać tu asymetrię władzy. 
Przyznaję, że ten reportaż mnie zafrapował, mimo tego, że tematyka AI i Big Techów czytam ostatnio sporo. Autorka opisuje historie ofiar nadużyć spowodowanych działaniem, czy wykorzystaniem AI, rozmawia także z ekspertami i aktywistami. Bardzo jasno stawia sprawę, pisze bardzo przystępnie, prostym językiem, potrafi zainteresować historiami swoich bohaterów - a to nie jest reguła. Doceniam uporządkowanie treści i jasny przekaz. Przekaz i tak, w miarę stonowany, choć krytyka Big Techów jest aż nadto widoczna. Moim zdaniem już utraciliśmy nad tym kontrolę - czy ktoś wie jakie np. jakie podmioty posiadają jego dane osobowe, ile tych podmiotów jest i z ilu te dane wyciekły? Albo do czego służą te dane? I trzeba się tylko modlić o to, żeby faktycznie nie przydarzyło się nam to, co przydarzyło się bohaterom tej książki. I o to, żeby zastosowanie AI do różnych niecnych celów miało tak samo ograniczony zasięg, jak inne niebezpieczne rzeczy w rękach ludzi - większość z nas to jednak spokojni, praworządni obywatele, prawda? I to jest to, o czym mówią rozsądni ludzie - bardziej powinniśmy martwić się co ludzie zrobią innym ludziom z wykorzystaniem AI, niż co AI sama z siebie zrobi ludziom... 

Metryczka: 
Gatunek: reportaż
Główny temat: społeczne i etyczne konsekwencje użycia AI
Miejsce akcji: cały świat
Czas akcji: współcześnie
Ilość stron: 480
Moja ocena: 6/6 
 
Madhumita Murgia, W cieniu AI. Jak sztuczna inteligencja ingeruje w nasze życie? Wydawnictwo Port, 2025


Komentarze

instagram @dzienpozniej

Copyright © Dzień później