W cieniu AI
Wszystkie rewolucje odbywają się kosztem niewolników. Jeśli zatem sztuczna inteligencja to kolejna rewolucja przemysłowa, jej niewolnikami są ludzie pracujący przy jej szkoleniu i moderacji treści.
Czy zdajemy sobie sprawę, że za kulisami AI stoi rzesza ludzi, którzy pracują, by tę AI rozwijać? I to są nie tylko programiści czy naukowcy, ale zwykli “obrabiacze danych” - ludzie, którzy po całych dniach tagują, opisują, klasyfikują, sortują zdjęcia i dane, wykonują monotonną pracę po to, by AI mogła na nich trenować. Albo moderatorzy treści. A na końcu AI ich zastąpi - co już się dzieje. To jest ten sam problem, co zawsze w kapitalizmie - są ludzie, którzy podejmą się takich prac, nie zastanawiając się nad ich dalszymi konsekwencjami, nad tym, co będzie za X lat, bo oni muszą za coś żyć “tu i teraz”. I w sumie trudno się temu dziwić. Ta cała mrówcza praca, stojąca za kulisami tworzenia AI ma miejsce najczęściej w biednych krajach, gdzie ludziom mającym tę pracę wydaje się i tak, że złapali Boga za nogi. Jest też praca pod dyktando algorytmów - praca de facto niewolnicza - tu autorka opisuje wszystkim nam dobrze znanego Ubera i to, jak algorytm, będący de facto szefem, śrubuje normy i “oszukuje” kierowców czy kurierów. Ci pracownicy są traktowani zresztą jak maszyny: bez prawa do samodzielnego myślenia, do odpoczynku, nie wspominając już o skarżeniu się. Pojawiają się już zresztą pierwsze obiektywne analizy, mówiące że pożytku wielkiego (ani zysków) z AI w pracy nie ma, za to jesteśmy coraz bardziej zestresowani i zmęczeni, bo - jak zauważa jedna z rozmówczyń w książce - ludzie rywalizują ze sobą jeszcze intensywniej, wszyscy pracują ciężej i dłużej. Z pewnością pasuje to pracodawcom, ale czy nam samym też? Pamiętam, jak wypuszczony został ChatGPT i mój znajomy, cały zafascynowany mówił mi “teraz każdy będzie miał swojego agenta AI i z ich pomocą będziemy ze sobą rywalizować” - a ja sobie pomyślałam “człowieku, ale ja nie chcę z nikim rywalizować, ja chcę spokojnie żyć!”.
Bardzo duża część książki poświęcona jest różnego rodzaju systemom monitoringu i inwigilacji, działających na bazie AI. W państwach demokratycznych są one zawsze wdrażane pod hasłami “bezpieczeństwa”- tu autorka podaje przykłady programów stworzonych po to by “prognozować” problemy/wykroczenia/przestępstwa popełniane przez młodych ludzi. Brzmi to bardzo niepokojąco, jak z Raportu mniejszości, zwłaszcza, że wiadomo, że algorytmy te są nacechowane tymi samymi uprzedzeniami, co ludzie, więc, wbrew pozorom, programy te wcale nie są obiektywne i w efekcie często działają jako samosprawdzająca się przepowiednia Madhumita Murgia alarmuje przede wszystkim, że technologie i AI znowu dyskryminują słabszych, te grupy, które są dyskryminowane od zawsze: kobiety, mniejszości, ubogich, osoby niebiałe, itp. Jeszcze inny problem polega na tworzeniu rozwiązań, które dobrze wyglądają w teorii, ale nie sprawdzają się w praktyce, bo nie uwzględniają czynnika ludzkiego - tego, że ludzie zachowują się nie zawsze racjonalnie i przewidywalnie. Algorytmy widzą liczby, a nie ludzi… Świetnie adresuje te problemy przykład podawany w książce dotyczący argentyńskiego programu mającego przewidywać które nastolatki zajdą w ciążę.
(...) zbudowano model, który miał przewidywać, czy dana dziewczynka zajdzie w ciąże w wieku 12, 15 czy 18 lat. (...) w ogóle nie pytano nastolatek, czy czują się bezpiecznie w swojej społeczności, czy mają jakąkolwiek autonomię, jakie są ich nadzieje na przyszłość. Nie pytano czy chcą mieć dzieci albo czy nie obawiają się, że mogą nie mieć wyboru w tej kwestii. Zabrakło pytań o mężczyzn obecnych w ich życiu. W całym procesie zbierania danych traktowano młode kobiety jak zupełnie bezwolne istoty.
Pierwsze co mi się nasunęło, kiedy o tym czytałam, to: i w jaki niby sposób miałoby to pomóc tym dziewczynom? Czy faktycznie system ten wyposażałby młode kobiety w “narzędzia umożliwiające dokonywanie świadomych wyborów dotyczących macierzyństwa”? To znaczy jakie narzędzia? A jeśli dziewczyna de facto nie ma wyboru, bo została zgwałcona, co niestety jest sporym problemem w Ameryce Łacińskiej? Czy “wytypowanie”, że jedna czy druga może zajść w ciążę nie skutkowałoby np. objęciem jej nadzorem, co de facto byłoby karaniem przed popełnieniem “czynu”? W dodatku karaniem znowu, tradycyjnie ofiar - dlaczego nie powstaje zatem jakiś program, mający na celu zapobieganiu przemocy wobec kobiet? Wytypowania potencjalnych gwałcicieli?
Krytycy uznali algorytm za zbyt wyszukane, a jednocześnie niedoskonałe narzędzie stworzone z myślą o korygowaniu w jakiś sposób domniemanych wad dziewczynek, a nie rozwiązywaniu problemów społecznych będących przyczyną ich opłakanego położenia. W ogóle nie zbierano danych na temat mężczyzn. “Ta koncentracja na jednej płci służy umocnieniu patriarchalnych wzorców i prowadzi do obwiniania wyłącznie nastoletnich dziewcząt o niechciane ciąże, tak jakby dało się począć dziecko bez udziału mężczyzny”.
Ludzie żyjący pod dyktando algorytmów mają poczucie ciągłej inwigilacji, osaczenia, a co gorsza bezsilności - bo nie wiadomo jak działają te algorytmy, na jakiej podstawie podejmują decyzje (problem “czarnej skrzynki”), a do tego nie ma nawet komu się poskarżyć, skoro za wszystko odpowiada algorytm (problem skądinąd znany chyba wszystkim dobrze z sytuacji takich, kiedy chcemy uzyskać pomoc z jakąś sprawą, a jedyną “pomocą”, jaka jest oferowana klientowi, są standardowe odpowiedzi generowane przez bota). A od cyfrowego państwo opiekuńczego tylko krok do państwa
opresyjnego. I tu pojawia się
kwestia wykorzystywania AI w państwach niedemokratycznych, do
inwigilowania przeciwników politycznych, albo po prostu ludności - jak w
Chinach…
Ze względu na brak standardów i wymagań audytowych dotyczących algorytmów sztucznej inteligencji w różnych częściach kraju i świata mogą być wdrażane całkowicie różne rodzaje oprogramowania. (...) W Moskwie algorytmy mogą być uprzedzone wobec kobiet, a w Hongkongu - wobec osób białych. Żaden obywatel poddany działaniu tych systemów nie będzie miał pojęcia, jakie zasady one stosują i dlaczego został wytypowany do obserwacji albo zidentyfikowany.
Kiedy przychodzi moment, w którym społeczeństwo może komuś wybaczyć? cy nie wystarczy ukarać człowieka raz, zamiast w nieskończoność go obserwować i podejrzewać, by zapobiec przyszłym występkom? I czy stosowanie tępych narzędzi interwencji nie jest przypadkiem dodatkową sankcją, a nie pomocą?
Idea wybaczenia zajmuje poczesne miejsce w psychologii behawioralnej, a szczególną rolę odgrywa w rozwoju dzieci. Powtarzamy im, że wybaczamy im bez względu na wszystko, że kochamy je nawet wtedy, kiedy się gniewamy. (...) Narzędzia oparte na sztucznej inteligencji i inne rodzaje oprogramowania statystycznego do przewidywania trajektorii życia człowieka mają działanie odwetowe. Pilnowanie porządku przy użyciu algorytmów predykcyjnych nie ma nic wspólnego z troską i przebaczeniem, gdyż polega na ciągłym szacowaniu, że komuś powinie się noga. Każdy czyn, każde spostrzeżenie, każdy aspekt codzienności zostają w jakiś sposób powiązane z przestępstwem, ponieważ z tej perspektywy analizowane jest ludzkie życie.
Niezależny ekspert ONZ ds. skrajnego ubóstwa i praw człowieka ogłosił w 2019 roku alarmujący raport na temat pojawienia się tzw. cyfrowego państwa opiekuńczego, czyli zjawiska zastępowania prerogatyw rządów, analizą danych. (...) Cyfrowe technologie, w tym sztuczna inteligencja, których zadaniem teoretycznie jest określanie, komu należy przyznać pomoc społeczną, w gruncie rzeczy “przewidują, identyfikują, inwigilują, wykrywają, osaczają i piętnują” biedę. Raport przestrzegał również przed rosnącym wpływem zachodnich korporacji na rządy państw na całym świecie, czyli istotą kolonializmu danych.
Od Mjanmy po Mumbaj i Melbourne wielkie firmy z sektora nowoczesnych technologii podejmują codzienne decyzje polityczne, etyczne i kulturalne w imieniu miliardów użytkowników. W większości kierują się przy tym swoim uprzywilejowanym oglądem świata z perspektywy Stanów Zjednoczonych. Zwłaszcza w krajach rozwijających się te algorytmiczne sterowane platformy tworzą własne rynki pracy, definiują granice internetu, naruszają lokalne prawa, ustanawiają własne zasady wolności słowa, a czasem nawet ułatwiają przemoc polityczną, wojny i ludobójstwo. (...) Haczyk tkwi w nazwie to są spółki z ograniczoną odpowiedzialnością -mówi prawniczka. Nieograniczona za to jest ich władza, co nasunęło jej myśl, że walka z nimi będzie trudniejsza, niż z rządami demokratycznych państw.
To jest ważna książka, bo ludzie na ogół nie zdają sobie z tego wszystkiego sprawy. Podchodzą do technologii bezkrytycznie, a AI traktują jak wyrocznię. Tu przychodzą mi na myśl mi się wszyscy ci mądrale, którzy zawsze komentują z wyższością i protekcjonalizmem w necie to, co przytrafiło się innym, myśląc, że ich to nie dotyczy. Ofiary są same sobie winne, bo były za głupie, zbyt nieostrożne, winni są ludzie, a nie technologie, itp. Owym komentującym nie przyjdzie do głowy, że sami mogą paść ofiarą jakiegoś cyfrowego przekrętu albo wpaść w szpony systemu inwigilacji. Wystarczy tylko jeden zły krok… Nie wspominam już o tym, że tak naprawdę niewiele nas dzieli od utraty demokracji i zmiany w państwo totalitarne. Autorka trafnie rozpoznaje ten problem, pisząc o Chinach i zwracając uwagę na to, że przymykanie oczu na łamanie praw człowieka, akceptowanie niesprawiedliwości dlatego, że dzieje się ono gdzieś daleko, może doprowadzić do tego, że stanie się to [znowu] powszechną praktyką.
I o tym jest ta książka. To nie jest książka o technologii, więc “jeśli ktoś chce sobie poczytać o kodach, algorytmach i LLM”, to tutaj tego nie znajdzie. To jest książka o społecznych i etycznych konsekwencjach użycia AI, o ludziach, którzy mogą na tym ucierpieć (i tak, to możesz być ty, mogę być ja), o tym, że technologia wdrażana w taki sposób i bez regulacji, jak dziś, powoduje mnóstwo szkód, służąc głównie do inwigilacji, kontrolowania i zbierania danych, o czym technokraci nam nie mówią, reklamując swoje cudowne narzędzia. O odpowiedzialności technokratów i rządów, oddających władzę w ręce tych pierwszych. Nie chodzi o to, że autorka “nienawidzi Big Techów”, jak to ktoś skonstatował (ale naprawdę, naprawdę trudno je kochać), tylko o to, że fakty są takie, że oddaliśmy zbyt wielką władzę w ręce tych korporacji, wierząc w ich “dobre intencje”, pokładając nadzieje że “technologia ułatwi nam życie” albo rozwiąże nasze problemy, i teraz już widać gołym okiem, jakie są tego skutki. To są firmy, którym chodzi - jak wszystkim innym - przede wszystkim o zysk, a nie o naprawianie świata - a za zyskiem też idzie władza. Poza tym AI jest tworzona głównie przez białych mężczyzn i wspiera ich wizję świata, znowu. Ta wizja nie zawsze jest oparta na egalitarności i demokracji, a etyka i moralność to nie są sprawy, które zajmują technokratów. O branży nowoczesnych technologii piszę od 10 lat. Oprócz Karla nie spotkałam w tym czasie ani jednego informatyka, który wyraziłby na głos jakiekolwiek wątpliwości moralne dotyczące swojej pracy - konstatuje Murgia. To, co się obecnie dzieje można śmiało nazwać neokolonializmem (i znowu, nie tylko Madhumita Murgia o tym pisze, także nasza dziennikarka, Sylwia Czubkowska) czy technofeudalizmem.
Przedmiotem opisywanego (...) kolonialnego zaboru jest dziś ludzkie życie, konwertowane na nieprzerwane strumienie informacji. W tym niekończącym się przepływie danych autorzy dostrzegają historyczne analogie do dawnego kolonializmu. Nierówności będące pozostałością dawnych podbojów wciąż bowiem rosną, a ekstrakcja danych ze społeczeństwa jest niczym innym jak nową formą grabieży i ucisku.
Firmy z sektora Big Tech gromadzą pieniądze, akumulują wartość płynącą z posiadania danych, ale też skupiają w swoich rękach coraz większą wiedzę, i to jest najważniejsze (...). Ponieważ nie mamy dostępu do gromadzonej przez nich wiedzy na nasz temat, zostajemy z tyłu. To bardzo nierówna relacja, widać tu asymetrię władzy.
Gatunek: reportaż







Komentarze
Prześlij komentarz