Witamy w Algokracji: siła błędu algorytmicznego

Błąd algorytmiczny odnosi się do fałszywego poczucia kontroli, jaką ludzie mają nad częścią podejmowanych przez siebie decyzji. Dowiedz się więcej.
Witamy w Algokracji: siła błędu algorytmicznego
Valeria Sabater

Napisane i zweryfikowane przez psycholog Valeria Sabater.

Ostatnia aktualizacja: 02 lutego, 2024

Wyszukaj ofertę pracy. Złóż skargę do działu obsługi klienta. Poinformuj nas o kredycie lub innym produkcie bankowym. Zarezerwuj bilet lotniczy lub hotelowy. Wiadomości, informacje i reklamy, które widzisz, wchodząc na swoje media społecznościowe… Algorytmy stoją za nieskończoną liczbą codziennych zadań i działają w większej liczbie sektorów, niż sobie wyobrażamy, co prowadzi do zjawiska znanego jako błąd algorytmiczny. Witamy w Algokracji, o której opowiemy Ci w niniejszym artykule.

Algokracją rządzą te ciche mechanizmy, które coraz bardziej poruszają światem, a my prawie tego nie zauważamy. A najbardziej uderzające jest to, że uczą się, jak efektywnie wykorzystywać dane, które im dostarczamy. Stale dostosowują się do człowieka – tego, który jest zakodowany jako „użytkownik” – próbując oferować coraz bardziej spersonalizowane, szybkie i satysfakcjonujące doświadczenia, przy minimalnym wysiłku.

Macki Algokracji sięgają aplikacji randkowych, gdzie może ona nawet pośredniczyć w wyborze partnera, przedstawiając nam serię bardzo konkretnych kandydatów rzekomo opartych na naszych preferencjach. Uważa się nawet, że błąd algorytmiczny wpływa na nasze decyzje polityczne. Witamy w Algokracji, która rządzi nami znacznie bardziej, niż by się nam mogło wydawać…

Algorytmy mają ułatwić nam życie, w rzeczywistości jednak to one za nas decydują.

Sztuczna inteligencja, stronniczość algorytmiczna - witamy w Algokracji
Algorytmy mogą uwięzić nas w bańce informacyjnej.

Co to jest błąd algorytmiczny?

Algorytmy mogą ułatwić nam życie. Jeśli na przykład jesteś miłośnikiem przyrody i obrońcą środowiska, jest bardzo prawdopodobne, że w swoich mediach społecznościowych zaczniesz znajdywać coraz więcej informacji na ten temat. Oczywiście nie musi to być coś złego. Jednak sytuacja się zmienia, gdy Twoje poszukiwania nie są do końca zdrowe.

Nie zapominajmy o strasznym przypadku Molly Russell. Ta nastolatka szukała tematów związanych z samobójstwem i nadszedł czas, gdy wszystko, co pokazywały jej sieci społecznościowe, dotyczyło treści związanych z tym tematem. Niemal nie zdając sobie z tego sprawy, możemy pozostać uwięzieni w bańce informacyjnej, w której nie przedostają się już inne trendy i różnorodne treści.

Błąd algorytmiczny odnosi się do naszego fałszywego poczucia kontroli nad otrzymywanymi informacjami i decyzjami, które podejmujemy, ponieważ w nasze codzienne życie wnika niepokojący kod, nieustannie oferujący nam dane, które prawie nigdy nie są bezstronne.

Witamy w Algokracji – to nie Ty decydujesz

Coraz częściej obserwujemy zjawisko normalizacji sztucznej inteligencji. Sztuczna inteligencja daje nam fałszywe poczucie kontroli i własnej skuteczności. To uczucie wzrośnie znacznie bardziej, gdy korzystanie z ChatGPT zostanie znormalizowane, aby pomóc nam w naszych pracach dyplomowych, pracach akademickich i niekończących się codziennych zadaniach.

Poczujemy się bardziej wydajni, ale tak naprawdę to chatbot będzie wykonywał zadania, które nas dotyczą. Nie zawsze jest to negatywne, ale pogłębia wspomniany wyżej błąd algorytmiczny, czyli sytuację, w której myślimy, że decydujemy i działamy bez jakiejkolwiek ingerencji, gdy w rzeczywistości tak nie jest.

Algorytmy nie są sprawiedliwe

Cathy O’Neil jest matematyczką, która napisała bardzo popularną książkę zatytułowaną Weapons of Mathematical Destruction (2016). W pracy tej określiła algorytmy jako „broń masowego rażenia”. Po pierwsze, te wartości obliczeniowe nie są wolne od uprzedzeń moralnych i kulturowych, nie wspominając o interesach, które za nimi stoją.

W książce opowiada o przypadku nauczycielki, która została zwolniona w wyniku negatywnej oceny jej pracy dokonanej przez algorytm. W ramach tej oceny przeanalizowano dane z wiadomości osobistych, raportów medycznych i innych źródeł. To samo dzieje się przy ocenie cesji hipotek czy pomocy. Prawda jest taka, że niektóre grupy etniczne zawsze będą w niekorzystnej sytuacji.

Jednak większość firm i organizacji potwierdza te szybkie analizy. Błąd algorytmiczny prowadzi ich do wniosku, że to, co analizuje algorytm, będzie zawsze ważne, nawet jeśli nie jest uczciwe, a dane te często nie są nawet zestawiane osobiście.

Technologia z chatbotami i algorytmami pozostanie na stałe i będzie miała wpływ na dużą część naszych zadań i podejmowanych decyzji.

Witamy w Algokracji: algorytmy w służbie polityce

Często mówimy, że politycy są dalecy od rzeczywistych problemów ludzi. Kwestionujemy ich pomysły, bo nie odpowiadają potrzebom współobywateli. Kolejną krytyką są nadmierne wydatki na doradców, złe zarządzanie, a nawet błędy przy podejmowaniu decyzji i stanowieniu prawa.

Badanie opublikowane niedawno przez firmę doradczą Deloitte ujawniło coś bardzo uderzającego. Może istnieć przyszłość, w której algorytmy i sztuczna inteligencja przejmą znaczną część zadań polityków. Mogą po prostu analizować dane, które duże firmy technologiczne gromadzą o nas za pomocą naszych telefonów komórkowych. W ten sposób poznałyby nasze potrzeby i mogły udzielić bardziej odpowiednich reakcji społecznych.

Sztuczną inteligencję można jednak wyszkolić, aby zarządzanie polityczne nie było oszukańcze. Jej zdolności analityczne zastąpiłyby wielu doradców i oszczędziłyby organom publicznym nieskończoną ilość pracy. Algokracja, rozumiana jako moc algorytmów zastępująca pracę polityków, może wydawać się nam najbardziej dystopijną możliwością. Jest to jednak zupełnie realne.

Uniwersytet w Utrechcie przeprowadził badanie, które wykazało, że korzystne może być umożliwienie algorytmom zastąpienia wszystkich biurokratycznych aspektów organizacji rządowych. Powód? Obywatele mają tendencję do większego zaufania do zarządzania, które może sprawować maszyna, niż do tego, które sprawuje polityk. Jest to kolejny oczywisty błąd.

Programistka pracuje na swoim laptopie z wirtualnym ekranem analizującym odchylenie algorytmiczne.
Duże firmy programujące algorytmy nigdy nie są przejrzyste w zakresie swoich celów i stosowanych mechanizmów.

Wnioski

Błąd algorytmiczny nie tylko pozostanie, ale będzie coraz silniejszy. Nadal będziemy uważać, że podejmujemy własne decyzje. Odnośnie zakupów, portali społecznościowych czy innych decyzji. Będziemy nadal postrzegać się jako osoby posiadające wolne umysły, podczas gdy w rzeczywistości będziemy stawać się coraz bardziej uwarunkowani.

Widzimy to szczególnie u młodych ludzi, którzy są coraz bardziej nieszczęśliwi, ponieważ żyją w cyfrowym wszechświecie opartym na porównaniach społecznych. Musimy zrozumieć, że algorytmy nie są bytami, które powstają same z siebie. Stoją za nimi raczej duże firmy, które je programują. A takie programowanie zawsze ma jakiś cel.

Jeśli zmierzamy w stronę przyszłości, w której ludzie i sztuczna inteligencja współpracują, potrzebujemy, aby osoby szkolące i programujące sztuczną inteligencję zachowywały przejrzystość. Powinny zaczynać od wartości bardziej etycznych, uczciwych, moralnych i zdrowych. To bardzo ważne. Musimy uregulować te mechanizmy, które w coraz większym stopniu zmieniają zachowania użytkowników, czyli każdego z nas.


Wszystkie cytowane źródła zostały gruntownie przeanalizowane przez nasz zespół w celu zapewnienia ich jakości, wiarygodności, aktualności i ważności. Bibliografia tego artykułu została uznana za wiarygodną i dokładną pod względem naukowym lub akademickim.



Ten tekst jest oferowany wyłącznie w celach informacyjnych i nie zastępuje konsultacji z profesjonalistą. W przypadku wątpliwości skonsultuj się ze swoim specjalistą.