Jak algorytmy wpływają na twoje życie


Steven Novella 2020-08-24


Stopień, do jakiego komputerowe algorytmy wpływają na twoje życie to jest jedna z tych rzeczy, których futurolodzy nie przewidzieli, ale która teraz wydaje się oczywista i nieunikniona. Zawsze trudno jest czynić negatywne twierdzenia i trzeba się zastrzegać – ale nie znam żadnego tekstu science fiction lub futurologicznego sprzed roku 2000, który choćby wspominał rolę algorytmów mediów społecznościowych lub innych informacyjnych algorytmów w społeczeństwie i kulturze (jak zawsze, dajcie mi znać, jeśli coś mi umknęło). W bardzo krótkim czasie jednak stały się one poważnym wyzwaniem dla wielu społeczeństw. Teraz jest także łatwo wyobrazić sobie, że komputerowe algorytmy będą dominującym tematem w przyszłości. Ludzie będą prawdopodobnie dyskutować o ich roli, kto je kontroluje i kto powinien je kontrolować, i jakie powinny być regulacje, jeśli w ogóle jakieś.

Najgorszym rezultatem byłby brak takich dyskusji, bo będzie to znaczyło, że ludzie nie są świadomi roli algorytmów w ich życiu i tego, kto je kontroluje. Zasadniczo to właśnie dzieje się w Chinach i innych autorytarnych krajach. Algorytmy mediów społecznościowych są marzeniem autokraty – dają mu niewiarygodną możliwość kontrolowania tego, co ludzie widzą, jak informacja do nich dociera i do pewnego stopnia, co myślą. To jest „rok 1984” na sterydach. Orwell wyobrażał sobie, że w celu kontrolowania tego, co i jak ludzie myślą, autokraci będą kontrolować język. Ogranicz język, a ograniczysz myśl. To był interesujący pomysł sprzed czasów sieci i sprzed mediów społecznościowych. Teraz komputerowe algorytmy mogą kontrolować informację i, przez przedłużenie, to, co ludzie wiedzą i myślą – bezszwowo, niewidzialnie oraz z przerażającą mocą.  


Jednak także w otwartych, demokratycznych społeczeństwach niewidzialna ręka komputerowych algorytmów może dokonać spustoszeń. Badacze społeczni, którzy studiują to zjawisko, biją coraz mocniej na alarm. Niedawnym przykładem jest antyekstremistyczna grupa w Wielkiej Brytanii, która ostrzega obecnie, że według ich badań algorytmy Facebooka aktywnie promują negację Holocaustu i inne teorie spiskowe. Odkryli (co w zasadzie nie powinno nikogo dziwić), że odwiedzający strony Facebooka, które zaprzeczają Holocaustowi, są kierowania do innych stron, które także negują Holocaust. To z kolei prowadzi do innych spisków, które kierują do dalszych treści spiskowych i wpadasz w czarną dziurę.  

 

Nie jest żadną tajemnicą, dlaczego to się dzieje. Jak wyjaśniał pewien inżynier, były pracownik Google:

Algorytmy mediów społecznościowych kontynuują promocję szkodliwych treści przez “optymalizację czasu oglądania za wszelką cenę” – mówi Guillaume Chaslot.

Media społecznościowe podkręcają swoje algorytmy, by maksymalizować swoje zyski, co znaczy maksymalizowanie ilości czasu jaki odwiedzający pozostają na ich witrynie, co znaczy dalej karmienie ich materiałem, który wydają się chcieć i którym mogą być zainteresowani. To jest znakomity przykład niezamierzonych konsekwencji – media społecznościowe wyewoluowały w konkurencyjnym środowisku, by przeżyć przez trzymanie surfujących w Internecie na swojej stronie tak długo, jak to możliwe.  Jako epifenomen jednak, algorytmy zaprojektowane do osiągania tego celu mają także tendencję do radykalizowania użytkowników mediów społecznościowych przez karmienie ich coraz bardziej ekstremalnymi treściami. Jeśli posuwasz się o krok w jednym kierunku, media społecznościowe wciągają cię dalej aż do skrajności, wszystko po to, by trzymać cię przy oglądaniu ich stron tak długo, jak to możliwe.    


Na marginesie: tak właśnie działają siły ewolucyjne, także w ewolucji biologicznej. Krótkoterminowe korzyści prowadzą czasami w ślepe zaułki, czasem prowadząc w końcu do eksterminacji. Na przykład, pawie “zradykalizowały” swoje upierzenie, by zmaksymalizować krótkoterminowy sukces reprodukcyjny, ale niemal z pewnością w efekcie skazały swój gatunek na znacznie wcześniejsze wymarcie. (Im bardziej wyspecjalizowany gatunek, tym krótsza jego długowieczność, podczas gdy „wszystkoiści” na ogół trwają dłużej.) Jest tak z powodu ślepoty ewolucji: zna ona tylko krótkoterminowe przeżycie i rozmnożenie się. Nie ma mechanizmu na długotrwałą strategię. Oczywiście jednak, istnieją miliony gatunków, więc przez przypadek niektóre mogą natrafić na rzeczywiście dobre długoterminowe strategie i przetrwać.


Jeśli więc, rozszerzymy perspektywę i spojrzymy na to z bardzo wysoka, jak powinniśmy optymalnie zaprojektować i kierować naszym społeczeństwem? Zwolennicy wolnego rynku argumentują, że powinniśmy  wykorzystywać siłę systemów “z dołu do góry”, pozwolić miliardom transakcji na organiczne wypracowanie rozwiązania. Ten proces tworzy olbrzymią ilość informacji, jakiej nie może powtórzyć żaden komitet. Z drugiej strony spektrum, orędownicy socjalizmu/regulacji argumentują, że całkowicie wolne systemy łatwo wykorzystywać. W sposób nieunikniony coraz więcej władzy i zasobów znajdzie drogę do rąk coraz mniejszej liczby ludzi, aż społeczeństwo załamie się. Historycznie jest to prawdą w właściwie 100% wypadków. Z czasem ludzie z władzą i siłą znajdą sposób na użycie tej władzy, by zdobyć więcej władzy i przekazać korzyści swoim dzieciom. W końcu potrzeba regulacji, by wyrównać boisko, bo inaczej masz rewolucję, która wymazuje tablicę do czysta i wszystko zaczyna się od nowa.


Oba krańce tego spectrum są poprawne – ewolucyjny “wolny rynek” i siły demokratyczne są potężne i mądrze zrobimy wykorzystując je. Jest także pewna sprawiedliwość w rozdzielaniu zasobów według ich wewnętrznej wartości oraz wartości pracy i kreatywności. Siły ewolucyjne jednak są krótkowzroczne i ostatecznie autodestrukcyjne, podobnie jest z siłami, które kontrolują rynek, lub algorytmy mediów społecznościowych,. Równocześnie więc potrzebujemy jakiejś, działającej “z góry do dołu”, długoterminowej strategii. To oznacza regulacje, majsterkowanie przy siłach ewolucyjnych tak, by nie szły w autodestrukcyjnym kierunku. Nie możemy jednak pozwolić systemowi na to, by był zbyt mocno sterowany “z góry do dołu”, bo to prowadzi do innego rodzaju nadużyć, takich jak pogoń za zyskiem, kumoterstwo, handel wpływami i do prostego faktu, że ci, którzy mają własne interesy prawdopodobnie przeważą nad tymi, którzy są tylko zainteresowani w lobbowaniu i innych politycznych działaniach.


Podobnie więc jak w wielu innych sytuacjach, musimy starannie równoważyć jedno z drugim, by mieć najlepsze z obu stron. Niechaj rządzi wolność i demokracja, ale z barierkami, które powstrzymają nas przez upadkiem w przepaść. I potrzebujemy systemu, w którym wiele instytucji trzyma się wzajemnie w szachu i nie ma absolutnej lub ostatecznej władzy, ale są mechanizmy samonaprawy.   


Możemy zastosować to wszystko do algorytmów mediów społecznościowych. Media społecznościowe są wspaniałe dla demokracji z powodu tego, że pozwalają każdemu prywatnemu obywatelowi szerzyć swoje słowa. Nie ma strażników przy bramach, nie ma dłużej oligarchii kilku gigantów medialnych.  


Media społecznościowe są jednak również straszliwe dla demokracji, ponieważ zamiast strażników przy bramach, którzy przynajmniej pozornie mieli standardy kontroli jakości, mamy teraz korporacyjnych gigantów, którzy kontrolują nurt informacji tylko w celu maksymalizacji własnych zysków. Są po prostu innym rodzajem strażników przy bramie ale takich, których model biznesu opiera się w jeszcze mniejszym stopniu na jakości dostarczanej informacji, a tylko na przykuwaniu wzroku do ekranów. (Jasne, to dotyczy również tradycyjnych mediów, prowadząc do pogoni za sensacją i całej reszty, ale jest tu różnica stopnia.). Ponadto, to wszystko jest zautomatyzowane komputerowymi algorytmami.


To wszystko dzieje się w kontekście ludzkiej psychologii, błędów poznawczych i sposobów, na jakie ludzie budują swoje przekonania i postrzegają informację. Ta mieszanka może być toksyczna, prowadząc ludzi ku coraz bardziej ograniczonym i radykalnym poglądom. Wynik – płaskoziemcy, QAnon, odrodzenie się antyszczepionkowców i szerzenie się niezliczonych teorii spiskowych. Informacja jest zagrzebana w dezinformacji. Podobnie do Tribblesów, które zmarły w głodu i komorze pełnej ziarna (przepraszam, nie mogłem się oprzeć), jesteśmy społeczeństwem głodującym z braku prawdy w informacyjnym ekosystemie zalanym informacją.


Co gorsza, to, co się dzieje, jest ślepą, niezamierzoną konsekwencją. Są jednak w tym niecni aktorzy, którzy wiedzą teraz, że mogą wykorzystać system, by świadomie maksymalizować chaos i negatywne rezultaty. Kończy nam się przestrzeń dzieląca nas od skraju przepaści, a oni popychają nas z tyłu.  


Jest kilka sposobów na radzenie sobie z tym i te sposoby nie wykluczają się wzajemnie. Pierwszym jest konieczność , by użytkownicy mediów społecznościowych byli świadomi tego, jak działają platformy, których używają i żądali, by prowadzące je firmy zachowywały się lepiej. Możemy głosować nogami. Trudno to jednak skoordynować i trudno wiedzieć (bez niezbędnej przejrzystości), co właściwie robią algorytmy w naszych mediach społecznościowych. Drugim jest nadzór, przejrzystość i regulacje, by traktować giganty mediów społecznościowych jak publiczne usługi i wymagać, by końcowi użytkownicy mieli więcej kontroli i wiedzy o tym, jak używana jest ich informacja i jaką informacją są karmieni.


I oczywiście, musimy nadal uczyć ludzi, by lepiej rozumieli media. To jest skuteczne na indywidualnym poziomie, ale nie tak bardzo na społecznym poziomie, ponieważ trudno jest o znaczny zasięg. Im więcej jest jednak ludzi, którzy rozumieją media tym lepiej i powinniśmy wbudować wiedzę o mediach w nasze programy szkolne. To powinno być w dodatku do wymogu większej przejrzystości ze strony gigantów mediów społecznościowych i rozważenia ostrożnych regulacji, by zapewnić „informacyjną merytokrację” – chcemy, by informacja była uszeregowana ze względu na obiektywną jakość, a nie tylko zdolność hipnotyzowania.


How Algorithms Affect Your Life

NeuroLogica Blog, 18 sierpnia 2020

Tłumaczenie: Małgorzata Koraszewska



Steven Novella 

Neurolog, wykładowca na Yale University School of Medicine. Przewodniczący i współzałożyciel New England Skeptical Society. Twórca popularnych (cotygodniowych) podkastów o nauce The Skeptics’ Guide to the Universe. Jest również dyrektorem Science-Based Medicine będącej częścią James Randi Educational Foundation (JREF), członek Committee for Skeptical Inquiry (CSI) oraz członek założyciel Institute for Science in Medicine. Prowadzi blog Neurologica.