
Mirrorworld, czyli pandemia vs infodemia
Rok temu, w lutym 2019, tematem przewodnim magazynu Wired był mirrorworld. W tekście Kevina Kelly’ego (założyciela Wired i jednego z największych myślicieli współczesnego świata) można było przeczytać: „Pewnego dnia, całkiem niedługo, każde miejsce i rzecz w fizycznym świecie – każda ulica, latarnia, budynek i pokój – będzie miało pełnowymiarowego cyfrowego bliźniaka w równoległym świecie, w mirrorworld. I ten świat jest już w budowie.”
W swoim tekście Kelly pisał głównie o cyfrowym odwzorowaniu fizycznego świata, na wielką skalę, w ramach technologii z obszaru augmented reality (AR) czy rozwiązań typu Google Earth. Oczywiście, to nie są tematy nowe, zjawisko mirrorworld i digital twins śledzimy zresztą od pewnego czasu w infuture w ramach trendów technologicznych (por. Mapa Trendów 2020). Ale przypomniał mi się ten tekst w kontekście obecnej sytuacji.
Przenosimy dziś do świata online całe nasze życie. Każdy obszar naszego działania – praca, szkoła, kontakty towarzyskie, kultura, sport – zyskuje w tym świecie swojego cyfrowego bliźniaka. Robimy to, bo wszystkie analizy i dane wskazują, że rezygnacja z aktywności w świecie fizycznym, masowa izolacja i social distancing uchronią nas przed zachorowaniem i pozwolą powstrzymać epidemię. Problem polega jednak na tym, że mirrorworld to świat lustrzany, odbija wszystko. Jeśli więc ktokolwiek myślał, że wystarczy, że zrezygnuje ze świata fizycznego i przeniesie się do świata online, i że ten świat online da mu schronienie, ocali go przed koronawirusem, powinien pozbyć się złudzeń. W świecie online, równolegle do świata fizycznego, także trwa epidemia. Równie niebezpieczna.
Pandemia vs infodemia
Podczas konferencji w Monachium, w lutym tego roku, Tedros Adhanom Ghebreyesus, szef Światowej Organizacji Zdrowia (WHO), w kontekście koronawirusa oficjalnie użył słowa infodemia, określając w ten sposób zbyt dużą liczbę wiadomości, fake newsów i ogólnie panującej dezinformacji. Powiedział wówczas: „We’re not just fighting an epidemic; we’re fighting an infodemic.” A Josep Borrell, hiszpański polityk i jednocześnie minister spraw zagranicznych Unii Europejskiej, dodał ostatnio: “Disinformation is playing with people’s lives. Disinformation can kill.”
Mimo to, gdy ktoś nas zapyta, czego boimy się najbardziej w związku z koronawirusem, jestem przekonana, że w pierwszym odruchu wciąż przyjdą nam do głowy skojarzenia ze światem fizycznym. Kryzys gospodarczy, bezrobocie, realna groźba zachorowania naszych bliskich. Przestraszają nas także każde kolejne informacje o obostrzeniach, w tym te o zwiększonych oddziałach policji i wojska na ulicach, o monitorowaniu sytuacji w miastach za pomocą dronów. Przestraszają nas, bo są surrealistyczne – przywodzą na myśl raczej skojarzenia z jakimś filmem science fiction niż rzeczywistością, którą znaliśmy do tej pory.
Czemu natomiast nie przestrasza nas to, co dzieje się online?
Czemu na przykład nie przestraszają nas rosyjskie trolle? Zresztą, nie tylko nie przestraszają, ale duża część z nas kwestionuje w ogóle ich istnienie, kwitując pobłażliwym uśmieszkiem pojawienie się informacji o nich w jakiejkolwiek internetowej dyskusji. Tymczasem Unia Europejska już pięć lat temu w ramach EEAS (European External Action Service) powołała do życia jednostkę East StratCom Task Force, której celem jest monitorowanie i odpowiadanie na kampanie dezinformacyjne Rosji mające wpływ na UE, jej państwa członkowskie i kraje sąsiadujące. Dziś, w dobie pandemii koronawirusa East StratCom Task Force na bieżąco publikuje i obala fake newsy, które rozprzestrzeniane są przez Rosję i których celem jest dodatkowa destabilizacja1 w krajach zmagających się z epidemią.
Czemu w świecie fizycznym rozumiemy ideę social distancing i sami nawzajem pilnujemy siebie, żeby zostać w domu, podczas gdy online nie zachowujemy odpowiedniej odległości od źródeł, których celem jest wprowadzanie chaosu i wywołanie strachu/ paniki? Tylko w ciągu ostatnich tygodni do prywatnych grup na Facebooku poświęconych koronawirusowi, które aktualnie uznawane są za epicentra fake newsów (a sam Facebook nie może sobie z nimi poradzić), dołączyło kilkadziesiąt tysięcy nowych użytkowników (por. najnowsze dane z Politico).
Czemu wreszcie w świecie fizycznym zakładamy maseczki i jednorazowe rękawiczki, myjemy ręce, żeby nie zarazić siebie i innych, a w świecie online sami rozprzestrzeniamy fake newsy, zamieszczając je na swoich profilach? Fake newsy rozprzestrzeniają zresztą nie tylko „zwykli ludzie”, ale też media oraz osoby uznawane za wiarygodne źródła. Najgłośniejszym przykładem jest tu chociażby informacja o niewskazanym użyciu ibuprofenu w trakcie zachorowania na Covid-19. Była to tylko niepotwierdzona hipoteza, tymczasem jako zalecenie podał ją Olivier Veran, francuski minister zdrowia (sic!), a następnie powtórzyły media na całym świecie (więcej na ten temat w artykule w Wired).
O tym, z jak poważną sytuacją w świecie online aktualnie się zmagamy, świadczyć może fakt, że Ursula von der Leyen, przewodnicząca Komisji Europejskiej, wezwała największe platformy internetowe, w tym Google’a, Facebooka i Twittera do zdecydowanej walki z fake newsami dotyczącymi koronawirusa. Dziś, wpisując słowo „koronawirus” w wyszukiwarkach któregokolwiek z tych serwisów, na pierwszym miejscu pojawią się odnośniki do oficjalnych źródeł – np. kanałów ministerstwa zdrowia. Z największymi platformami stale współpracuje zresztą nie tylko Komisja Europejska, ale również WHO, które dodatkowo uruchomiło profil na TikToku oraz wykorzystuje kanały marki Gucci (tylko na instagramie ponad 40mln obserwujących), aby docierać z prawdziwymi informacjami do szerszej grupy. Mimo to w walce z infodemią wciąż jesteśmy na straconej pozycji.
Dlaczego?
(Nie)ograniczony dostęp do wiedzy
Przede wszystkim dlatego, że żyjemy w świecie, w którym wydaje nam się, że mamy nieograniczony dostęp do wiedzy, że każdą rzecz możemy zawsze zweryfikować. Ten nieograniczony dostęp do wiedzy miał nam oczywiście zapewnić internet. Tyle, że to, co dostaliśmy w praktyce, to także ogromna ilość kiepskiej, niesprawdzonej treści, algorytmy prezentujące nam kontent dopasowany do naszych wcześniejszych wyszukiwań i bańka informacyjna zgodna z naszymi poglądami.
Nataliya Gumenyuk, ukraińska dziennikarka i autorka niedawno wydanej książki Lost Island (poświęconej aneksji Krymu przez Rosję) w jednym z wywiadów powiedziała takie zdanie: „If you want to know, you can know”. Bardzo chciałabym się z nią zgodzić, ale współcześnie dotarcie do prawdy jest niezwykle trudne, o ile w ogóle możliwe, choć jednocześnie i paradoksalnie – jak pisze Yuval Harari: „W świecie, w którym wszystko jest ze sobą połączone, najwyższym imperatywem moralnym staje się imperatyw wiedzy.”
Niestety, nie mamy odpowiednich kompetencji do tego, żeby w takim świecie funkcjonować. Nikt nas nie nauczył, jak odróżnić nieprawdziwe informacje od prawdziwych. Działamy według schematów, według których działaliśmy zawsze.
Przykład. Moje dzieciństwo przypadło na lata 80-te. Krążyła wtedy tzw. urban legend o czarnej wołdze, która jeździła po osiedlach i porywała dzieci. Bałam się jej bardzo, choć nikt nigdy jej nie widział, za to wszyscy o niej słyszeli. Czarna wołga porwała bowiem „kuzyna kolegi mojego kolegi” albo „koleżankę znajomej mojej znajomej”4. Minęło prawie 40 lat, a to pozorne uwiarygadnianie nadal działa. W 2020 roku, w dobie pandemii koronawirusa, czytam kolejne wiadomości o kolegach znajomego z Wałbrzycha albo Piotrkowa, którzy dostali mandat za bieganie; o kuzynce znajomej sąsiadki, której nie można pochować od 5 dni, bo zmarła na niewydolność oddechową i nikt jej teraz nie chce wydać aktu zgonu. Dostaję wiadomości od moich znajomych, którzy przekazują mi, że „znajomy znajomego ich ojca, który pracuje w ministerstwie” albo „znajoma lekarki, która pracowała w Chinach” powiedzieli, że… i tu można wstawić cokolwiek związanego z koronawirusem, powodującego strach lub przynajmniej niepokój.
Zgodnie ze schematem, według którego funkcjonujemy, zdecydowanie trudniej uwierzyć nam również w to, że treści wideo mogą być nieprawdziwe. Tekst pisany, ok, jesteśmy w stanie przyjąć, że może być fake newsem, ale wideo? Jak można sfałszować wideo?
Jakiś czas temu na YouTube ukazał się film pokazujący tłum ludzi taranujących wejście do sklepu. Podobno był nagraniem z jednego sklepów spożywczych w Amsterdamie dokumentującym panikę związaną z koronawirusem w Holandii. Film zyskał ogromną popularność – rozsyłany był za pomocą mediów społecznościowych i komunikatorów, w krótkim czasie został wyświetlony 4mln razy. Tymczasem okazało się, że film pochodzi sprzed 9 lat (sic!), pokazuje reakcję ludzi na jakąś ówczesną promocję i w dodatku nie był nakręcony w Amsterdamie, ale w jakimś niemieckim mieście. W dobie deepfake’ów (z ang. deep learning + fake, czyli te fake newsy, które wykorzystują AI i uczenie się maszynowe – jak może to wyglądać, zobacz chociażby ten film) możemy spodziewać się, że fake newsy wideo będą w zasadzie niemożliwe do weryfikacji. I to nie tylko dla nas, zwykłych ludzi.
Wspomniana wyżej EEAS, która przecież na co dzień zajmuje się identyfikowaniem fake newsów, na swojej stronie już dziś odnotowuje: „prawie niemożliwe jest ustalenie, kto stoi za ukrytymi zachowaniami przy braku większej przejrzystości i ściślejszej współpracy z platformami internetowymi.” Poniżej, poglądowo, wrzucam tabelę, przygotowaną przez Jamesa Pammenta z Carnegie Endowment for International Peace, prezentującą taksonomię wyzwań związanych z dezinformacją w kontekście epidemii Covid-19. Widać, że musimy radzić sobie z zalewem nie tylko fake newsów, ale także działań świadomie wprowadzających w błąd, podejmowanych przez wielu graczy (w tym także organizacje czy obce państwa) i mających na celu wywołanie konkretnych zachowań społecznych (np. wzniecanie strachu, paniki czy buntów).
Taxonomy of informational challenges around the COVID-19 pandemic:
Człowiek naprzeciw armii botów i algorytmom
Nie umiemy również funkcjonować w obecnym świecie, bo nieprawdziwych informacji jest zbyt dużo. Dotarcie do tych prawdziwych wymaga świadomości, chęci, wysiłku, zaangażowania i przede wszystkim czasu, którego nie mamy. Plus technologia nie zawsze nam pomaga. Fake newsy rozprzestrzeniają bowiem nie tylko ludzie. Już dwa lata temu Pew Research Center opublikowało wyniki analizy, z której wynika, że 2/3 linków na Twitterze generowanych jest przez boty. Wtedy jeszcze umieliśmy – przynajmniej część z nas i przynajmniej częściowo – je rozpoznać. Wiedzieliśmy, że głównie dystrybuują linki, że są kiepskie w odpowiedziach, nie mówiąc już o dyskusji. Ale od tego czasu boty wyewoluowały – dziś w swoich zachowaniach bardziej przypominają ludzi (np. rzadziej retweetują) i przez to są trudniejsze do wykrycia (por. artykuł na ten temat: Evolution of Bot and Human Behavior). To zasadniczy problem, biorąc pod uwagę fakt, że boty pełnią ogromną rolę we wzmacnianiu fake newsów i poglądów, które z kolei przekładają się na przekonania, zachowania i decyzje ludzi. Badania wskazują np., że boty mają istotny wpływ chociażby na kształt dyskusji związanych ze zmianami klimatu, tj. wzmacniają postawy zaprzeczające tym zmianom.
Nie mamy szans na pokonanie armii botów, ale nie mamy też szans na pokonanie algorytmów2, które prezentują nam treści dopasowane do naszych wcześniejszych zachowań. Oznacza to, że zamiast widzieć szeroką perspektywę, próbować dotrzeć do obiektywnej rzeczywistości, nieustająco widzimy to, co widzieliśmy już wcześniej. Zamykamy się w bańkach własnych poglądów, sympatii i preferencji. I dotyczy to w zasadzie wszystkich obszarów naszego życia. Na Spotify jesteśmy wciąż w kręgu tej samej muzyki, chyba że świadomie zdecydujemy się na wysiłek, by odkryć coś nowego3. Na Netflix po pewnym czasie mamy poczucie, że stale oglądamy te same filmy. W kontekście serwisów informacyjnych wciąż czytamy te, które wzmacniają nasze poglądy, a nie je weryfikują albo się z nimi zderzają. Wreszcie na Facebooku i w innych mediach społecznościowych widzimy wiadomości zwłaszcza od tych znajomych, którzy myślą tak samo jak my, albo przynajmniej podobnie do nas. Abstrahując od tego, że zamykamy sobie tym samym dostęp do świata i jego różnorodności, jest to ryzykowne przynajmniej z kilku powodów.
Po pierwsze, fake newsy bazują na naszych wcześniejszych przekonaniach – osoby, które piją alkohol, będą bardziej skłonne uwierzyć, że pozwala on zabić koronawirusa. Ci, którzy wierzą w teorie spiskowe/ mają tendencje ksenofobiczne, będą skłonni uwierzyć, że koronawirus powstał jako broń biologiczna w laboratoriach chińskich (albo amerykańskich, w zależności od opcji). Po drugie, jak mówił Goebbels (nie sądziłam, że kiedykolwiek zacytuję go na swoim blogu): „Kłamstwo powiedziane raz pozostaje kłamstwem, ale kłamstwo powtórzone tysiąc razy staje się prawdą.” Istnieje duże prawdopodobieństwo, że jeśli coś nieprawdziwego usłyszymy od wielu osób, zaczniemy w to wierzyć („wszyscy” nie mogą się przecież mylić!). Po trzecie wreszcie, fake newsy podważają zaufanie do władz i oficjalnych źródeł, a to już bezpośrednio przekłada się na nasze bezpieczeństwo. Z braku zaufania do władz wynikają zarówno aktualne zachowania ignorujące zasady dotyczące kwarantanny i zostawania w domu (myślenie typu: nikt z moich znajomych nie zachorował, więcej ludzi ginie w wypadkach samochodowych, rząd nie mówi prawdy i chce nas kontrolować – nie poddam się, będę wychodzić!), jak i te, gdzie ludzie w panice wykupują mięso, makarony, ryż i środki higieniczne (myślenie: rząd mówi, że nie zamkną sklepów spożywczych, ale znajomy znajomego, który pracuje w ministerstwie powiedział, że od jutra wszystkie sklepy zostaną zamknięte i będą je otwierać raz na tydzień – muszę kupić wszystko na zapas!)
Oszukać system
W swojej książce 21 lekcji na XXI wiek Harari pisał: „Jeśli zależy ci na prawdzie, musisz się zgubić.” – mając na myśli zbaczanie z utartych szlaków informacyjnych, szukanie informacji poza głównym nurtem, do którego przywykliśmy. Ale jak się zgubić, kiedy algorytmy działają dziś jak klapki na oczy, które zakłada się koniom, by szły wytyczoną drogą i nie rozglądały się na boki?
Żeby oszukać system i zobaczyć inną perspektywę, musielibyśmy po pierwsze wiedzieć, że żyjemy w bańce. Tymczasem ogromna część z nas nawet nie ma takiej świadomości. W 2017 roku, przy okazji TrendBooka, zadaliśmy respondentom pytanie, czy zdają sobie sprawę, że informacje w mediach społecznościowych wybierane są przez algorytm i dopasowywane do użytkowników – 62% (sic!) badanych odpowiedziało, że nie. Dwa lata później, bardzo podobne pytanie: „Czy stwierdzenie, że to algorytmy specjalnie dobierają informacje, które są tobie wyświetlane w internecie, to prawda czy fałsz?” zadaliśmy osobom z pokolenia Z – czyli takim, które urodziły się już w całkowicie cyfrowym świecie i generalnie powinny znać go na wylot. Zaledwie 24% respondentów odpowiedziało, że to prawda, blisko dwukrotnie więcej (43%) odpowiedziało, że to fałsz, a 34%, że nie wie.
Po drugie, żeby oszukać system, musielibyśmy klikać i lajkować to, z czym się nie zgadzamy. Pytanie, czy ktokolwiek tak robi? Odpowiedź brzmi: nie. Z różnych powodów. Również dlatego, że lajkowanie konkretnych treści w internecie to publiczna deklaracja naszych poglądów. To także sposób na budowanie naszego wizerunku, prezentacja tego, kim i jacy jesteśmy. Wiemy, że na podstawie analizy naszych lajków algorytm jest w stanie powiedzieć, jakiej jesteśmy płci, jakiego wyznania, jaką mamy orientację seksualną i jakie poglądy polityczne. Ale tak naprawdę nie potrzebujemy do tego algorytmu. Śledząc, co lajkują osoby, które mamy w kręgu naszych znajomych, jesteśmy w stanie odpowiedzieć na te same pytania. Ktoś, kto ma lewicowe poglądy, z pewnością nie będzie chciał, żeby inni myśleli, że ma prawicowe. Ten, kto jest przeciwny aborcji, nie będzie chciał, żeby ktokolwiek pomyślał, że jest za.
Spirala milczenia
I znów świadomość takiego stanu rzeczy jest niezwykle istotna. Choć chcielibyśmy myśleć o sobie, że jesteśmy indywidualistami, że myślimy samodzielnie, prawda jest inna. Elisabeth Noelle-Neumann, słynna niemiecka politolożka, profesorka i autorka modelu określonego jako spirala milczenia5, pisała, że człowiek ma podwójną naturę – naturę indywidualną i naturę społeczną. W związku z tą drugą naturą mamy w sobie strach przed izolacją i odtrąceniem. Chcąc być częścią społeczności, wolimy się dostosować, nawet jeśli tym dostosowaniem miałoby być milczenie i niewyrażanie własnych poglądów6. Noelle-Neumann pisze: „Dzisiaj można udowodnić, że nawet wtedy, gdy wyraźnie widzimy, że droga jest błędna, popadamy w milczenie, jeśli nasza wypowiedź grozi izolacją, mianowicie gdy sprzeciwia się temu opinia publiczna – poglądy i zachowania, które można okazywać otwarcie, nie narażając się na izolację – czyli ogólne porozumienie, co jest w dobrym guście i co jest poglądem moralnie słusznym.”
Zgodnie z teorią spirali milczenia ludzie stale obserwują swoje otoczenie, analizują to, co mówi i myśli większość innych osób i na tej podstawie wnioskują, jakie nastawienie się nasila, która opcja zyskuje przewagę. W związku z tym nawet jeśli przewagę zdobywa coś, co jest nieprawdą, niewielu odważy się temu zaprzeczyć, choćby dlatego że opinia publiczna mogłaby ich uznać za „oszołoma” i tym samym wykluczyć ze społeczności.
Iluzja wiedzy
I na koniec jeszcze jedna rzecz. Harari pisał, że nasz świat opiera się na iluzji wiedzy. W sensie, że jako jednostki wiemy bardzo mało, choć zdaje nam się, że dużo, bo traktujemy wiedzę innych jako naszą. Harari ilustruje to eksperymentem, w którym ludzie mieli opisać działanie zamka błyskawicznego i który obnażył powierzchowność ich wiedzy. Ja porównałabym to raczej do środowiska domowego, w którym partnerzy wzajemnie uzupełniają się wiedzą. Wystarczy, że wiem, kto posiada wiedzę na dany temat i mam poczucie, jakbym wiedziała to sama. Czyli na przykład ktoś nie musi wiedzieć, jak uruchomić pralkę, pamiętać, gdzie są klucze od mieszkania, bo wie to jego/ jej partner.
Iluzja wiedzy ma wpływ na nasze zachowania online. Mając poczucie, że wiemy wszystko, w internecie wypowiadamy się na każdy temat, zajmujemy radykalne stanowiska, obśmiewamy tych, którzy mają inne zdanie. Jesteśmy specjalistami od geopolityki, piłki nożnej, zmiany klimatu i medycyny. Obecnie każdy z nas jest specjalistą z zakresu rozprzestrzeniania się epidemii i sposobów zwalczania koronawirusa. W związku z tym sami generujemy ogromną ilość informacji, własne teorie i hipotezy, które tylko pogłębiają zamęt i chaos.
Jedną z najczęściej pojawiających się dziś informacji w kontekście pandemii w Polsce jest zbyt mała liczba wykonywanych testów. To wzbudza wyraźny niepokój, zwłaszcza że informację tę powtarza bardzo duża liczba osób. Tymczasem to, co ja sama faktycznie wiem, to to, że zalecenie szefa WHO brzmi: „We have a simple message for all countries: test, test, test. Test every suspected case.” (źródło wypowiedzi tu) Ale na pytanie: skoro wykonywanych testów jest za mało, to ile powinno być optymalnie? – nie umiem już sama odpowiedzieć. Tej wiedzy nie posiadam. Z tego powodu nie powtarzam tej informacji dalej i świadomie odmawiam udziału w takiej dyskusji. Powinni w niej uczestniczyć wyłącznie ci, którzy faktycznie taką wiedzę mają.
Na zakończenie
Napisałam ten tekst, bo choć nie wiem, czy jesteśmy w stanie wygrać wojnę z fake newsami i dezinformacją, zwalczyć trwającą infodemię, to wierzę, że możemy i powinniśmy przynajmniej podjąć walkę. A walka zawsze zaczyna się od świadomości – jakie mechanizmy nami rządzą, jak technologia wpływa na nasz świat, wreszcie jak funkcjonujemy jako jednostki i jako społeczeństwo.
Carl Jung powiedział kiedyś: „Dopóki nie uczynisz nieświadomego świadomym, będzie ono kierowało twoim życiem, a ty będziesz nazywał to przeznaczeniem.” Z tego powodu nikt, a zwłaszcza my sami, nie może nas zwolnić z odpowiedzialności weryfikowania źródeł. Stosowania podstawowych zasad bezpieczeństwa i higieny także w świecie online.
Myślę więc, że warto przyjąć zasadę, że każda informacja, która wzbudza w nas strach lub niepokój albo wzmaga agresję, jest informacją do dalszej weryfikacji – niezależnie od tego, kto ją podał. Przyjąć zasadę korzystania wyłącznie z oficjalnych źródeł, a jednocześnie także wobec nich zachowywać czujność. Kwestionować wszystkie wiadomości, które zawierają odwołania do „znajomych znajomych”. Przestać obserwować wszystkie profile w mediach społecznościowych, które sprawiają, że w głowie mamy chaos, a w żołądku strach. Nie przeklejać na swój profil żadnych wiadomości i linków, które mogłyby sprawić, że inni poczują niepokój albo dezorientację. Tam, gdzie tylko to możliwe, opierać się na literaturze naukowej i do takich źródeł linkować. Jeśli nie jesteśmy w stanie – na podstawie własnej wiedzy – odpowiedzieć na dane pytanie, nie zabierać głosu w dyskusji. Nie generalizować, sprawdzać i próbować zrozumieć. Mieć świadomość, że nie mamy wiedzy całego świata. Dawać sobie czas i wkładać wysiłek w to, by weryfikować źródła informacji. Mieć odwagę, by nie popadać w milczenie, jeśli wiemy, że coś jest ewidentną nieprawdą – nawet jeśli myśli tak „cały świat”7.
Tylko tyle. Albo aż tyle.
Stay safe. Offline and online.
***
PRZYPISY:
1 Jak taka destabilizacja może wyglądać, mieliśmy okazję obserwować podczas aneksji Krymu w 2014 roku. Działania Rosji określone były wówczas mianem wojny hybrydowej, działania militarne prowadzone były w świecie fizycznym i w świecie online, głównie za pomocą dezinformacji i ataków hakerskich na infrastrukturę krytyczną.
2 Od dłuższego czasu prowadzę swoją prywatną misję, żeby oszukać algorytmy. I coraz częściej mi się to udaje. Ostatnio, w ciągu jednego dnia wyświetliła mi się najpierw reklama suplementów na menopauzę, potem ubrań dla kobiet w ciąży i na sam koniec młodzieżowych butów Nike za 180 tysięcy…
3 Algorytmy Spotify tylko częściowo pozwalają mi odkrywać nową muzykę. Największe muzyczne inspiracje tak naprawdę znajduję podczas przeglądania lineupów wybranych festiwali albo śledząc to, co rekomendują inne osoby. Z tego m.in. powodu obserwuję na instagramie Jacoba Banksa, którego uwielbiam jako artystę i który na stories regularnie dzieli się tym, czego akurat słucha.
4 Więcej o tym, jakie plotki, urban legends oraz informacje przekazujemy sobie najchętniej i dlaczego, znajdziecie w fantastycznej książce braci Heath Made to Stick: Why Some Ideas Survive and Others Die.
5 Teorii Elizabeth Noelle-Neumann poświęcona jest jej głośna książka Spirala milczenia. To jedna z najważniejszych książek o opinii publicznej i formowaniu poglądów w ogóle.
6 Jednym z najbardziej dobitnych przykładów naszego dostosowania się jest słynny eksperyment Ascha – w ramach którego część ludzi pod wpływem opinii innych była skłonna powiedzieć, że linia, którą widzą, jest krótsza niż była w rzeczywistości – tym samym była skłonna zaprzeczyć temu, co naprawdę widziała.
7 Zgodnie z teorią spirali milczenia istnieje coś takiego jak „milcząca większość”. Oznacza to sytuację, w której jedna strona wypowiada się na jakiś temat i jest bardziej aktywna publicznie, podczas gdy druga (wcale nie mniejsza liczebnie, czasami właśnie nawet wręcz przeciwnie) milczy. Dotyczy to różnych kwestii społeczno-politycznych (palenia papierosów, bicia dzieci, aborcji, małżeństw homoseksualnych, legalizacji marihuany etc.). Z milczącą większością mieliśmy do czynienia chociażby w przypadku wyborów prezydenckich w USA – wszyscy mówili, że wygra Hillary Clinton, i to z miażdżącą przewagą. Wiemy, że stało się inaczej.
***
Zdjęcie na głównej by Renata Dąbrowska.