Wikipedista:Kackafil/Pískoviště

Podle Parisera sociální média neúmyslně izolují uživatele do jejich vlastních ideologických informačních bublin.

Informační bublina je určitý ideologický rámec či stav intelektuální izolace od celkového obrazu společnosti.[1] Jde o uvěznění v názorovém postoji a v určitém vidění světa, který jednotlivec či skupina považuje za pravdivý a platný v celé společnosti.

Informační bubliny jsou následkem algoritmického zpracovávání dat a údajů a následného filtrování informací. Na základě sesbíraných dat se uživateli zobrazují výsledky vyhledávání, které korelují s jeho názorovým postojem a ideologickým nastavením.[2] V důsledku toho jsou uživatelé odděleni od informací, které nejsou v souladu s jejich názory, což je účinně izoluje v jejich vlastních kulturních nebo ideologických bublinách a vede k omezenému pohledu na svět.[3]

Je otázka, do jaké míry a kde všude je algoritmické upravování obsahu přítomno, a jestli je tento postup přínosný nebo škodlivý.

Původ termínu editovat

 
Autor termínu "informační bublina", internetový aktivista Eli Pariser.

Termín informační bublina (v angličtině filter bubble) zavedl internetový aktivista Eli Pariser kolem roku 2010. Ve své knize s názvem The Filter Bubble (2011) předpovídá, že individuální personalizace prostřednictvím algoritmického filtrování povede k intelektuální izolaci a sociální fragmentaci.[4]

Podle Parisera mohou mít informační bubliny negativní dopady na společenský diskurz, avšak existují protichůdné názory, které považují tento efekt za minimální a řešitelný.[5][6] Dle Parisera mají uživatelé menší přístup k odlišným názorům a jsou intelektuálně izolováni ve své informační bublině.[7]

Vznik informačních bublin editovat

Při prohlížení internetových stránek či používání aplikací si servery ukládají určité množství dat o preferencích uživatele na těchto stránkách. Mezi tato data patří např. cookies, neboli sušenky. Cookies a další data o vyhledávání, historie navštívených stránek či interakce s odkazy postupem času vytváří datovou sadu o uživateli. Firmy poté tato data využívají, ať už k cílené reklamě, nebo ke zviditelnění určitých typů informací ve výsledcích vyhledávání.[8]

Tento proces není náhodný. Pariser uvádí tři postupné kroky: „Nejprve zjistíte, kdo lidé jsou a co mají rádi. Poté jim poskytujete obsah a služby, které jim nejlépe vyhovují. Nakonec už jen ladíte, aby jim vyhovovali co nejvíce. Vaše identita formuje vaše média.“[9]

Sesbíraná data tak modelují internetové prostředí přímo na míru jednotlivým uživatelům. Tím, že jim doporučují obsah, o kterém vědí, že jim bude vyhovovat, zároveň uživateli nenabízí přístup k jiným názorům, než jaké má uživatel. Podporují uživatele v jeho názorech tím, že mu ukazují jen věci s tímto názorem souhlasící. Tím uživatel nabývá dojmu, že jiné informace neexistují a že jeho postoj je jediný správný. Vzniká tak informační bublina.[8]

O vzniku informačních bublin a souvisejícím riziku postupného snižování sociální koheze se mluví hlavně v souvislosti s existencí sociálních sítí, zejména Facebooku.[10] Podle českého sociologa Jana Hartla se tento problém může zhoršovat; lze mu předejít vystupováním z virtuálního světa a udržováním mezilidských vztahů mimo sociální sítě.[11]

Společenské a etické dopady editovat

S rostoucí popularitou cloud computingu se očekává, že personalizované algoritmy, které vytvářejí informační bubliny, budou stále rozšířenější.[12] Odborníci začali zkoumat účinky informačních bublin na uživatele sociálních médií z etického hlediska, zejména v oblastech osobní svobody, bezpečnosti a informačního zkreslení.[13] Informační bubliny na populárních sociálních médiích a personalizovaných vyhledávacích stránkách mohou určit konkrétní obsah, který uživatelé vidí, často bez jejich přímého souhlasu nebo vědomí, kvůli algoritmům, které tento obsah vybírají.[14]

Obsah vytvářený na základě vzorců chování může vést k částečné informační slepotě.[15] Kritici vytváření informačních bublin spekulují, že jednotlivci mohou ztratit autonomii nad svým vlastním zážitkem na sociálních médiích a jejich identity mohou být sociálně konstruovány v důsledku všudypřítomnosti informačních bublin.[14]

Podle některých výzkumů informační bubliny mohou bránit odhalování dezinformací a svobodnému dialogu, který je podmínkou demokracie. Lidé mají tendenci se zatvrdit a spíše obviňovat toho, kdo jejich představu vyvrací, že slouží nějakým zájmům.[16] Tendenci člověka upřednostňovat ty informace a interpretace, které podporují jeho vlastní názor popisuje článek konfirmační zkreslení.

Informační bublina bývá také označována jako faktor zhoršující fenomén nazývaný splinternet nebo kyberbalkanizace. K tomu dochází, když se internet rozdělí na podskupiny stejně smýšlejících lidí, kteří se izolují ve své vlastní online komunitě a nedostávají se do styku s odlišnými názory. Tato obava sahá až do raných dob veřejně přístupného internetu, přičemž termín kyberbalkanizace byl poprvé použit v roce 1996.[17][18] Další termíny, které popisují tento jev, je rámcování či komnata ozvěn.

Koncept informační bubliny byl rozšířen i do jiných oblastí, aby popsal společnosti, které se samy segregují podle politických, ale také ekonomických, sociálních a kulturních názorů. Tento proces vede ke ztrátě širší komunity.[19]

Odkazy editovat

Reference editovat

  1. What is a Filter Bubble? - Definition from Techopedia. web.archive.org [online]. 2017-10-10 [cit. 2024-05-17]. Dostupné online. 
  2. BOZDAG, Engin. Bias in algorithmic filtering and personalization. Ethics and Information Technology. 2013-09, roč. 15, čís. 3, s. 209–227. Dostupné online [cit. 2024-05-17]. ISSN 1388-1957. DOI 10.1007/s10676-013-9321-6. (anglicky) 
  3. Filter Bubbles Are Shrinking Our Minds. web.archive.org [online]. 2016-11-03 [cit. 2024-05-17]. Dostupné online. 
  4. KITCHENS, Brent; JOHNSON, Steve L.; GRAY, Peter. Understanding Echo Chambers and Filter Bubbles: The Impact of Social Media on Diversification and Partisan Shifts in News Consumption. MIS Quarterly. 2020-12-01, roč. 44, čís. 4, s. 1619–1649. Dostupné online [cit. 2024-05-17]. DOI 10.25300/MISQ/2020/16371. 
  5. Book Review: The Filter Bubble - WSJ. web.archive.org [online]. 2015-04-05 [cit. 2024-05-17]. Dostupné online. 
  6. ZHANG, Yuan Cao; SÉAGHDHA, Diarmuid Ó; QUERCIA, Daniele. Auralist: introducing serendipity into music recommendation. In: [s.l.]: ACM, 2012-02-08. Dostupné online. ISBN 978-1-4503-0747-5. DOI 10.1145/2124295.2124300. S. 13–22. (anglicky)
  7. The Filter Bubble - The Atlantic. web.archive.org [online]. 2017-08-22 [cit. 2024-05-17]. Dostupné online. 
  8. a b Algorithms and the Filter Bubble Ruining Your Online Experience?. web.archive.org [online]. 2016-04-13 [cit. 2024-05-17]. Dostupné online. 
  9. PARISER, Eli. The filter bubble: how the new personalized web is changing what we read and how we think. 2nd pr. vyd. London: Penguin Books 294 s. ISBN 978-0-14-312123-7, ISBN 978-1-59420-300-8. 
  10. MÁLEK, Tomáš. Češi jsou v zajetí sociálních bublin. A bude hůř. Lidové noviny [online]. 2016-11-30 [cit. 2017-01-01]. Dostupné online. 
  11. Sociální bubliny? Společnost se rozděluje. Za desítky let můžeme mít problém, varuje sociolog Hartl. Lidové noviny [online]. 2016-11-30 [cit. 2017-01-01]. Dostupné online. 
  12. (PDF) Requirements for Reconfigurable Technology: a challenge to Design for Values. web.archive.org [online]. 2020-12-14 [cit. 2024-05-17]. Dostupné online. 
  13. The Many Ethical Implications of Emerging Technologies - Scientific American. web.archive.org [online]. 2017-04-08 [cit. 2024-05-17]. Dostupné online. 
  14. a b (PDF) Requirements for Reconfigurable Technology: a challenge to Design for Values. web.archive.org [online]. 2020-12-14 [cit. 2024-05-17]. Dostupné online. 
  15. HAIM, Mario; GRAEFE, Andreas; BROSIUS, Hans-Bernd. Burst of the Filter Bubble?: Effects of personalization on the diversity of Google News. Digital Journalism. 2018-03-16, roč. 6, čís. 3, s. 330–343. Dostupné online [cit. 2024-05-17]. ISSN 2167-0811. DOI 10.1080/21670811.2017.1338145. (anglicky) 
  16. PAVEC, Jan; ŠTĚTKA, Václav. Blížíme se světu bez profesionálních novinářů. E15. 18.7.2016, čís. 2154, s. 10–11. 
  17. VAN ALSTYNE, Marshall; BRYNJOLFSSON, Erik. Could the Internet Balkanize Science?. Science. 1996-11-29, roč. 274, čís. 5292, s. 1479–1480. Dostupné online [cit. 2024-05-17]. ISSN 0036-8075. DOI 10.1126/science.274.5292.1479. (anglicky) 
  18. Systems hope to tell you what you'd like - Page 2 - tribunedigital-chicagotribune. web.archive.org [online]. 2015-12-08 [cit. 2024-05-17]. Dostupné online. 
  19. Why are American kids treated as a different species from adults? | Aeon Essays. web.archive.org [online]. 2020-05-15 [cit. 2024-05-17]. Dostupné online. 

V tomto článku byl použit překlad textu z článku Filter bubble na anglické Wikipedii.

Související články editovat

Externí odkazy editovat