Wikipedista:Martin kosiik/Existenční riziko

Odhady pravděpodobnosti editovat

K posouzení pravděpodobností jednotlivých rizik se často používají expertní odhady vzhledem k limitacím běžných dat a modelování.[1] Neformální dotazníkové šetření expertů na konferenci pořádané Future of Humanity Institute v roce 2008 publikovalo odhad 19% pravděpodobnosti vyhynutí lidstva do roku 2100, nicméně tento odhad by měl být brát "s rezervou".

Riziko Odhadovaná pravděpodobnost
vyhynutí lidstva
do roku 2100
Celková pravděpodobnost
19%
Zbraně využívající molekulární nanotechnologie
5%
Existenciální riziko z umělé superinteligence
5%
Jakékoli války (včetně občanských válek)
4%
Engineered pandemic
2%
Jaderná válka
1%
Nanotechnologická nehoda
0.5%
Přírodní pandemie
0.05%
Jaderný terorismus
0.03%

Table source: Future of Humanity Institute, 2008.[1]


Mnozí další experti poskytli jejich odhady pravděpodobnosti existenčních rizik, rizik vyhynutí nebo kolaps civilizace.

  • V roce 2002 Nick Bostrom uvedl následující odhad existenčního rizika v dlouhodobém horizontu: 'Dle mého subjektivního názoru stanovení této pravděpodobnosti nižší než 25 % by bylo zavádějící a nejlepší odhad může být podstatně vyšší.'[2]
  • V roce 2003 Martin Rees uvedl odhad 50% pravděpodobnosti kolapsu civilizace v 21. století.[3]
  • Výroční zpráva Global Challenges Foundation pro rok 2016 odhaduje pravděpodobnost vyhynutí lidstva na aspoň 0,05 % za rok. [4]
  • Mediánový účastník průzkumu odborníků na umělou inteligenci v roce 2016 uvedl 5% odhad pravděpodobnosti, že umělá inteligence na lidské úrovni by měla extrémně špatný dopad (např. vyhynutí lidstva).[5]
  • V roce 2020 Toby Ord ve své knize The Precipice: Existential Risk and the Future of Humanity odhaduje existenciální riziko v příštím století na 1/6. [6] [7]

Morální význam existenčních rizik editovat

In one of the earliest discussions of ethics of human extinction, Derek Parfit offers the following thought experiment:[8]

I believe that if we destroy mankind, as we now can, this outcome will be much worse than most people think. Compare three outcomes:

(1) Peace.
(2) A nuclear war that kills 99% of the world's existing population.
(3) A nuclear war that kills 100%.

(2) would be worse than (1), and (3) would be worse than (2). Which is the greater of these two differences? Most people believe that the greater difference is between (1) and (2). I believe that the difference between (2) and (3) is very much greater.

Morální význam existenční katastrofy je dán dlouhodobým potenciálem lidstva – toho, čeho by lidstvo mohlo dosáhnout, pokud přežije. [6] [s.l.]: [s.n.] ISBN 9780316484916. </ref> Z utilitárního hlediska je hodnota ochrany lidstva součinem délky trvání (jak dlouho lidstvo přežije), velikosti (kolik lidí bude žít) a kvality (jaká je průměrná kvalita života budoucích lidí) . [6] :s.273[9] V průměru druhy přežívají asi milion let, než vyhynou. Parfit zmiňuje, že Země zůstane obyvatelná asi miliardu let. Toto může být pouze dolní hranice našeho potenciálu: pokud lidstvo dokáže expandovat mimo Zemi, mohlo by to výrazně zvýšit lidskou populaci a přežít biliony let. [6] :s.21Velikost potenciálu, který by byl ztracen, kdyby lidstvo vyhynulo, by pak bylo velmi velké. I nepatrné snížení existenčního rizika by proto mělo velmi významnou morální hodnotu. [10]

Někteří ekonomové a filozofové zastávají názory jako např. exponenciální diskontování a 'person-affecting' pohledy na populační etiku, podle kterých z morálního hlediska na životech budoucích lidech nezáleží (nebo záleží mnohem méně). I když jsou tyto názory kontroverzní, existenční katastrofa by patřila k nejhorším možným událostem i z pohledu těchto filozofií. Zkrátilo by to životy osmi miliardám existujících lidí, zničilo by to všechno, co činí jejich životy cennými, a s největší pravděpodobností by mnoho z nich vystavilo hlubokému utrpení. Takže i pokud ponecháme stranou hodnotu budoucích generací, mohou existovat silné důvody pro snížení existenčního rizika založeného na zájmu o existující lidi. [11]

I mnohé další etické filozofie zdůrazňují důležitost redukce existenčních rizik. Existenční katastrofa by nezničila pouze lidstvo – zničila by také všechny kulturní artefakty, jazyky a tradice a mnoho dalších věcí, kterých si ceníme. [6] [s.l.]: [s.n.] ISBN 9780316484916. </ref> Takže etické filozofie, na základě kterých máme povinnost chránit a vážit si hodnotných věcí, by to považovala za obrovskou ztrátu, které je třeba se vyhnout. [6] Lze také zvážit důvody spočívající v povinnostech vůči minulým generacím. Například Edmund Burke píše o „partnerství... mezi těmi, kteří žijí, těmi, kteří jsou mrtví, a těmi, kteří se mají narodit“. Pokud se vezme vážně dluh, který lidstvo dluží minulým generacím, Ord tvrdí, že nejlepším způsobem, jak jej splatit, by mohlo být „splatit ho dopředu“ a zajistit, aby se dědictví lidstva přeneslo na budoucí generace. [6] :s.49–51

Několik ekonomů zdůrazňovalo důležitost globálních katastrofických rizik. Například podle Martina Weitzmana většina očekávaných ekonomických škod způsobených změnou klimatu může být dáno malou šancí, že oteplování výrazně překročí očekávání, což povede ke katastrofickým škodám. Richard Posner tvrdil, že lidstvo obecně dělá příliš málo ohledně rizik rozsáhlých katastrof.

Navrhované zmírňování editovat

Hloubková obrana je užitečný rámec pro rozdělení opatření ke zmírnění rizik do tří obranných kategorií:

  1. Prevence : Přímé snížení pravděpodobnosti existenční katastrofy. Příklad: Opatření na prevenci propuknutí nových vysoce infekčních chorob.
  2. Reakce : Zabránění rozšíření katastrofy na globální úroveň. Příklad: Opatření cílené na zabránění eskalace lokání jaderné války v globální jaderný konflikt.
  3. Odolnost : Zvyšování odolnosti lidstva proti vyhynutí v důsledku globálních katastrof. Příklad: Opatření ke zvýšení potravinové bezpečnosti během jaderné zimy.

Vyhynutí lidstva je nejpravděpodobnější, když jsou všechny tři obranné mechanismy slabé, tedy „rizika, kterým pravděpodobně nezabráníme, pravděpodobně na ně nebudeme úspěšně reagovat a pravděpodobně proti nim nebudeme odolní“.

Organizace editovat

Po roce 2000 se z

rostoucí počet vědců, filozofů a technologických miliardářů vytvořil organizace věnované studiu globálních rizik v akademické sféře i mimo ni. [12]

Nezávislá neziskový organizace Machine Intelligence Research Institute (založená v roce 2000), mezi jejíž dárce patří Peter Thiel a Jed McCaleba, má za cíl snížit riziko existenční katastrofy způsobené umělou inteligencí.[13] Nuclear Threat Initiative (založená v roce 2001) usiluje o snížení globálních hrozeb z jaderných, biologických a chemických zbraní.[14] Vede index zabezpečení jaderného materiálu. [15] Nadace Lifeboat Foundation (založená v roce 2009) financuje výzkum zaměřený na prevenci technologických katastrof. [16] Global Catastrophic Risk Institute (založený v roce 2011) je think tank zaměřující se na katastrofická rizika. Nadace Global Challenges Foundation (založená v roce 2012), se sídlem ve Stockholmu a založená Laszloem Szombatfalvym, vydává každoroční zprávu o stavu globálních rizik. [4]

[17] Future of Life Institute (založený v roce 2014) cílí na podporu výzkumu na ochranu života s ohledem na nové technologie a výzvy, kterým lidstvo čelí. [18] Elon Musk patří mezi jedno  z největších dárců tohoto institutu. [19]

Mezi univerzitní organizace patří Future of Humanity Institute (založený v roce 2005), který zkoumá otázky dlouhodobé budoucnosti lidstva se zaměřením na existenční rizika. [20] Založil ji Nick Bostrom a sídlí na Oxfordské univerzitě. [20] Center for the Study of Existential Risk (založeno v roce 2012) je organizace se sídlem na Cambridgeské univerzitě, která studuje čtyři hlavní technologická rizika: umělou inteligenci, biotechnologie, globální oteplování a války. [21] Všechno jsou to rizika způsobená člověkem, jak Huw Price vysvětlil tiskové agentuře AFP: „Zdá se rozumná předpověď, že nějaký čas v tomto nebo v příštím století se inteligence vymaní z omezení biologie“. Dodal, že až se to stane, "už nejsme nejchytřejší" a budeme riskovat, že budeme vydáni na milost "strojům, které nejsou škodlivé, ale strojům, jejichž zájmy nás nezahrnují." [22] Stanfordská univerzita má také Centrum pro mezinárodní bezpečnost a spolupráci se zaměřením na politickou spolupráci s cílem snížit globální katastrofické riziko. [23] Centrum pro bezpečnost a nové technologie bylo založeno v lednu 2019 na Walsh School of Foreign Service v Georgetownu a zaměří se na politický výzkum vznikajících technologií s počátečním důrazem na umělou inteligenci. [24] Získali grant ve výši 55 milionů USD od Good Ventures, jak navrhuje Open Philanthropy . [24] [[Kategorie:Vymírání lidí]]

  1. a b ROWE, Thomas; BEARD, Simon. Probabilities, methodologies and the evidence base in existential risk assessments. Working Paper, Centre for the Study of Existential Risk. 2018. Dostupné online [cit. August 26, 2018]. 
  2. BOSTROM, Nick. Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards. Journal of Evolution and Technology. 2002. 
  3. REES, Martin. Our Final Century. [s.l.]: Arrow Books, 2004. S. 9. 
  4. a b MEYER, Robinson. Human Extinction Isn't That Unlikely [online]. Boston, Massachusetts: Emerson Collective, April 29, 2016 [cit. 2016-04-30]. Dostupné online. 
  5. GRACE, Katja; SALVATIER, John; DAFOE, Allen; ZHANG, Baobao; EVANS, Owain. When Will AI Exceed Human Performance? Evidence from AI Experts [online]. May 3, 2018. Dostupné online. 
  6. a b c d e f g ORD, Toby. The Precipice: Existential Risk and the Future of Humanity. New York: Hachette, 2020. ISBN 9780316484916. 
  7. PURTILL, Corinne. How Close Is Humanity to the Edge? [online]. [cit. 2021-01-08]. Dostupné online. (anglicky) 
  8. PARFIT, Derek. Reasons and Persons. [s.l.]: Oxford University Press, 1984. S. 453–454. 
  9. Dostupné online. 
  10. Dostupné online. 
  11. Dostupné online. 
  12. Dostupné online. 
  13. Dostupné online. 
  14. Dostupné online. 
  15. Dostupné online. 
  16. Dostupné online. 
  17. Dostupné online. 
  18. Dostupné online. 
  19. Dostupné online. 
  20. a b Dostupné online. 
  21. Dostupné online. 
  22. Dostupné online. 
  23. Dostupné online. 
  24. a b www.washingtonpost.com. Dostupné online.