Existenční rizika vývoje umělé inteligence: Porovnání verzí

Smazaný obsah Přidaný obsah
Popelin (diskuse | příspěvky)
diakritika apod.
Odebráno nemístné přirovnání, spojení relevantní věty s předchozí
značky: editace z mobilu editace z mobilního webu
Řádek 1:
{{Neověřeno}}
{{Vlastní výzkum}}
'''Existenční rizika plynoucí z vývoje umělé inteligence''' je hypotetickou hrozbou předpovídající, že dramatický pokrok ve vývoji [[Umělá inteligence|umělé inteligence]] (AI) by mohl jednoho dne skončit vyhynutím lidské rasy (nebo jinou globální katastrofou). [[Člověk moudrý|Lidská rasa]] v současnosti dominuje nad ostatními druhy, jelikož [[lidský mozek]] má některé rozhodující schopnosti, které mozky zvířat postrádají. Pokud však AI předčí lidstvo v běžné [[Inteligence|inteligenci]] a stane se „super inteligencí“, mohla by se stát velmi mocnou a těžko kontrolovatelnou. Stejně tak jako dnes, osud [[Gorilalidstva horská|Gorilyby horské]]tak závisí na dobré vůli lidí,tedy mohl by také osud lidstvapotenciálně záviset na jednání budoucí strojové super inteligence.
 
Vážnost různých rizikových scénářů je široce diskutována a závidí na bezpočtu nevyřešených otázek ohledně budoucího vývoje počítačové vědy. Dvěma hlavními zdroji obav je, že náhlá a nečekaná „exploze inteligence“ může překvapit nepřipravené lidstvo a že kontrola super inteligentního stroje (či dokonce pokus vštěpovat mu lidské hodnoty) může být mnohem větší problém než se naivně předpokládá.