Metoda nejmenších čtverců: Porovnání verzí

Smazaný obsah Přidaný obsah
negace
Řádek 131:
Metoda nejmenších čtverců bývá často používána při [[Regresní analýza|regresní analýze]] pro aproximaci zadaných (naměřených) hodnot nějakou funkcí z předepsaného prostoru. Nejjednodušším příkladem je proložení (aproximace) dat přímkou, tedy lineární funkcí. Protože klasická metoda nejmenších čtverců vede vždy na lineární aproximační model (de-facto soustavu rovnic) je často považována za ekvivalent pojmu [[lineární regrese]]. To souvisí s faktem, že libovolný aproximační problém <math>\bold A \bold x \approx \bold b</math> lze interpretovat jako lineární regresi v <math>m</math>-rozměrném prostoru, kde jsme v bodě o souřadnicích <math>(a_{j,1},\ldots,a_{j,m})</math> naměřili nějakou veličinu <math>b_j</math>, <math>j=1,\ldots,n</math> a naměřené hodnoty prokládáme nadrovinou.
 
Pro první přiblížení uvažujme závislost nějaké nezávisle [[Proměnná|proměnné]] (např. fyzikální veličiny) <math>y</math> na nezávisle proměnné <math>u</math>, tj. <math>y=f(u)</math>. přičemž závislost má nějaký ''předem daný'' tvar, např. <math>f(u)=k\sin(u)+q\exp(-u)</math>, kde koeficienty <math>k</math> a <math>q</math> nejsoujsou známé. Pro identifikaci těchto koeficientů provedeme <math>n</math> měření veličiny <math>y</math> v ''přesně'' definovaných hodnotách nezávisle proměnné <math>u</math>. Získáme tak sadu <math>n</math> dvojic <math>(u_j,y_j)</math> přičemž hodnoty <math>y_j</math> jsou zatížené chybami měření. Dostaneme tak lineární aproximační problém
 
:<math>\bold A\bold x =