Warum, wird es ungenauer Numerisches Ableiten?
Ich habe die Funktion sin(x) und soll diese folgender Maßen für x = 2 numerisch ableiten (Ich benutze Python)
Ich habe die Funktion f(x) = (sin(x + h) - sin(x) )/ h aufgestellt.
und teste nun h = 10^-k (für verschieden k's also zB 0,1 0,01 usw)
Dann habe ich den Betrag der Differenz von f(2) und cos(2) (Die richtige ableitung) für verschiedene k's ausgerechnet und mit dem 10er logarithmus noch skalariert damits deutlicher wird. Es kam folgender Graph raus
auf der x Achse dir K werte auf der Y achse die Ungenauigkeit.
Und ich verstehe nicht warum es ab k = 8 wieder ungeanuer wird ? wie kann das sein?
1 Antwort
![](https://images.gutefrage.net/media/default/user/9_nmmslarge.png?v=1551279448000)
Im Falle h < 10^(-8) kommt man wohl schon in die Größenordnung der numerischen Genauigkeit.
sin(x+h) und sin(x) sind dann praktisch so gut wie gleich groß. Wenn man die beiden subtrahiert, kann sonstwas dabei rauskommen.
Diesen Effekt kenne ich als numerische "Stellenauslöschung".