{%hackmd @themes/dracula %}
> Pratscher
> Schledorn
> Sergeyeva
| **1** | **2** | **3** | **4** |**5**| $\Sigma$ |
| :---: | :---: | :---: | :---: | :---: | :---:|
|</br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ | </br></br></br>__ __ __ __ |
# Aufgabe 4.1
Sei $f$ eine zweimal stetig differenzierbare Funktion, sei $p_1$ die lineare Interpolierende von $f$ Stützstellen $x_0<x_1\in\mathbb{R}$ und sei $e(x):=f(x)-p_1(x)$ der Interpolationsfehler.
## a)
Betrachten Sie für festes $x\in(x_0,x_1)$ die Funktion
$g(t)=e(t)-\frac{e(x)}{w_2(x)}w_2(t)$, $t\in[x_0,x_1]$ mit $w_2(x)=(x-x_0)(x-x_1)$.
Zeigen Sie, dass $g$ in drei Punkten in $[x_0,x_1]$ verschwindet. Folgern Sie daraus durch mehrmaliges Anwenden des Satzes von Rolle, dass es ein $\xi\in(x_0,x_1)$ gibt, sodass
$e(x)=\frac{f''(\xi)}{2}w_2(x)$.
---
Da $p_1$ Interpolierende von $f$
$\Rightarrow p_1(x_0)=f(x_0)~\land~p_1(x_1)=f(x_1)$
$\begin{split}
\implies &e(x_0)=f(x_0)-p_1(x_0)&=0 \\
&e(x_1)=f(x_1)-p_1(x_1)&=0 \\
\implies &g(x_0)=e(x_0)-\frac{e(x)}{w_2(x)}w_2(x_0)=0-\frac{e(x)}{w_2(x)}\cdot 0&=0 \\
&g(x_1)=e(x_1)-\frac{e(x)}{w_2(x)}w_2(x_1)=0-\frac{e(x)}{w_2(x)}\cdot 0&=0
\end{split}$
Außerdem gilt: $g(x)=e(x)-\frac{e(x)}{w_2(x)}w_2(x)=e(x)-e(x)=0$
$\implies g(t)$ verschwindet in den Punkten $x,x_0,x_1$.
**Satz von Rolle Anwendung**
Ableitung von $g(t)$:
$g'(t) = e'(t)-\frac{e(x)}{w_2(x)}((t-x_0)+(t-x_1))$
$g''(t) = e''(t)-\frac{e(x)}{w_2(x)}\cdot 2$
Sei $g''(\xi):=0$
$\implies e(x) = \frac{f''(\xi)}{2}w_2(x)$
mit $\xi\in(x_0,x_1)$.
## b)
Sei $x_0=-1$, $x_1=1$ und $f(x)=\sin{x}$. Berechnen Sie die lineare Interpolierende $p_1(x)$. Benutzen Sie das Ergebnis aus Teil (a) um zu zeigen, dass
$||e||_{\infty,[-1,1]}:=\underset{x\in[-1,1]}{\max}|e(x)|\leq\frac{1}{2}\sin(1)$
---
$\begin{split}
p_1(x)&=\sin(-1)+\frac{\sin(1)-\sin(-1)}{1-(-1)}(x-(-1)) \\
&=-\sin(1)+\frac{2\sin(1)}{2}(x+1) \\
&=\sin(1)+\sin(1)(x+1) \\
&=\sin(1)\cdot x
\end{split}$
Interpolationsfehler: $e(x)=f(x)-p_1(x)=\sin(x)-sin(1)\cdot x$
Für $f(x)=\sin(x)\Rightarrow f''(x)=-\sin(x)$
Mit a) folgt:
$\begin{split}
e(x)&=\frac{-\sin(\xi)}{2}(x+1)(x-1) \\
&=\frac{-\sin(\xi)}{2}(x^2-1)
\end{split}$
Wir betrachten nun
$||e||_{\infty,[-1,1]}:=\underset{x\in[-1,1]}{\max}|e(x)|$
$||e||_{\infty,[-1,1]}=\underset{x\in[-1,1]}{\max}|\frac{-\sin(\xi)}{2}(x^2-1)|$
Da $x^2-1$ in $[-1,1]$ nur Werte zw. $0,-1$ hat
$\implies ||e||_{\infty,[-1,1]}=|\frac{-\sin(\xi)}{2}(-1)|=\frac{\sin(\xi)}{2}$
$\xi\in(-1,1)\implies\sin(\xi)\leq\sin(1)$
$\implies ||e||_{\infty,[-1,1]}\leq\frac{1}{2}\sin(1)$
# Aufgabe 4.2
## a)
Tschebyscheff-Polynome der zweiten Art:
$U_n(\cos \theta) = \frac{\sin ((n + 1) \theta)}{\sin \theta}.$
### Basisfall:
Für $n = 0$:
$$U_0(\cos \theta) = \frac{\sin ((0 + 1) \theta)}{\sin \theta} = \frac{\sin \theta}{\sin \theta} = 1.$$
Für \( n = 1 \):
$$U_1(\cos \theta) = \frac{\sin ((1 + 1) \theta)}{\sin \theta} = \frac{\sin (2 \theta)}{\sin \theta} = 2 \cos \theta.$$
Da $x = \cos \theta$, haben wir:
$$U_0(x) = 1 \quad und \quad U_1(x) = 2x.$$
### Induktionsschritt:
Angenommen, die Formel gilt für $U_n(x)$ und $U_{n-1}(x)$:
$$U_n(\cos \theta) = \frac{\sin ((n + 1) \theta)}{\sin \theta} \quad und \quad U_{n-1}(\cos \theta) = \frac{\sin (n \theta)}{\sin \theta}.$$
Nun zeigen wir, dass die Rekursionsformel auch für $U_{n+1}(x)$ gilt:
$$U_{n+1}(\cos \theta) = \frac{\sin ((n + 2) \theta)}{\sin \theta}.$$
Verwenden wir die Additionstheoreme der trigonometrischen Funktionen:
$$\sin ((n + 2) \theta) = \sin ((n + 1) \theta + \theta) = \sin ((n + 1) \theta) \cos \theta + \cos ((n + 1) \theta) \sin \theta.$$
Daraus folgt:
$$\sin ((n + 2) \theta) = \sin ((n + 1) \theta) \cos \theta + \cos ((n + 1) \theta) \sin \theta.$$
Da $$\cos ((n + 1) \theta) = \cos (n \theta + \theta) = \cos (n \theta) \cos (\theta) - \sin (n \theta) \sin (\theta)$$, ergibt sich:
$$\sin ((n + 2) \theta) = \sin ((n + 1) \theta) \cos \theta + (\cos (n \theta) \cos (\theta) - \sin (n \theta) \sin (\theta)) \sin \theta.$$
Teilen wir durch $\sin \theta$:
$$U_{n+1}(\cos \theta) = \frac{\sin ((n + 2) \theta)}{\sin \theta} = \frac{\sin ((n + 1) \theta) \cos \theta + (\cos (n \theta) \cos (\theta) - \sin (n \theta) \sin (\theta)) \sin \theta}{\sin \theta}.$$
Da $x = \cos \theta$ und $\sin \theta \neq 0$, können wir die Terme zusammenfassen:
$$U_{n+1}(\cos \theta) = \frac{\sin ((n + 1) \theta) \cos \theta}{\sin \theta} + \cos (n \theta) \cos (\theta) - \sin (n \theta).$$
Dies vereinfacht sich zu:
$$U_{n+1}(x) = 2x U_n(x) - U_{n-1}(x).$$
Somit haben wir gezeigt, dass die Rekursionsformel gilt:
$$U_{n+1}(x) = 2x U_n(x) - U_{n-1}(x).$$
## b)
Definition der Tschebyscheff-Polynome der ersten Art:
$$ T_n(x) := \cos(n \arccos x). $$
Wir leiten $T_n(x)$ nach $x$ ab. Sei $\theta = \arccos(x)$, dann gilt $x = \cos(\theta)$.
$$ T_n(x) = \cos(n \theta). $$
Die Ableitung von $T_n(x)$ nach $x$ ist:
$$ T_n'(x) = \frac{d}{dx} \cos(n \theta). $$
Anwenden der Kettenregel:
$$ T_n'(x) = \frac{d}{d\theta} \cos(n \theta) \cdot \frac{d\theta}{dx}. $$
Die Ableitung von $\cos(n \theta)$ nach $\theta$ ist:
$$ \frac{d}{d\theta} \cos(n \theta) = -n \sin(n \theta). $$
Die Ableitung von $\theta = \arccos(x)$ nach $x$ ist:
$$ \frac{d\theta}{dx} = -\frac{1}{\sqrt{1 - x^2}}. $$
Somit ergibt sich:
$$ T_n'(x) = -n \sin(n \theta) \cdot -\frac{1}{\sqrt{1 - x^2}} = \frac{n \sin(n \theta)}{\sqrt{1 - x^2}}. $$
Erinnern wir uns nun an die Definition der Tschebyscheff-Polynome der zweiten Art:
$$ U_{n-1}(\cos \theta) = \frac{\sin(n \theta)}{\sin \theta}. $$
Da $\sin(\theta) = \sqrt{1 - \cos^2(\theta)} = \sqrt{1 - x^2}$ für $x = \cos(\theta)$, ergibt sich:
$$ U_{n-1}(x) = \frac{\sin(n \theta)}{\sqrt{1 - x^2}}. $$
Setzen wir dies in die Gleichung für $T_n'(x)$ ein:
$$ T_n'(x) = \frac{n \sin(n \theta)}{\sqrt{1 - x^2}} = n U_{n-1}(x). $$
Damit haben wir gezeigt, dass:
$$ T_n'(x) = n U_{n-1}(x). $$
## c)
Definition der Tschebyscheff-Polynome der zweiten Art:
$$ U_n(\cos \theta) = \frac{\sin((n+1) \theta)}{\sin \theta}. $$
Um den Grad und den führenden Koeffizienten von $U_n(x)$ zu bestimmen, setzen wir $x = \cos \theta$. Dann gilt:
$$ U_n(x) = \frac{\sin((n+1) \theta)}{\sin \theta}, \quad \text{wobei} \quad x = \cos \theta. $$
Wir untersuchen $U_n(x)$ für große Werte von $x$. Dazu verwenden wir die trigonometrische Identität:
$$ \sin((n+1) \theta) = \sin(n \theta + \theta) = \sin(n \theta) \cos(\theta) + \cos(n \theta) \sin(\theta). $$
Setzen wir diese Identität in die Definition von $U_n(x)$ ein:
$$ U_n(\cos \theta) = \frac{\sin(n \theta) \cos(\theta) + \cos(n \theta) \sin(\theta)}{\sin(\theta)}. $$
Dies vereinfacht sich zu:
$$ U_n(\cos \theta) = \sin(n \theta) \cot(\theta) + \cos(n \theta). $$
Da $\cot(\theta) = \frac{\cos(\theta)}{\sin(\theta)}$, ergibt sich:
$$ U_n(\cos \theta) = \sin(n \theta) \frac{\cos(\theta)}{\sin(\theta)} + \cos(n \theta). $$
Dies vereinfacht sich weiter zu:
$$ U_n(\cos \theta) = \frac{\sin(n \theta) \cos(\theta)}{\sin(\theta)} + \cos(n \theta). $$
Nun betrachten wir die asymptotische Form für große $x$. Da $\theta = \arccos(x)$, verwenden wir die Beziehung $\cos(\theta) = x$ und $\sin(\theta) = \sqrt{1 - x^2}$:
$$ U_n(x) = \frac{\sin((n+1) \arccos(x))}{\sqrt{1 - x^2}}. $$
Für große $x$ nähert sich $\arccos(x)$ der Funktion $\frac{\pi}{2} - \frac{1}{x}$ an. Daher können wir $\sin((n+1) \arccos(x))$ als $\sin((n+1)(\frac{\pi}{2} - \frac{1}{x}))$ schreiben. Da $\sin(\frac{\pi}{2} - y) = \cos(y)$, ergibt sich:
$$ \sin((n+1)(\frac{\pi}{2} - \frac{1}{x})) \approx \cos((n+1) \frac{1}{x}) \approx 1 - \frac{((n+1) \frac{1}{x})^2}{2} = 1 - \frac{(n+1)^2}{2x^2}. $$
Für große $x$ dominiert der lineare Term:
$$ U_n(x) \approx 2^n x^n. $$
Daher ergibt sich, dass der führende Koeffizient von $U_n(x)$ tatsächlich $2^n$ ist und $U_n(x)$ ein Polynom vom Grad $n$ ist.
# Aufgabe 4.3
Sei $f\in C^3([a,b])$ eine dreimal stetig differenzierbare Funktion auf dem Intervall $[a,b]$. Ein numerisches Verfahren zur näherungsweisen Berechnung von $f'(x)$ besteht darin, eine möglichst kleine Schrittweite $h$ zu wählen und den zentralen Differenzenquotienten
$d_h(x)=\frac{f(x+h)-f(x-h)}{2h}$
zu berechnen.
## a
Der Differenzenquotient $d_h$ werde exakt berechnet, ohne Runden. Zeigen Sie, dass für den dabei gemachten Diskretisierungsfehler gilt:
$|d_h(x)- f'(x)|\leq c\cdot h^2$
Dabei darf $c$ von $f$ abhängen, aber nicht von $h$.
Wir erweitern $f$ um $x$ bis zur dritten Ordnung mithilfe der Taylor-Reihenentwicklung:
$f(x+h) = f(x) + f'(x)h + \frac{f''(x)}{2}h^2 + \frac{f'''(\xi_1)}{6}h^3$
$f(x-h) = f(x) - f'(x)h + \frac{f''(x)}{2}h^2 - \frac{f'''(\xi_2)}{6}h^3$
wobei $\xi_1$ und $\xi_2$ Punkte in den Intervallen $[x, x+h]$ bzw. $[x-h, x]$ sind.
Nun berechnen wir die zentrale Differenz $d_h(x)$:
$d_h(x) = \frac{f(x+h) - f(x-h)}{2h}$
Wir setzen ein:
$d_h(x) = \frac{\left( f(x) + f'(x)h + \frac{f''(x)}{2}h^2 + \frac{f'''(\xi_1)}{6}h^3 \right) - \left( f(x) - f'(x)h + \frac{f''(x)}{2}h^2 - \frac{f'''(\xi_2)}{6}h^3 \right)}{2h}$
$d_h(x) = \frac{f(x) + f'(x)h + \frac{f''(x)}{2}h^2 + \frac{f'''(\xi_1)}{6}h^3 - f(x) + f'(x)h - \frac{f''(x)}{2}h^2 + \frac{f'''(\xi_2)}{6}h^3}{2h}$
$d_h(x) = \frac{2f'(x)h + \left(\frac{f'''(\xi_1)}{6}h^3 + \frac{f'''(\xi_2)}{6}h^3\right)}{2h}$
$d_h(x) = f'(x) + \frac{f'''(\xi_1) + f'''(\xi_2)}{12}h^2$
Der Fehlerterm zwischen $d_h(x)$ und der exakten Ableitung $f'(x)$ ist daher:
$|d_h(x) - f'(x)| = \left| \frac{f'''(\xi_1) + f'''(\xi_2)}{12} \right| h^2$
Setzen wir $c = \frac{1}{12} \max_{\xi \in [a, b]} |f'''(\xi)|$ , da $f'''(\xi)\) in \([a, b]$ beschränkt ist, erhalten wir:
$|d_h(x) - f'(x)| \leq c h^2$
wobei $c$ eine Konstante ist, die von $f$ (insbesondere von der maximalen dritten Ableitung von $f$ in $[a, b]$) abhängt, aber nicht von $h$.
Dies zeigt, dass der Diskretisierungsfehler des zentralen Differenzenquotienten $d_h(x)$ eine Ordnung von $h^2$ hat und somit gilt:
$|d_h(x) - f'(x)| \leq c \cdot h^2$
wobei $c$ von $f$ abhängt, aber nicht von $h$.
## b
$d(h, x) = \frac{f(x + h) - f(x - h)}{2h}$
Zunächst berechnen wir die Ableitung von $d(h, x)$ nach $h$:
$\frac{\partial d(h, x)}{\partial h} = \frac{\partial}{\partial h} \left( \frac{f(x + h) - f(x - h)}{2h} \right)$
$\frac{\partial d(h, x)}{\partial h} = \frac{1}{2h} \left( f'(x + h) + f'(x - h) \right) - \frac{f(x + h) - f(x - h)}{2h^2}$
Für $h \approx 0$ können wir $f(x + h)$ und $f(x - h)$ mit Taylor-Reihenentwicklungen um $x$ darstellen:
$f(x + h) = f(x) + f'(x)h + \frac{f''(x)}{2}h^2 + \frac{f'''(\xi_1)}{6}h^3$
$f(x - h) = f(x) - f'(x)h + \frac{f''(x)}{2}h^2 - \frac{f'''(\xi_2)}{6}h^3$
Substituieren wir diese in $d(h, x)$:
$d(h, x) = \frac{\left( f(x) + f'(x)h + \frac{f''(x)}{2}h^2 + \frac{f'''(\xi_1)}{6}h^3 \right) - \left( f(x) - f'(x)h + \frac{f''(x)}{2}h^2 - \frac{f'''(\xi_2)}{6}h^3 \right)}{2h}$
$d(h, x) = \frac{2f'(x)h + \left( \frac{f'''(\xi_1)}{6}h^3 + \frac{f'''(\xi_2)}{6}h^3 \right)}{2h} = f'(x) + \frac{f'''(\xi_1) + f'''(\xi_2)}{12}h^2$
Betrachten wir die numerische Berechnung von $d(h, x)$. Wenn $h$ sehr klein wird, führen zwei Hauptprobleme zur numerischen Instabilität:
1. **Rundungsfehler bei der Berechnung von $f(x + h)$ und $f(x - h)$**:
- Wenn $h$ sehr klein ist, sind $x + h$ und $x - h$ numerisch nahe bei $x$. Dies bedeutet, dass die Berechnungen von $f(x + h)$ und $f(x - h)$ aufgrund der begrenzten Präzision der Gleitkommaarithmetik fehleranfällig sind. Die Differenz $f(x + h) - f(x - h)$ könnte sehr klein sein und durch Rundungsfehler beeinträchtigt werden.
2. **Verstärkung der Fehler durch Division durch $2h$**:
- Der zentrale Differenzenquotient enthält eine Division durch $2h$. Wenn $h$ sehr klein ist, kann diese Division Fehler verstärken, die bereits in der Berechnung von $f(x + h) - f(x - h)$ aufgetreten sind.
Formell ausgedrückt, sei $\epsilon$ die Maschinengenauigkeit und betrachte man die Fehler bei der Berechnung von $f(x + h)$ und $f(x - h)$ als:
$\tilde{f}(x + h) = f(x + h) + \delta_1$
$\tilde{f}(x - h) = f(x - h) + \delta_2$
wobei $|\delta_1| \leq \epsilon |f(x + h)|$ und $|\delta_2| \leq \epsilon |f(x - h)|$. Dann ist der berechnete Differenzenquotient:
$\tilde{d}(h, x) = \frac{\tilde{f}(x + h) - \tilde{f}(x - h)}{2h} = \frac{f(x + h) - f(x - h) + \delta_1 - \delta_2}{2h}$
Der Fehler in der Berechnung von $d(h, x)$ beträgt:
$|\tilde{d}(h, x) - d(h, x)| = \left| \frac{\delta_1 - \delta_2}{2h} \right|$
Da $\delta_1$ und $\delta_2$ proportional zu $\epsilon$ sind, und die Division durch $2h$ bei kleinem $h$ den Fehler verstärkt, ergibt sich:
$|\tilde{d}(h, x) - d(h, x)| \approx \frac{\epsilon}{h}$
Dies zeigt, dass der Fehler term $\frac{\epsilon}{h}$ bei $h \to 0$ unbeschränkt wächst, was numerische Instabilität bedeutet. Daher ist die numerische Berechnung von $d(h, x)$ für sehr kleine $h$ instabil.