# Bab 3. Curve Fitting https://ua.pressbooks.pub/collegealgebraformanagerialscience/chapter/3-5-determinants-and-cramers-rule/ ## 3.0 Pengantar Sensus penduduk di Amerika Serikat dilakukan setiap 10 tahun sekali. Tabel berikut mendaftar populasi, dalam ribuan orang, dari 1950 sampai dengan 2000. ![](https://i.imgur.com/7qOveQ8.png) Gambar berikut merepresentasikan data populasi pada tabel di atas. Dalam mempelajari data ini, kita mungkin bertanya apakah kita ## 3.1 Interpolasi dan Polinomial Lagrange Salah satu **Teorema 3.1 (Teorema Aproksimasi Weierstass)** Misal fungsi $f$ didefinisikan dan kontinyu pada $[a, b]$. Untuk setiap $\epsilon > 0$, terdapat sebuah polinomial $P(x)$ yang memenuhi $$ |f(x) - P(x)| < \epsilon, \text{untuk setiap } x \text{ dalam } [a, b]. $$ Bukti dari Teorema 3.1 di atas dapat ditemukan pada sebagian besar teks pada analisa riil (sebagai contoh [Bart], hal. 165-172). Alasan penting lain untuk mempertimbangkan keluarga polinomial dalam aproksimasi fungsi adalah turunan dan integral tak tentu dari polinomial mudah untuk dicari dan juga berupa polinomial. Untuk alasan ini, polinomial sering digunakan untuk meng-aproksimasi fungsi kontinyu. Polinomial Taylor di ... ## 3.2 Regresi Linear Regresi Linear adalah bentuk paling sederhana dari regresi least-squares yang melibatkan pencarian sebuah garis lurus (fungsi linear) dalam bentuk $$ y = a_1x + a_0 \tag{3.1} $$ yang paling pas merepresentasikan himpunan $n$ titik data $(x_1, y_1), ..., (x_n, y_n)$. Gambar x.x mengilustrasikan regresi linier. ![](https://i.imgur.com/isSw3c2.png) Pada setiap titik, $(x_i, y_i)$, error $e_i$ didefinisikan sebagai selisih antara nilai sebenarnya $y_i$ dan aproksimasi nilai $a_1x_i + a_0$, yaitu $$ e_i = y_i - (a_1x_i + a_0) \tag{3.2} $$ Error setiap titik akan digunakan untuk menghitung error total yang terkait dengan garis $y = a_1x + a_0$. ### 3.2.1 Menentukan Kriteria "Paling" Pas Strategi-strategi berbeda dapat dipertimbangkan untuk menentukan fungsi linier terbaik yang pas dengan himpunan $n$ titik data $(x_1, y_1), ..., (x_n, y_n)$. Salah satunya adalah dengan meminimasi penjumlahan dari semua error-error pada setiap titik, yaitu $$ E = \sum_{i=1}^n e_i = \sum_{i=1}^n [y_i -(a_1x_i + a_0)] \tag{3.x} \label{Pers3.x} $$ Kriteria $(\ref{Pers3.x})$, sayangnya tidak memberikan pengukuran yang baik mengenai bagaimana garis regresi pas dengan data, karena kriteria ini memungkinkan nilai positif dan negatif unutk error-error individu sehingga dapat memberikan hasil penjumlahan nol meskipun untuk error yang sangat besar. Strategi lain adalah dengan meminimisasi jumlah dari nilai-nilai absolut dari setiap error, $$ E = \sum_{i=1}^n |e_i| = \sum_{i=1}^n |y_i -(a_1x_i + a_0)| $$ Dengan Kriteria Persamaan (x.x), tidak ada lagi nilai-nilai error individu yang /// jelaskan ini dapat menghasilkan Salah satu strategi lain adalah dengan meminimiasasi jumlah dari pangkat dua error-error setiap titik, yaitu dengan meminimisasi $$ E = \sum_{i=1}^n e_i^2 = \sum_{i=1}^n [y_i -(a_1x_i + a_0)]^2 \tag{3.2}\label{Pers3.2} $$ Kriteria ini mempunyai sejujmlah kelebihan termasuk menghasilkan sebuah garis yang unik untuk sebuah himpunan titik data. Sebelum kita membahas sifat-sifatnya, kita akan membahas teknik untuk menentukan nilai $a_0$ dan $a_1$ yang meminimiasasi Persamaan $(\ref{Pers3.2})$. ### 3.2.2 Garis Lurus yang Pas Berdasarkan Least Squares Untuk menentukan nilai koefisien $a_0$ dan $a_1$, kita terlebih dahulu mencari derivatif parsial Persamaan $(\ref{Pers3.2})$ terhadap masing-masing koefisien: $$ \frac {\partial E}{\partial a_0} = - 2 \sum [y_i - (a_1x_i + a_0)] $$ $$ \frac {\partial E}{\partial a_1} = - 2 \sum x_i[y_i - (a_1x_i + a_0)] $$ Perhatikan bahwa kita telah menyederhanakan simbol penjumlahan. // Tetapkan dua derivatif di atas sama dengan nol akan menghasilkan nilai minimum dari $E$. Sehingga kita akan mendapatkan dua persamaan berikut $$ 0 = \sum y_i - \sum a_0 - \sum a_ix_i $$ $$ 0 = \sum y_ix_i - \sum a_0x_i - \sum a_1x_i^2 $$ Karena $\sum a_0 = na_0$, kita dapat mengekspresikan kedua persamaan di atas sebagai sistem persamaan linier dengan dua tidak diketahui ($a_0$ dan $a_1$): $$ na_0 + \Big(\sum x_i \Big)a_1 = \sum y_i $$ Selanjutnya kita perlu menentukan bagaimana cara mencari nilai koefisien $a_1$ dan $a_0$. Perhatikan bahwa $E$ adalah fungsi non-linier dari $a_0$ dan $a_1$ dan mencapai nilai maksimumnya ketika $\frac {\partial E}{\partial a_0} = 0$ dan $\frac {\partial E}{\partial a_1} = 0$, yaitu $$ \frac {\partial E}{\partial a_0} = - 2 \sum_{i=1}^n [y_i - (a_1x_i + a_0)] = 0 \quad \Rightarrow \quad \sum_{i=1}^n [y_i - (a_1x_i + a_0)] = 0 \tag{3.3} $$ $$ \frac {\partial E}{\partial a_1} = - 2 \sum_{i=1}^n x_i[y_i - (a_1x_i + a_0)] = 0 \quad \Rightarrow \quad \sum_{i=1}^n x_i[y_i - (a_1x_i + a_0)] = 0 \tag{3.4} $$ Persamaan (3.3) dan (3.4) menghasilkan sistem dua persamaan linear untuk dua variabel tidak diketahui, $a_0$ dan $a_1$: $$ na_0 + \Big({\sum_{i=1}^n x_i}\Big)a_1 = \sum_{i=1}^n y_i \tag{} $$ $$ \Big( $$ Pada persamaan di atas Karena $\sum_{i=1}^n a_0 = na_0$, maka --- **Contoh 3.1** Perhatikan data pada tabel di bawah. ![](https://i.imgur.com/wFzBHqX.png) Cari persamaan garis lurus menggunakan regresi least-square yang paling pas dengan data. **Solusi** Dari data, dapat kita lihat bahwa $n = 6$. Pertama kita menghitung semua penjumlahan-penjumlahan pada Persamaan 3.3: $$ $$ ### 3.3.3 Error dari Linier Regresi ### 3.3.3 Program Komputer untuk Regresi Linear Least Squares --- ```python! def linear_regresi(p: np.array): ``` ### Linearisasi dari Data Nonlinear Regresi Linier adalah metode yang sangat mumpuni untuk mengepas garis yang terbaik terhdap titik-titik data. Namun, metodde tersebut mensyaratkan keterhubungan antara variabel dependen dan independen dari data adalah linier. Dalam beberapa kasus, kita menemui keterhubungan ini tidaklah linier. Langkah pertama dari analisa regresi adalah dengan memeriksa secara visual grafik dari data untuk memastikan apakah model linier dapat diterapkan. Sebagai contoh, Gambar x.x menunjukkan data yang tidak linier. ![](https://i.imgur.com/GLVDMRo.png) Da ## Regresi Polinomial Data yang mempunyai pola yang tidak linie.... Alternatif lain dari pengepasan kurva polimial terhadap data dengan menggunakan regresi polinomial. Pada regresi polinomial, kita mengepaskan data dengan sebuah polinomial ordo-2 atau disebut juga dengan polinomial kuadratik: $$ y = a_0 + a_1x + a_2 x^2 + e $$ Jumlah pangkat dua dari setiap error individe adalah $$ E = $$ ### Regresi Least-Squares Kuadratik ### Regresi Kubik