Kurva belajar (pemelajaran mesin)

Dari testwiki
Revisi sejak 5 Januari 2025 08.03 oleh imported>HsfBot (v2.05b - Perbaikan untuk PW:CW (Referensi sebelum tanda baca))
(beda) ← Revisi sebelumnya | Revisi terkini (beda) | Revisi selanjutnya → (beda)
Loncat ke navigasi Loncat ke pencarian

Templat:Pemelajaran mesin

Kurva belajar menunjukkan skor latih dan skor validasi silang

Dalam pemelajaran mesin, suatu kurva belajar (atau kurva pelatihan, bahasa Inggris: learning curve atau training curve) adalah suatu jenis kurva yang menggambarkan nilai optimal dari fungsi rugi suatu model untuk suatu himpunan data pelatihan dan dibandingkan dengan fungsi kerugian yang sama jika dilakukan evaluasi pada suatu himpunan data validasi dengan parameter yang sama yang menghasilkan fungsi optimal tersebut.[1] Sinonimnya dari kurva belajar ini, meliputi kurva galat (error curve), kurva perkembangan (improvement curve), dan kurva generalisasi (generalization curve).

Definisi lebih abstrak dari kurva belajar, adalah kurva dari (usaha pemelajaran atau learning effort)-(kinerja prediktif atau predictive performance), di mana biasanya usaha pemelajaran berarti jumlah sampel latih dan kinerja prediktif berarti akurasi pada sampel uji.[2]

Kurva belajar dalam pemelajaran mesin bermanfaat untuk berbagai tujuan, termasuk membandingkan berbagai algoritma,[3] memilih parameter model selama desain,[4] menyesuaikan optimisasi untuk meningkatkan konvergensi, dan menentukan jumlah data yang digunakan untuk pelatihan.[5]

Definisi formal

Salah satu model pemelajaran mesin menghasilkan suatu fungsi, Templat:Math, yang memberikan beberapa informasi, Templat:Math, yang memprediksi suatu variabel, Templat:Math, dari data latih Xlatih and Ylatih.Ini berbeda denganoptimisasi matematika karena f harus dapat melakukan prediksi dengan baik untuk x di luar Xlatih.

Seringkali kita membatasi fungsi-fungsi yang mungkin menjadi keluarga fungsi parameterized, {fθ(x):θΘ}, agar fungsi kita lebih dapat digeneralisasi[6] atau agar fungsi tersebut memiliki properti tertentu, seperti properti yang membuat pencarian f yang baik lebih mudah, atau karena kita memiliki alasan a priori untuk percaya bahwa properti-properti ini benar.[6]Templat:Refpage

Diberikan bahwa tidak mungkin menghasilkan fungsi yang sempurna sesuai dengan data kita, maka perlu untuk menghasilkan fungsi kerugian L(fθ(X),Y) untuk mengukur seberapa baik prediksi kita. Kemudian kita mendefinisikan proses optimisasi yang menemukan suatu θ yang meminimalkan L(fθ(X,Y)) yang disebut sebagai θ*(X,Y) .

Kurva latih untuk jumlah data

Lalu jika data latih kita adalah {x1,x2,,xn},{y1,y2,yn} dan data uji kita adalah {x1,x2,xm},{y1,y2,ym} suatu kurva belajar adalah plot dari dua kurva

  1. iL(fθ*(Xi,Yi)(Xi),Yi)
  2. iL(fθ*(Xi,Yi)(Xi),Yi)

di mana Xi={x1,x2,xi}

Kurva latih untuk jumlah iterasi

Banyak proses optimisasi bersifat iteratif, mengulangi langkah yang sama hingga proses tersebut konvergen ke nilai optimal. Penurunan gradien dalah salah satu algoritma tersebut. Jika Anda mendefinisikan θi* sebagai aproksimasi optimal dari θ setelah langkah i, sebuah kurva belajar adalah plot dari

  1. iL(fθi*(X,Y)(X),Y)
  2. iL(fθi*(X,Y)(X),Y)

Memilih banyaknya data uji

Kurva belajar digunakan untuk menilai seberapa besar keuntungan yang diperoleh oleh model mesin dengan menambahkan lebih banyak data latih dan apakah estimator tersebut lebih rentan terhadap kesalahan variansi atau kesalahan bias. Jika baik skor validasi maupun skor pelatihan konvergen ke nilai yang terlalu rendah dengan peningkatan ukuran himpunan latih, model tidak akan banyak mendapat keuntungan dari penambahan data pelatihan lebih lanjut.[7]

Dalam domain pemelajaran mesin, terdapat dua implikasi dari kurva belajar yang berbeda dalam kurva sumbu-x, dengan pengalaman model yang digambarkan baik sebagai jumlah contoh latih yang digunakan untuk pemelajaran atau jumlah iterasi yang digunakan dalam melatih model.[8]

Lihat juga

Referensi

Templat:Reflist