Pemelajaran mesin daring

Dari testwiki
Loncat ke navigasi Loncat ke pencarian

Templat:Confuse Templat:Short description Templat:Pemelajaran mesin Dalam ilmu komputer, pemelajaran mesin daring (bahasa Inggris: online machine learning atau online learning) adalah suatu paradigma dalam pemelajaran mesin yang menekankan pembaruan atau penyesuaian model secara dinamis seiring dengan masuknya data baru secara real-time.[1] Dalam metode ini, pemelajar bertujuan untuk mempelajari dan meningkatkan prediktor terbaik untuk data masa depan pada setiap langkah, berbeda dengan pemelajaran lompok (batch learning) yang menggunakan seluruh himpunan data pelatihan sekaligus. Pemelajaran mesin daring umumnya digunakan ketika tidak memungkinkan secara komputasional untuk melakukan proses pelatihan di keseluruhan data himpunan sehingga memerlukan algoritma out-of-core. Selain itu, metode ini juga diterapkan dalam kondisi ketika algoritma perlu beradaptasi secara dinamis dengan pola-pola baru dalam data, atau ketika data itu sendiri dihasilkan sebagai fungsi waktu, misalnya, prediksi harga saham. Namun, perlu dicatat bahwa algoritma pemelajaran daring dapat menghadapi tantangan seperti catastrophic interference, suatu fenomena dengan pemelajaran informasi baru menghapus pengetahuan yang sudah diperoleh sebelumnya. Masalah ini dapat diatasi dengan menggunakan pendekatan incremental learning, memungkinkan algoritma untuk belajar dan beradaptasi secara iteratif tanpa mengakibatkan gangguan yang signifikan pada pola-pola yang telah dipelajari sebelumnya.

Pengenalan

Dalam konteks paradigma pemelajaran terarah, fungsi yang akan dipelajari oleh model adalah f:XY dengan X sebagai ruang masukan (input) dan Y sebagai label atau ruang keluaran (output). Fungsi ini diharapkan dapat memprediksi dengan baik titik-titik data yang diambil dari distribusi probabilitas bersama p(x,y) pada X×Y. Namun dalam kenyataannya, pemelajar atau model tidak mengetahui true distribution p(x,y) terhadap titik-titik data dan biasanya hanya mengakses himpunan pelatihan yang berisi titik-titik data (x1,y1),,(xn,yn). Untuk mengukur seberapa baik prediksi model, digunakan fungsi kerugian V:Y×Yℝ, yang memberikan nilai dari selisih antara prediksi f(x) dan nilai sebenarnya y. Ide utamanya adalah mengubah parameter dalam fungsi f sedemikian rupa sehingga kesalahan (loss) pada himpunan data pelatihan menjadi sekecil mungkin. Dengan cara ini, model dapat memberikan prediksi yang lebih akurat pada data yang belum pernah dilihat sebelumnya. Bergantung pada jenis model yang digunakan, baik itu bersifat statistis maupun adversarial, dapat dirancang berbagai konsep kerugian (loss) yang mengarah pada algoritma pembelajaran yang berbeda.

Pandangan statistik pemelajaran daring

Dalam model pemelajaran statistik, sampel pelatihan (xi,yi) diasumsikan diambil dari true distribution p(x,y) dengan tujuan meminimalkan "risiko" harapan

I[f]=𝔼[V(f(x),y)]=V(f(x),y)dp(x,y) .

Pendekatan yang umum digunakan di situasi ini adalah memperkirakan sebuah fungsi f^ melalui minimasi risiko empiris atau minimasi risiko empiris yang teregularisasi (biasanya regularisasi Tikhonov). Pemilihan fungsi kerugian di sini menyebabkan munculnya beberapa algoritma terkenal, seperti algoritma least squares yang teregularisasi dan support-vector machines.

Model pembelajaran daring murni dalam kategori ini akan belajar hanya berdasarkan input baru (xt+1,yt+1), prediktor terbaik saat ini ft, dan beberapa informasi tambahan yang disimpan (yang biasanya diharapkan memiliki kebutuhan penyimpanan yang independen dari ukuran data pelatihan). Untuk beberapa formulasi, misalnya metode kernel, pemelajaran daring murni tidak mungkin dilakukan. Namun, terdapat suatu bentuk pemelajaran daring campuran dengan menggunakan algoritma rekursif dengan ft+1 diperbolehkan bergantung pada ft dan semua titik data sebelumnya (x1,y1),,(xt,yt). Dalam kasus ini, kebutuhan ruang penyimpanan tidak lagi dapat dijamin bernilai konstan karena ruang penyimpanan tersebut memerlukan penyimpanan titik-titik data sebelumnya. Namun, solusi ini mungkin saja membutuhkan waktu komputasi yang lebih sedikit jika dibandingkan dengan teknik pemelajaran lompok (batch learning).

Strategi yang umumnya digunakan untuk menyelesaikan permasalahan di atas adalah dengan belajar menggunakan kelompok kecil (mini-batch) yang memproses sebuah kelompok kecil dari b1 titik-titik data dalam satu waktu. Strategi ini bisa dianggap sebagai pemelajaran daring semu (pseudo-online) untuk b yang jauh lebih kecil dari total jumlah data pelatihan. Teknik ini biasanya digunakan dengan memanggil berulang pada data pelatihan untuk mendapatkan versi out-of-core yang teroptimasi dari algoritma pemelajaran mesin, seperti penurunan gradien stokastik yang ketika digabungkan dengan perambatan mundur, merupakan strategi metode pelatihan de facto untuk jaringan saraf tiruan.

Contoh: linear least squares

Templat:Main Contoh sederhana dari linear least squares digunakan untuk menjelaskan berbagai konsep dalam pemelajaran daring. Konsep-konsep tersebut cukup umum sehingga dapat diterapkan pada pendekatan lain. Contohnya, dengan fungsi kerugian konveks yang berbeda.

Pemelajaran batch

Pertimbangkan terdapat fungsi linear f dalam pemelajaran diawasi yang akan dipelajari:

f(xj)=w,xj=wxj

dengan xjℝd adalah vektor masukan (titik-titik data atau data points) dan wℝd adalah vektor filter linear. Di sini tujuan yang ingin dicapai adalah menghitung vektor filter w dengan fungsi kerugian kuadrat (square loss function):

V(f(xj),yj)=(f(xj)yj)2=(w,xjyj)2

Fungsi tersebut digunakan untuk menghitung vektor w yang meminimalkan kerugian empiris:

In[w]=j=1nV(w,xj,yj)=j=1n(xjTwyj)2

dengan

yjℝ.

Di sini, yj adalah nilai target yang bersesuaian dengan masukan xj dan berada di ruang ℝ.

Misal, X adalah matriks data berukuran i×d dan yℝi adalah kolom nilai target setelah kedatangan i titik-titik data. Asumsikan matriks kovarian Σi=XTX dapat diinvers (jika tidak, pendekatan dengan regularisasi Tikhonov lebih disukai), solusi terbaik f*(x)=w*,x untuk masalah linear least squares diberikan oleh

w*=(XTX)1XTy=Σi1j=1ixjyj.

Sekarang, perhitungan kovarian matriks Σi=j=1ixjxjT memerlukan waktu O(id2), menginverskan matriks d×d memerlukan waktu O(d3), sementara perkalian sisanya memerlukan waktu O(d2), memberikan total waktu yang diperlukan sebesar O(id2+d3). Ketika terdapat total n titik di himpunan data, untuk menghitung ulang solusi setelah kedatangan dari setiap titik data i=1,,n, pendekatan naif akan membutuhkan waktu O(n2d2+nd3). Di sini bisa dilakukan alternatif dengan menyimpan matriks Σi, kemudian memperbarui solusi dengan menambahkan xi+1xi+1T setiap kali kedatangan titik data baru, dapat menurunkan kompleksitas menjadi O(d2). Pendekatan ini menurunkan kompleksitas waktu secara keseluruhan menjadi O(nd2+nd3)=O(nd3), tetapi dengan tambahan penyimpanan sebesar O(d2) untuk Σi.[2]

Pemelajaran daring dengan least squares rekursif

Algoritma Recursive Least Squares (RLS) merupakan pendekatan daring (online approach) terhadap masalah least squares. Algoritma ini memungkinkan untuk menghitung solusi dari masalah least squares secara bertahap dengan memperbarui solusi setiap kali ada datapoint baru. Hal tersebut dapat ditunjukkan dengan menginisialisasi

w0=0ℝd dan Γ0=Iℝd×d

dengan I adalah matriks identitas.

Di setiap iterasi ke-i, algoritma akan menghitung Γi dan wi dengan memperbarui solusi dari iterasi sebelumnya.

Solusi dari masalah linear least square yang diberikan pada bagian sebelumnya dapat dihitung dengan iterasi berikut:

Γi=Γi1Γi1xixiTΓi11+xiTΓi1xi

dengan xi merupakan vektor masukan dari datapoint ke-i dan Γi1 merupakan matriks kovarian dari iterasi sebelumnya. Adapun untuk vektor bobot wi diperbarui dengan rumus

wi=wi1Γixi(xiTwi1yi)

dengan yi adalah nilai target yang sesuai dengan datapoint ke-i.

Algoritma iterasi di atas dibuktikan dengan menggunakan induksi pada i.[3] Pembuktian tersebut juga menyatakan bahwa Γi=Σi1. Algoritma RLS juga dapat dinilai dalam konteks filter adaptif (lihat RLS).

Kompleksitas waktu untuk n langkah dari algoritma ini adalah O(nd2), yang jauh lebih cepat daripada kompleksitas pemelajaran batch yang sesuai. Di setiap langkah i, perlu menyimpan matriks Γi, keperluan penyimpanan ini konstan pada O(d2). Untuk kasus ketika matriks kovarian Σi tidak bisa diinvers, algoritma dapat disesuaikan dengan menggunakan versi teregulasi dari fungsi kerugian j=1n(xjTwyj)2+λ||w||22. Kemudian, akan mudah menunjukkan algoritma yang sama dapat bekerja dengan Γ0=(I+λI)1 dan ketika iterasi berlangsung akan menghasilkan Γi=(Σi+λI)1.[2]

Stochastic gradient descent

Templat:Main Ketika formula berikut

wi=wi1Γixi(xiTwi1yi)

diganti dengan

wi=wi1γixi(xiTwi1yi)=wi1γiV(wi1,xi,yi)

atau Γiℝd×d dengan γiℝ, maka algoritma tersebut berubah menjadi algoritma stochastic gradient descent (SGD). Dalam kasus ini, kompleksitas waktu untuk langkah n berkurang menjadi O(nd) dan kebutuhan ruang untuk setiap langkah i adalah konstan di O(d).

Meskipun begitu, besarnya langkah γi harus dipilih dengan hati-hati untuk menyelesaikan masalah minimasi risiko harapan, sebagaimana yang telah dijelaskan di atas. Dengan memilih besar langkah peluruhan γi1i, didapatkan pembuktian konvergensi dari iterasi rata-rata wn=1ni=1nwi. Skema ini merupakan salah satu kasus khusus dari optimasi stokastik yang mana merupakan salah satu masalah optimasi terkenal.[2]

Incremental stochastic gradient descent

Dalam praktiknya, seseorang dapat melakukan pemanggilan beberapa SGD (juga dinamakan sebagai siklus atau epoch) pada data. Algoritma yang kemudian didapatkan tersebut dinamakan sebagai incremental stochastic gradient descent dan mengikut pada iterasi

wi=wi1γiV(wi1,xti,yti)

Perbedaan utama algoritma ini dengan SGD adalah pada algoritma ini terdapat sebuah sekuens ti yang dipilih untuk memutuskan titik pelatihan mana yang akan dikunjungi pada langkah ke-i yang mana sekuens ini dapat bersifat stokastik atau deterministik. Banyaknya iterasi kemudian dipisah menjadi banyak titik (tiap titik dapat dipertimbangkan lebih dari sekali). Algoritma ini dapat ditunjukkan mampu memberikan minimasi pada risiko empiris.[4] Incremental techniques can be advantageous when considering objective functions made up of a sum of many terms e.g. an empirical error corresponding to a very large dataset.[2]

Metode kernel

Templat:See also Kernel dapat digunakan untuk memperluas algoritma-algoritma di atas menjadi model non-parameter (atau model yang parameter-parameternya membentuk sebuah ruang dimensi tak terhingga). Metode ini tidak bisa lagi bisa disebut sebagai pemelajaran daring penuh karena melibatkan penyimpanan seluruh titik data. Meskipun begitu, metode ini lebih cepat daripada metode brute-force. Metode kernel ini dapat digunakan untuk seluruh loss conveks yang lain, tetapi pada bagian ini pembahasan dibataskan pada square loss. Penerapan metode kernel pada square loss ditunjukkan dengan sebuah induksi sederhana[2] yang jika Xi adalah matriks data dan wi adalah keluaran setelah langkah i dari algoritma SGD, maka,

wi=XiTci

dengan ci=((ci)1,(ci)2,...,(ci)i)ℝi dan sekuens ci memenuhi rekursi:

c0=0
(ci)j=(ci1)j,j=1,2,...,i1 dan
(ci)i=γi(yij=1i1(ci1)jxj,xi)

Perhatikan bahwa di sini xj,xi hanyalah kernel standar pada ℝd, dan prediktornya didapatkan dari bentuk

fi(x)=wi1,x=j=1i1(ci1)jxj,x.

Misalkan, jika suatu kernel umum K diperkenalkan dan prediktornya adalah

fi(x)=j=1i1(ci1)jK(xj,x)

maka pembuktian yang sama juga akan menunjukkan bahwa prediktor dapat melakukan minimasi pada least square loss dengan mengganti rekursif di atas menjadi

(ci)i=γi(yij=1i1(ci1)jK(xj,xi))

Rumus di atas membutuhkan penyimpanan seluruh data untuk memperbarui ci. Total kompleksitas waktu untuk rekursi di atas ketika mengevaluasi titik data ke-n adalah O(n2dk), dengan k adalah biaya yang diperlukan untuk mengevaluasi kernel dari sepasang titik.[2] Maka, dengan penggunaan kernel di atas menjadikan pergerakan dari suatu dimensi terbatas wiℝd menjadi sebuah kemungkinan fitur dimensi tak terbatas yang direpresentasikan oleh sebuah kernel K dengan melakukan rekursi di ruang parameterciℝi, yang mana dimensi di sini memiliki besar yang sama dengan himpunan data pelatihan. Secara umum, ini adalah suatu akibat dari representer theorem.[2]

Online convex optimization

Online convex optimization (OCO) [5] adalah kerangka kerja umum (framework) untuk pengambilan keputusan yang memanfaatkan convex optimization untuk menghasilkan algoritma yang efisien. Kerangka kerja ini mengikuti pola permainan (game playing berulang, sebagai berikut: Untuk t=1,2,...,T

  • Pemelajar menerima masukan xt
  • Pemelajar menghasilkan keluaran wt dari sebuah himpunan konveks tetap S
  • Nature (alam) mengirimkan balik fungsi kerugian konveks vt:Sℝ.
  • Pemelajar mengalami kerugian vt(wt) dan memperbarui modelnya

Tujuan dari OCO adalah meminimalkan regret, yaitu selisih antara akumulasi kerugian dan kerugian yang didapatkan dari titik tetap terbaik (best fixed point) uS yang dapat dipilh dalam pengamatan kembali. Sebagai contoh, pertimbangkan kasus regresi linear least squares. Di sini, vektor weight didapatkan dari himpunan konveks S=ℝd, dan nature (alam) mengirimkan balik fungsi kerugian konveks vt(w)=(w,xtyt)2. Perhatikan bahwa di sini yt dikirim secara implisit dengan vt.

Akan tetapi, beberapa masalah prediksi daring tidak cocok dimasukkan ke dalam kerangka kerja OCO ini. Sebagai contoh, dalam klasifikasi daring, domain klaisifikasi dan fungsi kerugian, keduanya tidak bersifat konveks. Oleh karena itu, di kasus ini, teknik sederhana untuk konveksifikasi digunakan, yaitu randomisasi dan fungsi kerugian pengganti Templat:Citation needed.

Beberapa algoritma sederhana dalam optimisasi konveks, antara lain:

Follow the leader (FTL)

Algoritma sederhana dalam optimisasi konveks yang pertama adalah Follow the Leader (FTL) yang merupakan teknik yang paling sederhana dengan hanya memilih (pada langkah saat ini) hipotesis yang memiliki kerugian paling sedikit sepanjang iterasi sebelumnya. Algoritma ini disebut Follow the Leader, dan iterasi atau round t dihitung sebagai berikut:

wt=argminwSi=1t1vi(w)

Dengan kata lain, pada setiap langkah, kita memilih hipotesis wt yang meminimalkan total kerugian sepanjang iterasi sebelumnya. Metode ini dapat dianggap sebagai algoritma serakah (greedy algorithm) karena setiap keputusan diambil dengan tujuan meminimalkan kerugian yang telah terjadi.

Pada kasus optimasi online quadratic yang fungsi kerugiannya adalah vt(w)=||wxt||22), dapat ditunjukkan bahwa terdapat batas regret yang naik sebanding log(T). Namun, batas serupa tidak dapat didapatkan oleh algoritma FTL pada keluarga model penting lainnya, seperti optimisasi linear online. Untuk mencapai batasan tersebut, FTL perlu dimodifikasi dengan menambahkan regularisasi.

Follow the regularised leader (FTRL)

FTRL adalah modifikasi dari FTL yang dimaksudkan untuk menstabilkan solusi yang didapatkan dari FTL dan mendapatkan batas regret yang lebih baik. Sebuah fungsi regularisasi R:Sℝ dipilih dan pemelajaran dilakukan pada iterasi Templat:Mvar sebagai berikut:

wt=argminwSi=1t1vi(w)+R(w)

Sebagai contoh khusus, pertimbangkan kasus online linear optimisation , yaitu ketika alam mengirimkan kembali fungsi kerugian dalam bentuk vt(w)=w,zt dan S=ℝd. Misal, fungsi regularisasi R(w)=12η||w||22 dipilih untuk suatu bilangan positif η. Maka, dapat ditunjukkan bahwa iterasi yang meminimalkan regret menjadi

wt+1=ηi=1tzi=wtηzt

Perhatikan bahwa ini dapat ditulis ulang sebagai wt+1=wtηvt(wt) yang ini persis sama dengan SGD sebelumnya.

Jika Templat:Mvar adalah sebuah subruang konveks dari ℝd, Templat:Mvar harus diproyeksikan ke, yang akhirnya mengarah kepada modikasi aturan pembaruan

wt+1=ΠS(ηi=1tzi)=ΠS(ηθt+1)

Algoritma ini dikenal sebagai lazy projection, karena vektor θt+1 mengakumulasi gradien. Algoritma ini juga dikenal sebagai Nesterov's dual averaging algorithm. Dalam skenario fungsi kerugian linier (linear loss functions) dan regularisasi kuadratik (quadratic regularisation) ini, regret dibatasi oleh O(T). Dengan demikian, rata-rata regret menuju kepada Templat:Mvar sesuai yang diinginkan.

Online subgradient descent (OSD)

Templat:See also Di atas telah dibuktikan sebuah batas regret untuk fungsi kerugian linear vt(w)=w,zt. Maka untuk menggeneralisasi algoritma sehingga dapat berlaku untuk semua fungsi kerugian konveks, subgradien vt(wt) dari vt digunakan sebagai suatu aproksimasi linear terhadap vt dekat wt yang kemudian menagrah kepada algoritma OSD:

Inisialisasi parameter η,w1=0

Untuk t=1,2,...,T

  • Lakukan prediksi menggunakan wt, menerima ft dari nature.
  • Pilih ztvt(wt)
  • Jika S=ℝd, perbarui sampai wt+1=wtηzt
  • Jika Sℝd, proyeksikan gradien akumulatif kepada S i.e. wt+1=ΠS(ηθt+1),θt+1=θt+zt

OSD dapat digunakan untuk menurunkan O(T) iterasi bound untuk versi dari dari SVM untuk klasifikasi yang menggunakan kerugian hinge vt(w)=max{0,1yt(wxt)}

Algoritma lainnya

Algoritma FTRL yang teregularisi secara kuadratik menyebabkan algoritma gradien menjadi diproyeksikan secara "malas" seperti yang dijelaskan di atas. Untuk mengimplementasikan cara di atas untuk fungsi konveks dan regularisator sembarang, dapat digunakan online mirror descent. Regularisasi optimal nantinya dapat diturunkan untuk fungsi kerugian linier yang kemudian mengarah kepada algoritma AdaGrad. Untuk regularisasi Euclidean, dapat ditunjukkan batas regret O(T), yang dapat diperbaiki lebih lanjut menjadi O(logT) untuk fungsi kerugian konveks dan exp-concave yang sangat kuat.

Pemelajaran yang berkelanjutan

Pemelajaran berkelanjutan atau continual learning berarti terus meningkatkan model yang dipelajari dengan cara memproses aliran informasi yang terus menerus berubah.[6] Kemampuan pembelajaran berkelanjutan sangat penting untuk sistem perangkat lunak dan agen otonom yang berinteraksi di dunia nyata yang terus berubah. Namun, pemelajaran berkelanjutan merupakan tantangan bagi pemelajaran mesin dan model jaringan syaraf karena akuisisi informasi yang tersedia secara bertahap dari distribusi data non-stasioner secara umum mengarah pada catastrophic forgetting.

Interpretasi pemelajaran daring

Paradigma pemeelajaran online memiliki interpretasi yang berbeda, tergantung dengan pilihan model pemelajaran, yang masing-masing memiliki implikasi yang berbeda terkait kualitas prediksi dari barisan fungsi f1,f2,,fn. Algoritma prototipe stochastic gradient descent digunakan untuk diskusi ini. Seperti yang telah disebutkan di atas, rekursinya diberikan oleh

wt=wt1γtV(wt1,xt,yt)

Interpretasi pertama mempertimbangkan metode stochastic gradient descent yang diterapkan pada masalah minimasi risiko harapan I[w] yang telah didefinisikan di atas.[7] Memang, dalam kasus aliran data yang tak terbatas, karena contoh (x1,y1),(x2,y2), diasumsikan diambil secara independen dan terdistribusi secara identik (i.i.d.) dari distribusi p(x,y), barisan gradien dari V(,) pada iterasi di atas merupakan contoh i.i.d. sampel estimasi stokastik dari gradien risiko harapan I[w]. Oleh karena itu, didapatkan hasil kompleksitas untuk metode SGD untuk mengikat deviasi I[wt]I[w] yang w adalah minimasi I[w].[8] Interpretasi ini juga berlaku dalam kasus himpunan pelatihan yang terbatas; meskipun dengan beberapa kali melakukan panggilan terhadap data, gradien tidak lagi independen sehingga tetap saja hasil yang kompleks dapat diperoleh dalam kasus-kasus khusus.

Interpretasi kedua berlaku untuk kasus himpunan pelatihan yang terbatas dan menganggap algoritma SGD sebagai contoh dari metode incremental gradient descent.[4] Dalam kasus ini, kita akan melihat risiko empiris:

In[w]=1ni=1nV(w,xi,yi) .

Karena gradien V(,) terdapat dalam iterasi incremental SGD yang merupakan estimasi stokastik dari gradien In[w], interpretasi ini juga terkait dengan metode SGD, tetapi diterapkan untuk meminimalkan risiko empiris dan bukan risiko harapan. Karena interpretasi ini berkaitan dengan risiko empiris dan bukan risiko harapan, beberapa lintasan melalui data dapat dengan mudah diizinkan dan benar-benar mengarah pada batas yang lebih ketat pada penyimpangan In[wt]In[wn] dengan wn adalah peminimalisasi dari In[w].

Implementasi

Lihat juga

Paradigma pemelajaran

Algoritma umum

Model pemelajaran


Referensi

  1. ↑ Templat:Cite journal
  2. ↑ 2,0 2,1 2,2 2,3 2,4 2,5 2,6 L. Rosasco, T. Poggio, Machine Learning: a Regularization Approach, MIT-9.520 Lectures Notes, Manuscript, Dec. 2015. Chapter 7 - Online Learning
  3. ↑ Templat:Cite book
  4. ↑ 4,0 4,1 Bertsekas, D. P. (2011). Incremental gradient, subgradient, and proximal methods for convex optimization: a survey. Optimization for Machine Learning, 85.
  5. ↑ Templat:Cite book
  6. ↑ Templat:Cite journal
  7. ↑ Templat:Cite book
  8. ↑ Stochastic Approximation Algorithms and Applications, Harold J. Kushner and G. George Yin, New York: Springer-Verlag, 1997. Templat:ISBN; 2nd ed., titled Stochastic Approximation and Recursive Algorithms and Applications, 2003, Templat:ISBN.

Pranala luar