Algoritma Frank–Wolfe

Dari testwiki
Loncat ke navigasi Loncat ke pencarian

Templat:Nocat Algoritma Frank–Wolfe (bahasa Inggris: Frank-Wolfe algorithm) adalah algoritma optimasi iteratif orde pertama yang digunakan untuk optimasi cembung terkendala. Juga dikenal sebagai metode gradien bersyarat,[1] algoritma gradien tereduksi, dan algoritma kombinasi cembung. Metode ini awalnya diusulkan oleh Marguerite Frank dan Philip Wolfe pada tahun 1956.[2] Dalam setiap iterasi, algoritma Frank–Wolfe mempertimbangkan hampiran linear dari fungsi objektif, dan bergerak menuju peminimalisasi fungsi linier ini (diambil dari domain yang sama).

Rumusan masalah

Misalkan 𝒟 adalah himpunan cembung kompak dalam ruang vektor dan f:𝒟 adalah fungsi terdiferensialkan bernilai riil yang konveks dan terdiferensialkan. Algoritma Frank–Wolfe memecahkan masalah optimasi

Minimasi f(𝐱)
dengan 𝐱𝒟.

Algoritma

Satu langkah dari algoritma Frank-Wolfe
Inisialisasi: Misal k0, dan 𝐱0 adalah poin sembarang pada 𝒟.
Langkah 1. Submasalah pencarian arah: Cari 𝐬k yang menyelesaikan
Minimasi 𝐬Tf(𝐱k)
dengan 𝐬𝒟
(Interpretasi: Minimasi hampiran linear dari masalah yang diberikan dari hampiran Taylor orde pertama dari f di sekitar 𝐱k yang dibatasi untuk tetap berada di dalam 𝒟)
Langkah 2. Penentuan jumlah langkah: Tetapkan α2k+2, atau dengan cara lain, mencari α yang meminimalkanf(𝐱k+α(𝐬k𝐱k)) dengan 0α1 .
Langkah 3. Perbarui: Misalkan 𝐱k+1𝐱k+α(𝐬k𝐱k), dan kk+1 kemudian kembali ke langkah 1.

Sifat-sifat

Meskipun metode yang mirip, seperti penurunan gradien untuk optimasi terkendala membutuhkan langkah proyeksi kembali ke himpunan yang layak di setiap iterasi, algoritma Frank–Wolfe hanya membutuhkan solusi masalah linear pada himpunan yang sama di setiap iterasi, dan secara otomatis tetap berada di himpunan yang layak.

Konvergensi algoritma Frank – Wolfe secara umum bersifat sublinear: galat pada fungsi objektif hingga mencapai optimal adalah O(1/k) setelah k iterasi, selama gradiennya kontinu Lipschitz terhadap suatu norma. Tingkat konvergensi yang sama juga dapat ditunjukkan jika submasalah hanya diselesaikan secara hampiran.[3]

Iterasi algoritma selalu dapat direpresentasikan sebagai kombinasi cembung jarang dari titik-titik ekstrim dari himpunan layak, yang telah membantu popularitas algoritma ini untuk optimasi greedy jarang (sparse greedy optimization) dalam pemelajaran mesin dan pemrosesan sinyal,[4] serta misalnya optimasi arus biaya minimum dalam jaringan transportasi.[5]

Jika himpunan layak diberikan oleh himpunan berkendala linier, maka submasalah yang harus diselesaikan pada setiap iterasi menjadi program linier.

Sedangkan tingkat konvergensi pada kasus terburuk dengan O(1/k) secara umum tidak dapat diperbaiki, konvergensi yang lebih cepat dapat diperoleh untuk kelas masalah khusus, seperti beberapa masalah yang sangat cembung.[6]

Batas bawah pada nilai solusi, dan analisis primal-dual

Karena f adalah fungsi konveks, untuk dua titik sembarang, 𝐱,𝐲𝒟 kita mempunyai:

f(𝐲)f(𝐱)+(𝐲𝐱)Tf(𝐱)

Hal ini juga berlaku untuk solusi optimal (yang tidak diketahui). 𝐱* . Artinya, f(𝐱*)f(𝐱)+(𝐱*𝐱)Tf(𝐱) . Batas bawah terbaik sehubungan titik tertentu 𝐱 diberikan oleh

f(𝐱*)f(𝐱)+(𝐱*𝐱)Tf(𝐱)min𝐲D{f(𝐱)+(𝐲𝐱)Tf(𝐱)}=f(𝐱)𝐱Tf(𝐱)+min𝐲D𝐲Tf(𝐱)

Masalah optimasi yang terakhir diselesaikan pada setiap iterasi algoritma Frank–Wolfe. Oleh karena itu, solusi 𝐬k dari submasalah pencarian arah dari Iterasi ke-k dapat digunakan untuk menentukan peningkatan batas bawah lk pada setiap iterasi dengan menetapkan l0= dan

lk:=max(lk1,f(𝐱k)+(𝐬k𝐱k)Tf(𝐱k))

Batas bawah pada nilai optimal yang tidak diketahui ini penting dalam praktiknya karena dapat digunakan sebagai kriteria penghentian, dan memberikan jaminan kualitas hampiran yang efisien pada setiap iterasi, karena selalu lkf(𝐱*)f(𝐱k).

Telah ditunjukkan bahwa kesenjangan dualitas ini yang sesuai, artinya perbedaan antara f(𝐱k) dan batas bawah lk, menurun dengan tingkat konvergensi yang sama, yaitu f(𝐱k)lk=O(1/k).

Catatan

Templat:Reflist

Bibliografi

Pranala eksternal

Lihat juga

Templat:Algoritma optimasi