Perceptron Learning Algorithm

在開始用數學工具幫助我們理解為何可以學習前, 這裡先介紹一種簡單的機器學習演算法, 並在後續透過這個例子來加入數學工具分析 Machine Learning 的限制。

首先介紹一組 Hypothesis Set 的定義方式稱作 Perceptron 來求一個是非題的解, 數學上的符號如下

(令 x 為 d 維度的 input, w 為 d 維度的權重值)

Hypothesis Set = {w1, w2, ... w}

Σ (i=1~d) wixi (再定義出一個 threshold 來二分這是非題的結果, y = {+1 , -1})

h(x) = sign ( Σ (i=1~d) wixi - threshold )

令 w0 為 -threshold、x0 為 1, 則化簡如下

h(x) = sign ( Σ (i=0~d) wixi ) = sign (wTx)

相當於取 w 與 x 兩個 d+1 維, 向量內積的正負值。

目標是從 Hypothesis Set 中挑選出最接近 f 的 g, 而這最接近的定義為在已經看過的資料中可以產出愈相同的 output , 但實際上整個 H 是一個無限大的集合, 所以 PLA (Perceptron Learning Algorithm) 的想法是嘗試先從中挑選出第一個 g0 (或稱 w0), 並不斷的在錯誤中修正。

演算法

  • Step1. If, sign (wTxn(t)) ≠ yn(t)

hypothesis 計算的結果與資料中的不符, yn(t) = {+1,-1}

  • Step2. Let, wt+1 = wt + yn(t) xn(t)

如果預期結果是正時, 因內積的兩個向量夾角過大才會是負, 所以修正方式是要往 x 方向靠近, 反之則要遠離 x

  • Step3. Until no more mistakes.

(以二維(2D)的 input 為例做想像)

sign (wTx) 中, wTx = 0 在二維中是一條法相量為 w 的直線二分其結果 y, 在高維度時劃分結果 y 的則是法相量 w 的高維平面。

是否會終止 ?

Linear Separability 線性可分

PLA 會終止的條件在於可以找到一個 w, 使得所有 sign (wTxn(t)) = yn(t), 所以最根本的條件, 在於存在需一條分割線/平面可以將所有 input x 根據 ouput y 劃分開來, 此特性稱作線性可分。

同時 yn(t) wfTxn(t) (所有 input 包含發生錯誤的點) ≥ min( yn wfTxn ) > 0

PLA 在線性可分的情況下, 每次的修正是否有朝更好的方向前進

wfT wt+1 = wfT (wt + yn(t) xn(t)) >= wfT wt + min( yn wfTxn ) > wfT wt

上式僅證明了一半, 因為內積愈大有可能是因為 角度愈靠近, 卻也有可能是因為 向量長度 所造成

透過前式, 我們可以一路推導做了 T 次修正後如上的結果

因為我們僅在錯誤的時候做修正, 所以中間項的乘積會 < 0, 上式就是我們得到的向量長度 Upper bound

接著一樣透過前式, 我們可以一路推導做了 T 次修正後如上的結果

最後可以求出 cos θ 經過 T 次迭代後的開根號成正比的收斂式子 (ρ 與 R 皆是我們導出的常數), 因此我們可知當今天的資料是 Linear Separability 時, PLA 確實可修正 Wt 使其更加靠近 Wf 並中止。

得到以上的結果後, 對於 PLA 還是存在一些疑問, 包括了如何知道資料是線性可分 (Wf 存在), 如果這是已知那實際上我們也就不需要做 PLA, 所以這部分通常是未知, 另一個問題是怎麼知道要做多久才會結束?

Pocket Algorithm

基於有效的挑選出完美的 g 其實是一個 NP-Hard 的問題, 所以這邊舉了另一個簡單的改進演算法, 演算法的精神是建立在 PLA 不停地挑選犯錯更少的 Wt+1 出來, 直到夠多的迭代後以最終的結果為回傳值, 相較於 PLA 除了比對當前資料是否造成錯誤結果之外, Pocket Algorithm 要去計算所有資料的結果, 所以當今天資料是線性可分時, Pocket Algorithm 會比 PLA 慢, 但好處是能確保有終止條件 即便 線性不可分

results matching ""

    No results matching ""