Linear Classification vs. Linear Regression
今天 Linear Classification 的問題, 我們在介紹 PLA 的時候有提到是 NP-hard, 但是今天 y output {-1,+1} 也都是 ∈ , 那我們是否能夠拿解 Linear Regression 的演算法來做 Linear Classification 的問題呢?
Yes!
從兩者錯誤的衡量方式來觀察 , 左圖所示, 當今天 y = 1 時, 預測的 y 對於兩種錯誤衡量方式計算出的結果, 右圖則是當 y = -1 的 case, 所以今天不論 y 為何 皆成立, 如下式我們知道之前 VC dimension 特性帶給我們的已知 所以我們今天只要能保證紅色的 夠小, 就能保證 classification 的問題 , 所以我們最後這邊可以用較寬鬆的 bound 但較為好解的方法。
Advanced
大部分的時候我們使用 Linear Regression 的演算法來解 Binary Classification 都已經夠好, 但如果想要更好的話, 可以使用 (先做到差不多好) 來作為 PLA/pocket 的 initial value, 可以加速 PLA/pocket 的速度。