在現實世界中一些需要分類的工作,比方說文字分類、詐欺偵測、醫療判斷等等,若以機器學習的方式處理,該怎樣達到最好的分類效果呢?標準的機器學習演算法對於平衡資料的處理可以達到極佳的預測效果,但是對於不平衡資料的預測效果卻是沒辦法達到要求。
本篇論文解釋何謂資料不平衡,以實驗驗證Active Learning對於class imbalance可以達到不錯的效果,其次提出另一種有效率的方法--以更小的sample pool訓練資料,可以減少計算的時間、減少記憶體的消耗。
Learning On The Border:Active Learning in Imbalanced classification Data
View SlideShare presentation or Upload your own.
1 則留言:
請加論文出處的鏈結.
張貼留言