DS是用他自己的方式去“萃取”。而不是用OA的方式來“蒸餾”。
Knowledge Distillation中譯為知識蒸餾,屬於模型壓縮的一種,它的方法,是抽取複雜模型訓練出的精華為另一個簡單模型所用
hhttps://chtseng.wordpress.com/2020/05/12/%E7%9F%A5%E8%AD%98%E8%92%B8%E9%A4%BE-knowledgedistillation/tps://chtseng.wordpress.com/2020/05/12/%E7%9F%A5%E8%AD%98%E8%92%B8%E9%A4%BE-knowledgedistillation/
內文搜尋
X




























































































