我已經實做過高維資料(不說什麼資料)預測模式。給你結論:1. 資料不在量的多少,而在品質。2. 預測模式結構也是會變動(尤其是高維),一般類神經網路很少提到這點。阿儒 wrote:感謝.在Y. Bengio...(恕刪)
有點好奇前輩的高維資料是什麼, 或許在貴領域有不同的情況也說不定.剛在網路上搜尋了一下,看大家解決overfitting的方式是什麼,我確實還沒有看到說減少data會減輕overfitting的.隨手抓了幾篇http://docs.aws.amazon.com/machine-learning/latest/dg/model-fit-underfitting-vs-overfitting.htmlhttps://jmetzen.github.io/2015-01-29/ml_advice.htmlhttps://www.quora.com/What-are-ways-to-prevent-over-fitting-your-training-set-data都指出減少overfitting的一招就是增加training data.不知道哪邊有說法是說overfitting的處理方式是減少data呢?(附注: 這邊探討的都是指原來的model架構不變, 而在原來的data下有overfitting. 增加data量並非唯一減輕overfitting的方法)剛提到的Y. Bengio是個泰斗,基本上說到machine learning與model training,全世界比他懂、比他有經驗的人應該也沒幾個了.回這篇的同時我其實也是正在train相當高維的資料 (一邊調整參數中(嘆)),我想我train過的model應該也有數百個了, 也橫跨數個應用.剛把一些最新的論文拿來看,基本上趨勢就是training data越用越多,越多data的人通常做的越好,如Google, Baidu這些搜尋引擎 (可是偏偏不放出來給大家用(誤)).您的結論我大部分是同意的,品質絕對比數量重要, 但要train的好通常是缺一不可, 如果這兩個只能選一個, 一定是選品質.Model架構的調整是常態, 看相關的machine learning競賽大約就知道了, 每年都不一樣, 尤其是在股票這種多變的應用上面.謝謝.me5888 wrote:我已經實做過高維資...(恕刪)
Hotshothachi wrote:演算法 只能做到70% 是還沒做好,還是卡關什麼問題呢?me5888 wrote:我已經實做過高維資...(恕刪) 別管高雄了 你聽過台北嗎?祖師爺說過一個變數都搞不定兩個變數加在一起就是垃圾、災難,錯上加錯你還在金融演算法嗎?這是落後50年的技術推薦你金融真神經網路 (非類神經,是真神經)......猴子射飛鏢若嫌猴子不夠聰明那就海豚頂球法 (米國軍方愛用)
阿儒 wrote:感謝.在Y. Bengio...(恕刪) 老實說進市場是來賺錢的不是來作研究的不然財經或資工(管)的教授應該是最有錢的人技術佔賺錢的交易系統的比例其實不高重點在人性並不在技術尤其是靠技術來預測會死的更慘期望值是正的系統是不會靠預測運作的
整串光是沒看到 RNN 與 LSTM (or GRU) 就知道討論的都是外行人了。我直接說結論: 不可能。現在最強大的AI,例如AlphaGo,因為下棋的規則與目標有範圍,所以做得好。很多圖形、照片、物體識別做得好,因為物體有固定特徵。語音與翻譯做得好,因為語言有固定特徵。變動的金融市場,變動的人心,不適合用機器學習或AI。即使要趨近,也要先想辦法能即時搜集到所有市場資訊。想要靠過去歷史記錄預測金融指數?外行人不要再神話或騙錢騙Paper了。
你的用戶 wrote:想要靠過去歷史記錄預測金融指數?外行人不要再神話或騙錢騙Paper了。.(恕刪) 話不能這樣說呦預測不準是正常但paper可以換成升等 + 現金的不管幾維,資料的品質是什麼意思就是它們能解釋漲跌的原因要是能知道哪些是正確哪些是雜訊明天結算豹子通殺就好了要model做啥