在线观看不卡亚洲电影_亚洲妓女99综合网_91青青青亚洲娱乐在线观看_日韩无码高清综合久久

鍍金池/ 問答/人工智能/ 使用tf.train.batch 進(jìn)行增量訓(xùn)練,為啥使用同樣的數(shù)據(jù)和模型及參數(shù)得

使用tf.train.batch 進(jìn)行增量訓(xùn)練,為啥使用同樣的數(shù)據(jù)和模型及參數(shù)得到的效果越來越差?

在已經(jīng)訓(xùn)練好的模型的基礎(chǔ)上做增量訓(xùn)練,用的batch train, 想要看下訓(xùn)練的模型效果,我用同樣的數(shù)據(jù),理論上講,同樣的數(shù)據(jù),同樣的模型和參數(shù),得到的效果應(yīng)該一樣--第一次訓(xùn)練的acc已經(jīng)接近1,再用同樣的數(shù)據(jù)增量訓(xùn)練,acc應(yīng)該也是接近, 但實(shí)際上效果越來越差,acc只有0.8, 如果再增量第二次第三次, acc越來越小?! ?br>但是如果不用batch train, 直接讀到內(nèi)存里,acc就是1,可是數(shù)據(jù)量較大時(shí),這種方法就不適用了。

回答
編輯回答
念舊

兩種可能,一種可能是TF的計(jì)算問題,TF計(jì)算Accuracy是按batch算,有可能你batch train最后一個(gè)batch剛好錯(cuò)誤多
另一種可能是全部數(shù)據(jù)載入是直接求全局最優(yōu)解,二batch train是在batch上做優(yōu)化,容易陷入局部最優(yōu)出不來,沒非batch效果好。

2018年5月29日 11:02