我正在測試卷積神經網絡上的打印數字(0-9)。它在MNIST Dataset上提供了99%以上的準確性,但是當我使用計算機上安裝的字體(Ariel,Calibri,Cambria,Cambria math,Times New Roman)嘗試它時,訓練了字體生成的圖像(每種字體104 25種字體 - ?每個字體4幅圖像(差別不大))訓練誤差率不低於80%,即20%的準確率爲什麼CNN上的數字識別
這裏是 「2」 的數字圖像樣本 -
我調整了每個圖像的大小28 x 28.
這裏有更多的細節: -
訓練數據大小= 28 x 28圖像。 網絡參數 - 作爲LeNet5 網絡架構 -
Input Layer -28x28
| Convolutional Layer - (Relu Activation);
| Pooling Layer - (Tanh Activation)
| Convolutional Layer - (Relu Activation)
| Local Layer(120 neurons) - (Relu)
| Fully Connected (Softmax Activation, 10 outputs)
這工作,在MNIST給予99 +%的準確率。爲什麼計算機生成的字體很糟糕? CNN可以處理很多數據差異。
什麼是您使用的完整拓撲結構?它是原始的LeNet5,還是你改變了任何隱藏層?如果你從零開始訓練一個新模型,過度擬合應該看起來像另一個99 +%的成功率;你的20%表明了某種非常不同的問題。 – Prune
是的,它是原創的LeNet5,圖層如上所述,它使用MNIST數據集,但不是我的數據集,我的數據集大小爲1036個圖像,每個數字104。 – kumar030