为了账号安全,请及时绑定邮箱和手机立即绑定

神经网络用以变形文本矫正系列第三篇

标签:
人工智能

0.前言

接上一篇对于dataFormat格式的实验结果分析(https://blog.csdn.net/qq_35546153/article/details/80393277),这一篇记录isRandom对于实验结果的影响;

1.实验过程记录

假定第一类(网络结构)情况不变,第二类中dataFormat选择1,因为其收敛速度较快,数据间的相关性强;samplesNum s i s R不变, 还是之前的11000, 观察记录isRandom改变对实验结果的影响。

1.1.1 网络训练过程记录


  1. Using TensorFlow backend.  

  2. load data begin...  

  3. dataFormat = 1  

  4. load data..., random!  

  5. load done  

  6. Data.shape= (11000, 858)  

  7. label.shape= (11000, 5)  

  8. reshape data shape= (11000, 858)  

  9. reshape label shape= (11000, 5)  

  10. data_train.shape= (8000, 858)  

  11. data_test.shape= (3000, 858)  

  12. label_train.shape= (8000, 5)  

  13. label_test.shape= (3000, 5)  

  14. construct net begin...  

  15. Training...  

  16. Epoch 1/200  

  17.  200/8000 [..............................] - ETA: 1:29 - loss: 0.1844 - acc: 0.0850  

  18. 1600/8000 [=====>........................] - ETA: 9s - loss: 0.4693 - acc: 0.6169    

  19. 3000/8000 [==========>...................] - ETA: 4s - loss: 0.3116 - acc: 0.6453  

  20. 4400/8000 [===============>..............] - ETA: 2s - loss: 0.2220 - acc: 0.6764  

  21. 5800/8000 [====================>.........] - ETA: 0s - loss: 0.1735 - acc: 0.7021  

  22. 7200/8000 [==========================>...] - ETA: 0s - loss: 0.1425 - acc: 0.7278  

  23. 8000/8000 [==============================] - 3s 328us/step - loss: 0.1294 - acc: 0.7406  

  24. Epoch 2/200  

  25.   

  26.  200/8000 [..............................] - ETA: 0s - loss: 0.0094 - acc: 0.8300  

  27. 1600/8000 [=====>........................] - ETA: 0s - loss: 0.0109 - acc: 0.8625  

  28. 3000/8000 [==========>...................] - ETA: 0s - loss: 0.0106 - acc: 0.8637  

  29. 4400/8000 [===============>..............] - ETA: 0s - loss: 0.0104 - acc: 0.8655  

  30. 5600/8000 [====================>.........] - ETA: 0s - loss: 0.0107 - acc: 0.8548  

  31. 6800/8000 [========================>.....] - ETA: 0s - loss: 0.0103 - acc: 0.8590  

  32. 8000/8000 [==============================] - 0s 42us/step - loss: 0.0100 - acc: 0.8616  

  33. Epoch 3/200  

  34.   

  35.  200/8000 [..............................] - ETA: 0s - loss: 0.0078 - acc: 0.8500  

  36. 1400/8000 [====>.........................] - ETA: 0s - loss: 0.0070 - acc: 0.8836  

  37. 2600/8000 [========>.....................] - ETA: 0s - loss: 0.0077 - acc: 0.8762  

  38. 4000/8000 [==============>...............] - ETA: 0s - loss: 0.0080 - acc: 0.8728  

  39. 5400/8000 [===================>..........] - ETA: 0s - loss: 0.0079 - acc: 0.8669  

  40. 6600/8000 [=======================>......] - ETA: 0s - loss: 0.0079 - acc: 0.8642  

  41. 7800/8000 [============================>.] - ETA: 0s - loss: 0.0077 - acc: 0.8632  

  42. 8000/8000 [==============================] - 0s 42us/step - loss: 0.0077 - acc: 0.8638  

  43.   

  44. Epoch 182/200  

  45.   

  46.  200/8000 [..............................] - ETA: 0s - loss: 0.0023 - acc: 0.9350  

  47. 1600/8000 [=====>........................] - ETA: 0s - loss: 0.0025 - acc: 0.9163  

  48. 3000/8000 [==========>...................] - ETA: 0s - loss: 0.0024 - acc: 0.9220  

  49. 4400/8000 [===============>..............] - ETA: 0s - loss: 0.0024 - acc: 0.9264  

  50. 5800/8000 [====================>.........] - ETA: 0s - loss: 0.0025 - acc: 0.9257  

  51. 7200/8000 [==========================>...] - ETA: 0s - loss: 0.0025 - acc: 0.9240  

  52. 8000/8000 [==============================] - 0s 40us/step - loss: 0.0025 - acc: 0.9234  

  53. Epoch 183/200  

  54.   

  55.  200/8000 [..............................] - ETA: 0s - loss: 0.0025 - acc: 0.9200  

  56. 1600/8000 [=====>........................] - ETA: 0s - loss: 0.0025 - acc: 0.9288  

  57. 3000/8000 [==========>...................] - ETA: 0s - loss: 0.0025 - acc: 0.9320  

  58. 4400/8000 [===============>..............] - ETA: 0s - loss: 0.0025 - acc: 0.9286  

  59. 5600/8000 [====================>.........] - ETA: 0s - loss: 0.0025 - acc: 0.9234  

  60. 7000/8000 [=========================>....] - ETA: 0s - loss: 0.0025 - acc: 0.9244  

  61. 8000/8000 [==============================] - 0s 39us/step - loss: 0.0025 - acc: 0.9234  

  62. Epoch 184/200  

  63.   

  64.  200/8000 [..............................] - ETA: 0s - loss: 0.0025 - acc: 0.9000  

  65. 1600/8000 [=====>........................] - ETA: 0s - loss: 0.0023 - acc: 0.9287  

  66. 3000/8000 [==========>...................] - ETA: 0s - loss: 0.0024 - acc: 0.9263  

  67. 4400/8000 [===============>..............] - ETA: 0s - loss: 0.0025 - acc: 0.9255  

  68. 5800/8000 [====================>.........] - ETA: 0s - loss: 0.0025 - acc: 0.9245  

  69. 7200/8000 [==========================>...] - ETA: 0s - loss: 0.0025 - acc: 0.9251  

  70. 8000/8000 [==============================] - 0s 39us/step - loss: 0.0025 - acc: 0.9234  

  71. Epoch 00184: early stopping  

  72.   

  73. Testing ------------  

  74.   

  75.  200/3000 [=>............................] - ETA: 0s  

  76. 2400/3000 [=======================>......] - ETA: 0s  

  77. 3000/3000 [==============================] - 0s 27us/step  

  78. test cost: [0.0033225238323211668, 0.92233333190282185]  

  79. ./saveProcessResult/processb_200FIL_858FO_572SO_572EO_5_0521-17_17dataFormat1.png  

结合上一篇的没有random的数据,分析得出以下结论:

(1)epoch都是在1的时候,loss下降明显;

(2)随机选择样本在训练的过程中,由于数据加载,所以花费的时间长于按顺序选择的时间;

(3)随机选择样本训练结束的epoch为184,loss: 0.0025 - acc: 0.9234;按顺序的情况下,结束的epoch为175, loss: 0.0020 - acc: 0.9210;可见,当样本进行随机选择时,有可能会造成训练结果下降,但也有可能会上升。在这种情况下,loss 下较之顺序情况下,下降了-0.05%, 准确率上升了0.24%;

(4)猜测:随机情况下,结果不可控,有时好有时坏;

总结,目前样本数为11000时的情况下,随机选取样本与否和dataFormat两种情况下的网络结果都已实验,接下来,增加样本数,看看准确率能否突破92%?也需要试试样本数降低时,准确率是否会下降?也许在小样本时,准确率在随机的情况下会优于按顺序的情况,拭目以待!

原文出处

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消