用深度学习识别语种识别
现在需要实现这样一个功能:
给出图片,图片中包含有文字,可能是汉字,可能是英语,也可能是其他文字。要做的事情是识别出该文字是何种语言,给出结果就行,对内容识别的准确度没有要求。
现在我自己的思路是这样的:
1.将原图切割到规定大小
2.预处理:降噪,灰度化,二值化
3.划分为训练集,验证集,测试集
4.构建CNN开始训练模型
但是在第4步遇到了问题,不太知道该如何提取特征,另外数据集中图片的大小不是固定的。
我想过用resize的方法,但是可能会丢失掉一些重要信息,会影响结果,所以想问一下有没有什么办法解决图片大小不固定的问题。
希望能够得到大家指点,谢谢!
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
cnn图像的输入就是rgb + 多个卷积核,cnn会自动学习特征