基于深度学习的图像超分辨率重建研究.doc

上传人:F****n 文档编号:98878968 上传时间:2019-09-15 格式:DOC 页数:62 大小:6.23MB
返回 下载 相关 举报
基于深度学习的图像超分辨率重建研究.doc_第1页
第1页 / 共62页
基于深度学习的图像超分辨率重建研究.doc_第2页
第2页 / 共62页
基于深度学习的图像超分辨率重建研究.doc_第3页
第3页 / 共62页
基于深度学习的图像超分辨率重建研究.doc_第4页
第4页 / 共62页
基于深度学习的图像超分辨率重建研究.doc_第5页
第5页 / 共62页
点击查看更多>>
资源描述

《基于深度学习的图像超分辨率重建研究.doc》由会员分享,可在线阅读,更多相关《基于深度学习的图像超分辨率重建研究.doc(62页珍藏版)》请在金锄头文库上搜索。

1、毕业设计(论文)基于深度学习的图像超分辨率重建研究院 别数学与统计学院专业名称信息与计算科学班级学号学生姓名楚文玉指导教师张琨2017年06月10日村民建房委员会应建立村级农房建设质量安全监督制度和巡查制度,选聘有责任心和具有一定施工技术常识的村民作为义务巡查监督员,开展经常性的巡查和督查。基于深度学习的图像超分辨率重建研究摘 要人工神经网络凭借其超强的学习能力,使得人工智能得到迅猛的发展,让人工神经网络再次成为研究热点。目前深度学习已经广泛应用于计算机视觉,语音处理,自然语言处理等各个领域,甚至在某些领域已经起到了主导作用。单一图像超分辨率重建技术旨在将一个低分辨率图像经过一系列算法重构出对

2、应的高分辨率图像。目前比较成熟的方法有基于频域法,非均匀图像插值法,凸集投影法,最大后验概率法以及稀疏表示法。本文主要研究利用深度学习实现单一图像超分辨率重建。本文首先简要介绍人工神经网络的发展历程,然后介绍深度学习在计算机视觉方面的应用。然后介绍神经网络的一些理论知识,最后介绍深度学习中的卷积神经网络(CNN, Convolutional Neural Network)。本文研究如何利用卷积神经网络实现超分辨率重建。卷积神经网络分为三层结构,第一层的作用是特征块的提取和表示,第二层的作用是非线性映射,第三层的作用是重建出高分辨率图像。本文首先将一个图像降采样再双三次插值作为低分辨率图像,作为

3、卷积神经网络的输入,而高分辨率图像作为卷积神经网络的输出,利用卷积神经网络建立低分辨率,高分辨率之间的映射。最后针对该模型进行改进,再加入一层作为特征提取。最后利用深度学习框架TensorFlow实现上述模型。最后研究快速超分辨率重建模型,并针对模型层数和过滤器大小进行改进,与先前实验做比对。关键字:超分辨率重建,卷积神经网络,深度学习,TensorFlowImage Super-Resolution Using Deep learning Author: Chu Wen-yuTutor: Zhang KunAbstractArtificial Neural Network because o

4、f its strong ability to learn, get rapid development of artificial intelligence, let the Artificial Neural Network become the research upsurge again. Deep learning has been widely used in computer vision, speech processing, natural language processing and so on. The super-resolution(SR) technique is

5、 designed to refactor a low-resolution image through a series of algorithms to reconstruct the corresponding high-resolution image. Currently, the method of frequency domain, Non-uniform image interpolation, Projection onto convex set(POCS), Maximum a posterior(MPA) and sparse matrix method are the

6、more mature methods. This paper mainly researches the realization of super-resolution(SR) reconstruction using deep learning.In this thesis, first is a brief introduction of the development of artificial neural network, then introduces the application of deep learning in computer vision. With that i

7、ntroduces some theoretical knowledge of neural network, and finally introduces the convolution neural network(CNN) in deep learning. This article mainly researches how to use the convolution neural network(CNN) to get the super-resolution reconstruction. The convolution neural network contains three

8、 structures, the effect of the first layer is Patch extraction and representation, the second is the function of Non-linear mapping, the role of the third layer is the high-resolution image reconstruction. First to downscale and bicubic interpolation an image as the low-resolution images as the inpu

9、t of the convolution neural network, and the high-resolution image as the output of the convolution neural network, using convolution neural network established end-to-end mapping between the low -resolution and high-resolution. Finally, the model is improved, and then a layer is added as feature ex

10、traction. The model implements using deep learning frame TensorFlow. Finally, learn more about the accelerate super-resolution reconstruction model and improve the model layer and filter size, and compare with the previous experiment.Key Words: Super-Resolution, Convolution neural network, Deep lear

11、ning,TensorFlow 东北大学秦皇岛分校毕业设计(论文) 第IV页目 录1 绪论11.1 课题背景及意义11.2 国内外研究现状21.3 论文的内容结构32 深度学习理论52.1 人工神经网络理论52.1.1 神经网络基础理论62.1.2 BP反向传播算法92.1.3 随机梯度下降法122.2 深度神经网络理论132.2.1 深度学习的核心思想132.2.2 卷积神经网络142.3 TensorFlow简介193 基于SRCNN的超分辨率重建算法研究213.1 SRCNN模型简介213.2 SRCNN模型的改进223.3 改进的模型的实现233.3.1 数据集制作233.3.2 Te

12、nsorFlow实现卷积神经网络243.4 FSRCNN模型273.4.1 FSRCNN模型简介273.4.2 FSRCNN模型改进284 实验及分析294.1 具体实验结果分析294.2 与其他实验对比分析31结 论35致 谢36参考文献37附 录 A39附 录 B44 东北大学秦皇岛分校毕业设计(论文) 第 57 页1 绪论1.1 课题背景及意义从2016年AlphaGo完胜李世石到2017年5月战胜柯洁等诸多世界围棋顶级高手,人工智能和深度学习这些概念再次引起了学术界的关注。谷歌、脸书、阿里巴巴、百度等众多国内外互联网公司纷纷宣布要将人工智能作为他们的下一个战略重心1。在类似AlphaG

13、o、无人机驾驶汽车等最新技术的背后,深度学习是推动这些技术发展的核心力量。目前我们所熟知“深度学习”基本上是深层神经网络的一个代名词,而神经网络技术可以追溯1943年。深度学习之所以看起来像一个新技术的原因是在21世纪初期并不是很流行。神经网络的发展史大致可以分为三个阶段。早期的神经网络模型类似于仿生机器学习,它试图模仿大脑的学习机理。最早是在1943年由Walter Pitts教授和Warren McCulloch教授提出的McCulloch-Pitts Neuron(MP)计算结构模型,大致模拟了人类神经元的工作原理,使用了简单的线性加权和的方式来模拟变换2。Frank Rosenblat

14、t教授在1958年提出了一个感知机模型(perceptron)3。它首次实现了依据样本数据集来学习权重。这两个模型深深的影响了现代机器学习,为现代机器学习奠定了基础,但自身也存在许多不足。Seymour Paper教授和Marvin Minsky教授在1969年出版的Perceptron书中证明了感知机模型只能解决线性可分问题,无法解决异或问题。在之后的十几年里,关于神经网络的研究全部处于停滞状态。直到20世纪80年代末,第二波神经网络研究热潮因为分布式知识表达(distributed representation)和神经网络反向传播算法的提出而重新兴起。这大大增强了模型的表达能力,让神经网络

15、从宽度的方向走到了深度的方向。这为之后的深度学习奠定了基础。1986年David Everett Rumelhart教授、Geoffrey Everset Hinton教授和Ronald J. Willians教授在自然杂志上发表的Learning Representations by Back-propagating errors文章中首次提出了反向传播算法(BP)3,此算法大幅降低了训练神经网络的时间。直达今天仍是训练神经网络的主要方法。现如今使用的一些神经网络结构,比如卷积神经网络和循环神经网络,在这个阶段取得了显著的成就。Sepp Hochreiter教授和Juergen Schmidhuber教授于1991年提出的long short-term memory(LSTM)模型可以有效的对较长的序列进行建模,比如一段文字和语音等。直到今天LSTM都是解决自然语言处理,语言识别的有效方法。然而,之后神经网络研究再度步入寒冬。在神经网络发展前景不好的时候,传统的神经网络学习算法却得到了突破性的进展,并在90年代末

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 教学/培训

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号