一种新的立体视觉系统分析与设计方法

一种新的立体视觉系统分析与设计方法

一、一种新的立体视觉系统的分析与设计方法(论文文献综述)

程鹏飞[1](2021)在《面向机器人操作的物体检测与位姿估计方法研究》文中认为随着科学技术的发展,机器人不仅仅在工业中得到应用,更是走进了人们的生活中,同时也对机器人技术提出了更高的要求。与上世纪的工业机器人有所不同,现在的机器人大多具有一定的智能性,即使在非结构化的环境中,也能够很好地完成各种工作。而物体检测与位姿估计算法是机器人实现自主操作的关键技术,具有重要的研究价值与应用前景。现有多种方法可以解决物体检测与位姿估计的问题,本文采用基于图像特征的方法用于目标物体的检测与位姿估计,主要的研究内容如下所示,(1)提出一种新的特征点算法,多邻域结构张量特征(Multi-Neighborhood Structure Tensor Features,MNSTF)算法。主流的特征点算法大都只依赖图像的纹理信息,却忽略了图像的结构信息,所以无法解决无纹理的问题。多邻域结构张量特征算法则通过一系列固定的特征点邻域以及图像局部结构张量,使得MNSTF特征描述子不仅表达了纹理信息,也表达了图像结构层次的信息,实现了 MNSTF描述子的旋转不变性、高可判别性、通用性以及鲁棒性,解决了弱纹理与无纹理的问题;(2)实现了基于MNSTF特征点的立体匹配算法。在双目视觉的领域中,常常因为图像的弱纹理问题而无法精准计算像素点的空间位置信息。而MNSTF特征点算法不仅能够有效提取丰富纹理图像特征,也能够提取弱纹理图像的特征,因此在本文中尝试将MNSTF特征点算法应用于双目视觉中像素点的配准,将双目视觉的约束条件与MNSTF特征点算法有机结合,可以得到更加准确的位置信息;(3)基于MNSTF特征点算法的物体检测与位姿估计方案实现。物体检测与位姿估计是论文研究的重点,MNSTF特征点算法能够在弱纹理的情况下实现图像特征点的鲁棒性检测以及特征点正确匹配,可以用来解决该问题。首先,通过与数据库特征点匹配,完成目标物体的检测;然后,采用ICP算法估计目标与数据库中样本物体的相对位姿。论文在上述研究的基础之上进行了大量的实验,包括MNSTF特征描述子的效果测试实验、与SIFT算法对比实验、遮挡实验、基于MNSTF特征描述子的立体匹配算法、ICP算法实验,并基于ZED双目相机建立物体检测与位姿估计的实验系统。在实验中验证了 MNSTF特征点算法的有效性以及物体检测与位姿估计方法的可行性。

张煜祺[2](2021)在《复杂场景下的双目立体匹配技术研究》文中认为机器视觉是研究如何使机器像人类一样利用视觉来获取场景中信息的学科。双目测量是机器视觉的一个重要分支,其模仿人类视觉系统的原理,在采集图像的基础上还可获得场景的深度信息,如今已广泛应用于工业现场、交通辅助、安防服务、医疗和军事等领域中。相较于依赖其它传感器的测量方法,双目测量具有测量视场更广、系统结构简单、设备之间工作互不干扰等优点,是一种理想的非接触式可见物体测量方法。而立体匹配任务是双目视觉系统运行的核心,决定着整个系统的测量精度。本文就对双目立体匹配技术展开研究,以解决当前立体匹配工作中存在的难点问题、提高双目视觉系统的测量精度为目的,提出了两种新的立体匹配技术。本文的具体工作如下:首先,针对于图像在深度不连续和光照不均的区域难以匹配的现象,提出了一种基于物体轮廓信息的可变窗口匹配算法。该算法主要内容包括:优化了边缘检测算法,使物体轮廓封闭性更佳,以划分出可信度高的同质区域;设计了一种新的相似性测度函数,对光照突变具有鲁棒性,并强化了窗口间的相似性判别能力;提出了新的匹配窗口尺寸自调整策略,缓解了图像在深度不连续区域误匹配严重的现象,同时优化了图像中弱纹理区域的匹配效果;设计了基于同质区域的视差优化方法,对初始得到的视差图做进一步优化。该算法可有效提高图像在深度不连续区域和光照不均环境下的匹配精确度。其次,本文尝试解决立体匹配中的遮挡问题。在介绍了遮挡现象的成因并对各类遮挡情形进行了分析后,提出了一种自适应权重图像遮挡区域视差优化算法。新算法的内容主要包括:基于左右一致性约束的遮挡检测方法,对图像中被遮挡的区域进行界定;提出一种自适应代价聚合权重生成策略,减少遮挡区域的不可靠点对窗口中心点的代价累积影响,提高周边区域像素的匹配精度;提出新的视差优化算法,为遮挡区域的像素设置最可靠的视差。该算法可有效提高图像遮挡区域的匹配精度,进一步提高视差图的整体精度。最后,本文搭建了双目视觉测距相应的软硬件平台,在进行相机标定和图像校正的基础上,利用实景拍摄图像对平台及相关算法进行了测试,验证了本文算法的可靠性及优势。

万文菲[3](2020)在《面向人眼视觉感知特性的图像质量评价》文中指出视觉信息是大数据时代的主要数字信息资源,图像和视频是人类获取视觉信息的主要来源。人眼视觉系统是所有视觉信息的最终接收端,其本身就是一个复杂、高效的信息感知处理系统。因此,如何从图像和视频数据中迅速而准确地获得符合人眼视觉感知的信息成为研究的难点与热点。即以人眼视觉感知要求为准绳,研究如何有效提升计算机处理视觉信息和评价图像和视频质量的能力。总结起来,面向人眼视觉感知特性的图像质量评价可以看作大脑通过视觉系统指导底层视觉信息的提取与处理过程,即在满足人眼视觉感知特性要求的条件下,对图像/视频的清晰度、数据量或深度感知等方面进行的视觉分析和质量评价,可用于指导视觉信息采集、编码、压缩、重构、处理和显示等一系列问题。本文从人眼视觉感知特性出发,重点探讨了视觉感知对图像的分辨能力、视觉感知对图像质量的综合体验、以及视觉系统对3D视频的立体深度感知,并研究其在数字图像处理中的建模应用。在视觉感知过程中,由于人眼视觉的分辨能力有限,无法分辨处于一定阈值下的视觉内容变化。恰可识别差阈值正好表征了这一视觉感知分辨能力,可有效去除图像冗余信息,从而提高图像的压缩编码性能。视觉感知后期,图像质量可以决定主观视觉对图像内容的认知充分性和准确性,而图像超分辨致力于图像内容的重构与恢复,因此超分辨图像的客观质量评价能够预测主观视觉对图像内容重构的综合体验,可用于评价和优化超分辨算法的性能。以及人眼双目视觉系统具有立体深度感知特性,对3D视频的深度质量评价可以反映人眼视觉系统对立体深度信息的感知能力,可用于3D视频压缩和编码等处理系统。总之本文由以下三个主要研究工作构成,即图像恰可识别差阈值估计、超分辨图像质量评价和3D视频深度质量评价,具体研究内容和贡献如下:(1)面向人眼视觉感知过程中的视觉敏感度方面,重点研究了人眼视觉的方位选择性机制,提出了一种计算图像内容结构复杂度的算子;然后根据人眼对不同结构区域的视觉敏感度差异,估计不同区域的掩模效应。再结合视觉系统随离散余弦变换Discrete Cosine Transform(DCT)域系数频率变化的对比敏感特性和亮度自适应性,提出一种新的DCT域恰可识别差阈值模型。本研究所提出的模型相较于其他DCT域恰可识别差阈值模型,有两个方面的创新突破。首先,所提的基于方位结构复杂度的掩模模型,相比于以前的对比度掩模,在对不同视觉内容的掩模效应估计上更加准确,也更加符合人眼的主观视觉感知。然后整个恰可识别差阈值估计过程完全基于DCT域系数,无需跨像素域操作,可直接应用于图像的压缩编码系统中,在提高阈值估计准确性的同时,保证了实用性。(2)面向人眼视觉感知后期对图像质量的综合体验方面,重点讨论了超分辨图像的性能评价指标如峰值信噪比Peak Signal to Noise Ratio(PSNR)和结构相似性Structural Similarity Index(SSIM),越来越难以满足现有基于深度学习超分辨算法的性能比较问题。本文首先组织了超分辨图像质量的主观评价实验,构建了一个可靠的超分辨图像质量评价数据库,验证了现有客观评价指标在超分辨图像质量评价上的缺陷。然后根据自由能量理论,基于大脑的内部生成机制,提出一种视觉内容预测模型,用于预测不同视觉区域内容的纹理和结构特征。最后通过计算超分辨图像和参考图像视觉内容预测模型的相似性,提出了一种专门用于超分辨算法性能比较的客观质量评价指标,提高了其与主观视觉感知的一致性,可用于指导超分辨算法的设计与优化。(3)面向双眼视觉感知特性的立体深度质量评价方面,针对3D视频立体深度感知可能受编码等外界噪声因素影响的问题,我们通过组织一系列的主观深度感知评价实验,探究视觉系统的深度感知与频率、方向和运动等基本视觉元素的相关性;然后结合深度感知特性和时空域的结构特性,分别提取3D视频的双目、单目和运动深度特征进行建模;最后在3D视频深度感知评价数据库上,用支持向量机训练获得一个3D视频深度质量评价模型。本研究主要贡献是构建了一个用于3D视频深度质量评价的数据库;提出了一种3D视频深度质量的评价体系,即从双目、单目和运动三个方面估计深度感知特征;实现了3D视频深度质量的无参考评价,在主观深度感知一致性比较中,优于现有的深度质量评价指标,更加符合人眼的深度感知。

吴文欢[4](2020)在《计算机视觉中立体匹配相关问题研究》文中研究表明计算机立体视觉通过模拟人类的双眼视觉功能,在不同视点采集同一场景的一对立体图像来感知周围现实中的三维世界。立体视觉技术作为一种非接触式的被动深度感知方法,由于其成本低、便于实施而且能恢复场景稠密的三维信息,使其在机器人自主导航、自动驾驶、三维测量与三维重构、虚拟现实等诸多领域有着广泛的应用。立体匹配是立体视觉中最核心的技术,其目的是确定立体图像之间所有像素的对应关系,以此通过对应像素之间的视差来恢复深度信息。然而,如何提高立体匹配准确性一直是立体视觉技术中的瓶颈问题。首先,立体匹配本身是一个从二维图像平面逆向求解三维空间信息的病态问题;其次,在匹配过程中又面临着诸多挑战,包括由辐射变化带来的立体图像成像差异、极线校正畸变、由相似纹理带来的匹配二义性、遮挡以及物体边界处的视差膨胀等问题。受这些因素的影响,要从立体图像中快速地搜寻出所有真实匹配点对进而恢复场景完整、正确的三维信息,仍然是一个极具挑战性的研究课题。本文针对上述影响立体匹配性能的难点问题进行了积极探索和深入研究,提出了新的算法,旨在为更好地解决立体匹配这一难题提供新的思路。本文主要工作和创新点如下:(1)提出了一种基于本质矩阵奇异值分解的极线校正方法。针对传统极线校正方法需要进行迭代优化而容易陷入局部最优的问题,本文提出了一种依据本质矩阵的奇异值分解获得极线校正封闭解的方法。首先,利用立体视觉系统中摄像机内参数已知这一先验信息,由基础矩阵和已知的摄像机内参数推导出本质矩阵。然后,对本质矩阵实施奇异值分解,并利用左右摄像机内在的几何约束消除分解的二义性。最后,为了使左右摄像机的光轴变为平行且与基线垂直,对分解出的正交矩阵实施相应的变换,而所得到的两个射影变换即为极线校正的封闭解,因此,本文所提出的极线校正方法无需任何优化过程。实验结果表明本文极线校正方法不仅具有更高的效率和精度,而且产生的畸变也更小。(2)针对立体图像之间经常出现的由辐射变化引起的成像差异问题,提出了一种基于Census特征的抗辐射变化立体匹配方法。首先,对于每个像素,分别在灰度图像和梯度图像上实施Census变换,然后将由灰度和梯度生成的二进制字符串进行拼接,为每个像素构建出一个轻量级的二值特征向量。相应地,待匹配像素之间的相似度则通过其特征向量的汉明距离计算得到。为了在提升视差图信噪比的同时,有效应对物体边界处的视差膨胀效应,本文采用一种新的融合自适应支持权重策略对代价体进行滤波,即分别使用局部边缘感知滤波器和非局部边缘感知滤波器对代价体实施滤波,并将它们的滤波结果通过取平均来实现融合。最后,依次采用“赢者通吃”优化方法以及视差精确化措施计算出最终视差图。实验结果表明本文所提出的算法不仅对辐射变化具有较强的鲁棒性,而且视差图中物体边缘得到较好地保持。(3)针对由相似纹理引起的匹配歧义问题,提出了一种基于定向线性树的快速代价聚合方法。首先,每个像素都对应着一棵以其自身为根的定向树,而每棵树是由来自不同方向的1D路径组成,从而避免为每个像素设计一个最优的支持窗。其次,采用定向线性树进行代价聚合,这样每个根像素不仅可以得到邻域像素的支持,而且树中所有其它像素也沿着各自1D路径支持该根像素。最后,计算视差并利用它构建一个新的代价体,紧接着采用定向线性树对其进行聚合,使有效视差沿着1D路径传播给被遮挡像素和误匹配像素。在代价聚合的具体实现过程中,对于每条1D路径,通过来回遍历该路径两遍,就可一次性地计算出该路径上所有像素沿着该路径的聚合代价,这使得基于定向线性树算法具有较低的计算复杂度。实验结果表明本文所提出的算法不仅能有效消除不同纹理区域的匹配歧义,而且匹配速度也得到极大提升。(4)针对非学习的匹配方法无法有效挖掘复杂场景下立体图像之间的深层内在联系,提出了一种分组距离网络模型,以便通过学习立体图像到其视差图的映射来预测视差。首先,采用多个残差模块提取每个像素不同深度的特征,并将这些不同深度的特征向量进行拼接。为了在降低特征向量维度的同时,有效减少向量中特征信息的丢失,提出了对特征向量进行分组计算距离的策略,即根据视差将左右视图的对应像素进行对齐,并将它们的特征向量进行分组,求解对应组子向量之间的欧式距离,然后将所有组的距离值拼接起来,构成距离向量。一旦求解出所有像素在每个视差下的距离向量,即可构建出一个4D代价体。为了更好地融合邻域像素的上下文特征信息以及相邻视差的距离信息,本文采用级联的3D沙漏网络对4D代价体进行滤波。最后,对滤波结果进行回归并生成最终视差图。实验结果表明本文分组距离网络的视差预测性能要优于当前其他卷积神经网络方法。

陈曼林[5](2020)在《面向机器人应用的DLP双目立体视觉系统研发》文中进行了进一步梳理随着广大研究者对机器人相关技术研究的不断深入,越来越多配有视觉系统的机器人被应用于工业领域,如自动抓取、自动装配。相机作为机器人的眼睛,对机器人来说至关重要。随着机器视觉的发展,三维重建技术已经成为机器视觉的重要研究方向。因此如何快速而准确地获取被测物体的三维信息,并根据获得的三维信息重建被测物体获取物体的点云数据,成为了一项重要且有难度的研究课题。首先,本课题对DLP双目立体视觉系统的构建进行了研究,设计了该系统的结构,并阐述了双目相机立体标定的相关原理。其次,本课题经过对三维重建方法的研究确定了结构光编码方法-格雷码与相移编码结合的方法,通过反复的实验确定了结构光的最佳周期。针对格雷码编码周期与相移编码周期存在的周期错位现象,提出了一种新的周期校正方法。针对传统的立体匹配方法存在的问题,如匹配时间长、错误率高等,提出了一种优化的立体匹配算法。本课题主要研究了双目相机的标定、格雷码与相移编码方法以及解码、投影图案的周期校正、立体匹配方法等内容。根据上述研究内容,本课题设计了一套结合格雷码与相移编码方法的双目视觉三维重建系统,旨在提高现有的视觉系统的可靠性、精度以及灵活性,解决传统视觉系统工作环境受限、精度低等问题。

王越[6](2020)在《基于大尺度视觉空间的动态立体视觉空间坐标测量方法研究》文中提出相较于成熟的雷达法、激光扫描法,基于计算机视觉的空间坐标测量方法具有非接触、全场式、高精度、低成本等优势,而针对大尺度视觉空间的空间坐标测量,静态立体视觉系统的基线距离固定,视场范围受限。为扩展视觉测量范围与提高测量精度,本文提出一种基于旋转、运动、非变焦摄像机的动态立体视觉空间坐标测量方法。本文针对动态立体视觉系统的误差源、摄像机的初始参数校准、摄像机的自动对中、摄像机在旋转或移动后动态立体视觉系统的外部参数校准与空间坐标测量等关键问题展开研究。本文主要的研究内容如下:(1)针对动态立体视觉系统的空间坐标测量,本文提出一种简化的基于差分GPS的动态立体视觉空间坐标测量模型,并将系统的误差源归结为静态误差与动态误差,着重研究各误差因素的权重以及误差因素与视场中心邻域空间坐标重建精度的关联。针对动态立体视觉系统的初始参数校准,本文提出一种六点法,即采用六个已知三维信息的控制点预先估计各个摄像机的焦距与初始姿态角,实验验证了该方法的可行性与鲁棒性,实验数据表明焦距与姿态角的标准差分别不超过0.05mm与0.019°,并且测量距离约为650m时,空间坐标的均方根误差不超过0.4m。(2)本文采用基于图像配准的目标匹配方法实现动态立体视觉系统中摄像机的自动对中,即采用不同场景图像的对应特征点计算图像间的单应矩阵并估计目标在其他场景图像中的位置从而控制摄像机旋转使得目标位于各个摄像机的视场中心。针对图像间的特征点匹配,本文结合SURF算法中利用Hessian矩阵提取特征点的方法与ORB算法中利用steered Brief算法生成描述子的方法,并取代传统的RANSAC方法,提出一种基于摄像机几何约束条件的误匹配剔除方法。相较于SURF、ORB算法,Mikolajczyk数据集仿真实验表明本文方法能够剔除相似程度较大的误匹配点对,并且耗时最少。针对目标位置估计,本文取代全局单应矩阵并采用基于Moving DLT的局部单应矩阵来描述图像间的映射关系,提高了目标的定位精度。(3)为实现摄像机旋转后动态立体视觉系统对空间坐标的实时测量,本文提出一种利用自然场景中的一组相交直线进行旋转摄像机外部参数校准的在线自标定方法。该方法基于摄像机旋转前后的内部图像单应性,仅利用相交直线的单个交点与摄像机旋转角度的初始值迭代估计摄像机的外部参数,并根据立体视觉的基本矩阵特性,采用Nelder-Mead无约束优化算法对外部参数进行修正。实验数据表明该方法估计的旋转矩阵欧拉角与平移向量相对于参考值的绝对误差平均值分别不超过0.054°与7.2mm,并且在测量距离约为200m时,摄像机旋转后的空间坐标均方根误差低于0.4m。(4)为实现摄像机移动后动态立体视觉系统对空间坐标的快速测量,本文提出一种仅利用单个已知三维信息的控制点进行运动摄像机外部参数校准的线性算法。该线性算法与仅利用单个同等控制点的迭代算法具有同等精度,但运行时间缩减了94.5%。实验数据表明该方法估计的旋转矩阵欧拉角与平移向量相对于参考值的绝对误差平均值分别不超过0.01°与2.5mm,并且在测量距离约为100m时,摄像机移动后的空间坐标均方根误差低于0.28m。

王亚龙[7](2020)在《基于SVM标定算法的气门视觉抓取系统研究》文中研究说明上下料是生产线中的必要工序,传统生产线中主要依靠人力完成,如今工业发展到自动化、智能化的阶段,现代化生产线中,通过配置工业机器人系统实现上下料操作,但需要根据目标工件的特点、及其在物料框中的摆放情况等选择合适的分拣抓取方案。对于在料框中不规则摆放的、尺寸较小的、表面圆端面特征不明显的气门工件,采用简单示教编程的方式控制机器人,不能达到自动抓取工件的目的。故为了实现气门毛坯在工序间上下料的自动化,本文参考大量的文献及视觉系统应用实例,制定针对气门工件的抓取方案。从气门工件表面特征及摆放特点入手,为解决从重叠的、多个工件中逐一分拣气门的问题,提出在对图像进行目标识别定位的基础上,利用光栅投影式立体视觉技术,求解目标工件位姿,以高精度、高效率地引导机器人抓取工件的方案,并设计视觉引导机器人抓取系统整体结构,具有一定的工程实际意义和价值。本文主要的研究内容如下:对图像中的目标工件识别定位。分析气门工件在图像中的几何特征,主要呈现椭圆形状,通过对图像进行灰度化、二值化等处理,使用改进的分水岭算法分割出目标的Blob区域,基于提取ROI区域的Hough变换椭圆拟合算法,完成在二维图像中对目标定位。立体视觉系统相关标定。通过对相机—DLP投影仪视觉系统进行分析,对该系统进行建模,分别构建图像坐标系、相机坐标系、世界坐标系、投影仪坐标系、工具坐标系等。为了求解各个坐标系之间的转换关系,参考张氏标定法进行相机标定,主要应用SVM回归算法,标定光栅投影式立体视觉模型,求解目标工件在空间中位姿。并对eye-in-hand式的手眼模型进行标定,求解了相机与工具两坐标系之间的转换矩阵,以确定机器人执行端的空间位姿。测试视觉引导机器人抓取系统。解决MATLAB与C++混合编程问题,建立视觉系统端与ABB机器人端的通讯,实现执行端位姿数据的传输,并在Robot Studio中仿真引导机器人运动,测试实际场景中机器人执行端路径规划合理性。搭建实际的视觉引导机器人抓取系统,并测试抓取气门工件,验证方案的可行性、系统的可靠性和准确性。

汤丽[8](2019)在《基于双目视觉的工件识别技术研究》文中研究表明双目视觉能够获取目标工件的空间位置信息,有利于提高工件识别的正确率和工件定位的准确率。本文旨在建立一种基于双目视觉的工件识别方法框架,通过相机标定、图像去噪、图像匹配等,获取目标工件的空间位置信息,实现工件的识别和定位。本文主要研究该过程中的图像去噪、匹配与识别定位关键技术。首先,针对经典小波阈值去噪时,硬阈值去噪造成图像断层,软阈值存在恒定偏差等问题,本文建立一种新的渐进半软阈值函数,通过连续性与偏差性分析,证明该函数可以兼顾软硬阈值优点。同时,给出新的自适应阈值公式,能够根据噪声情况进行动态调整。通过去噪后图像均方差、信噪比等指标计算,验证改进小波阈值函数的有效性。其次,针对SURF算法过度依赖Hessian矩阵识别特征点,且在进行特征点匹配时仅单向的进行欧式距离匹配容易导致误匹配点等缺点。第一步采用双向欧式距离进行匹配,能够快而准地剔除部分误匹配点;接着引入RANSAC方法假设精确匹配特征点对数学模型,剔除不符合数学模型的“外点”,从而提高匹配精度,为下一步工件空间位置信息获取打下基础。仿真结果验证本文算法的有效性,剔除了部分SURF算法误匹配点。基于图像匹配结果,由左、右图像上的目标工件像素值求取视差,最终计算出目标工件的空间位置信息。仿真结果表明本文方法距离误差小,适用于工业生产中对工件的识别与定位。

于治强[9](2019)在《基于多传感器信息融合的复合式测量系统关键技术研究》文中研究说明快速、准确地获取工件表面的坐标数据在工业领域具有广泛的应用,如工件的定位与检测,逆向工程,以及快速成型制造。随着现代工业的快速发展,对产品的功能、结构、外形的要求越来越高,这也对测量系统的性能提出了更高的要求。单一测量传感器已经不能满足现代工业对测量的精度、效率以及智能化水平越来越高的要求。因此多传感器测量技术越来越受到人们关注,已经成为现代工业测量技术的重要发展趋势。本文提出了一种接触式测头与线结构光视觉传感器集成的复合式测量系统,结合接触式测量与线结构光视觉测量各自的特点和优势,实现对具有复杂几何形状的零件的高速、高精、智能化测量。论文对复合式测量系统的数据处理、测量信息的智能化集成等关键技术进行了深入的研究,主要研究内容及成果如下:提出一种接触式测头与线结构光视觉传感器集成的复合式测量系统,实现对复杂工件的高速、高精、智能化测量。所提测量系统先利用光学测量信息指导接触式测头进行少量的接触式测量,再通过数据融合,利用高精度接触式测量数据补偿光学测量数据,以获得大量的高精度光学测量数据用于CAD模型重建。通过不同传感器测量信息的深度融合,充分发挥了各传感器的优势,形成优势互补,从而实现复合式测量系统的高速、高精、智能化测量。提出一种基于邻域分割与重构的稳健法向量估算方法,用于准确可靠地估算点云的法向量,为点云的分割、特征识别等后续操作提供基础。针对现有点云法向量估算方法对噪声、采样非均匀性比较敏感并且在边缘处产生平滑的法向量的问题,提出一种邻域分割与重建策略为点云中的每个点构建一个只包含与当前点位于同一表面的点的一致性邻域,并用该邻域准确计算当前点的法向量。提出一种鲁棒的点云分割与特征识别算法,用于准确提取点云中包含的被测物体几何信息。所提算法采用一种新的区域增长分割策略,以点的邻域的法向量标准差作为点间相似性度量,并以当前点与初始种子点的邻域法向量标准差的相似性作为种子点选取的依据,可以有效避免平滑过渡的不同曲面特征的欠分割现象,实现了复杂点云数据的准确分割。提出一种基于改进的B样条曲线变形技术的自由曲面测量数据融合算法。在传统的基于能量法的B样条曲线变形技术基础上,提出一种新的具有平滑作用的曲线内能表达形式,使得算法在保持曲线整体形状的同时对曲线具有平滑作用,提高了测量系统对噪声的鲁棒性。利用这种曲线变形技术对光学测量获得的轮廓曲线进行修正,使得修正后的曲线经过所有高精度的接触式测量点,同时保持原始曲线的整体形状并且更加光顺,因此变形后的曲线具有更高的精度。该方法只需少量的接触测点即可提高光学测量的精度,从而实现对自由曲面的快速、精确测量。

刘学平[10](2019)在《面向深度时序特征的人体动作识别方法研究》文中研究指明随着人工智能技术的快速发展,计算机视觉领域中的人体动作识别研究取得了诸多成果,并广泛地应用于智能监控、生活娱乐、人机交互、医疗康复等多种现实场景。总体上,人体动作识别研究可基于RGB视频序列和深度视频序列两种主要数据源开展,并通过计算机建模描述人体动作序列的特征,以此实现人体动作识别模型构建。而相对于RGB视频序列,深度视频序列中蕴含了更多复杂且难于提取的潜在人体动作信息,因此,如何提取深度视频序列中的人体动作特征,提出有效的人体动作识别方法是该领域研究中亟需解决的关键问题。论文基于深度视频序列中存在的复杂时空特性,在既往人体动作识别研究成果的基础上,针对亟需解决的关键性问题,展开对深度视频序列中的人体动作特征提取方法和分类识别模型构建的深入研究。在此基础上,本文的主要研究内容和创新点概括总结如下:第一,针对人体动作特征提取方法中存在时空信息数据复杂和三维视觉信息缺失的问题,提出了基于深度视频序列的深度动作历史图像、深度动作累加图像和深度动作累减图像三种深度动作序列图像模型,并将这三种动作模型分别向坐标轴的xoy平面、yoz平面和xoz平面投影,对投影图像分别提取它们的Hu矩特征,最终实现了一个完整的多视角深度时序人体动作表征。这种特征提取方法发掘了深度视频序列所具有的深度空间和时间序列数据优势,既简化了复杂的人体动作时空信息数据表征,又挖掘了深度图像的三维立体数据优势。第二,针对连续视频序列人体动作难以分割的问题,提出了一种通过关键帧选择的鞅框架实时地对视频序列进行人体动作分割的方法。根据视频序列本身具有的典型时序依赖性,该方法能够基于既有帧检测与分析实现不依赖后续帧直接分割出一个动作。为了实现视频序列中关键帧的选择,引入一种鞅框架模型来实现关键帧的选择,进而通过一种极限学习机模型算法完成视频人体动作的分割与分类识别。高效的关键帧提取与精准的人体动作分割是构建快速、准确、轻量化人体动作识别模型的关键。第三,针对如何提高深度视频序列的人体动作识别率问题,提出了一种多分类器投票策略的集成学习识别模型方法。基于机器学习理论中的集成学习方法,通过多个个体分类器结合模型的构建,实现深度视频序列的人体动作多分类器集成识别的功能。整个集成学习模型融合多个个体分类器,在本文提出的多视角深度人体动作时序特征上实现了基于Hard-投票策略的分类验证。在此基础上,提出了一个改进遗传算法学习进化感知的混合投票策略模型方法,这种方法降低了传统基于Hard-投票策略的集成学习模型在决策级上的拟合误差。第四,针对如何基于深度视频序列解决多视角人体动作识别的问题,提出了一种多视角深度人体动作表征层次化模型方法。该方法基于多视角分层融合的框架对深度视频序列的时空依赖性建模,从而实现人体动作的特征提取与分类。深度视频序列信息是一种典型的时间序列数据,考虑到循环神经网络模型能够很好的建模时间序列中上下文信息的序列依赖关系,本文考虑到深度图像所具有的三维立体视觉空间优势,将深度人体动作数据投影到三个坐标平面,再将提取的人体动作特征输入到模型中,通过使用长短时间记忆神经元的双向循环神经网络进行多视角分层融合训练,实现人体动作时序表征的精准建模与识别。第五,针对深度时序数据采集应用研究问题,通过对深度视频采集的传感器设备研究,深入研究深度视频数据的特点,论文对基于双目立体视觉和基于Kinect这两种当前先进的深度视频采集技术进行深入研究。在此基础上,分别基于双目立体视觉和Kinect(包括彩色图像、深度图像和骨架数据)采集了4个人体行为动作数据库:双目立体视觉数据库、基本动作数据库、日常生活数据库和考试行为数据库。高效准确的数据获取和内容丰富的自建数据库为拓展应用研究奠定了重要的基础。本文以基于深度视频序列的人体动作识别为主要研究内容,分别对深度视频序列的人体动作特征提取、具有典型时序依赖性的深度视频序列分割、深度视频序列中人体动作的上下文信息的序列依赖关系建模、人体动作的空间特性挖掘等问题,提出了高效、准确的人体动作特征提取、动作分割和识别方法,为相关领域的研究提供了新的思路和方法。在人体动作识别数据库上的量化实验结果表明了所提出方法的有效性,同时,自建数据库的采集为有效实现拓展应用研究奠定了重要的基础。

二、一种新的立体视觉系统的分析与设计方法(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、一种新的立体视觉系统的分析与设计方法(论文提纲范文)

(1)面向机器人操作的物体检测与位姿估计方法研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 物体检测研究现状
        1.2.2 位姿估计研究现状
    1.3 主要研究内容以及创新点
        1.3.1 研究内容
        1.3.2 创新点
    1.4 论文组织结构
第二章 特征点算法相关技术概述
    2.1 引言
    2.2 兴趣点检测
        2.2.1 Harris角点检测
        2.2.2 FAST角点检测算法
    2.3 特征点算法
        2.3.1 SIFT特征点算法
        2.3.2 SURF特征点算法
        2.3.3 BRIEF算法
        2.3.4 ORB特征点算法
    2.4 计算机视觉相关几何
        2.4.1 四个坐标系
        2.4.2 双目视觉系统成像模型
        2.4.3 位姿估计
    2.5 本章小结
第三章 一种新的图像特征描述子
    3.1 引言
    3.2 多邻域方法思想
    3.3 MNSTF算法
        3.3.1 局部结构张量
        3.3.2 旋转不变性
        3.3.3 MNSTF特征描述子
    3.4 实验与分析
        3.4.1 MNSTF算法实验分析
        3.4.2 MNSTF遮挡实验
        3.4.3 参数敏感性分析
    3.5 MNSTF算法优缺点
    3.6 本章小结
第四章 基于MNSTF算法的物体检测与位姿估计
    4.1 引言
    4.2 基于MNSTF特征的立体匹配算法
        4.2.1 双目视觉的约束条件
        4.2.2 立体匹配算法步骤
    4.3 基于MNSTF算法的物体检测
    4.4 基于MNSTF算法的位姿估计
    4.5 实验与分析
        4.5.1 基于MNSTF算法的立体匹配实验与分析
        4.5.2 基于MNSTF算法的位姿估计实验与分析
    4.6 本章小结
第五章 基于ZED双目相机的视觉系统搭建
    5.1 引言
    5.2 实验系统硬件组成
    5.3 视觉相关的准备工作
        5.3.1 ZED双目相机标定
        5.3.2 手眼标定
    5.4 实验系统的软件结构设计
        5.4.1 基础模块
        5.4.2 物体检测模块
        5.4.3 位姿估计模块
    5.5 实验与分析
        5.5.1 物体检测实验
        5.5.2 位姿估计实验
    5.6 本章小结
第六章 总结与展望
    6.1 本文工作总结
    6.2 进一步研究展望
参考文献
致谢
附录 攻读硕士学位期间撰写的论文

(2)复杂场景下的双目立体匹配技术研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题研究背景及意义
        1.1.1 机器视觉的背景
        1.1.2 双目立体视觉的研究意义
        1.1.3 立体匹配
    1.2 国内外研究现状
        1.2.1 视觉测量国内外研究现状
        1.2.2 立体匹配国内外研究现状
        1.2.3 遮挡问题国内外研究现状
    1.3 本文主要内容及结构安排
        1.3.1 本文主要研究内容及难点问题
        1.3.2 本文的结构安排
第2章 双目视觉系统与匹配原理分析
    2.1 双目测量的原理
        2.1.1 针孔成像模型及坐标转换
        2.1.2 摄像机镜头畸变模型
        2.1.3 双目视觉成像结构
        2.1.4 三角测量原理
    2.2 相机标定及图像校正
        2.2.1 传统的相机标定方法
        2.2.2 张正友标定法
        2.2.3 双目图像极线校正
    2.3 立体匹配技术研究
        2.3.1 基于区域的匹配算法
        2.3.2 相似性测度函数
        2.3.3 立体匹配的约束条件
        2.3.4 立体匹配中的主要难点
    2.4 本章小结
第3章 一种基于物体轮廓信息的可变窗口匹配算法
    3.1 引言
    3.2 一种基于物体轮廓信息的可变窗口匹配算法
        3.2.1 一种改进型轮廓检测算法
        3.2.2 一种基于Census的改进型相似性测度函数
        3.2.3 基于图像轮廓的可变窗口匹配算法
    3.3 基于可信度和同质区域的视差优化
    3.4 实验与结果分析
        3.4.1 立体匹配算法评价方法
        3.4.2 实验结果和分析
        3.4.3 实验数据和结论
    3.5 本章小结
第4章 一种自适应权重图像遮挡区域视差优化算法
    4.1 引言
    4.2 立体匹配中的遮挡问题概述
    4.3 遮挡场景及类别分析
    4.4 基于遮挡信息的自适应权重立体匹配算法
        4.4.1 基于左右一致性约束的遮挡区域检测
        4.4.2 自适应代价聚合权重生成策略
        4.4.3 基于权重因子的相似性测度函数
        4.4.4 视差计算
        4.4.5 遮挡区域的视差优化
    4.5 实验结果及分析
        4.5.1 实验结果
        4.5.2 实验数据对比和分析
    4.6 本章小结
第5章 双目视觉系统的开发与测试
    5.1 引言
    5.2 系统的硬件结构设计
    5.3 系统的软件结构设计
    5.4 双目系统测距实验
        5.4.1 双目相机标定实验
        5.4.2 实景测距实验
    5.5 本章小结
总结与展望
    总结
    展望
参考文献
致谢

(3)面向人眼视觉感知特性的图像质量评价(论文提纲范文)

摘要
ABSTRACT
符号对照表
缩略语对照表
第一章 绪论
    1.1 研究背景与意义
    1.2 研究进展与现状
        1.2.1 人眼视觉感知系统
        1.2.2 面向视觉敏感度的恰可识别差阈值估计
        1.2.3 面向视觉内容感知的超分辨图像质量评价
        1.2.4 面向立体深度感知的3D视频深度质量评价
    1.3 研究内容和主要贡献
    1.4 本文的章节安排
第二章 人眼视觉系统及其感知特性
    2.1 人类视觉系统
        2.1.1 视觉成像系统
        2.1.2 视觉神经系统
    2.2 视觉功能柱
    2.3 主观视觉感知特征
        2.3.1 方位结构复杂度
        2.3.2 亮度适应性与对比度
        2.3.3 空间频率对比敏感度
    2.4 视觉掩模效应
    2.5 视觉感知机制
    2.6 视觉深度感知
    2.7 本章小结
第三章 DCT域恰可识别差阈值估计
    3.1 引言
    3.2 基于内容复杂度的DCT域恰可识别差阈值估计
        3.2.1 基于内容复杂度的掩模效应估计
        3.2.2 基于空间频率敏感度的基本阈值模型
        3.2.3 亮度自适应模型
    3.3 基于方位规律性的恰可识别差阈值估计
        3.3.1 DCT系数的方位规律性
        3.3.2 基于方位规律性的图像块分类
        3.3.3 基于块分类的掩模效应估计
    3.4 主观实验与结果分析
        3.4.1 基于内容复杂性的恰可识别差阈值实验分析
        3.4.2 基于方位规律性的恰可识别差阈值实验分析
    3.5 本章小结
第四章 基于视觉内容感知的图像超分辨质量评价
    4.1 引言
    4.2 超分辨图像质量评价主观实验数据库
        4.2.1 超分辨图像主观质量评价实验设置
        4.2.2 超分辨图像主观质量评价实验过程
        4.2.3 主观质量评价实验结果分析与讨论
    4.3 视觉内容感知预测模型
        4.3.1 局部区域方位复杂性度量
        4.3.2 基于结构张量的各向异性度量
        4.3.3 图像梯度幅值度量
        4.3.4 相位一致性度量
    4.4 基于视觉内容预测模型的超分辨图像质量评价
    4.5 实验结果分析与讨论
        4.5.1 质量评价指标在超分辨图像上的表现比较
        4.5.2 质量评价指标在评价超分辨算法上的表现
        4.5.3 改进的相似度函数与原相似度量方法的性能比较
    4.6 本章小结
第五章 基于时空域结构特性的3D视频深度质量评价
    5.1 引言
    5.2 3D视频的主观深度感知质量评价实验
        5.2.1 主观深度质量评价视频
        5.2.2 主观深度质量评价实验设计与过程
        5.2.3 主观深度质量评价分数统计
        5.2.4 主观深度质量评价结果分析
    5.3 3D视频深度感知特征估计
        5.3.1 双目深度感知特征估计
        5.3.2 单目深度感知特征估计
        5.3.3 运动深度感知特征估计
    5.4 3D视频深度感知质量评价模型
    5.5 实验结果分析与讨论
        5.5.1 深度质量评价模型的性能比较
        5.5.2 不同深度感知特征的性能比较
        5.5.3 噪声类型与方位和频率的影响分析
        5.5.4 训练视频比例的影响
    5.6 本章小结
第六章 总结与展望
    6.1 本文总结
    6.2 工作展望
参考文献
致谢
作者简介

(4)计算机视觉中立体匹配相关问题研究(论文提纲范文)

摘要
abstract
1 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
        1.2.1 极线校正的研究现状
        1.2.2 立体匹配的研究现状
    1.3 本文的研究内容
    1.4 本文的组织结构
2 基本原理
    2.1 摄像机成像模型
        2.1.1 参考坐标系
        2.1.2 针孔模型
    2.2 两视图几何模型
        2.2.1 对极几何与基础矩阵
        2.2.2 基础矩阵的求解
    2.3 立体视觉原理
        2.3.1 标准立体视觉系统
        2.3.2 极线校正原理
    2.4 立体匹配
        2.4.1 立体匹配的约束条件
        2.4.2 立体匹配的一般框架
    2.5 本章小结
3 基于本质矩阵奇异值分解的极线校正方法
    3.1 问题描述
    3.2 本质矩阵
    3.3 本质矩阵的奇异值分解
    3.4 校正变换
    3.5 实验结果分析
        3.5.1 实验设置
        3.5.2 实验结果与分析
    3.6 本章小结
4 基于Census特征的抗辐射变化立体匹配方法
    4.1 问题描述
    4.2 基于Census特征的匹配代价计算
        4.2.1 Census变换
        4.2.2 Census特征向量的生成和代价体的构建
    4.3 基于融合自适应支持权重的代价体滤波
    4.4 视差计算与精确化
    4.5 实验结果分析
        4.5.1 实验设置
        4.5.2 实验结果与分析
    4.6 本章小结
5 用于消除匹配歧义的定向线性树代价聚合方法
    5.1 问题描述
    5.2 定向线性树结构
    5.3 在定向线性树上的代价聚合
    5.4 一维路径上的代价聚合
    5.5 基于定向线性树的视差精确化
    5.6 实验结果分析
        5.6.1 实验设置
        5.6.2 实验结果与分析
    5.7 本章小结
6 基于分组距离网络的视差预测方法
    6.1 问题描述
    6.2 卷积神经网络基本层
    6.3 分组距离网络模型
        6.3.1 特征提取
        6.3.2 基于分组距离的代价体构建
        6.3.3 代价体滤波
        6.3.4 视差回归
        6.3.5 损失函数
    6.4 实验结果分析
        6.4.1 实验设置
        6.4.2 实验结果与分析
    6.5 本章小结
7 总结与展望
    7.1 全文总结
    7.2 展望
致谢
参考文献
附录 攻读博士期间的主要研究成果

(5)面向机器人应用的DLP双目立体视觉系统研发(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 课题来源
    1.2 课题研究背景与意义
    1.3 结构光三维测量技术概述
    1.4 双目视觉发展与国内外研究现状
    1.5 主要研究内容
2 DLP双目立体视觉系统构建
    2.1 DLP双目视觉系统结构设计
    2.2 双目立体视觉系统的标定
    2.3 空间编码图案编码原理
    2.4 三维重建原理
    2.5 本章小结
3 3D测量的结构光编码的关键技术
    3.1 结构光编码图案解码原理
    3.2 基于正反投影的格雷码匹配校验技术
    3.3 基于相移条纹与格雷码周期校正的计算技术
    3.4 本章小结
4 高速3D点群计算技术
    4.1 立体匹配的基本约束
    4.2 匹配算法的研究
    4.3 基于灰度值相似的区域立体匹配优化算法
    4.4 本章小结
5 基于DLP的双目立体视觉系统
    5.1 硬件选型与实验平台搭建
    5.2 双目视觉系统软件设计
    5.3 相机标定实验
    5.4 三维重建实例
    5.5 本章小结
6 总结与展望
    6.1 全文总结
    6.2 研究展望
致谢
参考文献
附录Ⅰ 专利及软件着作

(6)基于大尺度视觉空间的动态立体视觉空间坐标测量方法研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 课题研究的背景与意义
    1.2 典型的空间坐标测量系统
        1.2.1 电子经纬仪测量系统
        1.2.2 全站仪测量系统
        1.2.3 激光跟踪仪测量系统
        1.2.4 激光雷达测量系统
        1.2.5 iGPS测量系统
    1.3 基于视觉的空间坐标测量方法
        1.3.1 静态立体视觉系统的空间坐标测量
        1.3.2 动态立体视觉系统的空间坐标测量
    1.4 动态立体视觉系统关键技术的研究现状
        1.4.1 视觉系统的标定方法研究
        1.4.2 目标匹配方法研究
        1.4.3 视觉系统的误差研究
    1.5 论文研究内容与创新点
第2章 动态立体视觉空间坐标测量模型及误差分析
    2.1 动态立体视觉系统的空间坐标测量原理
    2.2 基于差分GPS的动态立体视觉空间坐标测量方法
        2.2.1 相关坐标系简介
        2.2.2 动态立体视觉空间坐标测量模型
    2.3 动态立体视觉系统的误差分析
        2.3.1 静态误差源与空间坐标测量精度
        2.3.2 动态误差源与空间坐标测量精度
    2.4 本章小结
第3章 动态立体视觉系统的初始参数校准与自动对中
    3.1 动态立体视觉系统组成
    3.2 系统初始参数校准与验证试验
        3.2.1 初始参数校准
        3.2.2 可行性与校准精度验证
    3.3 摄像机的自动对中原理
    3.4 一种改进的图像特征点匹配方法
        3.4.1 SURF算法的特征点提取与描述
        3.4.2 ORB算法的特征点提取与描述
        3.4.3 基于摄像机几何约束条件的去误匹配方法
        3.4.4 数据集仿真试验
    3.5 基于局部单应矩阵的目标定位方法
        3.5.1 全局单应矩阵
        3.5.2 基于DHW的双单应性矩阵
        3.5.3 基于Moving DLT的局部单应矩阵
    3.6 本章小结
第4章 旋转摄像机外部参数的在线自标定方法
    4.1 基于旋转摄像机的动态立体视觉成像模型
    4.2 旋转摄像机外部参数的自标定算法
        4.2.1 典型的摄像机自标定算法
        4.2.2 仅利用单个特征点的外部参数在线自标定算法
        4.2.3 外部参数修正
    4.3 外部参数自标定实验
        4.3.1 自标定算法的性能分析
        4.3.2 实验一:室内自标定算法的可行性验证试验
        4.3.3 实验二:大视场下自标定算法的精度验证试验
    4.4 本章小结
第5章 运动摄像机的外部参数校准与空间坐标测量
    5.1 基于运动摄像机的动态立体视觉系统
    5.2 运动摄像机的外部参数校准
        5.2.1 仅利用单个控制点的线性校准方法
        5.2.2 线性校准方法的性能分析
    5.3 运动摄像机外部参数校准与空间坐标测量精度验证实验
        5.3.1 实验一:线性校准方法的可行性验证试验
        5.3.2 实验二:动态立体视觉系统的空间坐标测量精度验证试验
    5.4 本章小结
第6章 总结与展望
    6.1 论文工作总结
    6.2 工作展望
参考文献
发表论文与参加科研情况说明
致谢

(7)基于SVM标定算法的气门视觉抓取系统研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究背景及意义
    1.2 视觉引导机器人抓取系统国内外研究现状
        1.2.1 国外研究现状
        1.2.2 国内研究现状
        1.2.3 研究现状总结及问题分析
    1.3 本文主要内容
        1.3.1 本课题相关技术
        1.3.2 本文结构安排
2 视觉引导抓取系统平台设计方案
    2.1 气门抓取系统设计要求及方案
        2.1.1 系统设计技术要求
        2.1.2 系统设计方案
    2.2 系统平台整体设计
        2.2.1 ABB工业机器人系统
        2.2.2 相机与镜头选型
        2.2.3 投影仪选型
        2.2.4 标定板选型
        2.2.5 气动吸盘工具
        2.2.6 编程环境与工具库的介绍
    2.3 本章小结
3 目标工件图像处理及识别定位
    3.1 目标工件的识别定位方法及流程
    3.2 基于改进的分水岭算法的图像Blob提取
        3.2.1 图像预处理
        3.2.2 应用分水岭算法的图像分割
        3.2.3 应用改进分水岭算法的图像分割
    3.3 目标工件图像的椭圆拟合
        3.3.1 应用Sobel算子对目标工件边缘提取
        3.3.2 基于提取ROI区域的Hough变换椭圆拟合
    3.4 本章小结
4 工业机器人立体视觉系统标定
    4.1 单目相机成像及标定模型
        4.1.1 工业相机成像原理
        4.1.2 单目相机标定
        4.1.3 相机成像的畸变模型
    4.2 光栅投影式立体视觉模型
    4.3 光栅图像相位求解
    4.4 应用SVM算法的相位—三维坐标标定
        4.4.1 基于SVM算法的标定方法拟定
        4.4.2 建立SVM回归模型
        4.4.3 标定实验及误差分析
        4.4.4 目标工件空间位姿确定
    4.5 机器人执行端—相机手眼标定
    4.6 本章小结
5 视觉引导识别抓取系统的测试
    5.1 MATLAB与 C/C++混合编程
    5.2 MATLAB与 ABB工业机器人建立通讯
    5.3 视觉引导工业机器人抓取测试
        5.3.1 视觉引导工业机器人抓取策略拟定
        5.3.2 视觉引导工业机器人抓取仿真
        5.3.3 视觉引导工业机器人抓取实测
    5.4 本章小结
6 总结与展望
    6.1 总结
    6.2 展望
参考文献
个人简介及在学期间发表的学术论文与研究成果
致谢

(8)基于双目视觉的工件识别技术研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 研究背景与意义
    1.2 国内外相关研究进展
        1.2.1 图像去噪国内外研究现状
        1.2.2 图像识别国内外研究现状
        1.2.3 立体视觉技术国内外研究现状
    1.3 本文主要研究思路
第2章 摄像机标定
    2.1 摄像机成像模型
        2.1.1 坐标系间转换
        2.1.2 小孔成像模型
        2.1.3 摄像机非线性模型
    2.2 摄像机标定
        2.2.1 单目摄像机标定
        2.2.2 双目摄像机标定
    2.3 本章小结
第3章 工件识别中的图像去噪技术研究
    3.1 噪声分类
        3.1.1 基于噪声源
        3.1.2 常见噪声介绍
    3.2 图像去噪方法
        3.2.1 空间域去噪方法
        3.2.2 变换域去噪方法
    3.3 工件图像的小波阈值去噪及其改进
    3.4 实验结果与分析
    3.5 本章小结
第4章 基于改进SURF算法的双目视觉工件识别技术
    4.1 工件识别方法
        4.1.1 工件识别算法分类
        4.1.2 SIFT算法
    4.2 工件识别应用中的改进SURF算法
        4.2.1 SURF算法基本步骤
        4.2.2 工件识别中SURF算法的改进
    4.3 实验结果与分析
    4.4 本章小结
第5章 基于双目视觉的工件识别与定位实验设计
    5.1 双目视觉系统的建立和标定
    5.2 基于新阈值的小波阈值图像去噪
    5.3 基于改进的SURF算法的工件识别
    5.4 双目视觉系统下的工件定位
        5.4.1 视差原理
        5.4.2 基于双目视觉系统原理的工件定位
    5.5 本章小结
结论
参考文献
致谢
攻读硕士期间发表(含录用)的学术论文

(9)基于多传感器信息融合的复合式测量系统关键技术研究(论文提纲范文)

摘要
ABSTRACT
字母注释表
第一章 绪论
    1.1 研究背景与意义
    1.2 多传感器测量中的关键技术及研究现状
        1.2.1 多传感器测量方法的研究现状
        1.2.2 3D点云数据分割与特征识别的研究现状
        1.2.3 点云法向量估算的研究现状
    1.3 问题的提出及本文的主要研究内容
        1.3.1 问题的提出
        1.3.2 本文研究的主要内容
第二章 复合式测量系统的原理及其标定技术
    2.1 复合式测量系统的组成与原理
        2.1.1 五轴加工中心
        2.1.2 复合式测头的结构设计
        2.1.3 复合式测量系统的工作原理
    2.2 接触式测头标定
        2.2.1 测头预行程误差的分析与补偿
        2.2.2 测头预行程误差的标定
    2.3 线结构光视觉系统标定
        2.3.1 线结构光视觉系统数学模型
        2.3.2 相机标定
        2.3.3 光平面标定
    2.4 复合式测量系统的全局标定
    2.5 本章小结
第三章 基于邻域分割与重构的点云法向量估算方法
    3.1 法向量估算方法的原理与流程
    3.2 基于邻域法向量标准差的特征点识别方法
    3.3 邻域分割与重建方法
        3.3.1 基于欧式距离聚类的邻域分割
        3.3.2 基于残差约束的候选邻域构建
        3.3.3 窄带状特征的处理
        3.3.4 非均匀采样的处理
        3.3.5 邻域选择标准
        3.3.6 算法的计算复杂度分析
    3.4 结果与讨论
        3.4.1 特征保持性的比较
        3.4.2 对非均匀采样的鲁棒性的比较
        3.4.3 对噪声的鲁棒性比较
        3.4.4 细节特征保持性比较
        3.4.5 处理实际扫描点云的能力
    3.5 本章小结
第四章 3D点云数据的分割与特征识别方法研究
    4.1 点云分割与特征识别方法的原理与流程
    4.2 基于欧氏距离聚类的点云粗分割
    4.3 曲面数据特征识别和参数化
    4.4 基于改进区域增长算法的点云细化分割
    4.5 分割优化
        4.5.1 特征点的处理
        4.5.2 点云面片合并
    4.6 参数设置
    4.7 实验验证
    4.8 本章小结
第五章 多传感器测量信息融合技术
    5.1 复合式测量系统的框架
    5.2 特征指导的接触式测量
        5.2.1 测点规划
        5.2.2 测头路径规划
        5.2.3 碰撞检测
        5.2.4 碰撞规避
    5.3 光学测量与接触式测量的数据融合技术
        5.3.1 基于曲面拟合与坐标更新的几何特征数据融合
        5.3.2 基于改进B样条曲线变形技术的自由曲面数据融合
    5.4 本章小结
第六章 复合式测量系统的实验验证
    6.1 几何曲面测量实验
    6.2 自由曲面测量实验
    6.3 复杂工件测量实验
    6.4 本章小结
第七章 结论与展望
    7.1 全文总结
    7.2 创新点
    7.3 研究展望
参考文献
发表论文和参加科研情况说明
致谢

(10)面向深度时序特征的人体动作识别方法研究(论文提纲范文)

摘要
abstract
缩略词
第一章 绪论
    1.1 课题研究背景与意义
        1.1.1 智能视频监控
        1.1.2 人机智能交互
        1.1.3 生活娱乐
        1.1.4 运动分析
        1.1.5 增强现实领域
    1.2 基于深度视频的动作识别研究概述
        1.2.1 人体动作的定义
        1.2.2 国内外研究现状
        1.2.3 当前研究存在的主要问题
    1.3 深度视频的人体动作数据集
        1.3.1 MSR Action3D数据集介绍
        1.3.2 DHA数据集介绍
        1.3.3 MSRDaily Activity3D数据集介绍
        1.3.4 MSRGesture3D数据集介绍
    1.4 本文的主要研究工作和结构安排
        1.4.1 研究内容及创新
        1.4.2 论文的结构安排
第二章 深度图像序列的人体动作特征提取方法研究
    2.1 引言
    2.2 深度图像序列的人体动作特征提取研究
    2.3 多角度深度图像序列的Hu不变矩特征模型提取研究
        2.3.1 三种深度动作图像序列提取方法
        2.3.2 Hu不变矩人体动作特征模型
        2.3.3 多视角三维Hu不变矩人体动作特征模型
    2.4 实验结果与分析
        2.4.1 Traffic Action3D数据集
        2.4.2 动作建模方法比较
        2.4.3 动作特征提取方法比较
        2.4.4 动作特征识别方法比较
    2.5 本章小结
第三章 视频图像序列的人体动作分割方法研究
    3.1 引言
    3.2 视频图像序列的动作关键帧选择
    3.3 动作历史图像特征提取模型
    3.4 极限学习机算法模型
        3.4.1 SLFNs模型相关的逼近理论
        3.4.2 梯度学习
        3.4.3 极限学习机算法
    3.5 实验结果与分析
        3.5.1 IXMAS数据集实验
        3.5.2 Traffic Action3D_2 数据集实验
    3.6 本章小结
第四章 深度人体动作特征的集成学习识别模型研究
    4.1 引言
    4.2 集成学习与基模型理论
        4.2.1 k近邻(k NN)算法
        4.2.2 支持向量机(SVM)算法
        4.2.3 分类回归树(Classification and Regression Trees,CART)算法
        4.2.4 集成学习算法
    4.3 基于Hard-投票策略的模型融合
        4.3.1 投票策略
        4.3.2 模型融合与人体动作识别应用
    4.4 基于进化感知的投票策略改进
    4.5 实验结果与分析
        4.5.1 MSR Action3D数据集实验
        4.5.2 DHA数据集实验
    4.6 本章小结
第五章 多视角深度人体动作表征层次化模型研究
    5.1 引言
    5.2 多视角人体动作分析
    5.3 人体动作表征层次化模型设计
        5.3.1 循环神经网络模型(RNN)
        5.3.2 长短时间记忆神经元(LSTM)模型
        5.3.3 双向循环神经网络模型设计(BRNN)
        5.3.4 深度表征层次化模型设计
    5.4 实验结果与分析
        5.4.1 MSR Action3D数据集实验
        5.4.2 DHA数据集实验
    5.5 本章小结
第六章 深度时序数据采集应用研究
    6.1 引言
    6.2 双目立体视觉的人体动作采集研究
        6.2.1 双目立体视觉介绍
        6.2.2 双目立体视觉的标定
        6.2.3 立体匹配相关的研究
        6.2.4 双目立体视觉人体动作数据采集实验的设计及实现
    6.3 Kinect传感器的人体动作采集研究
        6.3.1 Kinect传感器介绍
        6.3.2 Kinect的人体动作数据采集技术
        6.3.3 Kinect人体动作数据采集实验的设计及实现
    6.4 本文自采集的数据集
        6.4.1 双目立体视觉人体动作库(Binocular Action Dataset)
        6.4.2 基本动作数据库(Basic Dataset)
        6.4.3 日常生活数据库(Daily Dataset)
        6.4.4 考试行为数据库(Examination Dataset)
    6.5 实时监控的考试系统应用研究
        6.5.1 数据获取与数据处理
        6.5.2 基于Kinect的考试实时监控系统
    6.6 本章小结
第七章 结束语
    7.1 总结
    7.2 展望
参考文献
致谢
在学期间的研究成果及发表的学术论文

四、一种新的立体视觉系统的分析与设计方法(论文参考文献)

  • [1]面向机器人操作的物体检测与位姿估计方法研究[D]. 程鹏飞. 北京邮电大学, 2021(01)
  • [2]复杂场景下的双目立体匹配技术研究[D]. 张煜祺. 兰州理工大学, 2021(01)
  • [3]面向人眼视觉感知特性的图像质量评价[D]. 万文菲. 西安电子科技大学, 2020(02)
  • [4]计算机视觉中立体匹配相关问题研究[D]. 吴文欢. 西安理工大学, 2020(01)
  • [5]面向机器人应用的DLP双目立体视觉系统研发[D]. 陈曼林. 华中科技大学, 2020(01)
  • [6]基于大尺度视觉空间的动态立体视觉空间坐标测量方法研究[D]. 王越. 天津大学, 2020(01)
  • [7]基于SVM标定算法的气门视觉抓取系统研究[D]. 王亚龙. 郑州大学, 2020(02)
  • [8]基于双目视觉的工件识别技术研究[D]. 汤丽. 沈阳航空航天大学, 2019(04)
  • [9]基于多传感器信息融合的复合式测量系统关键技术研究[D]. 于治强. 天津大学, 2019(01)
  • [10]面向深度时序特征的人体动作识别方法研究[D]. 刘学平. 南京航空航天大学, 2019(01)

标签:;  ;  ;  ;  ;  

一种新的立体视觉系统分析与设计方法
下载Doc文档

猜你喜欢