一、时频参数和模糊分类器在词边界检测中的应用(论文文献综述)
张云[1](2021)在《基于知识发现的中药方剂核心药物识别研究》文中研究指明中药方剂是中医药治疗疾病的主要手段,自记载以来,众多方剂记录于中医医书和文献。方剂由中药根据配伍原则组合而成,方中君药和臣药作为方剂核心药物,扮演治疗疾病关键角色,用于病人主要证候,缓解主要症状。因此,明确治疗疾病的核心药物有利于揭示方剂配伍规律,发现疾病治疗关键药物,辅助医生合理方剂配伍。本文通过设计知识发现模型,基于社区检测分析结构化方剂数据,基于中文词向量分析非结构化文献数据,开展中药方剂核心药物识别研究。主要研究工作如下:1)社区检测能挖掘网络中相似属性的节点集合并发现重要节点。中药方剂核心药物可视为具有相同或相似功效的药物集合的重要药物。通过将中药关系构建为药物网络,检测药物社区和重要药物,实现中药方剂核心药物识别。针对社区检测问题,提出社区检测算法:基于鲸群优化的社区检测算法(Whale Optimization based Community Detection Algorithm,WOCDA)和基于多节点能力的标签传播社区检测算法(Node Ability based Label Propagation Algorithm,NALPA),为结构化方剂数据分析奠定方法基础。WOCDA算法中,通过模仿座头鲸捕猎行为,设计新初始化策略和收缩包围、螺旋更新、随机搜索三种操作,优化模块密度,实现社区检测;NALPA算法中,受人类社会启发设计节点传播能力、吸引能力、发射能力和接收能力衡量节点重要性和影响范围,受雷达传输启发设计标签重要性衡量标签传播到其它节点时的权重变化,设计新标签传播流程处理现有标签传播算法不稳定的问题。实验结果表明,所提社区检测算法在合成网络和真实网络上检测的社区质量高于对比算法。2)针对结构化方剂数据的核心药物识别,提出面向结构化方剂数据的中药方剂核心药物识别模型:基于标签权重社区检测的方剂核心药物识别模型(Core Drug Identification model based on community detection with Label Weight,CDILW)和基于图布局社区检测的方剂核心药物识别模型(Core Drug Identification model based on community detection with Graph Layout,CDIGL)。通过分析中药关系,将药物建模为节点,如果药物治疗相同的证候症状,则在两个药物间建立边关系,构建药物网络。面向结构化方剂数据的中药方剂核心药物识别模型,包括两个阶段:药物社区检测和核心药物识别。药物社区检测阶段,在药物网络上检测不同证候的药物社区。在CDILW模型药物社区检测阶段,基于力导引图布局设计节点吸引力代表中药相似性,结合节点吸引力和节点重要性定义标签重要性代表中药不同功效的重要性,标签传播过程中考虑标签权重更新,提高药物社区稳定性。在CDIGL模型药物社区检测阶段,基于(a,r)能量模型首先将网络布局为紧凑布局,提出位置节点标签初始化策略,然后将网络布局为均衡布局,基于均衡布局的吸引力,设计动态节点重要性和标签重要性代表药物重要性和不同功效的重要性,融合图布局和社区检测,提高药物社区检测稳定性。核心药物识别阶段,将药物社区中度数较大的药物节点视为核心药物,实现中药方剂核心药物识别。实验结果表明,所提模型可检测不同证候的核心药物,表明识别结构化方剂数据核心药物的有效性。3)中药方剂和药物描述主要记录于文献,中文词向量模型基于上下文语境分析词语语义,可理解中药药性、功效和主治等含义,生成药物语义嵌入向量计算药物相似度,构建药物语义网络,识别药物社区和核心药物。针对药物语义分析问题,提出基于汉字笔画、结构和拼音特征子串的中文词向量模型(stroke,structure and pinyin feature substrings based Chinese word embedding model,ssp2vec)和融合句法、共现和相似关系的中文词向量模型(Syntax,Word cO-occuRrence and Inner-character Similarity based Chinese word embedding model,SWORIS)。ssp2vec 模型中,设计特征子串融合词语笔画、结构和拼音特征,预测词语上下文以实现中文词语语义表征;SWORIS模型中,设计对称卷积自动编码机提取汉字笔画和结构潜在特征,度量词语相似关系,构建图网络保存句法、共现和相似上下文关系,基于概率随机游走采样策略生成图上下文,基于目标词语预测图上下文词语实现中文词语语义表征。实验结果表明,所提词向量模型优于对比模型。4)针对非结构化文献数据的核心药物识别,提出面向非结构化文献数据的中药方剂核心药物识别模型:基于集成特征中文词向量的方剂核心药物识别模型(Core Drug Identification model based on Chinese word embedding with Ensemble Feature,CDIEF)和基于特征概率中文词向量的方剂核心药物识别模型(Core Drug Identification model based on Chinese word embedding with Feature Probability,CDIFP)。检索中医治疗目标疾病相关文献,预处理建立疾病语料库。面向非结构化文献数据的中药方剂核心药物识别模型,包含四个阶段:药物嵌入向量学习、药物语义网络构建、语义网络社区检测和核心药物识别。药物嵌入向量学习阶段,利用疾病语料库潜在中医领域知识学习中药语义嵌入向量。在CDIEF模型的药物嵌入向量学习阶段,集成中药词语笔画n-gram、结构和拼音特征,基于词语集成特征预测上下文词语,分析药物语义将其表征为嵌入向量;在CDIFP模型的药物嵌入向量学习阶段,针对中文多义词问题,将中文词语表征为多个高斯分布,结合特征子串提出中文词语特征概率表示,捕捉中文词语多维含义,分析药物治疗不同证候的含义,优化基于相似度的目标函数实现中文词语语义表征。药物语义网络构建阶段,将中药视为节点,在高相似度的中药间构建边以建立药物语义网络;语义网络社区检测阶段,基于社区检测发现不同证候的药物社区;核心药物识别阶段,将药物社区中度数较大的药物节点视为核心药物,实现中药方剂核心药物识别。实验结果表明,所提模型可检测不同证候的核心药物,表明识别非结构化文献数据核心药物的有效性。
万乃嘉[2](2021)在《基于领域自适应的芯片字符检测技术研究》文中提出字符识别是受到学术界和工业界重视的技术,需要根据针对性的场景设定和模型设计来解决相关实际问题。芯片字符识别作为字符识别的一种特殊场景,可以解决工业缺陷检测、自动化配装芯片等广泛性的工业问题。早期芯片字符识别方法,例如模板匹配等,只能在固定字体和固定场景发挥效果,但近年来随着深度学习算法的扩展和显卡浮点性能的增加,深度学习模型能够识别更多相似字体和更多场景的芯片,但深度学习模型的高精度基本建立在大量而广泛的字符图片数据集上,而在实际情况中,芯片字符数据集由于受到工厂现场条件限制,采集数据困难,所能采集的图片量不丰富,并且图片清晰度较低,有效样本数非常少,这为通常的模型的训练造成了一定困难。针对以上问题,本文旨在建立一种基于领域自适应的芯片字符识别模型,为以上问题的解决做一些工作。本文的主要工作内容如下:(1)为解决芯片字符位置检测所需样本数量较多,但实际难以提供充足的芯片字符数据的小样本情况,本文基于领域自适应相关算法,将对抗学习方法融合于芯片字符位置检测中,提高了在小样本无监督条件下,芯片字符位置检测算法的检测精度。检测算法充分融合了领域自适应方法的优势,将源域数据作为基础对目标域数据进行优化。同时,本文为使检测算法在工业芯片上取得更好的应用效果,对图片的分割提出了针对性的解决方案。(2)为解决芯片字符识别在实际情况下数据集难以标注,且数据质量差的小样本无监督问题,本文建立一种字符识别模型,在目标数据集难获得且数量较少的情况下仍有较好的芯片字符识别效果。本文以衡量域间距离的损失函数和梯度翻转层为基础,以注意力机制的权重矩阵和分类器输出为区分方式,将多维度的特征图像分层次放入不同的域判别器中,减少了负迁移的现象,增强了识别精度。(3)基于以上工作,本文设计实现了基于领域自适应的芯片字符识别系统,并在工业芯片字符数据集上进行了测试和验证。该系统在一定程度上解决了工业生产线芯片检测图像采集模糊、数据量较少但要求较好检测精度的问题,同时减少人工分拣芯片的人力损耗。
郭韩磊[3](2020)在《基于深度学习的视觉SLAM闭环检测研究》文中研究指明在未知环境中,移动机器人的即时定位与地图构建(Simultaneously Location And Mapping,SLAM)是机器人导航领域最重要的研究课题之一。随着近些年深度学习技术的不断发展以及在图像处理方面的优异表现,基于深度学习技术的视觉SLAM也渐渐被关注,而闭环检测作为有效减小环境地图误差的办法,也成为深度学习算法中重要的应用之一。本文在对现阶段视觉SLAM和深度学习算法深入研究的基础上,对传统的基于视觉SLAM闭环检测方法的缺陷,例如特征提取过度依赖于人的认知、对图像极度变化的识别鲁棒性不高,消耗计算资源较大等问题进行分析,将深度学习算法应用于闭环检测中。提出了一种新的基于卷积自编码网络的闭环检测模型,并对闭环检测后的轨迹进行优化,使得轨迹更加精确。本文的具体研究内容如下:(1)首先对视觉SLAM系统的整体流程进行概述,并对传统的闭环检测方法进行实验和分析,发现传统算法的局限性和不足之处。同时结合深度学习中的卷积神经网络和栈式自编码器的特性提出一种新的基于卷积自编码网络的识别模型,该模型可用于大规模场景识别。本模型具有双通道端到端的特点,实现了特征嵌入,具有良好的鲁棒性和紧凑性。该模型的特征提取模型建立在栈式自编码器上,与经典的Net VLAD融合,称为CAE-VLAD-Net(Convolutional Auto-Encoder–Vector of Locally Aggregated Descriptors–Network)。模型整体框架是一个教师学生策略模型,因此引入原始Net VLAD模型作为基准,有效借鉴了其高准确率,试图从一个大而准的教师网络中获取辅助信息来训练小而快的学生网络。本文在不同的具有挑战性的数据集下做了广泛实验,证明了提出模型的识别能力,从准确-召回曲线、AUC曲线下面积、特征提取时间等多维度进行了对比实验。(2)由于传感器采集图像具有连续性和密集性,存在大量极其相似的连续场景,这会导致检测到大量错误闭环。为了提高闭环的精确度,提出一种基于CAE-VLAD-Net模型的特征提取算法,进一步将其用于基于关键帧的闭环检测中。在检测闭环时,根据图像特征分布确定关键帧的位置并作处理,不是对每一帧都进行闭环判断,而是基于关键帧位置和关键帧数量判断图像特征欧式距离,最终确定距离最短为闭环发生。(3)闭环检测是有效减小构建地图误差的办法,但是对于机器人的长时间移动以及极具挑战性的场景,闭环判断依然会存在误差。本文在判断出闭环的前提下提出一种基于多态增量式的图优化方法,该方法对闭环轨迹重新生成因子图,因子图中的节点是闭环图中若干连续位姿的集合,每一个节点都包含其中连续位姿的平均状态,从而构成新的多状态图结构,在该图结构下对节点进行优化。多态增量式的图优化不仅帮助生成更加全局一致的地图,而且在优化时间上远小于对每一个位姿节点都优化的方法。
汪诚愚[4](2020)在《面向中文短文本的关系抽取算法设计》文中提出海量互联网数据的异构、多源和异质等问题使得高效、精准的知识获取成为巨大的挑战。关系抽取是自然语言处理中的一项基础性任务,从无结构化的文本数据中自动获取结构化的关系型事实,为大规模知识图谱的构建和互联网智能知识服务提供支持。随着深度学习技术的广泛应用,神经关系抽取模型的精度获得了很大提升。然而,现有的主流研究一般关注英语语言的、句子级别的关系抽取。与英语不同,中文表述灵活多变,语法和构词规则相对不固定,大量语义知识蕴含在中文短文本中,通常很难被现有算法有效抽取。本文主要研究面向中文短文本的关系抽取问题。由于中文短文本独特的语言学特征,其关系抽取任务与传统工作相比具有诸多挑战。短文本的语法结构和语义一般不完整,部分短文本蕴含的语义关系属于常识性知识,关系表述的上下文高度稀疏。与英语相比,中文基础自然语言分析较低的准确度,以及短文本关系抽取标注数据集的缺乏也增大了这一问题的难度。本文分别从基于词嵌入的上下位关系抽取、知识增强的语义关系抽取、以及非上下位关系抽取与语义理解等三个方面进行深入研究,设计了面向中文短文本的关系抽取框架,较好地解决了上述挑战。本文的主要工作和贡献概述如下:(1)基于词嵌入的上下位关系抽取:分类体系是知识图谱中概念的层次化表示和重要组织形式,由大量上下位关系构成。与英语相比,由于中文语言表述高度灵活,中文上下位关系抽取不能简单采用文本匹配算法来实现。本文结合神经语言模型和中文语言学特性,采用词嵌入作为中文术语的特征表示,建模中文上下位关系在词嵌入空间的表示,即学习中文下位词在词嵌入空间中投影到对应上位词的过程。本文首先提出了半监督式上下位关系扩展模型,即迭代地从互联网数据中发现新的上下位关系元组,解决了中文上下位关系数据集大小有限的问题。为了精确建模中文上下位关系与非上下位关系分类的决策边界,我们进一步提出基于转导学习和模糊正交投影学习的两个上下位关系分类模型。实验效果表明,提出的模型在精度上超过了现有最佳方法,有效实现中文上下位关系抽取。(2)知识增强的语义关系抽取:上述基于词嵌入的上下位关系抽取模型依赖于特定领域的训练集,对其他类别的数据源和相关任务没有加以良好运用。本文以词嵌入投影模型为基础,探索知识增强的语义关系抽取算法,从多知识源、多语言、多词汇关系三个角度,抽取多种类型的语义关系。首先,由于大规模分类体系中含有大量上下位关系,本文提出分类体系增强的对抗学习框架,利用双重深度对抗学习机制,将互联网中的海量上下位关系知识融入基于特定训练集的词嵌入投影神经网络中。其次,本文扩展了模糊正交投影模型,分别提出了迁移模糊正交投影模型和其扩展版本迭代迁移模糊正交投影模型,结合了深度迁移学习和双语术语对齐技术,在小样本学习场景下,实现了面向小语种的跨语言上下位关系抽取。最后,由于知识本体中一般包含多种类别的词汇关系,本文提出超球关系嵌入模型,对多种类别的词汇关系分别进行语义建模,学习其超球嵌入表示,使投影模型可以对多种词汇关系进行分类。相应自然语言处理任务的实验效果证明了这三种模型的有效性。(3)非上下位关系抽取与语义理解:中文短文本中通常具有类别繁多的非上下位关系,前述模型预测的关系类别由人工定义,难以扩展至开放领域,而且缺乏常识性关系检测和深度关系理解的能力。在这一部分研究中,首先提出基于模式的非上下位关系抽取算法,它采用图挖掘技术,从中文短文本中挖掘出表达丰富语义关系的频繁语言模式,无监督地抽取出与这些模式相对应的非上下位关系三元组。由于上述方法只能抽取出频繁模式对应关系,本文进一步提出数据驱动的非上下位关系抽取算法,它采用三阶段的数据驱动架构,实现从中文短文本的切分到关系生成的完整流程,提升关系抽取的覆盖率。最后,我们观察到,基于习语性分析的语义理解技术可以从中文短文本中推导出更多关系,实现深度知识推理。本文据此提出了关系性与组合性表示学习框架,对中文复合名词的习语性程度进行分类,并且探究这一算法对自然语言理解的提升作用。实验结果表明,上述算法在面向中文短文本的关系抽取中,不局限于人工定义关系类别,可以在多个领域准确地抽取出多种非上下位关系。综上所述,本文从三个方面解决从中文短文本中抽取语义关系的问题,在多个自然语言处理任务相关的公开数据集上进行实验,实验结果证明了提出方法的有效性。本文的研究工作也为实现面向互联网海量中文短文本的关系自动抽取和语义理解系统提供技术基础,在尽可能减少人工干预的情况下,充分挖掘短文本中蕴含的知识,从而对现有大规模中文知识图谱系统进行扩展和补全。
周婉婷[5](2019)在《基于词向量的文本倾向分析的向量表示方法研究》文中认为随着工业和信息技术的进步,人类对自然环境的影响逐渐增大,环境变化同时影响人类社会的活动。了解人们对环境变化的想法可以在相关工作中更准确快速地发现亟待解决的问题。而在自媒体的时代,人们可以在各种平台发表自己的观点,这些观点对其他人具有参考价值。由于非常多的观点以文本的形式发表,且数量较多,涉及的领域各不相同,用计算机对这些文本进行自动处理已经成为研究的热点。这类任务被称为倾向分析任务,它可以分为对整篇文档进行分析的粗粒度倾向分析,以及对句子和词语进行分析的细粒度倾向分析。对于处理人类的自然语言的任务,文本表示一直是非常关键的环节。特征提取和特征加权方法采用词袋模型,存在缺少语义信息、高维度和高稀疏性的问题。本文将特征加权、词嵌入方法Word2Vec与话题模型相结合,在粗细粒度上均提出新的文本表示方法,新方法的模型维度低且涵盖更多语义信息。对篇章级的文档表示,本文提出一种无监督的基于特征概率嵌入向量的文本表示方法。它有三个模型,分别是FTW、FTC和FT2,主要用于短文本。本文的方法从词语的角度增加语义信息,从空间的角度增加向量空间模型的表达能力,极大地降低了文档向量的维度,可以很好地解决词袋模型在文本表示中存在的问题。为了验证方法的有效性,本文将提出的方法在两个中英文数据集测试。对词语级的倾向分析,本文提出一种基于频率交叉熵和模糊词模型的词向量表示方法,通过对不同领域的语料库中的词做聚类,将相似的词整合在一起,得到的词簇可以在构建领域知识库时作为不同领域的词库使用。频率交叉熵用于寻找通用的词汇。模糊词模型支持从多个维度描述同一个词,它基于词嵌入技术。本文将这两种算法组合,得到一种新的词向量表示方法,适用于词聚类任务,实验可以验证方法的有效性。词语级倾向分析中的另一个重要需求是提取文本中的关键信息。传统的特征提取方法和各种话题模型都可以用于此类寻找关键信息的任务。本文基于词向量进行特征加权,然后将特征加权的结果与LDA话题模型结合,提出一种基于相似特征频率的文本表示方法,它适用于话题抽取。实验表明这种方法能够将语义更相关的词放在同一个话题下。
艾朝阳[6](2016)在《语言边界论》文中研究表明21世纪科技高度发达,但语言到底是什么的老问题还没有解决。不仅老问题还没有很好解决,而且新问题也在亟待解决。这些问题都可以归结为语言在哪里的问题,或语言与存在的问题,也即语言的边界问题。本文企图通过回答语言在哪里的问题来寻求找到语言是什么的问题的新视角,以此促成语言存在的边界转向。因此其主要贡献在于(1)明确提出语言是边界。(2)发现语言有边界。(3)建立了语言边界运动体系。(4)提出并实施哲学的“whereis”范式。(5)提出并初步建立了语言边界方法论。(6)回答了语言在哪里的问题。总之,某个意义上找到了语言的本质:语言是边界。也即是回答了语言是什么的根本问题。思想史上还少有提出过语言在哪里的问题,更没有科学地回答过语言在哪里的问题。我们希望通过回答语言在哪里的问题来接近对语言是什么的问题的回答。我们的回答是:语言在边界。本文围绕语言在哪里的问题探索了三个方面、回答了三个基本问题。本文探索了(1)边界的属性及语言边界思想的源头(2)语言边界的宏观、中观以及微观层面(3)语言边界方法论。本文根据语言的边界属性也就是语言的边界性回答了语言是什么、在哪里、语言能力是什么、语法的本质是什么等问题。本文提出边界是语言、知识和主体性三位一体的存在,所以,语言是边界的基本属性之一,由此提出建立新语言观、新知识观和新主体性观。文章把语言纳入整个宇宙的考虑中,认为语言是有层级性的存在,不是人类所独有的,指出人类语言(HL)的普遍语法受制于宇宙(世界)普遍语法,而人类语言的语法与语言能力也是有层级性的,各自有各自的边界条件。该研究为语法的自然属性和社会属性划界,发现现代有关的语言理论各有自己的正确性,而语言边界思想有利于消解有关语言的一些冲突进而达到统一。本文通过对人类语言的中观和微观的边界运动,探索了边界语法,揭示了人类语言的边界性,并运用语言边界方法对语言的历时与共时的本质、词与句的边界问题、外语教育问题、语言的感知与产出问题、人-机翻译的边界问题进行了具体的探索。通过该研究的实施,本文超越传统的“whatis”范式,开启了“whereis”的哲学范式,建立了语言学的语言边界理论,提供了另一种解决语言问题的途径。如果说海德格尔为存在找到了家——语言,那么我们为语言找到了“家”——边界,进而说明存在的循环本质。最终回答了语言是什么这个根本问题:语言是边界。
常贵春[7](2016)在《轻轨锚固螺杆松动故障诊断研究》文中指出重庆的单轨式轨道交通在中国是首次引进的,锚固螺杆作为其中非常重要的受力部件,一旦它们发生松动故障而且没有被及时发现的话,将带来灾难性后果。因此研究一种高效准确的锚固螺杆松动故障检测方法成为重庆轻轨交通健康检测系统中非常重要的一个分支。论文从重庆轨道的实际情况出发,利用信号采集装置获得锚固螺杆振动信号,研究分析其信号的特点,针对检测准确率低、故障样本极度缺乏难题,提出一种新的有效诊断方法,实现了对锚固螺杆故障情况的诊断。首先,简要介绍了锚固螺杆的信号采集系统,使用改进小波阈值去噪法对采集到的信号进行去噪,便于后期对信号的特征提取。接着,针对螺杆信号的特点,从信号的时域、频域和时频联合域出发,运用集合经验模态分解、平滑威格纳-维尔分布、波包分解等方法对锚固螺杆信号进行了特征提取,一共提取到71个特征。然后,在分类时并不是特征的数量越多越好,过多的特征不仅会产生数据的大量冗余,增加计算时间和成本,还可能会产生过拟合,降低检测的准确率。为解决此问题,引入遗传模拟退火算法对锚固螺杆的特征进行筛选,最终选出一组最优的特征子集。最后,在锚固螺杆的故障诊断中,正常的样本非常容易获得,而故障样本极度缺乏,传统的二值分类方法无法根据现有样本构建起分类器进行分类,为了解决这个难题,引入支持向量数据描述方法(support vector data description,SVDD),仅仅依靠正常样本就可以建立起故障分类器。使用选择出的最优特征集训练和测试SVDD分类器进行分类,通过实验验证了此方法的可行性。同时对比了SVDD与其他几种常用的单值分类方法应用到锚固螺杆松动故障诊断中的差异,表明SVDD分类方法是结果最好的。实验中把上述方法应用到锚固螺杆松动故障诊断中,诊断结果表明在适当牺牲错检率的情况下,保证没有出现漏检情况,整体诊断准确率在93%以上,满足了故障检测的要求。
罗新斌[8](2016)在《机器视觉带材表面缺陷检测关键技术研究》文中提出金属带材是工业基础性原材料,其表面质量作为产品重要性能参数越来越受到企业关注。表面检测数据不仅可以用于分析工艺问题,还可为成品管理提供重要依据。随着市场需求量快速上升,基于机器视觉的表面检测技术已经成为研究热点。目前该技术市场不仅被国外垄断,且技术仍未成熟。本文对目前金属带材表面检测中存在的技术问题展开研究。通过对其中关键技术分析总结,给出了解决方案。在完成了样机研制后进行了工程应用验证,最终成功得到了应用推广。期间形成创新性成果包括:1.针对数据采集过程中干扰因素造成图像非均匀性问题,提出统计背景估计的高斯马尔科夫模型校正方法,解决了图像非均匀性和图像序列灰阶不一致性问题;对校正后的图像数据提出基于3σ准则的自适应背景纹理的缺陷提取方法,解决了高数据率下缺陷检测的实时性问题。两种方法的融合实现使系统检出率和稳定性得到了保证。2.针对变背景纹理与非显着性缺陷图像分割问题,提出组合分割算法。该方法基于3σ准则自适应双阈值、残差卡方分割、自适应熵检测,以误分概率最小准则实现自动组合分割,并采用固定阈值异常判断。结合自动多线程技术实现,提高了分割准确性。3.针对多形态非显着性缺陷在大数据率下识别的技术难点,提出最近邻与词袋模型两级识别方法。方法通过缺陷特征与最近邻法过滤缺陷数据;再通过混沌特征描述缺陷形态的非确定性,再构造中层特征描述其隐含的工艺特征信息进行二级识别。4.为获取稳定且高质量的图像,对其中关键部件进行了自主研制,形成了多项专利技术:一体化多路线阵相机光学采集装置、线光源调整装置、自锁定线阵相机调整装置、适用于线扫描应用的一体化线性光源。5.针对有色加工行业表面检测需求,研制了具有完全自主知识产权的带材表面检测系统,经持续优化和完善后得到企业用户的认可。打破了国外技术垄断的局面。
周健鹏[9](2016)在《稀疏分解理论在超声无损检测信号处理中的应用》文中研究表明超声检测技术作为目前应用最广泛的一种无损检测技术,是确保设备安全运行的重要手段。因而超声信号处理在降低材料内部缺陷诊断准确性的问题中一直占据重要地位。每种新信号处理理论出现后,都会对超声信号处理领域造成深远的影响,应用在超声信号处理领域都会有新发现和新方法。随着信号处理领域的发展,超声信号处理也出现相应的算法如傅立叶变换、自适应算法、神经网络算法、小波变换算法等多种处理方法。由于超声检测信号具有非平稳的特性,所以在超声回波信号去噪和特征波检查识别都需要进一步研究,匹配追踪算法的出现给超声回波信号处理引入了新的切入点,随着信号处理的发展,匹配追踪算法也在不断革新,正交匹配追踪算法、压缩感知匹配追踪算法等都在图像和信号处理领域得到较为广泛的应用,对匹配追踪算法进一步研究也就显得尤为的重要了。超完备字典是匹配追踪算法的重要组成部分,在超声回波信号的特征波检测中,本文引用了超完备字典理论。其采用超完备的冗余函数系统代替传统的正交基函数,为信号自适应的稀疏扩展提供了极大的灵活性。稀疏分解可以实现数据压缩的高效性,更重要的是可以利用字典的冗余特性捕捉信号内在的本质特征。由于超声回波信号是非稳定信号,能够完全提取超声波回波信号特征较为不易,所以本文运用了与超声回波信号本质特征基本相同的超完备字典。通过K-SVD算法训练得到的超完备字典对超声回波的本质特征具有良好的可分性,可分性对超声回波信号特征检测至关重要,可以清晰的提取出超声回波所有的有用信号,为超声检测判断材料内部缺陷做出准确的识别。如何正确提取出超声回波信号本质特征去除各种干扰噪声是本文主要研究的问题。稀疏分解理论在处理以上问题上提供了非常好的思想,基于改进后的Gabor字典上使用匹配追踪算法,对上述超完备字典进行字典原子挑选,再将这些优秀原子进行线性组合,得到超声回波信号本质特征,最为可能的还原信号,得到原始信号。本文用小波通过仿真实验将本文方法与传统的小波阈值去噪方法进行了对比研究。实验结果表明,该方法对超声回波信号的去噪效果优于小波阈值去噪方法,且噪声越大对比越明显,不仅可更有效地滤除信号中的高斯白噪声,提高信噪比,且尽可能保留了原始信号有用信息。
肖启阳[10](2015)在《局域均值分解分析的管道泄漏孔径识别及定位》文中认为天然气正逐步成为满足工业生产和城市居民生活的主要能源,然而由于管道老化、腐蚀、焊缝缺陷等原因而产生泄漏的危险日益增加,成为燃气管道安全运营的重要隐患,因此开展对燃气管道的泄漏及时识别与定位的研究,对保障管道运营具有重要意义。本文主要研究了天然气管道泄漏孔径识别与定位算法,针对气体管道泄漏信号,研究局域均值分解方法并对不同孔径的泄漏信号进行处理,提取有效泄漏特征,在此基础上对泄漏孔径识别与定位。本文的主要研究内容有:首先,在分析国内外管道泄漏检测与定位的研究现状基础上,探讨了非平稳信号的处理方法。针对传统的信号处理方法不适应于非平稳信号,采用局域均值分解的方法对复杂泄漏信号进行处理,从分解原理、瞬时频率、方法特点等几个方面主要介绍了局域均值分解方法,并对其优缺点进行了分析,给出仿真信号。其次,针对管道泄漏孔径大小难以识别的问题,提出基于局域均值分解包络谱熵及支持向量机的识别方法、基于总体局域均值分解的有效值熵及Boosting-SVM的识别方法和基于核密度估计的泄漏孔径识别方法。以上方法对传感器采集的信号进行分解,利用熵表征不同孔径的泄漏特征,在此基础上研究了Boosting-SVM及核密度估计的识别算法。实验结果表明文中提出的算法能够有效区分泄漏孔径类别,识别准确率较高。最后,针对天然气管道泄漏定位的问题,采用局域均值分解方法改进了传统的互相关时延方法;并在分析非平稳信号到达时间差方法的基础上,提出一种基于总体局域均值分解及高阶模糊度函数的时延估计方法。该方法首先对泄漏信号进行处理获取含有主要泄漏信息的PF分量,采用高阶模糊度函数法计算主PF分量的时间、频率、幅值等时频参数,分析时频参数获取时延信息,在此基础上,结合波速实现泄漏定位。实验结果表明,本文提出的方法能够进行定位且精度较直接相关法明显提高。
二、时频参数和模糊分类器在词边界检测中的应用(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、时频参数和模糊分类器在词边界检测中的应用(论文提纲范文)
(1)基于知识发现的中药方剂核心药物识别研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外相关研究进展 |
1.2.1 中药方剂配伍规律挖掘 |
1.2.2 中药方剂核心药物识别 |
1.3 本文的主要贡献与创新 |
1.4 本文的结构安排 |
第二章 相关基础知识 |
2.1 中药方剂 |
2.1.1 方证相应 |
2.1.2 组方原则 |
2.1.3 核心药物 |
2.2 知识发现 |
2.2.1 社区检测算法 |
2.2.2 词向量模型 |
2.3 本章小结 |
第三章 基于鲸群优化和标签传播的社区检测算法 |
3.1 基于鲸群优化的社区检测算法 |
3.1.1 个体表示和初始化 |
3.1.2 鲸群优化操作 |
3.1.3 适应度函数 |
3.1.4 实验设置 |
3.1.5 实验结果与分析 |
3.2 基于多节点能力的标签传播社区检测算法 |
3.2.1 多节点能力 |
3.2.2 标签重要性 |
3.2.3 NALPA算法设计 |
3.2.4 实验设置 |
3.2.5 实验结果与分析 |
3.3 本章小结 |
第四章 基于社区检测的中药方剂核心药物识别 |
4.1 药物网络构建 |
4.2 基于标签权重社区检测的方剂核心药物识别 |
4.2.1 药物社区检测CDILW_(cd) |
4.2.2 核心药物识别CDILW_(di) |
4.3 基于图布局社区检测的方剂核心药物识别 |
4.3.1 药物社区检测CDIGL_(cd) |
4.3.2 核心药物识别CDIGL_(di) |
4.4 本章小结 |
第五章 基于特征子串和关系融合的中文词向量模型 |
5.1 基于汉字笔画、结构和拼音特征子串的中文词向量模型 |
5.1.1 汉字内部特征 |
5.1.2 特征子串 |
5.1.3 ssp2vec模型设计 |
5.1.4 实验设置 |
5.1.5 实验结果与分析 |
5.2 融合句法、共现和相似关系的中文词向量模型 |
5.2.1 句法关系 |
5.2.2 共现关系 |
5.2.3 相似关系 |
5.2.4 SWORIS融合框架 |
5.2.5 实验设置 |
5.2.6 实验结果与分析 |
5.3 本章小结 |
第六章 基于中文词向量的中药方剂核心药物识别 |
6.1 疾病语料库生成 |
6.2 基于集成特征中文词向量的方剂核心药物识别 |
6.2.1 药物嵌入向量学习CDIEF_(cwe) |
6.2.2 药物语义网络构建CDIEF_(snc) |
6.2.3 语义网络社区检测CDIEF_(cd) |
6.2.4 核心药物识别CDIEF_(di) |
6.3 基于特征概率中文词向量的方剂核心药物识别 |
6.3.1 药物嵌入向量学习CDIFP_(cwe) |
6.3.2 药物语义网络构建CDIFP_(snc) |
6.3.3 语义网络社区检测CDIFP_(cd) |
6.3.4 核心药物识别CDIFP_(di) |
6.4 本章小结 |
第七章 全文总结与展望 |
7.1 全文总结 |
7.2 后续工作展望 |
致谢 |
参考文献 |
攻读博士学位期间取得的成果 |
(2)基于领域自适应的芯片字符检测技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 研究现状 |
1.2.1 芯片字符检测研究现状 |
1.2.2 领域自适应研究现状 |
1.3 本文创新与贡献 |
1.4 本文组织结构 |
第二章 芯片字符识别与领域自适应技术基础 |
2.1 芯片字符识别技术基础 |
2.1.1 深度学习芯片字符识别算法 |
2.1.2 CRAFT字符识别模型 |
2.1.3 小样本芯片字符串识别的特殊性分析 |
2.2 领域自适应技术基础 |
2.2.1 领域自适应方法的原理以及分类 |
2.2.2 领域自适应技术在小样本中的优势 |
2.3 本章小结 |
第三章 基于领域自适应的芯片字符位置检测算法 |
3.1 芯片字符识别算法模型总体设计 |
3.2 基于领域自适应的改进CRAFT字符位置检测模型 |
3.3 改进的CRAFT模型在工业芯片识别场景下的优化 |
3.4 算法验证 |
3.4.1 实验数据集 |
3.4.2 评价指标 |
3.4.3 实验细节 |
3.4.4 实验结果 |
3.5 本章小结 |
第四章 基于领域自适应的芯片字符串识别算法 |
4.1 基于多维特征领域自适应的芯片字符串识别 |
4.2 全局领域自适应 |
4.3 背景领域自适应 |
4.4 字符领域自适应 |
4.5 算法验证 |
4.5.1 实验数据集 |
4.5.2 评价指标 |
4.5.3 实验细节 |
4.5.4 实验结果 |
4.6 本章小结 |
第五章 基于领域自适应的芯片字符识别系统设计与实现 |
5.1 应用场景分析 |
5.2 需求分析 |
5.2.1 系统功能需求 |
5.2.2 系统性能需求 |
5.3 系统设计 |
5.3.1 系统架构设计 |
5.3.2 系统模块设计 |
5.3.3 数据库设计 |
5.4 系统实现 |
5.5 系统测试 |
5.5.1 测试环境配置 |
5.5.2 系统运行分析 |
5.5.3 系统算法测试 |
5.6 本章小结 |
第六章 总结与展望 |
6.1 全文总结 |
6.2 后续工作展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
一.科研项目情况 |
二.论文 |
(3)基于深度学习的视觉SLAM闭环检测研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 选题背景及研究意义 |
1.2 国内外研究现状 |
1.2.1 深度学习技术研究现状 |
1.2.2 视觉SLAM算法研究现状 |
1.2.3 视觉SLAM闭环检测研究现状 |
1.3 论文主要内容及组织结构 |
1.3.1 论文主要内容 |
1.3.2 论文组织结构 |
第二章 视觉SLAM及闭环检测方法原理 |
2.1 视觉SLAM系统框架 |
2.1.1 传感器简介 |
2.1.2 视觉SLAM数学建模 |
2.2 视觉SLAM方法 |
2.2.1 视觉SLAM前端算法 |
2.2.2 视觉SLAM后端优化 |
2.3 闭环检测算法 |
2.3.1 闭环检测的概述 |
2.3.2 基于“词袋”模型的闭环检测 |
2.4 本章小结 |
第三章 基于深度神经网络的特征提取和匹配 |
3.1 自编码器的结构与设计 |
3.2 卷积神经网络的研究与实现 |
3.2.1 卷积神经网络的结构 |
3.2.2 卷积神经网络的特征提取 |
3.3 特征匹配 |
3.4 本章小结 |
第四章 基于卷积自编码网络的识别算法 |
4.1 端到端的网络 |
4.1.1 经典VLAD |
4.1.2 Net VLAD层 |
4.1.3 三元排序损失函数 |
4.1.4 CALC模型 |
4.2 实验模型 |
4.2.1 网络整体结构 |
4.2.2 CAE-VLAD-Net的提出与设计 |
4.3 网络的训练 |
4.4 实验准备及使用 |
4.4.1 数据集 |
4.4.2 网络的使用 |
4.5 实验结果与分析 |
4.5.1 评价标准 |
4.5.2 实验与分析 |
4.6 本章小结 |
第五章 基于CAE-VLAD-Net的闭环检测及优化 |
5.1 基于CAE-VLAD-Net的闭环检测 |
5.1.1 构造关键帧 |
5.1.2 闭环检测过程 |
5.1.3 实验与分析 |
5.2 基于闭环检测的多态增量式图优化方法 |
5.2.1 基于CAE-VLAD-Net闭环检测的不足 |
5.2.2 基于多态增量式的图优化方法 |
5.2.3 实验与分析 |
5.3 本章小结 |
第六章 总结与展望 |
6.1 总结全文 |
6.2 工作展望 |
参考文献 |
个人简历在读期间发表的学术论文 |
致谢 |
(4)面向中文短文本的关系抽取算法设计(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景 |
1.1.1 知识图谱 |
1.1.2 分类体系与上下位关系抽取 |
1.1.3 通用语义关系抽取 |
1.2 面临的挑战 |
1.3 整体研究内容与研究思路 |
1.4 研究意义 |
1.5 主要贡献 |
1.6 章节安排 |
第二章 基于词嵌入的上下位关系抽取 |
2.1 引言 |
2.2 相关工作 |
2.2.1 基于模式匹配的上下位关系抽取 |
2.2.2 分布式上下位关系预测 |
2.2.3 讨论 |
2.3 半监督式上下位关系扩展模型 |
2.3.1 算法模型 |
2.3.2 实验分析 |
2.4 基于转导学习的上下位关系分类模型 |
2.4.1 算法模型 |
2.4.2 实验分析 |
2.5 基于模糊正交投影的上下位关系分类模型 |
2.5.1 算法模型 |
2.5.2 实验分析 |
2.6 小结 |
第三章 知识增强的语义关系抽取 |
3.1 引言 |
3.2 相关工作 |
3.2.1 对抗学习在NLP的应用 |
3.2.2 跨语言迁移学习在NLP的应用 |
3.2.3 词汇关系分类 |
3.3 基于对抗学习的跨知识源上下位关系融合 |
3.3.1 算法模型 |
3.3.2 实验分析 |
3.4 基于迁移学习的跨语言上下位关系抽取 |
3.4.1 算法模型 |
3.4.2 实验分析 |
3.5 基于超球学习的词汇关系分类 |
3.5.1 算法模型 |
3.5.2 实验分析 |
3.6 小结 |
第四章 非上下位关系抽取与语义理解 |
4.1 引言 |
4.2 相关工作 |
4.2.1 基于短文本的关系抽取 |
4.2.2 常识性关系抽取 |
4.2.3 名词短语的习语性分析 |
4.3 基于模式挖掘的非上下位关系抽取 |
4.3.1 算法模型 |
4.3.2 实验分析 |
4.4 数据驱动的非上下位关系抽取 |
4.4.1 算法模型 |
4.4.2 实验分析 |
4.5 中文短文本的语义理解 |
4.5.1 习语性分类问题 |
4.5.2 算法模型 |
4.5.3 实验分析 |
4.5.4 应用研究 |
4.6 小结 |
第五章 总结与展望 |
5.1 总结 |
5.2 未来工作展望 |
参考文献 |
附录 |
致谢 |
简历 |
攻读博士学位期间发表的学术论文和科研情况 |
(5)基于词向量的文本倾向分析的向量表示方法研究(论文提纲范文)
摘要 |
Abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.1.1 文本倾向分析的提出 |
1.1.2 文本倾向分析的应用 |
1.2 国内外研究现状 |
1.2.1 篇章级倾向分析 |
1.2.2 句子级和词语级倾向分析 |
1.3 本文研究内容和结构 |
1.3.1 研究内容 |
1.3.2 本文结构 |
第二章 文本向量表示的基本方法 |
2.1 NLP的方法概述 |
2.2 特征提取与加权 |
2.2.1 无监督的特征加权方法 |
2.2.2 有监督的特征加权方法 |
2.3 LDA话题模型 |
2.4 Word2Vec词嵌入 |
2.5 本章小结 |
第三章 基于特征概率嵌入的文档表示方法 |
3.1 引言 |
3.2 相关模型与分类方法 |
3.2.1 话题模型与Lda2vec |
3.3 特征概率嵌入向量模型 |
3.3.1 基于词向量和特征加权的文档表示方法 |
3.3.2 基于词向量和话题概率模型的文档表示方法 |
3.3.3 基于特征概率嵌入向量的文档表示方法 |
3.4 实验与结果分析 |
3.4.1 语料库 |
3.4.2 预处理 |
3.4.3 实验设置 |
3.4.4 文本分类器 |
3.4.5 性能评估 |
3.4.6 实验结果和讨论 |
3.5 本章小结 |
第四章 领域相关的词表示方法 |
4.1 引言 |
4.2 基于频率交叉熵和模糊词模型的词向量表示方法 |
4.2.1 基于频率交叉熵的特征提取方法 |
4.2.2 基于模糊词模型的词向量表示方法 |
4.3 实验与结果分析 |
4.3.1 语料库、参数和评价指标 |
4.3.2 实验结果和讨论 |
4.4 本章小结 |
第五章 基于相似特征频率的文本表示方法 |
5.1 引言 |
5.2 相关特征加权方法 |
5.3 基于特征相似频率的话题抽取方法 |
5.3.1 STF-LDA模型 |
5.3.2 TS-LDA模型 |
5.4 实验结果及分析 |
5.4.1 评估方法 |
5.4.2 实验及分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
在学期间公开发表论文及着作情况 |
(6)语言边界论(论文提纲范文)
摘要 |
Abstract |
第1章 引言 |
1.1 研究背景 |
1.2 面临的问题 |
1.2.1 界线困境 |
1.2.2 连续性与突变性困境 |
1.2.3 语言变异性的困境 |
1.2.4 历时与共时的关系 |
1.2.5 母语习得与二语习得差异性的困境 |
1.2.6 言语感知与产出的非对应性困境 |
1.2.7 有关语法和语言能力的困境 |
1.2.8 机器翻译的困境 |
1.3 语言边界的提出 |
1.4 研究的创新点与意义 |
1.5 研究设计与布局 |
1.6 小结 |
第2章 文献综述 |
2.1 语言边界论的哲学基础:语言与存在问题 |
2.1.1 存在与存在主义思想简评 |
2.1.2 存在的有(理)与无(理) |
2.1.3 存在的虚实 |
2.1.4 存在的语言转向 |
2.2 语言边界性思想溯源 |
2.2.1 老子与《道德经》 |
2.2.2 孔子与《周易》 |
2.2.3 威廉?洪堡特 |
2.2.4 海德格尔 |
2.2.5 维特根斯坦 |
2.2.6 索绪尔 |
2.2.7 布龙菲尔德的语言边界思想 |
2.2.8 乔姆斯基与生成语言学 |
2.2.9 兰盖克、沈家煊与认知语言学边界 |
2.2.10 徐盛桓、刘辰诞的句法边界 |
2.3 语言边界论的科学基础 |
2.4 此前语言与存在观的局限性述评 |
2.5 既有边界观念的局限性述评 |
2.6 小结 |
第3章 语言边界论的理论体系构建 |
3.1 新边界观 |
3.1.1 什么是新边界观? |
3.1.2 边界的基本属性 |
3.1.3 边界的分类 |
3.1.4 新边界观的建立 |
3.1.5 小结 |
3.2 语言存在的边界层级与边界条件 |
3.2.1 语言介质的边界性 |
3.2.2 语言起源的边界运动 |
3.2.3 传统语言定义反思与语言层级 |
3.2.4 语言的边界条件 |
3.2.5 人类语言内部边界条件 |
3.2.6 小结 |
3.3 语言存在的边界结构与结构边界 |
3.3.1 存在的结构 |
3.3.2 语言存在的结构与语法结构的边界性 |
3.3.3 语言边界结构模型 |
3.3.4 小结 |
3.4 语言存在的内容:意义与范畴边界 |
3.4.1 范畴是语义的家 |
3.4.2 范畴边界:个体的身份识别与身份认同 |
3.4.3 “有”“无”的范畴化与非范畴化 |
3.4.4 小结 |
3.5 语言存在的方式:边界运动 |
3.5.1 边界离合 |
3.5.2 语音边界运动:音的离合 |
3.5.3 词边界运动:词的离合 |
3.5.4 句边界运动 |
3.5.5 边界离合的规律 |
3.5.6 小结 |
3.6 语言边界方法论 |
3.6.1 语言边界方法论的哲学基础 |
3.6.2 语言边界方法论体系 |
3.7 小结 |
第4章 语言边界论的应用 |
4.1 儿童言误映射律的发现 |
4.1.1 儿童言误律的发现 |
4.1.2 儿童言误律和成人言误律的发现 |
4.1.3 儿童言误律对方言变异的映射 |
4.2 解决索绪尔困境的初步方案 |
4.2.1 词波粒二象性的理论假设 |
4.2.2 对“索绪尔困境”的解释 |
4.3 解决汉语字词困境的边界方法 |
4.4 尝试对认知语法与生成语法的矛盾消解 |
4.4.1 传统二元对立语言能力划分的缺陷 |
4.4.2 合语法性问题 |
4.4.3 语言能力的边界层级 |
4.4.4 边界存有句法 |
4.5 边界的通道性与外语导育法 |
4.5.1 语言感知与产出的通道性 |
4.5.2 外语导育论 |
4.5.3 外语实践教育和外语导育论 |
4.5.4 外语导育论基本理论体系 |
4.6 导译法与栏杆边界定律 |
4.6.1 栏杆边界定律 |
4.6.2 “的地得”英译中的导译分析 |
4.7 小结 |
结论 |
摘要(详细) |
参考文献 |
致谢 |
附录A 攻读博士学位期间所发表的论文目录 |
附录B 海德格尔对is的论述 |
附录C “的”圈定名词的边界 |
附录D “的”字边界圈定“小句”边界 |
附录E “的”字边界结构作谓语 |
附录F “的”字边界结构的其它情况 |
附录G “地”边界结构 |
附录H “得”连接程度、结果补语 |
附录I “得”边界结构的语法语用功能 |
附录J“得”作可能补语 |
附录K 综合语境“的”边界导译对照 |
附录L “没有” 调查 |
(7)轻轨锚固螺杆松动故障诊断研究(论文提纲范文)
中文摘要 |
英文摘要 |
1 绪论 |
1.1 课题的提出及研究意义 |
1.1.1 课题的提出 |
1.1.2 课题的研究意义 |
1.2 国内外研究现状 |
1.2.1 锚固螺杆松动检测的研究现状 |
1.2.2 锚固螺杆振动信号处理技术概述 |
1.2.3 支持向量数据描述的发展概况 |
1.3 本文的研究目的和研究内容 |
1.3.1 本文的研究目的 |
1.3.2 本文的研究内容 |
1.3.3 章节结构 |
2 锚固螺杆信号的采集和去噪 |
2.1 锚固螺杆信号采集系统简介 |
2.2 锚固螺杆信号的去噪处理 |
3 锚固螺杆信号特征提取 |
3.1 EEMD样本熵特征提取 |
3.1.1 固有模态函数 |
3.1.2 EMD的分解原理 |
3.1.3 信号EEMD分解 |
3.1.4 EEMD样本熵特征提取 |
3.2 SPWVD时频熵特征提取 |
3.3 锚固螺杆信号其他特征提取 |
4 特征选择算法及SVDD的仿真 |
4.1 遗传模拟退火算法 |
4.2 特征选择过程设计 |
4.3 SVDD分类器原理 |
4.4 SVDD分类器的参数选择 |
4.5 SVDD分类器的仿真实验 |
5 锚固螺杆松动诊断实验 |
5.1 实验台简介 |
5.2 特征选择实验 |
5.3 特征选择前后实验对比 |
5.4 几种单值分类器的对比实验 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
致谢 |
参考文献 |
附录 |
A. 作者在攻读学位期间发表的论文目录 |
(8)机器视觉带材表面缺陷检测关键技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 表面检测技术发展历程 |
1.3 表面检测技术现状及趋势 |
1.4 本文研究方案 |
1.5 主要研究内容、技术成果及安排 |
1.5.1 本文主要研究内容 |
1.5.2 论文主要研究成果 |
1.5.3 论文安排 |
1.6 本章小结 |
第二章 表面检测及关键技术 |
2.1 引言 |
2.2 检测对象分析 |
2.2.1 带材表面检测需求特点 |
2.2.2 检测目标缺陷分析 |
2.3 表面检测技术 |
2.3.1 带材表面图像采集 |
2.3.2 表面检测过程分析 |
2.4 关键技术分析 |
2.4.1 缺陷探测方法干扰因素与分析 |
2.4.2 变背景低对比度缺陷分割技术 |
2.4.3 多形态非显着性缺陷识别技术 |
2.5 本章小结 |
第三章 高斯-马尔科夫非均匀性校正 |
3.1 引言 |
3.2 高斯-马尔科夫模型非均匀性校正 |
3.2.1 非均匀图像建模 |
3.2.2 非均匀校正算法 |
3.2.3 非均匀性校正后模型 |
3.3 卡尔曼滤波非均匀校正方法 |
3.3.1 卡尔曼滤波介绍 |
3.3.2 卡尔曼滤波算法实现 |
3.3.3 卡尔曼滤波非均匀校正算法 |
3.4 实验结果与分析 |
3.4.1 实验数据准备 |
3.4.2 非均匀性校正方法的参数分析 |
3.4.3 非均匀性校正性能分析 |
3.4.4 与卡尔曼滤波方法的比较 |
3.5 本章小结 |
第四章 自适应缺陷探测方法 |
4.1 引言 |
4.2 自适应缺陷探测方法 |
4.2.1 自适应双阈值缺陷探测 |
4.2.2 缺陷非联通区域合并 |
4.2.3 NUC自适应缺陷探测 |
4.3 实验结果和分析 |
4.4 本章小结 |
第五章 缺陷图像组合分割与分类 |
5.1 引言 |
5.2 在线组合分割算法 |
5.2.1 自适应双阈值分割 |
5.2.2 测量残差卡方分割 |
5.2.3 自适应熵分割 |
5.2.4 并行组合分割 |
5.2.5 形态学处理 |
5.3 缺陷特征计算 |
5.3.1 几何特征 |
5.3.2 灰度特征 |
5.3.3 纹理特征 |
5.4 缺陷一级分类 |
5.5 实验结果和分析 |
5.5.1 缺陷分割结果与分析 |
5.5.2 特征提取与分析 |
5.5.3 一级分类结果与分析 |
5.6 本章小结 |
第六章 基于混沌特征的表面缺陷识别 |
6.1 引言 |
6.2 混沌特征与词袋模型介绍 |
6.2.1 混沌分析 |
6.2.2 混沌特征 |
6.2.3 混沌特征向量 |
6.2.4 词袋模型 |
6.3 基于混沌特征的表面缺陷识别算法 |
6.3.2 混沌特征计算 |
6.3.3 特征向量聚类 |
6.3.4 低维统计描述 |
6.3.5 缺陷图片识别 |
6.4 实验数据结果与分析 |
6.4.1 实验数据说明 |
6.4.2 实验结果数据与分析 |
6.5 本章小结 |
第七章 样机设计与工程验证 |
7.1 引言 |
7.2 表面检测系统总体设计 |
7.2.1 系统功能需求 |
7.2.2 检测系统总成 |
7.3 检测系统样机试制 |
7.3.2 检测装置部件设计 |
7.3.3 系统软件总体设计 |
7.4 工程应用验证 |
7.4.1 铝加工行业工程验证 |
7.4.2 铜加工行业工程验证 |
7.5 系统技术性能与功能 |
7.5.1 技术性能指标定义 |
7.5.2 系统技术性能指标 |
7.5.3 同类系统性能对比 |
7.6 本章小结 |
第八章 总结与展望 |
8.1 工作总结 |
8.2 研究展望 |
参考文献 |
攻读博士学位期间已发表或录用的论文 |
攻读博士学位期间申请的国家发明专利 |
攻读博士学位期间主持的科研项目 |
攻读博士学位期间获得的成果及奖项 |
致谢 |
(9)稀疏分解理论在超声无损检测信号处理中的应用(论文提纲范文)
摘要 |
ABSTRACT |
1. 绪论 |
1.1 课题研究的背景和意义 |
1.2 超声无损检测技术的研究现状 |
1.3 数字信号处理方法的研究现状 |
1.3.1 傅里叶变换的发展 |
1.3.2 小波变换的发展 |
1.3.3 Wigner-Ville分布的发展 |
1.3.4 Hilbert-Huang变换和局部均值分解的发展 |
1.4 时频分析技术在超声检测中的应用现状 |
1.5 论文的内容及章节安排 |
2. 超声检测信号的去噪方法 |
2.1 超声检测的基本原理 |
2.1.1 超声检测基础 |
2.1.2 超声检测优点及局限性 |
2.2 超声检测中的噪声分析 |
2.3 小波去噪方法 |
2.4 本章小结 |
3. 稀疏分解基本原理和实现方法 |
3.1 稀疏分解基本原理 |
3.1.1 稀疏分解的基本理论 |
3.1.2 稀疏分解基本概念 |
3.1.3 稀疏分解的基本原理 |
3.2 稀疏分解的实现方法 |
3.2.1 超完备字典的基本概念 |
3.2.2 稀疏分解的一般步骤 |
3.2.3 稀疏分解的一般流程 |
3.3 本章小结 |
4. 改进OMP算法在超声回波信号处理的应用 |
4.1 Gabor字典的基本原理和构建方法 |
4.1.1 Gabor字典 |
4.1.2 Gabor字典构成的流程图 |
4.1.3 Gabor字典中时频参数的影响 |
4.2 K-SVD算法对Gabor字典的优化 |
4.2.1 K-SVD算法基本理论 |
4.2.2 K-SVD优化Gabor原子的过程 |
4.2.3 优化Gabor字典流程及意义 |
4.3 正交匹配追踪算法(OMP算法)基本原理 |
4.4 基于OMP算法的超声回波信号处理算法 |
4.5 K-SVD和OMP算法在超声信号去噪中的流程 |
4.6 本章小结 |
5. K-SVD和OMP算法在超声信号去噪中的应用 |
5.1 实验研究 |
5.1.1 信噪比为 10dB的仿真超声信号去噪 |
5.1.2 信噪比为-5dB的仿真超声信号去噪 |
5.1.3 信噪比为-10dB的仿真超声信号去噪 |
5.1.4 仿真结果指标评价 |
5.2 工程实例超声信号去噪 |
5.3 本章小结 |
6. 总结与展望 |
6.1 本文结论 |
6.2 展望 |
参考文献 |
攻读硕士学位期间发表学术论文情况 |
致谢 |
作者简介 |
(10)局域均值分解分析的管道泄漏孔径识别及定位(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题研究的背景及意义 |
1.2 国内外研究现状 |
1.2.1 基于硬件的方法 |
1.2.2 基于软件的方法 |
1.3 泄漏信号分析方法发展 |
1.4 本文主要研究内容 |
第2章 局域均值分解方法原理 |
2.1 LMD相关理论基础 |
2.1.1 调频调幅信号简介 |
2.1.2 瞬时频率 |
2.2 LMD方法原理 |
2.2.1 LMD算法 |
2.2.2 直接法计算瞬时频率 |
2.2.3 LMD方法的特点 |
2.3 ELMD方法原理及仿真 |
2.3.1 ELMD基本原理 |
2.3.2 仿真信号分析 |
2.4 LMD与EMD方法对比 |
2.5 本章小结 |
第3章 局域均值分解分析的管道泄漏孔径识别 |
3.1 引言 |
3.2 相关基础知识 |
3.2.1 信息熵的概念 |
3.2.2 支持向量机概述 |
3.3 基于LMD包络谱熵及SVM的孔径识别方法 |
3.3.1 小波包分解与重构 |
3.3.2 包络谱熵及SVM的孔径识别 |
3.3.3 实验情况简介 |
3.3.4 泄漏信号分析 |
3.3.5 泄漏孔径识别结果 |
3.4 ELMD的RMS熵及Boosting-SVM识别算法 |
3.4.1 RMS熵的概念 |
3.4.2 Boosting-SVM分类识别 |
3.4.3 识别算法处理过程 |
3.4.4 实验信号处理及分析 |
3.4.5 分解结果的RMS熵特征 |
3.4.6 不同距离传感器的熵特征对比 |
3.4.7 LMD及ELMD分解的熵特征对比 |
3.4.8 Boosting-SVM的识别结果 |
3.5 基于核密度估计的孔径识别方法 |
3.5.1 基于核密度估计的互信息分类器 |
3.5.2 本节采用的时域指标 |
3.5.3 泄漏信号处理及分析 |
3.5.4 泄漏孔径识别 |
3.6 本章小结 |
第4章 基于局域均值分解分析的管道泄漏定位 |
4.1 引言 |
4.2 基于LMD分解峭度的互相关定位法 |
4.2.1 基于时延的泄漏定位原理 |
4.2.2 广义互相关时延估计 |
4.2.3 基于PF峭度的改进时延估计方法 |
4.2.4 实验信号处理及分析 |
4.3 ELMD及高阶模糊度函数的泄漏定位 |
4.3.1 TDOA时差估计 |
4.3.2 基于K-L散度的主PF分量选择 |
4.3.3 ELMD及高阶模糊度函数的泄漏定位 |
4.3.4 实验处理结果及分析 |
4.3.5 泄漏定位过程及结果 |
4.4 本章小结 |
结论 |
参考文献 |
攻读硕士学位期间承担的科研任务与主要成果 |
致谢 |
作者简介 |
四、时频参数和模糊分类器在词边界检测中的应用(论文参考文献)
- [1]基于知识发现的中药方剂核心药物识别研究[D]. 张云. 电子科技大学, 2021
- [2]基于领域自适应的芯片字符检测技术研究[D]. 万乃嘉. 电子科技大学, 2021(01)
- [3]基于深度学习的视觉SLAM闭环检测研究[D]. 郭韩磊. 华东交通大学, 2020
- [4]面向中文短文本的关系抽取算法设计[D]. 汪诚愚. 华东师范大学, 2020(08)
- [5]基于词向量的文本倾向分析的向量表示方法研究[D]. 周婉婷. 东北师范大学, 2019(04)
- [6]语言边界论[D]. 艾朝阳. 湖南大学, 2016(06)
- [7]轻轨锚固螺杆松动故障诊断研究[D]. 常贵春. 重庆大学, 2016(03)
- [8]机器视觉带材表面缺陷检测关键技术研究[D]. 罗新斌. 上海交通大学, 2016(01)
- [9]稀疏分解理论在超声无损检测信号处理中的应用[D]. 周健鹏. 辽宁科技大学, 2016(09)
- [10]局域均值分解分析的管道泄漏孔径识别及定位[D]. 肖启阳. 燕山大学, 2015(12)