论文摘要
随着计算机和投影设备性能的不断提高以及体积的日益减小,通过多台投影仪实现的空间增强现实技术被广为关注。多投影增强现实系统可以将虚拟事物与真实环境结合到一起。将虚拟信息投影到真实物体上任意大小、形状和颜色的表面,带给用户随时、随地、随意的沉浸式交互体验。多投影增强现实系统通过几何校正、光度补偿、边缘融合等诸多技术实现这一目的。在我们实验室所实现的多投影增强现实平台中,存在如下问题,制约了这一系统的发展:(1)多投影增强现实所应用的关键技术,如几何校正、光度补偿等,都需要对待投影图像进行逐像素的变换,计算量十分繁重,因此现有的多投影增强现实系统普遍实时性较低,无法给人以流畅的视觉感受。(2)现存系统对于投影屏幕的不同属性,需要采用不同的算法流程和系统结构,其中的各算法之间耦合度很高,一旦投影平面发生变化,则需要对整个系统重新部署,因此其可扩展性较差。针对如上两点不足,本文从系统结构以及算法流程出发,利用模块化,分布式等方法对原系统进行改进,提高了系统的可扩展性和实时性。本文的主要工作包括:(1)针对系统扩展性差的问题,本文提出了多投影增强现实系统的模块化改进方法:将所采用的各种算法模块化,抽象为统一的处理单元,并且将各模块串联为统一的图像处理“流水线”。待处理画面帧依次流经流水线中的每一个处理单元后,就已经完成所需要的变换。本文还为该系统设计了通过脚本进行配置和部署的功能,只要编写脚本,就可以完成系统的重新部署与控制,为系统添加新的功能。经过对系统的模块化改造,系统的扩展性大为提高。(2)本文着重对提高系统实时性进行了研究,并且找到了系统中影响实时性的瓶颈:计算性能和网络带宽。我们通过采用分布式架构,突破了计算性能这一瓶颈,在普通的计算设备上实现了较高的实时性;同时,本文还在数据传输,画面帧分块等方面进行了优化,减小了系统运行时对所占用的网络带宽,减少了网络瓶颈对于实时性的限制;(3)本文还采用图形硬件实现了部分算法,利用GPU替代CPU完成运算工作。图形硬件相对CPU具有更强大的并行计算功能,而本文所使用的图形图像等算法都以像素为单位展开计算,具有并行性,所以,这种改进可以对算法进行加速。本文的创新点在于将多投影增强现实技术与图像分布式渲染技术相融合,利用分布式结构突破了服务器计算性能这一瓶颈,加快了系统的运行速度,提高了系统实时性。同时,在系统搭建时,本文采用了模块化的思想和策略,使系统间各功能模块高内聚,低耦合,提高了可扩展性。最后,本文通过图形硬件实现了系统中的部分算法模块,进一步加快了系统运行速度。本文所搭建的多投影增强现实平台,通过添加、修改、删除功能模块,可以对其结构和流程进行修改,以应用于不同的增强现实环境。经过分布式改进以及图形硬件加速,系统的帧率大为提升,可以流畅投影数据图像,满足人机交互系统对于实时性的要求。