科学网

 找回密码
  注册

tag 标签: 增强现实

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

IJDE学术论文:一种基于三维打印沙盘和增强现实的高效洪水可视化方法 (2020发表)
VGEGONG 2020-7-6 08:06
文献:Guoyong Zhang, Jianhua Gong, Yi Li, Jun Sun, Bingli Xu, Dong Zhang, Jieping Zhou, Ling Guo, Shen Shen Bingxiao Yin (2020): An efficient flood dynamic visualization approach based on 3D printing and augmented reality, International Journal of Digital Earth. 【全文PDF下 载- 2020 AR 洪水IJDE.pdf 】 论文题目: 一种基于三维打印沙盘和增强现实的高效洪水可视化方法 作者:张国永,龚建华,李毅,孙麇,徐丙立,张冬,周洁萍,郭琳,申申,殷兵晓 摘要: 洪水可视化表达是从抽象洪水数据中直观表达洪水信息的有效方式。随着洪水减灾指挥决策对洪水可视化要求的提高,基于 AR和三维打印地形模型的沉浸式三维可视化环境为洪水指挥决策提供了更好的视角和可视化环境。本文提出了一种新的基于AR和三维打印地形模型的洪水可视化方法( FARV3DPT ),并研究了其中涉及到的关键技术: ①适配AR视场角的最佳三维打印地形模型尺寸计算;②原始洪水数据与AR场景世界坐标系适配研究;③虚实空间关系计算方法等。基于该方法,我们开发一个原型系统(PES)以及一个地形与洪水全为虚拟场景的对比实验系统(CES)。利用PES和CES,我们开展了一组对比实验,用以评估 FARV3DPT 的有效性。实验统计结果显示, FARV3DP 可有效帮助参与者理解洪水灾害,并且提供了一个更加直观、真实的视觉感受,此外系统能以最高帧率 6 0FPS 以及更低的 GPU占用量稳定运行,说明该方法具有更好的面向大范围洪水场景的潜力。 主要贡献:研究了最新的 AR设备( HoloLens )与三维打印地形模型(沙盘)虚实融合的融合精度以及高效空间数据渲染的可行性。实验证明,虚实融合精度在个体主观视觉上可准确表达虚拟洪水场景和真实地形模型之间的空间关系,是一种有效的空间数据可视化方式。 创新点:利用三维打印地形模型,减少 AR虚拟场景图形渲染量,提高AR可视化系统运行效率,避免产生的卡顿、延迟现象以及由此引起的头晕、恶心等不良反应。 图:基于三维打印地形的堰塞湖溃坝洪水模拟与增强可视化 An efficient flood dynamic visualization approach based on 3D printing and augmented reality Abstract:Flood visualization is an e ff ective and intuitive tool for representing fl ood information from abstract spatiotemporal data. With the growing demand for fl ood disaster visualizations and mitigation, augmented fl ood visualizations that support decision makers ’ perspectives are needed, which can be enhanced by emerging augmented reality (AR) and 3D printing technologies. This paper proposes an innovative fl ood AR visualization method based on a 3D-printed terrain model and investigates essential techniques, such as the suitable size calculation of the terrain models, the adaptive processing of fl ood data, and hybridizing virtual fl ood and terrain models. A prototype experimental system (PES) based on the proposed method and a comparison experimental system (CES) based on a virtual terrain are developed to conduct comparative experiments, which combine the system performance and questionnaire method to evaluate the e ffi ciency and usability of the proposed method. The statistical results indicate that the method is useful for assisting participants in understanding the fl ood hazard and providing a more intuitive and realistic visual experience compared with that of the traditional AR fl ood visualization method. The frame rate is stable at 60 frames per second (FPS), which means that the proposed method is more e ffi cient than the traditional AR fl ood visualization method.
个人分类: Pulications|2551 次阅读|0 个评论
基于增强现实和虚拟现实的智慧校园建设
wangyunwu 2020-7-3 17:03
祝贺本科生在《数字教育》发表智慧校园论文! 基于增强现实和虚拟现实的智慧校园建设 随着时代的进步和发展,增强现实和虚拟现实技术成为教育领域热点议题。据此,本文首先根据AR/VR 的教育应用特性进一步挖掘了AR/VR 在智慧校园建设上的价值,其次通过案例研究分析了基于AR/VR 建设智慧校园的融合架构,并探讨了AR/VR 在融合建设智慧校园上可能存在的主客观问题,最后通过AR/VR 结合其他技术,展望了AR/VR 在智慧校园上的应用前景和发展趋势。 详见:焦雨蒙,刘猛,王运武.基于增强现实和虚拟现实的智慧校园建设 .数字教育,2020,6(03):72-76.
个人分类: 学术论文|2089 次阅读|0 个评论
第一堂网课的欢笑与汗水-篇三
热度 2 uestc2014xiaoyu 2020-2-26 11:11
第三篇:苦练内功,挑战自我 提到网络授课,第一反应就是网络主播。以前会对某些炒作的网红大咖,带货直播有点儿嗤之以鼻,觉得都是颜值或者笑点的卖弄。这次真正接触了网络直播,才开始深深的鄙视自己,笑自己的无知,真心觉得不应该轻视任何一个职业,隔行如隔山。 这次网络教学,基于前两个篇章,目标明确了,心态平稳了,计划也制定了,但是接下来的更重要——苦练内功,挑战自我。真正的知行合一,方为真知。 1、基础网络平台的选择和搭建 鉴于前期的培训内容,以及自己和学生们的亲身试验,初步选定腾讯会议作为第一直播平台,QQ群电话会议作为第二备选方案,同时以QQ群、微信群的课程信息同步作为补充。为了避免网络信息不畅,传统的电子邮件传送资料,也是基础手段之一。 当然,也有不少同事选择腾讯课堂、雨课堂、钉钉等等,都依赖于自己的使用习惯、学生的使用习惯、互动效果以及网络条件等。这个就是仁者见仁智者见智,真正的教无定法了。 现在某种程度上微信的使用已经超过了QQ,所以很多信息的发布和沟通,第一时间通过微信比较即时,只是资料分享和公告的发布,借助课程QQ群是不错的平台。 这些工作的开展,都是在整个培训期间,逐步形成的,包括选课学生的联系和导入,也是集合了学院很多老师的帮助。无论如何,这是我们的主战场,必须根据自己的情况,建立越完善越好,后面才能施展你的主播才华! 2、加强同行经验借鉴和实操练习 在选定平台和不断操练的过程中,看用户手册或者自己反复试验,不如多听一下同行的经验和分享的很多实用小技巧。比如这个过程中,我看到丁熠老师提到的腾讯会议传送声音的分享,我就和助教反复试验了几次,结果还别出心裁地发现了更加好玩儿的应用,那就是助教和学生们可以分享他们的视频和音乐。这也就催生了后面我在进行教学环节设计的时候,与助教的完美场景切换操作。又如,听到吴劲老师的“基于雨课堂的混合式教学方法实践分享”,激发了我想到可以把混合教学的模式扩展到学生、助教、老师,三位一体的互动模式上。另如,阎波老师的“简网上教学方案分享”,让我对最坏的网络条件做了最托底的预案工作。这些都是相互学习和借鉴的结果,不然自己一个人闭门造车,终究会遇到很多坑。 同时,课程小组内的讨论也非常必要,因为同一门课程,多位行课老师,如果大家可以把一些好的经验和小技巧,及时分享出去,也会给大家带来很多便利。这里感谢钟婷老师、钱伟中老师、蓝天老师、朱钦圣老师、周帆老师、刘启和老师等的全力支持。 对于软件本身的操作,就需要老师们自己多联系,可以以科研团队和小组会议为练手机会,多操练,以备及时应对各种突发状况。尤其是多练习在网络直播面前自己的言行表达,如何能将一份激情传递给学生,又如何能让大家收回来相对凝神静气。这些都是挑战!没有谁能保证百分百不出问题,但是我们尽到百分百的努力,总是可以达到尽可能好的效果。 3、调整授课内容,设计网络教学环节 面对于网络授课,授课内容与教学环节的设计是需要做调整的,大致分为这样几种情况: (1)有些实时现场互动的传统教学内容,需要瘦身,或者改为屏幕互动,那么就需要设想学生的反应,提前做好预备情况的准备。 (2)需要大量板书的模块,也需要瘦身,很多平台不支持白板功能,即便是支持,效果也不尽如人意,那么这些模块需要进行调整。建议大家可以把这部分改为提前预习和启发式引导教学。 (3)课件的制作上为了保证信息内容传输的更加有效,需要尽量少的动画和视频插入,否则容易导致一些不必要的卡顿和网络掉线。 那么这里为了保证效果,建议把扩展资料提前发给学生,在这个环节就可以调动大家自行打开,或者助教协助做第二现场的屏幕分享。助教是保证网课顺利开展的一个必备要素,以前的传统课堂,助教也就是辅助批改作业或者做一些信息统计。但是这次网课的开展,让我们充分意识到助教的重要性,他们就是我们的眼睛、耳朵和手。当班级人数众多的时候,当你全神贯注网络授课的时候,当你正在回答某一个同学问题的时候……我们都需要助教。因为网络授课,是去中心化的,是实时并发的。学生数量大了,我们就自顾不暇;专注授课时和点对点回答问题时,或许QQ群正有问题冒出、或许有多人打开了语音、或许有人掉线正在微信求助……太多的环节和或许了,所以,如何在教学环节的设计上充分与助教配合,是提高教学效果的一个有力措施。 (4)授课内容要更加灵活,提前多准备一些扩展素材,上课乏味和劳累的时候,可以以讨论的形式做一些扩展。 (5)对于课程的动手实践环节,尽量以小组为单位,开展组内的环节设计,这样能增强大家的主动性和交互性。 (6)增设网络讨论环节,给大家网络主播的机会,有其是针对于留学生,让他们主动自组织学习,以讨论的方式强化关键知识点。 以上,只是自己在准备第一堂网课时候所想到和准备到的。可能还不完善,不过会随着课程的推进,不断优化。 4、挑战自我,虚拟现实,增强现实 真实的课堂上,我们讲到兴奋点,或许会有更多的肢体语言来表达那份情感。但是网络教学,对着的是屏幕,一是很难调动自己的情绪,二是自己情绪起来了,也很难准确的传递给学生。所以,挑战自己,如何做到情感传递,还真的是一门硬功夫。这一点,着实佩服网红大咖们! 一说到虚拟现实、增强现实,可能很多的同事,认为是采用VR、AR的手段辅助教学?差矣。这里买了个关子。此处的虚拟现实,是指将本次的网络授课,作为一次虚拟云端教室的学习经历,不停的模拟、操练、换位思考、亲身体验,以巧妙的教学环节设计、自己的情感投入为基础,唤起学生们在虚拟网络教师的学习兴趣和积极性。故而,我用了虚拟现实。 那么增强现实,自然是通过一系列的手段和改革,达到与真实的物理面对面授课等效的教学效果,进而起到增强现实的目的。课前的内功修炼,说实话,我自己也是大姑娘上轿头一回,里面不妥的,还望大家多交流。
个人分类: 三尺讲台|10101 次阅读|4 个评论
从虚实关系论虚拟地理环境发展(2017VGE会议交流报告)
VGEGONG 2017-11-15 20:42
龚建华,“从虚实关系论虚拟地理环境发展”,2017年“第六届全国虚拟地理环境会议”报告,2017年11月4-5日,成都. www.vgelab.org. 【报告PPT下载: 2017-虚实关系论VGE发展 (成都VGE会议)-龚建华.pdf 】 该报告回顾了20年来虚拟地理环境的发展,并从虚实相似与仿真、虚实增强与协同、虚实孪生与相生论述虚拟地理环境(虚拟现实VR/增强现实AR)的理论与技术发展。建议关注与发展“虚实融合地理环境”、“智能虚拟地理环境”,以及提出”孪生虚拟地理环境“的未来可能发展。经过20余年的虚拟地理环境发展与积累,在新一波VR/AR时代,是否到了可以发展“虚拟地理环境学”以及“虚拟科学和虚拟工程”的时机? 虚拟现实、人工智能等,都与“人”相关,都具有很深哲学背景的学科和技术,都碰到了“形而上学”、“伦理”等的哲学问题,对于人类发展具有重要的影响。虚拟地理环境研究学者,需要作出自己独特的贡献,促进地理信息科学、地理科学以及虚拟科学与工程的发展,任重而道远! “现代技术之本质与现代形而上学之本质相同一;现代物理学的自然理论并不只是技术的开路先锋,而是现代技术之本质的开路先锋”-海德格尔(德国哲学家),1938
个人分类: Pulications|4345 次阅读|0 个评论
这个公司用增强现实眼镜帮助视力障碍的人
zhgzhang 2017-8-18 22:41
当我们谈论“增强现实”的娱乐功能的时候,有个日本公司,在用增强现实眼镜帮助有视力障碍的人。特别是眼底疾病,例如黄斑眼底变性导致的局部视力丧失,青光眼导致的管状视力,以及视物变形等。视力障碍者虽不是全盲,却也与社会隔绝,被称为“Socially blined”。这类人不是少数,米国有290万人,日本有145万人,我国则有1200万人。 日本QDL(量子点激光器)公司发明的激光直接眼底成像技术可以放大、移动、矫正这些视力,帮助这些人过正常人的生活。这种眼镜预计售价6000米刀,而娱乐用的则是600米刀。激光不会损伤视力吗?不会。这种三色激光的功率只有几十微瓦,远在安全线之下。
3041 次阅读|0 个评论
Magic Leap公司的光场全息技术探踪
PKJay 2016-7-20 15:34
Magic Leap 公司的光场全息技术探踪 万世兴 世界 Wesee看专利 花钱如流水的 Magic Leap ,反复爆新闻的 Magic Leap ,熟悉又陌生的 Magic Leap ! 据称走在世界增强现实技术前列 Magic Leap ,他的技术原理到底是什么? 终于有人爆料说 Magic Leap2015 年推出的设备采用的是光纤。 那么,光纤如何复原光场,实现立体显示呢?北京大学黄珏华 2011 年递交的 PCT 专利申请提供了实现方案。 以下摘自 PCT 专利申请 PCT/CN2011/078993 (一种三维成像的方法和装置)说明书 本发明要解决的技术问题是,提供一种基于正向或逆向模仿相干光波传播边界情况以实现立体成像的方法和装置,形成在某一平面、曲面连续或分块分布,或在几个不同平面、曲面上、或空间中连续或分块分布的相干但相位、振幅不同的光点或直射光,以模拟实际物体或场面发出的光波,传播时在该连续的平面、曲面上或空间内,或这些分离的平面、曲面上或者立体空间内分布的相位和光强分布情况,这些光点或直射光通过直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像(三维图像);各出射光点的相位和振幅变化时,形成立体的实像或虚像也同时发生变化,当各出射光点的相位和振幅连续变化时,就形成连续变化的立体实像或虚像。 为了解决上述技术问题,本发明提供了一种三维成像的方法,包括: 生成相干光; 利用多束光传导装置将所述相干光传导到成像位置,并在光传导过程中根据图像源数据对所述相干光的光强和 / 或相位分别进行调制,成像像素在同一平面、曲面连续或分块分布,或不同平面、曲面、空间中连续或分块分布; 所述相干光在成像位置直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像。 本发明提供的三维成像的装置包括: 相干光发生装置,用于生成相干光; 多束光传导装置,用于将所述相干光传导到成像位置;成像像素在同一平面、曲面连续或分块分布,或在不同平面、曲面、空间中连续或分块分布; 光强调制模块,用于根据图像源数据对所述相干光的光强进行调制; 相位调制模块,用于根据图像源数据对所述相干光的相位进行调制; 三维成像模块,用于使所述相干光在成像位置直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像。 本发明利用光传导装置直接模拟相干光波正向或逆向传输边界情况从而实现立体成像,通过光传导装置可以正向或逆向模拟立体实物发出的光线在某一平面、曲面连续或分块分布,或在几个不同平面、曲面上、或空间中连续或分块分布位置的相位和光强的(抽样)分布情况,这些光点直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或者虚像(三维图像)。同时当光传导装置横向尺寸越小,成像位置图像像素越密集;光传导装置数量越多,平面、曲面或空间屏幕越大,立体画像就越大,或者在画像大小不变的情况下,其空间细节越丰富;同时由于调节、控制光强和相位的装置不在成像位置,图像分辨率不受调节、控制光强和相位的装置的尺寸影响,成像位置每束出射光的光强也不受其他光束影响,可以独立调节。调节光强、相位的装置没有尺寸要求,可以集成较多控制电路,可以同时调节所有光束或多束光束的光强和相位,从而实现高速显示。并且可以引入多束相同频率的光增大画面或增强图像细节或引入不同频率的光形成彩色显示而不互相干扰。此外通过光传导装置将相干光传导到多个分离的平面、曲面或空间范围形成密集的相干光出射点,可以多角度、多方位的形成立体图像,防止因为观看者的遮挡造成的图像缺失。本方法还可以实现全息成像。 附图说明 图 1 为本发明实现立体成像的原理:成像位置处,各光传导装置出射光散射或衍射互相干涉,从而使同一点不同方向的光强不同,观察者双眼看到不同图像,在不同位置看到的图像也不相同。 图 2 为本发明实现立体成像的原理:成像位置前空间任一点的光都是成像位置所有点出射光干涉的结果,从而使同一点不同方向的光强不同,观察者双眼看到不同图像,在不同位置看到的图像也不相同。 图 3 为相干光光束扩束装置的一个实施例。 图 4~ 图 7 分别为调制相干光光强的几个实施例的原理示意图。 图 8 为在光传导装置内调制相干光光强的一个实施例:光纤变形光强调制器。 图 9 为相干光 3 通过一块透明的平行介质 11 ,改变介质平面垂线与相干光夹角,相干光细束平移、光程改变的计算说明。 图 10 为相干光 3 垂直于有相同楔角的楔形对 12 的一个面入射,通过楔形柱状光学介质,平行间隙,从另一个楔形柱状光学介质对应面出射,通过改变楔形柱状光学介质 12 之间的平行间隙时,改变出射光的位置和光程的实施例示意图。 图 11 为相干光 3 垂直于有相同楔角的楔形对 12 的一个面入射,通过一个楔形柱状光学介质,平行间隙,从另一个楔形柱状光学介质对应面出射,通过改变楔形柱状光学介质 12 之间的平行间隙时,相干光细束平移、光程改变的计算说明。 图 12 显示出相干光 3 垂直于有相同楔角的楔形对 12 的一个面入射,通过对称的楔形柱状光学介质,平行间隙,从另一个楔形柱状光学介质对应面出射,不同位置的入射光,光程相等。 图 13 和图 14 分别为调制相干光相位的实施例示意图。 图 15 为相干光 3 通过一块透明的平行介质 11 ,通过改变介质平面与相干光夹角调制相干光相位和平移细束相干光的装置的实施例示意图。 图 16 为改变楔形介质间距的方案的实施例。 图 17 为楔形对做成的改变相干光光程和平移细束相干光器件的实施例。 图 18 为利用光传导装置形成相干光波面立体成像的方法和装置总体结构实施例示意图,暨有多个相干光光源的实施例。图 18a 为利用光传导装置形成多个分离的相干光波面立体成像的方法和装置总体结构实施例示意图。 图 19 为光传导装置长度为零的总体结构实施例示意图。图 19a 和图 19b 为光传导装置长度为零时有多种频率相干光光源时的实施例。 图 20 为相干光 3 分光成二束,第一束扩束后通过光传导装置调制光强和相位,第二束经过扩束、转向后直接出射,然后部分相干光交汇、干涉,形成立体像的实施例。 图 21 为图 20 所示实施例的非调制相干光和调制相干光交汇方案的实施例。 图中: 1 为相干光源, 2 为可控挡板, 3 为相干光, 3La 为激光束, 3b 为已调制光强和相位的相干光, 3c 为均匀相干光, 4 为相干光扩束装置, 5 为光强调节装置, 6 为相位调节装置, 7 为光传导装置, 7a 为光纤, 7b 为敏感光纤, 8 为散射、衍射装置, 9 、 9-1 、 9-2 为透镜, 9f 为焦点, 10 为电、磁致伸缩装置(微位移器), 10a 为压电陶瓷管, 10b 为压电陶瓷微位移器, 11 为平行的光学介质, 12 、 12a 、 12b 为有相同楔角的楔形柱状光学介质对,光垂直于楔形的一个面入射, 12f 为固定楔形, 12m 为微动楔形, 13 为可调节透光率的装置,如 LCD , 14 为可控的伸缩挡板, 15 为分光装置, 16 为光线变向装置, 17 为平面光学玻璃单反射镜, 18a 为上齿形板, 18b 为下齿形板,。 19 为入射孔或口, 20 为出射孔或口, 21 为固定外壳, 22 为固定装置, 23 为固定支架, 24 为固定铰链, 25 为五维可调节支架, 26 为滑动杆。 具体实施方式 下面结合附图和具体实施例对本发明作进一步地说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。 本发明是利用光传导装置将相干光发生装置产生的相干光传导到成像位置形成相干像素,所述相干光是指几十个波长以上的光程内相位有固定关系的光(以下称相位有固定关系的光程为相干距离,相干距离越大效果越好,但成本越高);所述光传导装置是一类可以弯曲或折迭,使光通过在其表面和 / 或内部通过多次折射、反射或全发射无损或损失很小地,相互不干扰地将光从一点传输到另一点(例如从光源处传导到成像位置形成像素),而在成像位置处,出射点相干光束的尺寸、出射点像素与出射点像素之间的距离都可以很小,每束光传导装置内光的强度和相位可以独立调节的柔性装置,用于将所述相干光传导到成像像素位置;所述很少损失是指经过一段直线或曲线路程,例如 0.01~1 米,光强损失很小,例如只损失 5~95% 光强;所述相互不干扰是指不同的光传导装置(无论它们在空间上有多么接近)中的相干光在传输时不互相干扰;所述成像位置是指在某个或某些连续或分离的平面、曲面或空间范围形成密集的相干光出射点,每个点的光强和相位可以独立调节;所述密集的相干光出射点是指每个出射点的尺寸和出射点之间的距离都很小;成像位置包括平面、曲面、有纵深的空间范围,该平面、曲面或空间模拟实物发出的光线在该平面、曲面或空间的相位和光强分布情况;每束光纤中相干光的光强和相位根据图像源数据被分别调制;相干光直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像(三维图像)。 如图 1 所示,当相干光从光传导装置出射时,光束会由于衍射略有发散,但如光传导装置口径比较粗,发散角会很小。如果光传导装置口径很细,或通过下面实施例中衍射、散射装置后,各传导材料出射光之间会发生衍射、散射,和干涉,从而形成在成像位置处每一点,每一点的每一个方向光强不同的情况,使观察者双眼看到的图像不同,转动角度、移动位置看到的图像也不同,这是典型的立体图像。也可以认为观看者看到的空间位置的每一点的图像,都是成像位置所有出射光在这一点干涉或叠加的结果(光程差在相干距离内的光干涉,在相干距离外的叠加),(如图 2 所示),使观察者感觉光线是从离开成像位置有比较大景深的范围内发出的,即立体的实像或虚像。 使用透镜时,经过透镜后,不同光传导装置出射处的不同方向的出射光会交汇在空间的不同点,干涉后形成空间的明暗分布,即立体的实像或虚像。一个实施例是成像位置位于透镜的焦面(由于非近轴像差、色差等的存在,焦面通常不是平面)。 相干光发生装置,即相干光光源的一类实施例是激光器,如半导体激光器、染料激光器、光纤激光器;另一类实施例是单色性足够好的单色光光源。 当相干光光源为点光源或其他光束截面面积较小的光源时,采用扩束装置使相干光能同时进入相应的光传导装置,扩束装置的一个实施例是采用透镜组(如图 3 所示),如伽利略扩束镜、开普勒扩束镜等。 光传导装置可以是光纤,也可以是塑料光纤。其中,光纤为无机玻璃类,光损失较小;塑料光纤为有机塑料类,光损失较大。二者传输光的原理相同。 以上相干光进入射光传导装置的一个实施例是:光传导装置采用多束同质同长的光纤,激光扩束装置后的各处有相同光程、偏振方向和传播方向,光强均匀;所有光纤在紧靠扩束装置后沿激光传播方向排列并略有倾斜,激光以相同的近轴方向入射光纤;激光在光纤内多次全发射后从光纤出射,出射处光纤整齐、同向排列,所有出射光有相同光程、偏振方向和传播方向和光强。 可以在扩束装置后(如果需要扩束装置),相干光进入光传导装置前调制相干光光强;也可以在两段光传导装置之间调制相干光光强;还可以在光传导装置内或者在相干光离开光传导装置后,到达成像位置前调制相干光光强。 如图 4 所示,调制相干光光强的一个实施例是,使相干光通过可以改变透光率的介质,例如液晶,通过改变介质的透光率改变相干光光强。调制相干光光强的另一个实施例是使相干光通过可控的遮挡装置,通过改变遮挡范围改变相干光光强。如图 5 所示,还可以采用多束光传导装置形成一个像素,被挡板遮挡的光传导装置没有相干光射入,通过可控挡板 14 改变可导光的光传导装置数量,调制相干光光强。 以上三个实施例可以在扩束装置后(如果需要扩束装置),相干光进入光传导装置前调制相干光光强;也可以在两段光传导装置之间调制相干光光强;还可以在相干光离开光传导装置后,到达成像位置前调制相干光光强。 在两段光传导装置之间调制相干光光强的再一个实施是,使相干光通过二段光传导装置,其中一段光传导装置可平移,通过使该光传导装置平移,改变从一段光传导装置进入另一段光传导装置的光束宽度,改变相干光光强。图 6 给出了一个实施例:一段光传导装置装在一个五维调节支架上,另一段光传导装置装在一个可二维调节的压电陶瓷环上,改变压电陶瓷上的电压,光传导装置位置可上下左右调节,从而改变从前一段光传导装置进入该传导材料的进光量,即改变光强。 在两段光传导装置之间调制相干光光强的另一个实施例如图 7 和 13 所示,图 7 中相干光通过二段光传导装置 7 ,二段光传导装置 7 之间有一块透明的平行介质 11 ,相干光方向不变,改变介质平面垂线与相干光夹角,经过平行介质的细束光位置会有移动(如图 13 所示),通过 改变介质平面垂线与相干光夹角 改变从前一段光传导装置进入后一段光传导装置的相干光束宽,从而调制相干光光强。 图 9 显示了相干光细束通过一块透明的平行介质 11 ,改变介质平面垂线与相干光夹角时,从平行介质出射细束光的位置移动和相干光光程变化情况。 如图 9 所示,通过折射率为 n 的平行介质后相干光光程比不通过平行介质( n 0 为空气折射率)增加 ( n 0 L 1 +n 0 L 2 +nL ) - ( n 0 L 1 +n 0 L 2 +n 0 L’ ) =nL- n 0 L’ 其中, L 1 和 L 2 分别为相干光进入平行介质之前和之后走过的距离,相干光偏移 x 。 L=d/cos( δ ) L’=Lcos( β - δ ) =d cos( β - δ )/cos( δ ) x=Lsin( β - δ ) =d sin( β - δ ) /cos( δ ) δ =arcsin(n0sin β /n) 如 n 0 =1 , n=1.55 , 当β =10 °,δ =6.4324 °, L=1.006335d , L’=1.004385d , x=0.06262034d ; 当β =11 °,δ =7.0712 °, L=1.007664d , L’=1.005296d , x=0.06904188d ; 因此当平行介质的角度β从 10 °增加到 11 °,光程差增加 Δ( nL- n 0 L’ ) =0.00114895 d 相干光束偏移 Δ x=0.00642154d 如 d=1mm ,光程差增加 1148.95nm ,考虑到可见光波长在 400-700nm ,因此 , 使介质平面垂线与相干光夹角改变 1 °,就可以使光程差改变至少一个波长,可以满足相位调制需求,而此时相干光束偏移 6.42154 μ m ,因此可以通过偏移增减进入光传导装置的束宽,从而调制光强。 在两段光传导装置之间调制相干光光强的另一个实施例如图 10 所示,一对有相同楔角的楔形柱状光学介质 12 形成平行间隙(此时楔形的二对楔面两两平行),相干光 3 垂直于楔形的一个面入射, 从另一个楔形柱状光学介质对应面出射,改变楔形柱状光学介质 12 的间隙(保持平行)时,细束光位置会有移动,通过改变改变楔形柱状光学介质 12 的间隙改变从前一段光传导装置进入后一段光传导装置的相干光束宽,从而调制相干光光强。 图 11 显示了相干光细束垂直入射在平行楔形 12a ,改变平行楔形的间距时,从另一块平行楔形出射细束光的位置移动和相干光光程变化情况。 首先,图 12 可证明,任二束垂直入射的平行光在平行楔形内光程相等。 其次,从图 11 可以分析出:当楔形 12a 不动,楔形 12b 动时,光程变化计算如下:(以下式中 d 为楔形间距, n 0 与 n 分别空气和楔形介质的折射率) 楔形 12b 沿 X 方向移动Δ X ,平行楔形间距 d 的改变为 Δ d= Δ X*cos δ 楔形 12a 内光程不变,间隙内空气光程增加 Δ L ab =n 0 * Δ d/cos β =n 0 * Δ X*cos δ /cos β 楔形 12b 内光程减少 Δ L 12b =n* Δ X*cos δ *cos (β - α) / cos β δ = π /2- α 总光程改变为 Δ L= * Δ X 而 n*sin α =n 0 *sin β,α = π /2- δ,从而 sin β =n*sin α /n 0 , cos β =sqrt ( 1- sin 2 β) 因此 cos δ = n 0 *sin β /n , Δ L= ( n 0 2 /n ) tg β * Δ X Δ L= ( n 0 2 /n ) tg β * Δ X 光束沿 -X 方向移动 Δ Y= Δ X*cos δ *sin (β - α) / cos β = ( n 0 /n ) *tg β * sin (β - α) * Δ X = ( n 0 /n ) *tg β * ( sin β * cos α - cos β * sin α) * Δ X 对于纳黄光, 水晶 折射率为 1.55 , 金刚石 为 2.42 , 玻璃 按成分不同而为 1.5 ~ 1.9 ,取 n=1.55 , n 0 =1 ,楔形折射率 n ,楔形角度α,相对光程改变Δ L/ Δ X ,相对光束偏移Δ Y/ Δ X 关系如下表 楔形折射率 n 楔形角度α 相对光程改变Δ L/ Δ X 相对光束偏移Δ Y/ Δ X 1.5 1 -0.01964 0.000152 1.5 5 -0.09861 0.003853 1.5 20 -0.42415 0.075113 1.5 41 -1.4088 2.311928 1.5 42 - - 1.55 1 -0.02307 0.000168 1.55 5 -0.11585 0.004242 1.55 20 -0.5001 0.083963 1.55 40 -1.7013 5.311205 1.55 41 - - 1.9 1 -0.05672 0.000274 1.9 5 -0.28524 0.006983 1.9 15 -0.90119 0.074203 1.9 31 -2.64524 1.832876 1.9 32 - - 2.42 1 -0.14519 0.000433 2.42 5 -0.73158 0.011138 2.42 15 -2.36152 0.13388 2.42 24 -4.84571 1.906878 2.42 25 - - 在光传导装置内调制相干光光强的一个实施例是光纤变形光强调制器。它由可通过电、磁方式驱动的微位移器(微位移器的一个实施例是压电陶瓷微位移器,另一个实施例是稀土超磁致伸缩材料)推动的变形器和敏感光纤构成,如图 8 所示,其中变形器通常由一对机械周期为 A 的齿形板组成,敏感光纤则从齿形中间穿过,在齿形板的作用下产生周期性的弯曲。当齿形板受微位移器驱动到不同位置时,光纤的微弯程度随之变化,相干光的损耗改变的,导致输出光功率改变,从而实现微弯光强调制器功能。 可以在相干光进入光传导装置前调制相干光相位,也可以在两段光传导装置之间调制相干光相位,还可以在光传导装置内或者在相干光离开光传导装置后,进入成像位置前,调制相干光相位。 调制相干光相位的一个实施例如图 13 ,相干光 3 通过一块透明的平行介质 11 ,相干光方向不变,通过改变介质平面垂线与相干光夹角调制相干光在介质内光程,从而调节相干光的相位。调制相干光相位的另一个实施例如图 10 ,相干光 3 垂直于楔形的一个面入射,通过对称的楔形柱状光学介质 12 ,从另一个楔形柱状光学介质对应面出射,通过改变楔形柱状光学介质 12 的间隙时,改变出射光在介质内光程,从而调节相干光的相位。 以上二个实施例可以在扩束装置后(如果需要扩束装置),相干光进入光传导装置前调制相干光相位;也可以在两段光传导装置之间调制相干光相位;还可以在相干光离开光传导装置后,到达成像位置前调制相干光相位。 在光传导装置内调制相干光相位的一个实施例如图 14 ,相干光通过光纤,光纤的一部分环绕在二块平滑物体外,平滑物体之间夹着可通过电、磁场作用,改变平滑物体间距的物质 10 ,通过改变平滑物体间距,改变光纤的长度,即改变相干光的光程,从而调制相干光的相位。 一个更具体的实施例是稳定的具有大光程扫描范围的光纤相位调制器。将一个圆柱体劈成两半,中间用微位移器(微位移器的一个实施例是压电陶瓷微位移器,另一个实施例是稀土超磁致伸缩材料)连接,光纤绕在圆柱体上形成一种光纤拉伸结构。对微位移器施加驱动电压或者磁场,使其产生伸缩运动,缠绕的光纤随之拉伸或者收缩,引起传输光波的光程发生周期性变化,实现光相位调制。 光纤相位调制器上光纤的绕接圈数越多,光程扫描范围越大,绕接圈数受微位移器的最大推力和光纤杨氏模量的限制,因此,需根据光程调节范围,选择合适的压电陶瓷和绕接圈数。光程差至少要达 1 μ m ,光程等于几何路程与折射率的乘积,由此可得微位移器的最小位移量 式中 OPD 为光程差; M 为绕接圈数; n 为光纤的纤芯折射率。 利用透明的平行介质 11 ,通过改变介质平面与相干光夹角调制相干光在介质内光程,从而调节相干光的相位,或通过改变细光束平移距离,改变进入光导材料的光束大小,从而改变相干光光强的应用器件的一个实施例如图 15 ,平行介质通过固定铰链或弹性轴承固定在底座上,微位移器(微位移器的一个实施例是压电陶瓷微位移器,另一个实施例是稀土超磁致伸缩材料)同样固定在底座上,平行介质另一端带有滑动杆,放(或压)在微位移器上,改变电压,微位移器微伸缩,从而改变介质平面与相干光夹角。 相干光 3 垂直于一对有相同楔角,对应面平行的楔形的一个面入射,通过对称的楔形柱状光学介质 12 , 从另一个楔形柱状光学介质对应面出射,改变楔形柱状光学介质 12 的间隙时,细束光位置会有移动,通过改变改变楔形柱状光学介质 12 的间隙改变从前一段光传导装置进入后一段光传导装置的相干光束宽,从而调制相干光光强,或者改变通过上述一对楔形的间距,改变相干光的光程,从而调制相干光相位的方法有多种,图 16 给出了改变间距方案的 8 个实施例。 图 17 给出了利用楔形对改变光程从而调制相位或平移细光束从而改变进入光导材料光强的器件的实施例:根据改变楔形间距的方案的不同选择,将一个楔形固定在底座上,另一个楔形固定在微位移器上(微位移器的一个实施例是压电陶瓷微位移器,另一个实施例是稀土超磁致伸缩材料),微位移器固定在底座上;或者将二个楔形各固定在一个微位移器上(微位移器的一个实施例是压电陶瓷微位移器,另一个实施例是稀土超磁致伸缩材料),微位移器固定在底座上,驱动微位移器,就可以改变楔形间距,从而达到调制相位或光强的目的。 本发明中,根据需要可以只调制相干光光强,或者只调制相干光相位,也可以同时调制相干光的光强和相位。 由于光传导装置长度误差带来的相位差和改变光强时带来的相位差,以及其他因素带来的相位差,可以通过调整相干光相位进行补偿。反之,由于光传导装置长度误差带来的光强损耗差和改变相位时带来的光强损耗差以及其他因素带来的光强损耗差,可以通过调整相干光光强进行补偿。 具体地说,当出现不是按照图像源数据要求产生,而是由于某些因素造成相位发生误差时需要对相位差进行补偿。例如:光传导装置的长度误差会带来相位不一致,改变光强时同时也会改变相位,温度不均匀、光传导装置的弯曲程度等因素也会带来相位差。当发生相位差时,可以通过上述调整相干光相位的方式对相位差进行补偿。 同理,当出现不是按照图像源数据要求产生,而是由于某些因素造成光强发生误差时需要对光强差进行补偿。例如:光传导装置的长度误差会带来光强不一致,改变相位时同时也会改变光强,温度不均匀、光传导装置的弯曲程度等因素也会带来光强差。当发生光强差时,可以通过上述调整相干光光强的方式对光强差进行补偿。 可在成像位置每个光传导装置前安装散射装置。散射装置的一个实施例是毛玻璃珠。 也可以在成像位置每个光传导装置前安装衍射孔。衍射孔的一个实施例是尺寸可以与相干光波长相比拟的圆孔,另一个实施例是垂直于观看者双眼连线的细缝。 还可以在成像位置前安装光学透镜。一个实施例是成像位置处于光学透镜的焦平面上。 散射装置、衍射孔和透镜可以单独使用、两两组合,也可以同时使用。也可以均不使用,直射的相干光在空间直接干涉形成立体图像。 为避免光强和相位调节时产生的图像混乱,可以在光传导装置前面、后面或中间任意位置处安装可控挡板,可控挡板在相干光调节光强、相位时关闭,调节完毕后打开。另外,也可以采用可控发光的相干光光源,在调节光强、相位时不发光,调节完毕后发光。一个实施例是在光源前加快门。 可以采用多个相干光光源,以解决大图像范围或相干光强度不够的问题(如图 18 所示)。每个光源的相干光通过一组光传导装置调制光强和相位。每个光源形成的成像位置可以聚集在一起,也可以交织分布。 不同相干光光源形成的成像位置可以共同形成同一个图像,也可以各自形成不同的图像。 确定成像位置的一个实施例是根据摄像时的状态决定每个光源形成的成像位置是聚集在一起,还是交织分布。 可以采用多种颜色的相干光光源,以解决彩色显示的问题。每种颜色光源的相干光通过一组光传导装置调制光强和相位。每组颜色光源形成的成像位置可以聚集在一起,也可以交织分布。采用多种颜色的相干光光源,每种颜色采用多个相干光源,每个光源的相干光通过一组光传导装置调制光强和相位。每个光源形成的成像位置可以聚集在一起,也可以交织分布。 图 18 为利用光传导装置形成成像位置,直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像(三维图像)的方法和装置总体结构的一个实施例示意图。从多个相干光光源 1 通过可控挡板 2 的控制发出激光 3 ,经过扩束装置 4 扩束,再分别经过光强调制装置 5 和相位调制装置 6 调制,进入光传导装置 7 ,到达成像位置 8 ,最后通过透镜形成立体像。 图 18a 为利用光传导装置形成多个分离的成像位置,直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像(三维图像)的方法和装置总体结构的一个实施例示意图。从单个或多个相干光光源 1 通过可控挡板 2 的控制发出激光 3 ,通过分光装置 15 和转向装置 16 后,分别经过扩束装置 4 扩束,再分别经过各自光强调制装置 5 和相位调制装置 6 调制,进入各自光传导装置 7 ,到达各自成像位置 8 ,最后通过各自透镜形成立体像。 分光装置 15 可以选用半透镜,光线变向装置 16 可以选用反射镜。 利用光传导装置形成多个分离的成像位置,直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像(三维图像)的另一个实施例如下:从单个或多个相干光光源 1 通过可控挡板 2 的控制发出激光 3 ,经过扩束装置 4 扩束,再分别经过光强调制装置 5 和 / 或相位调制装置 6 调制,或经过分组的光强调制装置 5 和 / 或相位调制装置 6 调制,再通过分组的光传导装置 7 ,到达各自(分离)成像位置 8 ,最后通过各自透镜形成立体像。 也可以同时用分光装置 15 和转向装置 16 、分组的光传导装置 7 形成多个分离的成像位置,直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像(三维图像)。 图 19 为利用光传导装置形成相干光波面立体成像的方法和装置总体结构的另一个实施例示意图。从相干光光源 1 通过可控挡板 2 的控制发出激光 3 ,经过扩束装置 4 扩束,再分别经过光强调制装置 5 和相位调制装置 6 调制后到达成像位置 8 ,最后通过透镜形成立体像。其中,光传导装置的长度为零,即不经过光传导装置。 在上述实施例中,当采用多种颜色相干光时,一个实施例是在调节相位、光强的装置的前面或后面加滤光片,或者采用色散装置,使不同颜色的光经过不同的相位、光强调节装置,见图 19a 。色散装置的一个实施例是三棱镜。 在上述光传导装置长度为零的实施例中,当采用多种颜色相干光时,另一个实施例如图 19b :在光源 1a/1b/1c 等前分别采用统一控制的快门 2a/2b/2c 等,开始时所有光源快门 2 关闭,先按照光源 1a 发射的相干光 3a 需要的相位、光强调节所有相位、光强调节装置,同时,或者相位、光强调节完毕后,打开快门 2a ,保持预定时间后,关闭快门 2a ;再按照光源 1b 发射的相干光 3b 需要的相位、光强调节所有相位、光强调节装置,同时,或者相位、光强调节完毕后,打开快门 2b ,保持预定时间后,关闭快门 2b ;如此循环往复。 本发明中,形成立体图像的一个实施例是将从同一相干光源发出的相干光分光成二束后,一束经过上述步骤扩束、通过光传导装置(长度为零或不为零)分别调节光强和相位,在成像位置出射,另一束经过转向、扩束后,形成宽束而光强、相位均匀的相干光,与成像位置出射的各处光强与相位分别调节的相干光干涉后形成立体像。 如图 20 所示,相干光 3 经过为分光装置 15 后一分为二,一部分光线 3-1 经过变向装置 16 ,扩束装置 4 后直接射出,另一部分 3-2 通过扩束装置 4 后分别经过相位调节装置 5 和光强调节装置 6 、光传导装置后,出射,与 3-1 相干涉。 上述实施例中,也可以不采用分光、转向装置,而采用等长,没有光强和相位调节装置的光传导装置,形成宽束而光强、相位均匀的相干光。 上述同一光源发出的光强和相位调制的相干光与未调制的均匀相干光干涉的方案一个实施例是光束交叉,另一个实施例是光束平行。图 21 给出了光束平行方案的一个实施例,成像位置出射光通过一个平板光学玻璃反射,而光强、相位均匀的相干光从平板光学玻璃的另一侧沿成像位置出射光的反射方向入射,然后发生干涉,形成立体像。 上述各实施例中,当连续改变每束光传导装置内光的强度和相位,就形成连续运动的立体像。 上述各方案的具体工作流程的一个实施例如下(如果只有光强调节器 5 或只有相位调节器 6 ,下述过程中只调节光强调节器 5 或相位调节器 6 ):初次工作时,首先分别调整各相干光光源对应的相位,使其根据成像位置排列方式的不同,形成对应的标准图案;其次分别调整各相干光光源对应的光强调节器 5 ,使传导装置出射光形成的对应的图案更加标准;上述过程可能需要重复多次,直到其形成图案与标准图案的差别小于某个判据,可认为此时各出射光相位相同,光强相同;记下此时光强调节器 5 和 / 或相位调节器 6 的状态作为工作时光强和 / 或相位的误差补偿。以后显示图像时,在相干光光源 1 工作稳定后或同时,根据图像源数据和上述光强和 / 或相位的误差补偿,调节所有光强调节器 5 和 / 或相位调节器 6 ,使成像位置的输出光强和 / 或相位与图像源数据一致,打开可控挡板 2 ,相干光 3 在成像位置直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像(三维图像)。 当连续改变每束光传导装置内光的强度和相位,形成连续运动的立体像时,具体工作流程的一个实施例如下(如果只有光强调节器 5 或只有相位调节器 6 ,下述过程中只调节光强调节器 5 或相位调节器 6 ):图像源的光强和 / 或相位数据按时间顺序记录成多组,每组记录同一时间各光强调节器 5 或相位调节器 6 的光强和 / 或相位数据,显示图像时,按时间顺序选取一组光强和 / 或相位数据,调节光强调节器 5 或相位调节器 6 ,调节完毕后打开可控挡板 2 ,相干光 3 在成像位置直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像(三维图像),保持一段时间,关闭可控挡板 2 ;选取下一组光强和 / 或相位数据,调节光强调节器 5 或相位调节器 6 ,调节完毕后打开可控挡板 2 ,相干光 3 在成像位置直射、散射、衍射、混合或经过透镜后,衍射、干涉形成立体的实像或虚像(三维图像),保持一段时间,关闭可控挡板 2 ;如此依次显示,利用视觉暂留现象,形成连续运动的立体的实像或虚像(三维图像)。 连续改变每束光传导装置内光的强度和相位,形成连续运动的立体像的控制电路的一个实施例如下: 采用光源快门与相位和 / 或光强控制器联动:每个光强调节器 5 和 / 或相位调节器 6 有一个驱动模块,用于驱动相应的光强调节器 5 和 / 或相位调节器 6 调节到位并保持。所有光强调节器 5 和 / 或相位调节器 6 有一个控制模块,包括:数据接收模块、存储模块、数据处理和控制模块、同步装置或时间控制器。或者将光强调节器 5 和 / 或相位调节器 6 分组,每组有一个控制模块,所有控制模块有一个总控制模块。控制模块定期或连续接收所有或组内光强调节器 5 和 / 或相位调节器 6 下一时刻或若干时刻的光强和 / 或相位数据,并存储;同步装置或时间控制器发出指令,光源快门关闭,数据处理和控制模块根据存储的下一时刻或若干时刻的光强和 / 或相位数据一次调节所辖的光强调节器 5 和 / 或相位调节器 6 ,最后一个光强调节器 5 和 / 或相位调节器 6 调节完毕后,发出调节完成信息。分组时控制模块将各自的完成信息发给总控制模块,总控制模块收到所有分控制模块的完成信息后发出收到完成信息。收到控制模块或总控制模块发出的调节完毕信息后,光源快门打开,直到下一次同步装置或时间控制器发出指令。 考虑到实际物体不可能发生瞬移,图像是连续变化的,即相位和光强是连续变化的,因此光强调节器 5 和相位调节器 6 对应的光强和相位数据是按时间连续或准连续的,所述光强和相位数据是按时间连续或准连续的是指光强调节器 5 和相位调节器 6 从一时刻的光强和相位调节到下一时刻的光强和相位,所用时间小于某个判断值,(如眼睛可分辨的时间间隔)。因此,当连续改变每束光传导装置内光的强度和相位,形成连续运动的立体像时,具体工作流程的另一个实施例如下(如果只有光强调节器 5 或只有相位调节器 6 ,下述过程中只调节光强调节器 5 或相位调节器 6 ):根据图像源的光强和 / 或相位数据,同步或准同步地同时调节所有光强调节器 5 和 / 或相位调节器 6 ,不使用可控挡板 2 。所述同步地同时调节所有光强调节器 5 和 / 或相位调节器 6 是指同时开始调节所有光强调节器 5 和 / 或相位调节器 6 ,同时结束,或虽然不能同时结束,但结束的时间差小于某个判断值;所述准同步地同时调节所有光强调节器 5 和 / 或相位调节器 6 是指虽然不是同时开始调节所有光强调节器 5 和 / 或相位调节器 6 ,但从第一个光强调节器 5 和 / 或相位调节器 6 开始调节,到最后一个光强调节器 5 和 / 或相位调节器 6 结束调节的时间差小于某个判断值。 同步地同时调节所有光强调节器 5 和 / 或相位调节器 6 的一个实施例是每个光强调节器 5 和 / 或相位调节器 6 都有一个控制模块,包括:数据接收模块、存储模块、数据处理和控制模块、光强调节器 5 和 / 或相位调节器 6 的驱动模块、同步装置。控制模块定期或连续接收光强和 / 或相位数据,并存储;所有光强调节器 5 和 / 或相位调节器 6 的数据处理和控制模块在同步装置的触发下 ( 可以是模块内部 / 外部时钟触发,或外部信号触发 ) ,根据存储模块存储的下一时刻本光强调节器 5 和 / 或相位调节器 6 的光强和 / 或相位数据,同步地控制光强调节器 5 和 / 或相位调节器 6 的驱动模块开始调节光强和 / 或相位,调接完毕后保持光强和相位状态,控制模块待机,等待接收存储数据和下一次调节。 准同步地同时调节所有光强调节器 5 和 / 或相位调节器 6 的一个实施例是所有光强调节器 5 和 / 或相位调节器 6 分成若干组,每组内从第一个光强调节器 5 和 / 或相位调节器 6 开始调节,到最后一个光强调节器 5 和 / 或相位调节器 6 结束调节的时间差小于某个判断值。每组光强调节器 5 和 / 或相位调节器 6 都有一个控制模块,包括:数据接收模块、存储模块、数据处理和控制模块、同步装置,每个光强调节器 5 和 / 或相位调节器 6 有一个驱动模块。控制模块定期或连续接收光强和 / 或相位数据,并存储;所有组的数据处理和控制模块在同步装置的触发下 ( 可以是模块内部 / 外部时钟触发,或外部信号触发 ) ,根据存储模块存储的下一时刻本组的光强和 / 或相位数据,依次控制光强调节器 5 和 / 或相位调节器 6 的驱动模块开始调节光强和 / 或相位,调接完毕后保持光强和相位状态,当组内所有光强调节器 5 和 / 或相位调节器 6 调接完毕,该组控制模块待机,等待接收存储数据和下一次调节。 需要说明的是,采用光源快门和不使用快门采用同步或准同步技术的体验区别在于:在有物体快速运动时,如果光强和相位调节不够快,前者快门关闭时间会较长,会有闪烁感和跳跃感,场面较暗;后者会有部分场景出现迷雾感或破碎感。当镜头切换时,前者会感到眼前一暗,然后场景就变了;后者会出现迷雾或场景支离破碎,恢复时场景就变了。
3517 次阅读|0 个评论
增强现实技术:改变人们观察世界和理解世界的方式
sciencepress 2015-9-14 08:30
20 世纪90 年代初,伴随着虚拟现实(virtual reality,VR)技术的发展,增强现实(augmented reality, AR)技术应运而生。 增强现实技术是虚拟现实技术的一个重要分支。它借助显示技术、交互技术、传感技术和计算机图形技术将计算机生成的虚拟物体与用户周围的现实环境融为一体,使用户从感官效果上确信虚拟物体是其周围环境的组成部分。因此,增强现实技术具有虚实融合、实时交互、三维注册的特点,在军事、医疗、科研、工业、教育、培训、文化、娱乐等领域都有着广泛的应用前景。 增强现实技术与虚拟现实技术的比较 虚拟人体内脏图,是 虚拟现实应用领域 之一的虚拟教育示意。学生可以通过虚拟的人体,形象化地理解生理学和解剖学的基本理论。加州大学的 Hoffman研制的系统可以带领学生进入虚拟人体的胃脏,检查胃溃疡并可以“抓取”它进行组织切片检查。 AR辅助医疗手术过程,是 增强现实 领域 的辅助教学与培训。医生不仅能够手持手术探针实时的对病人进行胸部活组织切片检查,而且系统可根据此时获得的切片组织情况决定手术探针的位置,指导医生完成病人的手术。 由上两图对比我们可以看到,增强现实系统中由于真实环境的存在,不仅能够使用户对融合环境的感知更具真实感,同时能够增强用户对虚拟环境的感知。因而在某些应用领域,增强现实与虚拟现实技术相比更具感知优势。 十多年前,增强现实技术对于大众来说或许还是一个抽象的概念,那时的增强现实技术还处于实验室研究阶段。 在虚实融合方面,由于增强现实技术需要同时融合现实世界与虚拟世界,因此研究的重点主要是设计开发能够实现虚实融合显示的显示器设备,即不同种类的显示器原型系统,从头盔显示器、视网膜显示器、投影仪、手持式显示器到空间式显示器相继出现;在实时交互方面,电磁和光学人体动作跟踪器以及后期出现的语音、手势乃至体感交互技术,实现了人与虚拟和现实世界自然交互的愿望;在三维注册方面,重点是实现用户与自然场景间的实时六自由度位置和方位跟踪计算,更准确、更鲁棒、更实时的姿态计算算法是这一方向的研究重点。该技术经历了早期的基于标志物的六自由度跟踪注册,并逐渐过渡到基于自然特征的六自由度跟踪注册。从增强现实系统来讲,20 世纪90 年代末期的增强现实系统将用户局限在室内较小的工作范围内,用户的运动范围受限。21 世纪初期开始出现了户外移动增强现实系统。虽然用户的运动范围得以扩展,但是受限于当时的技术条件,增强现实系统的重量以及便携性成为发展的瓶颈。而所有这些技术的进展基本都仅局限在实验室,不为大众所熟知。 基于增强现实的虚拟魔术交互表演。是Marco Tempest在TED大会上分享的基于增强现实技术的投影追踪和绘图系统,该系统包括了手势跟踪、脸部追踪以及基于Kinect深度图像控制的“global magic dust”。人自身具有多种感官感知功能,虚拟环境可以为用户提供真实的高沉浸的感官体验。通过手势、身体姿态、语音甚至对眼睛视点捕捉都可以作为增强现实系统中的交互方式。此外还可以通过触觉、嗅觉、听觉、力反馈等作为输出,从而实现多通道的增强现实交互。其研究的关键技术是如何实现多种交互方式与用户意图的结合。 近年来,随着增强现实技术以及移动互联网、高性能计算等技术的不断发展,结合自然场景的增强现实技术悄然走进了大众的视线。 2009 年,荷兰的一家软件公司面向智能手机开发的首款增强现实浏览器问世,预示着增强现实技术开始从实验室阶段迈向了商用阶段。2012 年,谷歌眼镜的横空出世直接将增强现实技术这一陌生的科技名词推向大众,激发了人们对增强现实技术的研究热情。2015 年初,微软公司全息眼镜产品的发布,更让业界为之振奋,一时好评如潮。佩戴上该款头盔显示器,用户可置身于奇妙的增强现实世界中,实现了虚拟与真实环境的良好融合、自然的用户交互以及精准的三维定位,从而将数字化的信息世界与真实的三维世界紧密地联系起来。相信在不远的未来,增强现实技术的应用将会涉及人类生活的诸多方面,直接影响人们观察世界和理解世界的方式。 北京理工大学是国内最早开展增强现实关键技术研究的单位之一,从20 世纪90 年代末期就已着手研发适用于增强现实系统的头盔显示器与跟踪注册技术:先后设计开发了视频透视式增强现实头盔显示器与光学透视式头盔显示器;跟踪注册技术的研发也经历了从有标识跟踪注册到无标识跟踪注册的阶段性发展。21世纪初期,在有关政府部门的支持下,设计开发了基于增强现实技术的定点观察设备,并成功地将其应用于圆明园的数字化场景重现中。 (a)圆明园的真实场景 (b) 圆明园虚实融合场景 圆明园的真实场景与圆明园虚实融合场景。 北京理工大学的圆明园数字化重建项目,利用增强现实技术将昔日圆明园辉煌的景观叠加到目前的遗址上,以固定式和移动式两种方式实时展现,虚拟的三维模型与周围的真实环境完美的融为一体。 该书是作者在多年从事增强现实技术研究的基础上所著,是国内第一部系统介绍增强现实的专著,从增强现实技术的概念与起源、增强现实的显示设备、标定技术、注册定位技术以及移动增强现实系统应用研究等几个方面全面详细地介绍了增强现实技术,并以轻量级增强现实飞行模拟器、定点增强现实观景器为例介绍了增强现实的实际应用。相信该书会给从事增强现实研究的科技工作者带来有益的启示,并对我国增强现实技术研究、应用系统开发和人才培养起到积极的推动作用。 2015年4月9日 本文由刘四旦摘编自 王涌天、陈靖、程德文 著《 增强现实技术导论 》一书中, 赵沁平 所作序言。标题为编者所加,文中插图及图注摘自本书正文。 ISBN 978-7-03-044025-9 增强现实技术的目标是将计算机生成的虚拟环境与用户周围的现实环境融为一体,使用户从感官效果上确信虚拟环境是其周围真实环境的组成部分。因此,增强现实技术具有虚实结合、实时交互、三维注册的特点。围绕这三方面, 《 增强现实技术导论 》 主要介绍增强现实系统的标定方法、实现虚拟与真实环境无缝融合的显示设备、有标识的六自由度跟踪注册技术、无标识的六自由度跟踪注册技术以及适用于移动终端的增强现实系统,并给出了典型的应用实例,包括基于增强现实技术的轻量级飞行模拟器开发和基于增强现实技术的圆明园数字重现定点观察设备。 用您的手指点亮科学! 欢迎推荐、评论、分享朋友圈, 您的鼓励是我们前进的动力!
个人分类: 科学书摘|6177 次阅读|0 个评论
北京六自由度科技——Polhemus PATRIOT电磁式位置追踪器
cangdongbo 2014-1-14 14:23
PATRIOT运动追踪系统具有圆滑、颇具时代感的外形,是一款非常经济实用的六自由度追踪和三维数字化产品。 PATRIOT带有两个运动追踪传感器,每个运动追踪传感器的采样率是60Hz。PATRIOT提供直观友好的图形界面(见下图),具有高的信噪比、高度可靠性、稳定性。电磁单元的大小仅为6.75英寸长x 6.25英寸宽x 1.75英寸高 PATRIOT能够实时测量/记录位置和方位,可以集中模式工作:连续不断地更新数据,或离散地(一点一点地)采集数据,或逐渐增加地采集数据。利用可选的配件——探笔, 你能够采集目标的物理外形轮廓或内部的孔、洞,获得更加精准的X, Y, Z轴的数据点。 PATRIOT的工作范围是5英尺;分辨率为 0.0015 英寸;0.01 度静态精度;动态精度:X, Y, Z 位置0.1英寸 RMS,方位0.75 度 RMS;两个传感器同时工作的延迟小于10毫秒 。 特点 花费少:以很低的花费提供位置和方位数据。 使用方便:用几分钟安装和使用。 多种输出格式:用户可选择输出笛卡儿坐标位置(英制或公制);方位角余弦等数据格式。 多传感器操作:在一个测量系统中可以使用两个传感器同时工作,不需要其它的电子元件。 可靠性高:工厂校准,不需要调整装置。 应用 虚拟现实头部追踪 生物力学分析制图学 机器人视觉立体定位 CAD数据库建模 模型外形尺寸存档 组成部分 PATRIOT系统包括一个系统电子单元(SEU),一个电源,一个传感器和一个发射器。可以通过增加一个传感器来提升 系统的性能 系统电子单元 包括产生磁场和感应磁场所需的硬件和软件,计算位置和方向通过RS-232或者USB和上位机进行通讯。 发射器 发生器包括包着塑料外壳的电磁镀锡卷板,它产生磁场。发生器是传感器测量的参考端。 传感器 传感器包括包着塑料外壳的电磁镀锡卷板,它探测由发生器产生的磁场。一个很轻的立方体单元,在传感器移动的时候,它的位置和方位被精确的测量。传感器是完全被动式的。 技术指标 工作范围:该系统在非金属环境下工作性能好,用标准的TX2的发生器时,传感器工作在30英寸范围内(TX4时工作在40英寸范围内),要是超过范围会使性能下降。 延迟时间:17毫秒(不需要软件滤波) 刷新频率:60HZ(固定)/每个传感器 接口:RS-232 串口(高达115.2 K波特率可选)或USB 静态精度:X, Y, Z 轴0.1英寸RMS和方位角0 .75度 RMS 分辨率:0.0015 英寸;0.1o 方位。 测量范围:使用TX2发射器能够达到5英尺;使用TX4发射器会使数据更加稳定。 方位探测范围:任何角度 工作环境:如果大的金属物体在发生器或传感器旁边,会影响系统的性能 工作温度:10oC - 40oC 相对湿度10% - 95%,不凝固 通信:有图形用户界面和软件开发工具包;有用于Windows? 和Linux的USB驱动器 物理特点(尺寸数据): SEU - 6.75 in. L x 6.25 in. W x 1.75 in. H 电源 - 3.5 in. L x 2.4 in. W x 1.4 in. H 发射器 - 2.3 in. L x 2.2 in. W x 2.2 in. H (standard 2 in. ) or (4 in. ) 接收传感器 - 0.9 in. L x 1.1 in. W x 0.6 in. H 供电电源: 10W, 100-240 VAC, 47-63 Hz 精度:0.01 度-0.1英寸RMS 分辨率:0.0015 英寸 范围:5英尺 更新频率: 50HZ 用途:运动采集、扫描和整体追踪应用
3152 次阅读|0 个评论
第五维空间的革命
热度 1 yaoqizhou 2012-4-1 06:28
当牛顿写下三大定律时,他把天和地统一了起来。天上的星球和地上的物体遵守着同样的规则。当爱因斯坦创立相对论后,时间和空间通过光速成了一体。三 维空间加上时间成了 四 维。现在 , IT 的发展把 正在 现 实与计算机里的虚拟界限打破,将四维空间进一步扩展到五维。一场新的革命正在孕 育。 我发出这样的感叹是因为最近看了两个 Ted 讲座。一个是 Pranav Mistry,MIT 的一个博士生 ( http://www.ted.com/talks/pranav_mistry_the_thrilling_potential_of_sixthsense_technology.html ) 。他发明了他称之为第六感的技术。用一个投影仪,摄影机和计算机的结合,他可以在 现 实和虚拟世界之间互动。任何平面都可以是屏幕,用 手势来进行人机 互动。 另外一个是高科技魔术师 Marco Tempest 的增强 现 实 技术( augmented reality ) ( http://www.ted.com/talks/marco_tempest_a_magical_tale_with_augmented_reality.html ) 。他表演了 虚 拟世界 对实体的神奇扩展 。 看了这 两个 讲座,我也想起了英语里面常见的一句话:“ Y ou are only limited by yourimagination and determination” (你只限于自己的想象力和毅力)。我们做科研的的确如此。科研缺乏进展往往不是由于想不到问题所在,就是因为找不到对症方法。可以说 不怕办不到,就怕想不到;只要想得到,就能办得到。 灵魂深处得革命才行。
个人分类: 科技推广|7551 次阅读|0 个评论
实验:OpenGL的增强现实
热度 1 wanglin193 2011-8-28 15:24
如果知道了物体相对于摄像机的三维姿态,就可以把3D图形渲染并叠加到图像中了。这里用的函数是一句OpenGL函数glutWireTeapot(),当然之前还有很多铺垫。首先,为了让它看起来是坐在那本书上的,它所在的坐标系要挪动到合适的位置,作用的矩阵M是由书的姿态R,T表达的4×4齐次矩阵。R,T的求法可参考去年的博客文章。也就是说,只要把R,T告诉OpenGL,它会调用glLoadMatrix或glMultMatrixf把图形渲染到合适的位置上。 glMatrixMode(GL_MODELVIEW); glLoadIdentity(); //要画在x,y,-z平面上,因为图像沿着Z轴推远了,能看到的物体z值是负数 glRotatef(180, 1.0, 0.0, 0.0 ); //M矩阵是以连乘的形式使用,M是列优先矩阵象Matlab里一样 glMultMatrixf(M); //画坐标轴 DrawAxis(0.0f,0.0f,0.0f,base_length); 其次,摄像机内部参数K要和定义视角的glFrustum或gluPerspective函数联系起来,当摄像机的焦距和光心位置确定以后,它观察世界的视野FOV就确定了,也就是说只要不换摄像机,这个函数调用是一劳永逸的。假设光心在图像中心,焦距fx=fy=fol,就是说K里只有一个变量焦距的时候,视野可以这样确定: //因为焦距是在320×240图像上得到的 fov = 2 * atan(240/2/fol)*180/3.14159265; gluPerspective(fov, 4.0/3.0, znear, 100.0f); 更靠谱的方法是用glFrustum分别根据x方向的fx,光心位置横坐标u0,和y方向的fy,光心位置纵坐标v0,确定可见区域的椎体的6个面,它可以看作是gluPerspective的升级版,而gluPerspective是glFrustum的特例。根据K确定glFrustum六个参数的方法可参考下图。六个参数对应图中蓝色的六面体,图中只显示y方向的投影,left,right,znear和可利用fx和图像平面所在的三角形的相似性求得。同样,参数bottom,up可以在x方向投影图中用fy和图像平面所在的三角形的相似性求得。 还有,上面这些图形是叠加在原始图像上的,原始图像用OpenCV读进来,用纹理映射的方法贴到背景上。 glDisable(GL_DEPTH_TEST);//这句很重要 glMatrixMode(GL_PROJECTION);glPushMatrix();glLoadIdentity(); glOrtho(0,wid,hei,0,-1,1);//glOrtho(0,wid,0,hei,-1,1);用那个取决于输入图像是否颠倒 glMatrixMode(GL_MODELVIEW);glPushMatrix(); glLoadIdentity(); glTexEnvf(GL_TEXTURE_ENV, GL_TEXTURE_ENV_MODE, GL_REPLACE); glBindTexture(GL_TEXTURE_2D, texName); gluBuild2DMipmaps(GL_TEXTURE_2D,GL_RGB, wid,hei,GL_BGR_EXT, GL_UNSIGNED_BYTE,camInput-imageData); glBegin(GL_QUADS); //贴图 glTexCoord2f(0.0, 0.0); glVertex3f(0,0,0.0); glTexCoord2f(0.0, 1.0); glVertex3f(0, hei, 0.0); glTexCoord2f(1.0, 1.0); glVertex3f(wid,hei,0.0); glTexCoord2f(1.0, 0.0); glVertex3f(wid,0,0.0); glEnd(); glMatrixMode(GL_PROJECTION);glPopMatrix(); glMatrixMode(GL_MODELVIEW);glPopMatrix(); 可以看出背景是用正交投影方式( glOrtho )贴图的,原来的图形的投影方式要用glPushMatrix和glPopMatrix保护起来。先贴背景再画其他的图形。 以上是以读入图像为例,真正的AR系统要实时读取Webcam数据,获取视频的函数要放在标准回调函数idel()的定义里。 void idle() { if(IsVideo)//得到当前帧 camInput = cvQueryFrame(capture); cvShowImage("OpenCV Webcam Input", camInput); glutPostRedisplay();//强制调用显示回调函数 display() } 也就是说主程序应该是下面这种形式的: void main() { InitGL(); InitCV(); glutDisplayFunc(display); glutReshapeFunc(reshape); glutKeyboardFunc(keyboard); glutIdleFunc(idle); glutMainLoop(); //取代了OpenCV里的for(;;) } 增强视觉应用的难点还是在于利用机器视觉分析场景结构和姿态的部分,简单地说就是 如何跟踪那本书, 和 如何计算K,R和T等 。
个人分类: 增强现实|10642 次阅读|0 个评论
实验:从图像恢复透视投影参数
热度 3 wanglin193 2011-4-29 15:53
实验:从图像恢复透视投影参数
从图像中的已知3D平面恢复出物体的旋转和平移矩阵R,T等,是单目视觉的基础问题,它的典型应用是三维重建、工业测量和增强现实等。具体步骤如下: 1.从图像中找到平面的灭点v1,v2。 利用两组互相垂直的不平行于图像平面的空间平行线,求出它们的交点。我们实验中用手工选取空间中的矩形(图中蓝色矩形,上海市外滩某建筑的外立面)。如果用自动的方法,可以用Hough变换估计直线,然后用最小二乘法估计多条直线的交点. 2.求焦距f,旋转矩阵R 根据灭点v1,v2求f: f = sqrt(-(v1(1)*v2(1)+v1(2)*v2(2))); 然后求R K = ; Kinv = inv(K); gx = Kinv*v1';gx=gx./norm(gx); gy = Kinv*v2';gy=gy./norm(gy); gz=cross(gx,gy); R = ; 这里有个麻烦,如果 -v1(1)*v2(1)-v1(2)*v2(2)=0,会导致f无解。原因是3D物体和投影面(图像)的旋转角度很特殊,比如只有绕x轴的旋转或绕z轴旋转(平面内旋转),导致空间平行线在图像中仍然是平行线,这时的灭点在无穷远处,用2D齐次坐标表示为 ,vx,vy是平行线上的任何点,也就是说斜率k=vy/vx。此时要先计算出R,而f和平移矩阵T= 则要用已知点对的映射关系用待定系数法求解。 3.求T= 设图像坐标(xp0,yp0)是物体的空间原点 的2D投影, xp0*t3 = f*t1; yp0*t3 = f*t2; 图像坐标(xp1,yp1)是3D坐标 的2D点,则有: xp1=f*(R(1,1)+t1)/(R(3,1)+t3); yp1=f*(R(2,1)+t2)/(R(3,1)+t3); 如f已知,t3由下式计算得到,前提是(xp0-xp1)~=0: xp1*R(3,1) = f*R(1,1)+t3*(xp0-xp1); 否则用这个: yp1*R(3,1) = f*R(2,1)+t3*(yp0-yp1); 这样空间平面和摄像机的位置关系就确定了。 4.根据给定的2D投影点计算这个点在3D平面上的位置 左乘内部参数K的逆矩阵,相当于矩阵前两行除以f: x3d = Kinv * ' = ' 我们知道2D投影点其实是对应空间中的一条射线,计算出来的3D点是没有z值的。我们的已知平面上的z值为0。 代码如下: p3d = inv( )* '; for i=1:3 p3d(i)=p3d(i)/p3d(3); end 这样我们就得到一个基点,它位于我们选定的3D平面上,这个平面的3D姿态R,T已知,摄像机焦距f已知,我们就可以画出虚拟的3D物体,然后投影到平面上。比如图上红色的圆圈,是平面上的单位圆,中心是和它垂直的单位长度的线段,指向浦东方向。 附件: 实验图像和matlab代码 blog.rar ---------------------------------------- 5.3更新 用多条平行线估计x和z方向灭点,求得f=736.7,光心位置调整为(480,536),标注结果如下:
个人分类: 增强现实|14269 次阅读|8 个评论
只有你能看见
songshuhui 2010-11-1 23:03
猛犸 发表于 2010-11-01 13:44 虽然移动互联网的呼声越来越高,显示器也早已成为我们观察这个世界最重要的窗口之一,但是显示器便携化的技术进展,似乎一直都没有什么太大的起色。最近日本的兄弟工业公司的新产品也许会改变这种现状:他们开发了一种外形看起来像是一副眼镜的设备,可以用激光直接将图像投射到使用者的视网膜上。而西雅图华盛顿大学的几位研究者干脆打算抛弃便携显示器一定是类似眼镜的固有构想,干脆把显示器做在了隐形眼镜上。这些产品,很有可能会改变我们感知世界的方式。 眼镜式显示器不算很新的产品,但是它依然没有普及。其原因之一在于,传统的眼镜式显示器采用不透光的液晶屏幕,而这让它的使用范围大打折扣。而兄弟工业公司的新产品解决了这种问题,他们的显示技术不会阻挡使用者的视线,而是在真实景物前叠加了一层半透明的显示效果。这种技术,被叫做视网膜成像显示(RID,Retinal Imaging Display)。 视网膜成像显示技术和我们过去使用的那种笨重的阴极射线管显示器(CRT,Cathoderaytube)异曲同工:利用人的视觉暂留原理,让激光快速地按指定顺序在水平和垂直两个方向上循环扫描,撞击视网膜的一小块区域使其产生光感,人们就感觉到图像的存在。兄弟工业公司的RID以每秒钟60次的频率刷新,可以显示800*600的分辨率,相当于14寸的CRT显示器那种我们在十五年前使用的老古董。现在看起来有点小,但是提升分辨率本质上不是太困难的事情。 2005年的爱知世博会上,就已经展示过这一系统的原型。在经过四年的努力之后,兄弟工业将这种设备缩小到可以随身携带的程度,激光模块的重量只有25克,可以通过一条线缆与腰部的电池和微型计算机相连。在技术上,这套系统使用了一个折射镜。这片小镜子将激光头发射的激光折射到人眼之内,而不阻挡人的正常视野。这样,人通过RID系统看到的世界,会叠加在真正的世界之上,这让它看起来很有希望成为下一代计算机终端使用的显示设备。 类似地,西雅图华盛顿大学的一些研究者也在致力于将显示设备的尺寸尽可能地减小。他们将发光二极管元件、控制电路、天线和数据通讯模块集成到一片软性隐形眼镜上,在1.5平方厘米的面积上所构建的系统相当于家用电脑的电源、显卡和显示器。出于安全顾虑,这种显示设备的第一个使用者是一只兔子。按照项目负责人BabakA. Parviz的说法,在20分钟的试戴过程中,兔子并没有显示出任何不舒服的迹象。 这种显示系统需要无线供电,有点类似于我们的公交一卡通,需要靠电磁场来激活内部的电路。虽然现在它的能提供的像素数量还不够多,但是可以想见,它会在视野中呈现出一片很大的场景毕竟它是有史以来,和人们的眼睛接触最亲密的显示系统了。 显而易见,人们会对这些设备的安全性有些担心。我们怎么可以放心地将这些激光之类的东西直接射入我们的眼睛这个几乎是我们身上最脆弱的、完全不可再生的重要器官?如果我戴上了隐形眼镜显示器,如果它失控了怎么办?它就在瞳孔正前方,我们连眼皮这最后一层屏障都没有。它如果损伤了视网膜该怎么办? 的确,是否使用这种设备,都会是一个艰难的选择。在透明有机发光二极管(OLED)显示器还没有走进生活之前,我们并不能期盼在鼻梁上架一副透明的显示器。相对而言,视网膜成像技术似乎可以让人们更加放心一点毕竟我们在进行视网膜扫描以认证身份的时候,采用的就是类似的技术。虽然视网膜非常脆弱,但是它还是可以接受低能量激光的照射。对于RID系统来说,控制输出激光的功率,不能算是什么困难的事情。而对于隐形眼镜显示器,这个问题也可以以类似的方法来解决,毕竟研究者们对这套系统的研究过程中,首先、也是最关注的问题就是它是否足够安全。 按照目前得到的消息来看,RID比隐形眼镜显示器会更快地出现在我们面前。兄弟工业公司将会在近两年将相应产品推向市场,而且甚至已经有了竞争对手有消息称,NEC将在明年推出视网膜显示设备,其原理和兄弟工业的产品原理并无二致。而隐形眼镜显示器,即使是BabakA. Parviz自己,也只能保守地认为可能会在未来五到十年内出现产品化的成品。 看起来还有点遥远,但是只要想一想这种设备可能的用途,就足以让人心潮澎湃。将半透明的图像叠加在人的视野当中,只要再配合适当的软件,我们就会变成科幻作品中的人物,像《终结者》系列中的T-800、《辐射3》中的主角、或者最近上映的《特种部队》中的那种机械外骨骼盔甲的主人。我们可以在视野中显示与我们所看到的物体相对应的信息,可以将外语翻译成母语,可以直接在眼前显示效果更好的GPS,甚至可以将汽车的仪表盘显示在我们眼前,驾驶的时候再也不用低头。当然,还有游戏和电影也许几年后,你会就看到有人坐在椅子上傻笑,而只有他自己才知道是什么那么可笑。 这类设想被叫做增强现实(AR,Augmented Reality),正是当前研究的热点领域之一。虽然现在增强现实的技术已经有了一些应用,但是它们都需要依赖于传统的电脑或者手持设备例如手机或者PSP。显然,用来显示这些被增强的现实的设备,再没有比能够无需干预,就可以自动显示在我们眼中的设备更好。当像RID或者隐形眼镜显示器这样的便携显示器开始进入市场时,我们就相当于随身携带了一部随时显示的计算机,而且和互联网这一人类所有文明的集合体相连。我们将透过整个互联网重新审视世界,将虚拟世界和真实世界无缝地连接在一起。这将是最美好的未来。
个人分类: 计算机科学|1323 次阅读|0 个评论
[转载]ARE2010 和 ISMAR2010
w52191114 2010-8-13 01:41
2010年增强视觉领域最值得期待的两个会议: ARE2010 和 ISMAR2010 . ARE2010 是关注商业应用的。日期是2010年六月二号。地点加州圣克拉拉。 Augmented Reality Event (ARE), the first global event dedicated to advancing the business of augmented reality, announced today that the inaugural event will be held at Santa Clara Convention Center, June 2-3, 2010. ISMAR2010 是学术圈的。日期是2010年十月三号。地点韩国首尔。期待markerless tracking和3D tracking的最新进展。 Mixed Reality (MR) and Augmented Reality (AR) allow the creation of fascinating new types of user interfaces, and are beginning to show significant impact on industry and society. The field is highly interdisciplinary, bringing together signal processing, computer vision, computer graphics, user interfaces, human factors, wearable computing, mobile computing, computer networks, displays, sensors, to name just some of the most important influences. MR/AR concepts are applicable to a wide range of applications. Since 1998, ISMAR and its forerunner events, IWAR/ISAR and ISMR, have been the premier forums in this vital field. This year we are proud to present the 2010 IEEE International Symposium on Mixed and Augmented Reality (ISMAR 2010). The symposium will be held on Oct. 13-16, 2010 at COEX, in Seoul, Korea. We invite you all to participate in this great event for the exchange of new ideas in this exciting field!
个人分类: cvchina|1825 次阅读|0 个评论
透过手机看世界
songshuhui 2009-11-17 18:11
猛犸 发表于 2009-11-17 14:30 互联网挟着海量信息铺天盖地而来,让人类辛辛苦苦花了千百万年才演化出来的脑容量显得捉襟见肘。最近流行的一种时间管理方法要人们把所有想法都记录下来以清空大脑,未来学家保罗萨福(Paul Saffo)更是认定,在未来数十年之内人会变成和机械合体的新型生物。看起来有些怪异,但却是一种很有可能的未来。 基本上我们可以确定,在几十年之内,人脑的能力并不太可能有巨大的提升。但是让大脑的工作集中在人类能做而机器不能的领域上,似乎是效率较高的方式。让机器去记忆,而让人来选择,这才是彼此的优势所在。 这种设想在虚拟世界中十分容易,但是现实世界中似乎会碰到些问题。图书馆的书架上没有Google搜索框,翻开一本书时手指所及之处,也不会跳出金山词霸的翻译窗。即使带着地图去旅游,但对于像我这样不辨方位的路盲来说,向左走还是向右走,本身就是一个堪比to be or not to be的艰难抉择。虚拟世界中那些触手可及的信息,在现实世界显得遥远无比。 不过最近我们有了一些好消息。Google的Android手机和苹果的iPhone上出现了几种不错的小软件,可以帮我们把真实世界和虚拟世界捆在一起。借助有摄像头、能上网的智能手机,我们可以获得看待世界的全新方式。真实世界的景物和虚拟世界的数据叠加在屏幕上,我们透过它将看到一个混合了真实和虚拟的窗口,看到被虚拟增强了的现实。 增强现实(Augmented Reality)这个概念,是在1992年提出的。时任波音公司计算机研究部门的首席科学家托马斯考德尔(Thomas Caudell)在美国电气与电子工程师学会上发表了一篇论文,认为可以采用头戴式显示器,将数据投射到对应的真实世界的景物上,以降低制造业的生产成本和提升效率。在他的设想中,这就像是一个随身的助手,他会随时告诉你你需要知道的一切。 和虚拟现实(Virtual Reality)这个正在大热的概念不同,增强现实并不试图完全从头构建一个全新的世界,而是在真实世界的基础上做一些加工。它追求的是在最适当的时间给予最适当的帮助,而且将真实世界和虚拟世界严格地对应起来。对应是增强现实的关键词之一当你看着一只梅花鹿的时候,你的增强现实系统不应该告诉你那是一匹长了斑点的骏马。 增强现实的概念很吸引人,但是从它被提出之后,对增强现实的研究仅限于一些研究机构和企业之中。在比较通用的做法中,人们给各种各样的东西贴上或大或小的标签,从箱子、零件直到整栋建筑物。摄像头会捕捉到这些标签,然后计算机会去数据库中查找和标签有关的信息,最后把结果显示在屏幕上,叠加在与相应的标签对应的地方。这种做法显然限制了增强现实技术更广泛的应用除了在偏执狂最疯狂的梦里,没有人愿意生活在一个贴满了标签的世界里。 幸好这个世界总是充满了希望。感谢摩尔定律,感谢异想天开,感谢第一个想到把摄像头和传感器装在手机上的家伙。在多种技术的协作下,增强现实的春天终于要来了。现在手机这样的手持设备,运算能力已经堪比十年前的笨重电脑,移动互联网的速度足以应付网络查询和数据传输的需要,GPS更是可以将我们的所在地精确到数十米之内。配合图像识别技术,我们的手机甚至可以认识摄像头拍摄到的外语标牌,并且翻译成我们的母语网易有道词典刚刚推出这种功能。 关于增强现实技术的更多应用,一项还在测试中的新设备也许能让我们看到一些端倪。今年年初,麻省理工学院媒体实验室设计了一套简陋的设备,由一个摄像头、一台微型投影仪和一部能上网的智能手机组成。摄像头和投影仪被松松垮垮地捆在研究人员的头上,充当第三只眼睛。打开一本书的时候,投影仪会在书上照出投影,告诉读者这本书在网上的评价,还能给出同类的推荐书籍;当拿起一盒麦片的时候,投影仪会告诉我们这盒麦片在附近其他超市的价格,还有它的营养成分;当我们面向某人的时候,投影仪甚至可以显示对方在社交网站的主页,同时告诉我们他的姓名和爱好。而这一切的查询和数据传输,只是由口袋里那部打开了无线上网功能的手机自动完成的。 这套叫做第六感的设备虽然丑得让人伤心,但是功能相当强大。它现在只是一个原型,我毫不怀疑在它成熟之后,会成为革命性的产品,当然也会更好看特别是它在宣布全部开源之后。在它还没有到来之前,我们还是忘掉困在头上的摄像头和投影仪吧。只用手机会更适合一些,比方说一部iPhone。 iPhone在手机行业的最大贡献在于它构建了一套新的共赢体系,让全球的软件开发者自由开发软件,并且可以通过这些软件来盈利。现在苹果的软件商店已经有了超过八万五千种软件,总共下载次数已经超过了二十亿次。大部分使用者在有了iPhone之后,显著减少了他们使用电脑的时间iPhone可以部分地取代电脑的功能,那些设计精巧的小软件甚至会让人们产生新的依赖。 《新科学家》杂志的新闻副总编理查德费舍尔(RichardFisher)几个月前 写了一篇文章 ,探讨以iPhone为代表的智能手机和手机软件给人们生活带来的变化。他采访了几位专注于研究科技给人们带来影响的学者,他们都认为手机将会成为我们最可信赖的伙伴,成为我们生活中史无前例的重要组成部分。在某种程度上,这个结论比刘震云那个手机就是手雷的论断更加惊人我们会和这种小小的电子设备建立起一种类似于共生的关系,手机会成为我们大脑的扩展,帮我们记录我们的日程、情感、欲望和记忆;而在增强现实技术的帮助下,它可能会成为我们看待世界的一种新方式,成为一只混淆了真实和虚拟,混合了原子和字节、连接了电磁波和数据流的新眼睛。 这一天可能会以一种更自然的方式到来。去年通用汽车公司开始了一项研发计划,打算在汽车风挡玻璃上安装透明显示器。汽车的驾驶员将向战斗机驾驶员一样,无需低头就能看到仪表盘;GPS的线路也不会局限于小小的屏幕,而是在风挡玻璃上向远处延伸,就像是给道路镶上了一道明亮的路标。以有机发光二极管(OLED,Organic Light EmittingDiode )为代表的透明显示器技术正在日益成熟,它可能会被做成落地窗、电脑显示器甚至是眼镜,将我们需要的数据轻巧地浮现出来,就像我们在科幻电影中看到的那样。甚至可能以一种更加难以为人察觉的方式:日本Brother公司正在开发将图像投影到视网膜上的技术,华盛顿大学去年就已经开发出了隐形眼镜式的显示器。我们也许很快就不会察觉到真实世界和虚拟世界的界线,经过增强的现实会成为像呼吸那样自然,手机会实时将虚拟世界叠加在我们的视野中,让我们感觉不到我们所见的一切,实际上都已经经过了计算和增强。 可以想见,这样的未来到来那天,迎接它的并不只会是一片掌声。必然会有各种各样的争论,人们最担心的很可能还是那些生命力最旺盛的老调重弹:依赖于新技术会让人变笨,以及对隐私权的侵犯等等。这些争论自古已有,而且必将重演。然而,历史上的任何一种新技术,从文字、活字印刷术直到搜索引擎,都是在这样的争论中逐渐发展壮大,最终成就了我们今日的文明。人们会将技术的优势发展到极致,同时尽可能避免它的任何副作用过去我们是这样做的,今后我们也必然会这样做。就像显微镜和望远镜延伸了我们的眼睛,飞机和汽车延伸了我们的腿,机器人延伸了我们的手一样,手机和增强现实技术将会延伸了我们的大脑,将我们和人类所共有的知识和财富紧密地连接在一起。 这应该算是一个相当光明的前景。最少,能够透过手机看到那个被增强的、更加多姿多彩的世界,对于我自己这颗和互联网比起来小得几乎可以忽略不计的脑袋来说,是非常值得期待的未来。 发于近期《经济观察报》
个人分类: 计算机科学|1731 次阅读|0 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-12 03:23

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部