科学网

 找回密码
  注册
科学网 标签 量子计算 相关日志

tag 标签: 量子计算

相关日志

EC和Atos联合成立天气气候建模卓越中心
xuxfyuwp 2020-10-21 22:32
卫星和模拟卫星图像 左图为 MSG 卫星可见光图像,右图为同一时刻的 48 小时全球预报,网格间距为 1.4 km ,可以清晰显示出深对流天气。如此高分辨的数值模拟有助于增进对地球天气和气候的理解。(图片由 EUMETSAT / ECMWF 提供) 10 月 5 日,欧洲中期天气预报中心( ECMWF )与信息技术公司 Atos 宣布将合作成立一个新的卓越中心( Center of Excellence , CoE ),目的是解决在天气、气候模式中所面临的高性能计算( HPC )、人工智能( AI )和量子计算问题,为 ECMWF 研究团队提供与这些新兴领域发展相关的技术支撑,包括充分利用即将在意大利博洛尼安装的高性能计算资源,最终支持 ECMWF 在中长期天气预报和全球气候模式的研发工作。 利用最新的技术发展成果, ECMWF 研究人员将能够提高对因气候变化引发的极端天气事件及其强度和其他天气现象的预测能力。新的中心将配备 Atos 最新的 BullSequana 超级计算机, ECMWF 研究人员将与 Atos 专家和技术合作伙伴紧密合作,开发支持下一代天气预报的新技术,促进天气、气候研究和业务创新,同时协助 ECMWF 为未来高性能计算和数据处理构建新的框架体系做好准备。 ECMWF 总干事弗洛伦斯·拉比耶( Florence Rabier )博士认为,“将世界一流的计算机、计算科学和地球系统科学领域的专家汇集在一起,对于推进我们的中长期天气预报水平继续提升至关重要。新的中心将以双方以往的成功合作为基础,帮助我们在改善预测极端天气事件的发生和与气候变化相关的其他事件能力方面发挥重要作用。” Atos 相关负责人表示:“我们很高兴与 ECMWF 一起建立这个卓越中心,研究人员将能够通过验证来探索 HPC 和 AI 技术在实际中的有效用法。人工智能辅助的高性能计算在气候和天气预测方面具有巨大潜力,一些刚刚开发的新技术方法也将被引入。” ECMWF 正在致力于研究和开发人工智能和机器学习等最先进的技术,并试验如何将其用于提升天气和气候预测能力。作为新的 CoE 工作内容,优先项目是如何在 ECMWF 预报模式软件基础架构中测试和使用这些技术,在地球系统建模和数值天气预报流程中都将引入机器学习解决方案。 该中心第二个初始项目将寻求开发基于 CPU-GPU 的集成预测系统( IFS )版本和波动模式 WAM ,并为适应新技术准备 ECMWF 产品生成方式和以数据为中心的新工作流程。研究团队将开发新的流程,并在硬件设备上测试,检验对性能产生的影响,最终目标是为节能的异构超大规模计算机准备 ECMWF 模式代码。 第三个项目旨在开发基于用户使用经验的 HPC 操作系统工具。该研究将由 ECMWF 新的 Atos BullSequana XH2000 超级计算机提供支持,也是世界上功能最强大的气象超级计算机之一。该系统配备了 BullSequana X2415 叶片,装有市场上功能最全面的 AI 软件套件 Atos Codex AI Suite ,并提供先进的 GPU 计算和 AI 支持,使 ECMWF 研究人员能够提高对复杂数据的处理时效,从而利用深度学习和分析的能力更快地获得对数据的理解。 CoE 还将使用 Atos 的量子学习机( QLM ),这也是目前最先进的量子计算模拟器,用以探索量子计算如何影响未来的天气和气候预测。来自 AMD 、 Mellanox 、 Nvidia 和 DDN 的专家也将提供支持,探索加速计算技术以及相关的数据存储和访问问题。 《中国气象报》
个人分类: 文章|4500 次阅读|0 个评论
[转载]量子云计算发展态势研究报告(2020年)
quantumchina 2020-10-16 11:22
本蓝皮报告通过梳理和分析国际、国内量子云计算整体发展状况,从技术、服务、产业、测评四个方面阐述了量子云计算发展特点及态势,为业界推动量子云计算产业和生态未来发展提供参考。 【目录】 一、概述 二、量子云计算助力量子计算技术发展 (一)量子云计算技术架构逐步成型 (二)量子云计算关键技术协同发展 (三)量子云计算亟需多维研究推进 三、量子云计算服务探索日益升温 (一)角色定位日渐清晰 (二)服务模式逐渐成型 (三)应用场景多方探索 四、量子云计算产业发展势头良好 (一)国际巨头百家争鸣,竞争如火如荼 (二)国内产业逐步兴起,发展态势良好 五、量子云计算测评工作初步展开 (一)测评体系 (二)测评实例 (三)小结 六、发展前景与建议 (一)机遇挑战 (二)发展建议 转载来源:中国信通院 http://www.caict.ac.cn/kxyj/qwfb/ztbg/202010/t20201015_359896.htm
个人分类: 量子计算|1438 次阅读|0 个评论
星际飞船中的量子计算机需要特别保护
quantumchina 2020-9-9 15:17
未来的星际飞船(以及空间站)中如果安装了量子计算机,由于宇宙空间中的 背景辐射,足以导致量子比特退相干而使量子计算机无法正常工作,因此需要特别的防护。 参考:MIT给量子计算机泼冷水:自然界辐射会干扰,需研究新对策 来源: https://www.thepaper.cn/newsDetail_forward_9011183
个人分类: 量子计算|1385 次阅读|0 个评论
[转载]全球量子信息科学硕士学位盘点
quantumchina 2020-9-2 12:24
2020年8月,印第安纳大学宣布开设量子信息科学理学硕士课程,课程为期一年,涉及多学科密集性教学,涵盖物理学、化学、数学、计算机科学、工程学和商业。获得量子信息科学理学硕士学位的学生有机会进入量子计算硬件和软件公司以及从事量子信息科学的国家实验室工作。 实际上,在全球范围内,已经有多所大学设立了量子信息科学硕士学位,根据光子盒统计,主要有以下16所大学: 美国 1、杜克大学-量子计算专业 量子计算专业重点有两个方向:软件和硬件。 软件方向培养学生编写程序和控制量子信息设备,并建立行之有效的软件开发重点;硬件方向专注于设计、制造和量子器件的测试。 杜克大学是信息物理研究领域国际领导者的故乡,体现在超材料,量子设备和光学系统的突破性程序中。学生将向具有深厚跨学科研究实力并具备企业家精神和创新记录的教师团队学习。 详情:https://ece.duke.edu/masters/study/quantum-computing 2、罗德岛大学-量子计算专业 量子计算硕士旨在利用物理系在量子力学、光学和纳米物理学方面的优势,为毕业生做好准备,使之成为富有成效的应用科学家,寻求使量子计算成为经典计算的可行补充。 该方案产生了跨越多个领域的科学和技术研究和学术活动,与计算机科学、数学、化学和工程的交叉将增加本科生和研究生跨学科的研究合作。 同时,该方案将与公司和外部机构建立伙伴关系,学生和来自行业的辅助人员之间的互动将有助于确保学生在毕业后从事进一步的学术研究或非学术就业。 详情:https://web.uri.edu/facsen/files/5.a.1_GC_Report-19-20-10_PHY_report-w-app.pdf 3、威斯康星大学麦迪逊分校-物理量子计算专业 该课程为学生提供了有关量子信息和量子计算新学科的全面基础。在课堂上,学生将学习量子理论的相关部分,并进行量子论,测量,算法,量子误差校正和量子退相干的学习,还将讨论量子通信理论和信息的安全传输。统计力学、固态物理学和原子物理学的支持领域也将构成课堂培训的一部分。该计划将使学生掌握量子计算中涉及的高级实验室技能。学生也可以将该课程用作攻读博士学位的跳板。 详情:https://www.physics.wisc.edu/graduate/mspqc-current-students/mspqc-handbook/ 英国 4、布里斯托大学-光电和量子技术专业 量子技术将以多种方式革新社会:从创建新型计算机迅速解决棘手的问题到制造出无法突破常规极限的可靠的通信系统和传感器。布里斯托大学在这一全球努力中一直处于领先地位,采用光和光电技术来实现所需的设备、电路和系统的方法已超过15年。 通过学习,学生将深入了解下一代集成电路、子系统和系统的设计、制造和使用,这些技术将光学、电子学和量子工程相结合,用于通信、计算、传感和医疗保健。 详情:https://www.bristol.ac.uk/study/postgraduate/2020/eng/msc-optoelectronic-and-quantum-technologies/ 5、斯特拉斯克莱德大学-应用物理学 学习成果:• 对物理学和生命科学领域当前和新兴理论,技术和实践的深入了解,以及在专业环境中应用这些理论的能力;• 解决问题和高计算技能在整个商业领域广受欢迎,需要在工业环境中使用大功率微波技术;• 应用基于激光的粒子加速和已启用应用程序的专业能力;• 对材料和固态物理学,光子学和量子光学以及量子信息技术有深入的了解。 学生将把在课堂上获得的知识用于研究项目,并可根据自己的兴趣和职业计划设计项目。 详情:https://www.strath.ac.uk/courses/postgraduatetaught/appliedphysics/ 6、伦敦大学学院-量子技术 量子技术硕士专业将带学生进入量子技术新兴领域的前沿研究,不仅提供有关物理的高级培训,还提供了获得工程和信息科学关键技能的机会。学生将学习高级量子力学,量子信息和量子计算以及凝聚态物质和量子光学系统的最新实现的语言和技术。 该计划为量子技术的基础学科提供了严格的基础,并有机会与一些世界领先的研究项目团队合作。新成立的量子科学技术研究院(UCLQ)提供了一个保护伞,所有在该领域工作的人都可以见面并分享想法,包括定期举行的研讨会、社交活动以及与商业和政府合作伙伴进行互动的机会。 详情:https://www.ucl.ac.uk/prospective-students/graduate/taught-degrees/quantum-technologies-msc 7、萨塞克斯大学-量子技术专业 全日制1年,兼职2年。专业内容涵盖:• 离子阱量子处理器• 投影量子互联网的离子-光子界面• 量子模拟器• 超导量子电路• 量子增强计量设备• 量子系统的光子器件 详情:https://www.sussex.ac.uk/study/masters/courses/quantum-technology-msc 德国 8、路德维希·马克西米利安斯慕尼黑大学和慕尼黑工业大学-量子科学与技术专业 在为期两年的学习计划中,学生将基于自然科学、工程学和数学经历与研究相关的培训。它是慕尼黑工业大学(TUM)和路德维希·马克西米利安斯大学(LMU)之间的一项联合计划。 主要研究领域包括量子计算,量子感测,量子模拟,量子材料和量子密码学。量子科学与技术的研究领域牢固地基于对量子力学原理的基本理解,但也依赖于数学,信息技术,电气工程和化学等邻近研究领域的发展。 QST的学习计划远远超出了量子力学的标准教学计划,因为在量子技术的现代应用(Quantum2.0)中,叠加和纠缠的概念至关重要。由于该领域的复杂性,QST的学习计划面向的学生将在量子科学的最前沿工作,并将扩大自然科学(例如物理学和化学),数学和工程(例如计算机科学和工程学)的现有研究领域。电气工程)。 详情:https://www.tum.de/en/studies/degree-programs/detail/quantum-science-technology-master-of-science-msc/ 9、 亚琛大学-量子技术专业 为期两年(四个学期)的硕士课程,量子技术专业由物理系和电气工程与信息技术学院联合组织。将包括理论和实验课程,以及专门用于理论实践的新的专门实验室课程,还将为学生提供前沿的研究项目和实习的产业合作。 详情:https://www.physik.rwth-aachen.de/cms/Physik/Studium/Im-Studium/Master-s-Program-Physics/~dlxbl/Quanten-Technologie/lidx/1/ 西班牙 10、巴斯克大学-量子科学与技术专业 该硕士课程通过为量子科学和技术的多个方面提供坚实的基础,大学的教学人员和研究人员承担教学和指导职责,在教学和研究方面都有良好的成果。 这是一个以研究为导向的硕士专业,可以视为迈向博士研究的一步。学生可以选择两种可能的职业道路:基础物理学(引力,宇宙学,凝聚态和量子场论)和量子信息与技术,甚至是两者的叠加。该计划为学生提供知识的获取、创造和表达方面的技能,特别侧重于研究小组内的个人工作和主动性。 详情:https://www.ehu.eus/en/web/master/master-science-quantum-technology 11、加泰罗尼亚理工大学、巴塞罗那大学- 光子学 巴塞罗那地区的三所大学和一所光子学研究所提供了光子学的综合硕士学位。光子学是将在21世纪技术发展中发挥关键作用的学科之一。在光子学硕士专业旨在培养这一领域未来的教育研究人员,也将促进光子学创业活动。面向国际听众的光子学硕士专业课程将以英语授课。 详情:https://photonics.masters.upc.edu/en 澳大利亚 12、 堪培拉澳大利亚国立大学 -量子技术专业 即将到来的量子时代将需要技术熟练的员工队伍来满足这个新兴且快速发展的行业的需求。政府、国防、金融、专业服务和相关部门对这一领域知识的需求也将增加。该专业将提供量子技术的科学、技术、商业和社会方面所需的技能和知识,以在当今和未来的新兴量子产业中具有高度竞争力。 学习成果:• 在研究领域展示高水平的知识;• 将学科中的知识应用于新问题;• 解释、综合和批判地分析与该学科有关的已出版文献;• 证明与该学科的技术和研究方法有关的理论和/或实践技能;• 严格分析学科内的数据以得出独立结论;• 展示对社会科学的批判性理解;• 以书面和口头形式清楚地交流理论和结果。 详情:https://programsandcourses.anu.edu.au/2019/program/nscqt#career-options 13、昆士兰大学-量子技术专业 该计划是澳大利亚首个此类计划,提供基础物理学和应用物理学的独特组合,为学生在不断发展的量子技术领域的职业做好准备。 在现有的工程、计算机科学或数学技术资格的基础上,将为量子物理学原理打下基础,将学习量子物理学和量子信息的高级主题,并在领先的实验实验室中获得研究级的经验。并具备协作能力,以解决通信,模拟器,传感器和计算领域的关键行业问题。 详情:https://my.uq.edu.au/programs-courses/program.html?acad_prog=5711 荷兰 14、 代尔夫特理工大学/ QuTech学院-量子设备和量子计算物理 该课程将研究量子现象的基础知识,并在纳米结构器件中探索新颖原理,旨在开发具有空前功能和规模的设备的构建块。 与该专业相关的选修课目包括介观物理、高级固态物理、量子信息基础、纳米技术、量子硬件、量子传输和分子电子学。 详情:https://www.tudelft.nl/onderwijs/opleidingen/masters/ap/msc-applied-physics/applied-physics-programme/track-physics-for-quantum-devices-and-quantum-computing/ 加拿大 15、滑铁卢大学 滑铁卢大学与量子计算研究所(IQC)合作,为研究生提供独特机会学习和从事有关量子信息的世界领先研究、量子信息处理的应用与实现。 IQC在量子信息的几个主要研究领域中具有关键的专业知识,包括但不限于:• 量子纠错和容错• 量子复杂性• 量子算法• 量子信息论• 基于自旋的量子信息处理• 基于纳米电子学的量子信息处理• 光量子信息处理• 量子密码学• 超冷原子和被困离子 详情:https://uwaterloo.ca/institute-for-quantum-computing/programs/graduate-studies 瑞士 16、 苏黎世联邦理工学院 -量子工程专业 量子工程是量子物理学,电气工程和IT界的一个新领域。它利用量子物理学定律开发出超越经典工程方法的技术。量子技术将从根本上改变计算、信息处理和测量技术中的经典工程范式。 该硕士课程前两个学期专门用于课程学习,第二学期的主要重点是行业实习,可以用量子工程实验室项目代替;在第三个学期中,学生完成剩余的课程作业,一个学期项目是第一个独立研究项目;第四学期完全保留给最终硕士论文。 详情:https://master-qe.ethz.ch/education.html 来源: https://new.qq.com/rain/a/20200901A08KHU00 四川大学锦城学院已经在本科阶段通信工程专业开设了量子通信及网络安全方向,在量子信息的本科教学方面处于国内领先。
个人分类: 量子信息|3162 次阅读|0 个评论
人类认知系统的演化与“科技认知-行为系统”(四)
lvnaiji 2020-8-30 11:11
吕乃基 代结束语:人类认知-行为系统演化的前景 科技认知-行为系统并不是人类终极的认知-行为系统,50年前兴起的编程+计算+学习+,与此相应的认知-行为系统正在成形和完善,其标志是人工智能+区块链。 新的认知-行为系统既沿袭科技认知-行为系统的发展,将其推向极致。一方面进一步走向抽象,编程加数字化,“计算”已经成为一种“主义”。原则上,区块链可以介入所有需要和有待约定的关系和过程,介入所有的“to”或“2”的两头或多头;凭籍人工智能,对于来无踪去无影这样的“棋感”加以条分缕析。最新研究认为 ,好奇心的核心是一种算法:哪种路径能以最短时间获得有价值的知识。 另一方面,新的认知-行为系统提供虚实难辨的场景,提供种种“增强”的体验,还配备有激励机制,让人沉浸于其中,欲罢不能。浮士德在梅菲斯特引导下最后的满足仿佛已经到来。 知行合一的趋势在人工智能领域尤为明显,脑科学与人工智能互相促进。 第五套认知-行为系统又呈现新的特点: 当人类越来越多的历史和现实成为大数据,谁是第五套认知-行为系统的主体,人工智能专家、码农、电脑、互联网,还是“互联网大脑” ?人工智能技术是否能够如同以往的科技黑箱那样,为没有受过教育的人所使用,又将如何使用 ?对于广大“吃瓜群众”来说,“豢养”的广度和深度是否有增无减? 第五套认知-行为系统方兴未艾,尚未成熟,对个人与人类社会的影响有待进一步观察和研究。 鲍捷所给出的认知系统的递进还有一个有趣的尺度:时间。50万年、5万年、5千年、5百年,第五套是50年前,这当然是约数。如果按这一节奏,5年前,或者近期,已经或正在酝酿第六套认知-行为系统。第六套认知-行为系统很可能以量子计算和量子通讯为基础,“塌缩”与“纠缠”或许是其中的关键词。 量子计算的一大特点是“遍历”,于瞬间在多种可能性中得出最佳方案。迄今为止,计算机语言的基础是“非此即彼”。量子计算的特点是“亦此亦彼”,如何为亦此亦彼编程,什么是量子计算机的“语言”? 眼下,5G刚登上舞台,人们已经开始谈论6G,甚至6G后。之后将不再沿虚拟通讯发展到7G,而是全面超越之,变革为以真实信号为主的“超代通讯”,即SG(Super Generation)。SG超代通讯的信息处理和通讯内容是本真信息(True Information),而不再是模拟或数字代码信息。人类直接能够在本真地互动中处理与现实世界的关系。与此同时,继续深化“虚拟信息思维”以推进思维效率。人类可以视情况选择真实信号通讯和虚拟信号通讯两种之一 。 “量子-SG认知-行为系统”(姑且这般称呼)既是人类社会认知系统的最高阶段,看来同时又更加贴近50万年前哺乳动物的认知系统。这就提示,人类认知系统的演化并非线性,“哺乳动物认知系统”并非原始低等,其中还有大量未解之谜,以及有待发掘的在认知-行为上的优势。困扰人工智能专家的“莫拉维克悖论”,实际上就是哺乳动物在认知-行为上的优势之一。人类认知系统的回归将揭示莫拉维克悖论。 谁会是第六套认知系统,“量子-SG认知-行为系统”的主体?是马斯克正在进行的某种“脑机链接”的产物吗? 站在六套认知-行为系统50万年演化的视野,科技认知-行为系统处于其中的转折点,在进一步抽象的同时,开始朝人类“低阶”的认知-行为系统回归。 在回归临近起点之时,突破也即将来临。 https://tech.sina.com.cn/d/v/2018-09-02/doc-ihiixzkm3464252.shtml 刘锋, https://blog.csdn.net/zkyliufeng 图灵奖得主 Raj Reddy :不存在通用 AI ,但未来会出现超智能 http://baijiahao.baidu.com/s?id=1602769269779695829wfr=spiderfor=pc https://mp.weixin.qq.com/s/l8tjDDXSJq0U8_LkidvHaw
个人分类: 科技|2752 次阅读|0 个评论
[转载]带石墨烯的量子计算
quantumchina 2020-7-23 09:55
基于石墨烯的两光子门的示意图。 一种由一块碳原子组成的新材料,可以导致光学量子计算机的新设计。维也纳大学和巴塞罗那光子科学研究所的物理学家们已经表明,定制的石墨烯结构使单光子能够相互交流。量子计算机的新架构发表在最近一期的npj量子信息。 光子几乎不与环境相互作用,因此成为存储和传输量子信息的主要候选者。同样的功能使得操作在光子中编码的信息特别困难。为了建立光子量子计算机,一个光子必须改变一秒的状态。这种器件被称为量子逻辑门,构建量子计算机需要数百万个逻辑门。实现此目的的一个方法就是使用所谓的非线性材料,其中两个光子在材料内相互作用。不幸的是,标准非线性材料的效率太低,不能构建量子逻辑门。 最近人们认识到,使用plasmons可以大大增强非线性相互作用。在质子中,光与材料表面的电子是绑定的。然后,这些电子可以帮助光子更强烈地相互作用。然而,在所需的量子效应发生之前,标准材料中的质质会衰变。 维也纳大学的菲利普·沃尔瑟教授领导的科学家团队在他的新工作中,提议用石墨烯制造石墨烯。这种仅仅在十年前发现的二D物质由一层碳原子组成,这些碳原子排列在蜂窝结构中,自从发现以来,它一直让我们感到惊讶。为了这个特殊目的,石墨烯中电子的特殊配置导致极强的非线性相互作用和极强的质子,这种相互作用可以活得特别长。 基于石墨烯的两光子门的示意图。 在他们提议的石墨烯量子逻辑门中,科学家们表明,如果用石墨烯制造的纳米粒子制造出单一的聚类,那么不同纳米粒子中的两个聚类可以通过电场相互作用。如果每个板条留在其带子中,多个门可以应用于量子计算所需的板子。这项研究的第一作者伊拉蒂·阿隆索·卡拉费尔说:我们已经表明,石墨烯中强烈的非线性相互作用使得两个板状动物不可能跳进同一条丝带中。 他们提出的方案利用石墨烯的几种独特特性,每种特性都单独观察到。维也纳的研究小组目前正在对一个类似的石墨烯系统进行实验测量,以确认其门与当前技术的可行性。由于门是自然小,并在室温下工作,它应该很容易扩大,这是许多量子技术的要求。 来源: https://new.qq.com/rain/a/20200722A0PY6C00
个人分类: 量子计算|1826 次阅读|0 个评论
[转载]量子生成对抗网络QGAN
quantumchina 2020-7-3 11:06
机器学习正在变得越来越强大,其中很大程度上归功于一种使 AI 互相对抗的算法。这类算法叫做 生成对抗网络 (GAN) ,目前可以被用来创作艺术品,破解加密,以及生成逼真的人类和动物图片。 最近,科研工作者已经将生成对抗网络与量子计算相结合。 清华大学交叉信息学院的孙麓岩教授以及他的同事们已经利用量子电路实现了生成式对抗网络(GAN) 。 图丨此次论文(来源:Science Advance) 生成对抗网络是由两部分神经网络组成的,分别为 生成模型 和 判别模型 。顾名思义,生成模型就是用来生成数据的,比如他可以生成一张脸的图片。然后将真实数据和生成模型生成的“虚假”数据同时提供给判别模型,让判别模型来分辨数据的真假。就这样,让这两个神经网络互相对抗一定数量的回合后,生成模型就能够生成出判别模型无法分辨真假的的数据了。 科研工作者通过量子生成模型和判别模型实现了量子生成对抗网络 。不同于使用只能代表 0 或 1 的经典比特的经典计算机, 量子计算机可以使用由 0 和 1 混合构成的量子比特 。 科研工者们试图训练量子生成模型来模拟生成微波谐振器产生的量子数据,直到判别模型无法分辨真假为止。 清华大学交叉信息学院的邓东灵教授表示,理论上来说,量子计算机相对于经典计算机在特定问题上有着绝对速度优势,比如分解大数。但是据孙麓岩教授表示,由于目前的技术限制,量子计算机还无法达到如此理想的速度。 科研工作者相信量子计算机上的生成对抗网络会拥有相对于经典计算机的速度优势,但他们还需要进一步验证这一点。孙麓岩教授称,这将会是量子机器学习里程碑式的一项工作。 通常情况下, 科学家们认为实现“量子霸权”需要至少 50 个量子比特 ,然而这次其团队使用的单量子比特系统。邓东灵教授也表示,道阻且长,行则将至。 来源: https://baijiahao.baidu.com/s?id=1624089515846728292wfr=spiderfor=pc
个人分类: 量子机器学习|2988 次阅读|0 个评论
Honeywell又宣称造出世界上性能最强的量子计算机了
leiyian 2020-6-27 07:47
Honeywell是历史悠久的传统计算机厂商了,我的Fortran编程就是在Honeywell中型机上学会的。 量子计算理论基础存在严重的问题。任何一个东西都是量子,任何一个东西也都是量子计算机,它表现的性质用传统计算机建模计算都计算不精确,或者计算不出来。所以自宇宙诞生以来,量子计算计算机就存在了,量子计算也存在了,它就是我们的世界万物,我们的物理世界。 然而计算是数学。数学也一直存在,只不过需要人去提出那些概念,去证明,去推导。人类认识到的数学是人类发现的。 数学和物理存在本质的差别。数学模型可以在某个侧面接近物理体系,但不是物理体系,不可能完整描述一个物理体系。一般,数学的定义和推导都必须严格,必须精确,但物理不是。任何一个物理量都不可能精确得到。物理体系越微小,越脆弱,对它的测量越不可靠。所以我们看到的物理常数都是xxxxx+-xx这种形式。如何用两个这样的数作精确的计算呢?特别是前面部分的长度原则上非常有限,到目前为止没有超过12位(十进制)。怎么用这样的量表达300位的数字并精确计算呢? 无论是google,还是IBM,Honeywell,他们告诉我们做成了一个量子计算机,为什么不说做了什么计算,或者形成了什么应用,而是做了一个不提可能用途的量子计算机呢?每次都说要分解大数,为什么不至少分解一个小一点的数,比如10位? 2019年google已经实现了“量子霸权”。IBM,Honeywell,阿里,华为,等,也都有了神奇的量子计算机。如果到2025年,还没有出现一种基于量子计算的,足以威胁传统计算的应用,人们难道不应该怀疑它吗?
个人分类: 量子力学|2162 次阅读|0 个评论
[转载]美工业巨头Honeywell宣布造出史上最强量子计算机
quantumchina 2020-6-23 11:07
近日,美国跨领域工业巨头 Honeywell 集团宣布,其量子计算研究团队已经制造出目前世界上性能最优的量子计算机 ,并已与微软的云量子计算服务 Azure Quantum 合作,将该设备向企业级用户开放使用,标价约为每小时一万美元。 霍尼韦尔量子计算机的量子体积(Quantum Volume)为 64,其功能是业界下一个替代产品的两倍。 “使我们的量子计算机如此强大的是拥有最高质量的量子位和最低的错误率。” 霍尼韦尔量子解决方案公司(Honeywell Quantum Solutions)总裁 Tony Uttley 表示。 但说归说,谷歌之前还说自己实现了量子计算中,象征着碾压经典计算运算能力的量子优越性,结果后来遭到了各种质疑,甚至还被国内的阿里“纠正了错误”,而若想了解此次 Honeywell 为何敢称自己的设备为行业老大,我们首先需要了解 “量子体积” 这一概念。 如何评判量子计算的运算能力? 量子体积由 IBM 在 2017 年提出,是用于衡量量子计算设备的计算能力的一个综合指标。 在此前,甚至是直到最近,很多媒体或公司在宣传时还都是会以 “一台设备有多少量子比特” 来衡量一台设备的实际计算能力,但这其实是一种极不严谨的做法 ,原因是量子比特会因噪声或自身特性而退相干,也就是脱离其能正常工作的状态,而一台设备所使用的量子比特总数越多,其整体的噪声也就越高,而当退相干的量子比特达到一定数量时,计算便会崩溃。 图 | 构成量子体积的因素表(来源:IBM) 这里,我们可以用选购汽车的例子来类比,看看 “用不同标准衡量量子计算设备的计算能力” 所带来的实际效果。 一般,在我们考虑要不要买一辆车时,都会根据它的综合性能做出判断。而只通过一台量子计算设备使用了多少个量子比特来衡量该设备的计算能力,就好比是只告诉你一辆车有多少个座位,然后让你判断这辆车好不好一样,尽管是一项重要参考指标,但非常片面,不能给人一种 “全局感”。相比之下, 量子体积这一概念则更像是综合了车的发动机参数、内饰参数、能乘几人、车内空间和续航能力等多方面信息,最终汇集成一个综合性指标,它能让你一下就知道这辆车究竟是好是坏。 事实上,根据 IBM 所发布的信息,其所设计的量子体积参数其实是源于一个 “量子计算深度” 的概念,由于一些源于量子物理的根本问题,量子计算机在运算时所使用的量子门不可避免地会产生运算误差,而量子计算设备能在运算误差大到运算结果丧失意义前,所能进行的最大运算量,就是量子计算机的计算深度。 当然,一台设备的量子比特数与深度值之间,存在着一种 “类反比” 的关系。 如之前所提到的噪声问题,一台设备所用的量子比特越多,其系统的复杂性也就越高,其计算也就越容易出错,但由于根据可用的量子比特数,可运行量子计算的算法也会不一样,仅仅单看一台设备的计算深度其实也并不靠谱,比如一台仅有两量子比特的设备的计算深度虽然大到不行,但其能实际进行的运算却少的可怜,可以说并不具有太大的实际意义。 这也正是 IBM 提出量子体积这一概念的初衷,即整合多个用于衡量量子计算设备的计算能力的指标,用一个综合指标全面地衡量一台量子计算设备的真实运算能力,结束业内衡量标准不统一的乱象。 因此,在综合了包括 “量子比特数、容错率、量子门的并行性、相干性、量子比特间的量子态串行的可能性” 等一系列参数在内的各种指标后,IBM 提出了 “量子体积” 这一用于评估量子计算设备运算能力的综合性能值,从某种程度上重新定义了衡量量子计算运算能力的方法。比如很多情况下,如果给定量子比特的数量,研究者还可通过优化设备的其它设定,权衡每个参数每增加一点或减少一点对计算性能所带来的影响,使设备的计算性能达到最优,就好比汽车工程师在设计一款车时,是注重载客量多增加一个座位,还是注重车的速度和起步加速时间,少加一个座位,设计量子计算机的研究人员也需在各项参数之间做好平衡,才能实现其理想的最优结果,并通过量子体积这一参数直观地显示出,调整每个参数对整体运算性能所构成的影响。 图 | IBM的 20 量子比特设备的运算能力优化历程 (来源:IBM) 量子计算究竟哪家强? 在量子计算领域,Honeywell 凭借其此前在低温物理及激光设备制造上的经验,于五年前组建了一支由一百多名工程师和研究员所组成的量子计算研发团队,并一直将主要研究方向放在 “量子计算机的实际构建” 上。 如今,这台号称当今最强量子计算机的问世,显然是个里程碑。Honeywell 官方披露了它的部分构建细节。 这台量子计算机的 “主机”,是一个不锈钢球体构建的超高真空室,大约有一个篮球那么大,有可以接收激光的入口,内部是真空的,其真空度比外太空还小五倍。 用液氦对该腔室进行低温冷却,以使其中的芯片离子阱系统保持在零下 263℃(绝对零度以上 10 度,比冥王星表面温度低)附近。 离子阱系统的主体是一个硅芯片,其约有四分之一表面被金子所包裹。在腔室内,电场使单个原子悬浮在离子阱上方 0.1 毫米处。 科学家用激光照射这些带正电荷的原子,来进行量子操作。 同时,有很多外部设备用来控制量子计算机。控制系统必须精确地操纵数百个独立的电信号,进而在量子信息算法中以复杂的舞蹈形式移动离子(量子比特)。 由于所有操作都是通过激光完成的,因此在光学平台上排列了多个光学元件,每个光学元件都指定了正确的光的颜色。所有这些基础设施占用了大约两个大光学平台(大约 5 英尺宽和 20 英尺长),这占用了很大的空间,因为真正的计算能力是由盘旋在离子阱表面上的几个原子所产生的。 根据 Honeywell 目前所提供的信息,此次推出的设备的量子体积值为 64,相比之下,IBM 目前已知的最新机器(于今年一月时公布)的量子体积值仅为 32。 而谷歌虽然曾于去年秋季宣布其所研制的一台 53 量子比特的设备已经实现量子优越性,在 200 秒内就解决了一个经典计算机需花费一万年才能完成的运算,但后来“经典计算机是否真的需要花费一万年才能完成该运算”这一问题一直在业内争议不断。比如 IBM 就曾质疑谷歌低估了经典计算的运算能力,认为其在研究中测试所用那个运算问题其实可以在对运算策略进行优化,并采用先进算法(比如张量网络)的情况下,经典计算机可能仅需几天就能完成;而国内的阿里研究团队也曾于前段时间发文称,在特定条件下,经典计算仅需 20 天就能完成谷歌之前测试所用的 “那个经典计算需算一万年” 的运算问题。 同时,针对另一个谷歌认为经典计算需花费约1年时间才能完成的运算 ,阿里的团队所开发的经典算法在对运算做出特定限制的情况下,仅用了谷歌量子计算机所用时间的一半,就完成了运算。 然而,虽然综合考量了各个因素的量子体积理论上会比单纯的量子比特数更为可靠,但也并不是所有人都认可这一衡量标准。比如在业内名誉颇佳的量子计算研究者、德州大学的 Scott Aaronson 就曾在今年 3 月时发博客称, “尽管 ‘量子体积’ 确实是往正确的方向迈出了一步(在整合标准的意义上),但我并不认为它能真实地体现一台量子计算设备的实际运算能力。 要知道,我们离所谓的‘量子优越性其实还差得很远,虽然统一衡量标准很重要,但这并不足以帮我们解决实际问题。’” 从理论走向现实 长久以来,量子计算机一直被人们赋予着“能解决那些我们当前无法解决的问题”的期许,如交通和气候变化问题,而就目前看来,虽然仍有争议,但 Honeywell此次所推出的设备或确实能被称作是目前业内能力最强的“通用型”量子计算机。 早在今年 5 月,摩根大通的研发主管 Marco Pistoia 就曾表示,“摩根大通期待与 Honeywell 在信用风险评级和欺诈侦测算法上的合作”,并称 “摩根大通十分看好此次与 Honeywell 合作并使用 Honeywell 所研发的量子计算设备的机会。” 除了摩根大通,Honeywell 称还有其它许多公司也对在云端租赁其设备抱有很大兴趣,但尚未透露这些公司的名称。 对未来的进展,Honeywell 也是雄心勃勃,预计其所研发的量子计算设备将在未来 5 年内,每年都能将量子体积提升 10 倍,并称公司正将量子计算从理论带入现实,逐渐将量子计算真正用于解决实际问题。 对此, IBM 的发言人 Steve Tomasco 表示,IBM 也将于今年年内推出一台量子体积为 64 的量子计算设备 ,并称 “IBM 很高兴业内承认 ‘量子体积’ 这一标准的群体正在逐渐扩大。” 而谷歌则还未对 Honeywell 此次所取得的进展做出任何回应。 来源: https://baijiahao.baidu.com/s?id=1670106013777822340wfr=spiderfor=pc
个人分类: 量子计算|1888 次阅读|0 个评论
[转载]量子计算机领域第一种高级编程语言Silq诞生
quantumchina 2020-6-21 09:01
在打造强大量子计算机方面,近期出现的一系列技术进步令人振奋。近日,苏黎世联邦理工学院的计算机科学家们又在编程语言领域取得重要突破:他们推出的“量子语言”成为第一种面向量子计算机的直观编程语言,且与传统计算机语言一样优雅、简单且安全。 第一种量子计算机直观编程语言问世 量子计算机的编程门槛已经越来越低。苏黎世联邦理工学院的计算机科学家们设计出的第一种直观编程语言,能够像传统计算机语言一样简单、可靠且安全地在量子计算机上进行编程。 ETH 安全、可靠与智能系统实验室(SRI)计算机科学教授 Martin Vechev 表示,“目前,对量子计算机进行编程仍是困扰研究人员的一大挑战。正因为如此,我们才对苏黎世理工此次在量子计算机与编程语言发展方面获得的成果感到无比振奋。” 苏黎世联邦理工学院的计算机科学家们开发出第一种量子编程语言,能够优雅、简单且安全地解决多种复杂的计算问题。 他补充称,“我们的量子编程语言—Silq 将帮助程序员们更好地发挥量子计算机中蕴藏的潜力。对程序员们而言,Silq 代码更加紧凑、速度更快,也更直观且易于理解”。 据了解,本周,Vechev 将在 PLDI 2020 编程语言大会上将 Silq 介绍给量子计算领域的其他专家。为了促进与该语言相关的讨论、采用以及进一步发展,他和他的团队还在自己的网站 (silq.ethz.ch) 上发布了 Silq 项目的更多详细信息。 过去十年以来,量子计算一直备受关注,业界普遍认为这些根据量子力学原理运行的计算机具有巨大的发展空间。如今,大部分研究人员也认为,量子计算机终有一天将在某些特定问题中带来远超传统计算机的处理能力。凭借着纠缠量子态基础之上,各种信息在特定时间点上的重叠情况,量子计算机在某些方面拥有无与伦比的强大算力,足以解决众多在传统计算机上无法在合理时间内解决的问题。 虽然由此衍生出的“量子霸权”理论还没有得到最终证明,但近期取得的一系列重大技术进步无疑让我们充满信心。2019 年夏末,量子计算机已经以远超顶尖经典计算机的速度解决了一个问题(虽然只是非常具体的特定问题)。 在另一方面同,对于某些特定“量子算法(即计算策略)”,其计算速度虽然已经高于经典算法,但却还无法发挥量子计算机的全部潜力。更重要的是,目前的量子计算机的错误率仍然太高,导致我们很难直接在现有量子硬件上运行这些算法。 更好表达程序员的意图 要发挥量子计算的力量,除了配合技术之外,还需要创造一种能够描述量子算法的编程语言。在原则上,算法可以算是解决问题的“秘方”。编程语言负责描述算法,而计算机则在语言代码的指引下完成必要的计算。 如今,量子编程语言已经与特定硬件紧密联系在一起。换句话说,之前的量子编程语言都需要较精确描述底层电路的行为。但对程序员们来说,这些“硬件描述语言”既麻烦又容易出错,因为其中各项编程指令必须非常详细,用以明确描述量子算法实现过程中需要的全部细节。 Martin Vechev 表示,与现有语言相比,Silq 能够更好地发挥量子计算机中的潜力。正因为如此,Vechev 与他的团队才坚定了开发 Silq 语言的决心。 Martin Vechev, 计算机科学教授 Vechev 研究小组中负责开发监督工作的博士生 Benjamin Bichsel 表示,“Silq 是第一种直观量子编程语言,其设计目的不再围绕硬件的结构与功能展开,而更多关注程序员们在解决问题时表达出的意图 — 换言之,他们不需要了解量子计算机的基本架构与每一个实现细节。” 计算机科学家们将这种从特定计算机类型的细节中抽象得出的计算机语言,称为高级编程语言。Silq 可以说是量子计算机领域的第一种高级编程语言。高级语言将更具表现力,能够用更少的代码描述更加复杂的任务与算法。这意味着相关代码将更易于理解,也降低了程序员们的使用门槛。更重要的是,高级语言能够与多种不同计算机架构配合使用。 通过自动计算消除错误 但要论 Silq 给量子编程语言带来的较大创新贡献,还在于它消除了长期困扰量子编程的错误源问题。一切计算机都需要通过多个中间步骤以执行计算任务,而这些步骤的存在总会产生对应的中间结果(或者叫临时值)。 为了释放内存空间,传统计算机会自动删除这些值。对于这种丢弃多余临时值的操作,计算机科学家将其称为“垃圾收集”。 在量子计算机当中,由于量子纠缠态的存在,这种处理操作将更加棘手:此前计算得出的值可能与当前值发生交互,从而干扰正常计算。为此,要想在量子计算机上清除这些临时值,可能还需要一种更高级的所谓“计算撤销(uncomputation)”技术。 Vechev 还指出,“Silq 在量子计算机的编程优化方面带来了一项重大突破;当然,这还只是万里征途的第一步”。 目前,量子计算技术的实际应用当中仍存在着诸多悬而未决的问题,但随着直观编程语言 Silq 的出炉,Vechev 与 Bichsel 希望激励整个行业进一步开发量子编程语言,并推动新型量子算法在理论与应用方面取得新的成果。 Bichsel 总结道,“我们的四人团队历时两年取得了这项突破,其成功源自语言设计、量子物理学以及具体实现等多种不同专业知识的交相融合。如果我们的创新成果能为其他研究团队所认可并带来一点启发,那将是对我们努力的较大肯定。” 来源: https://www.sohu.com/a/403109154_494939 原文链接: https://ethz.ch/en/news-and-events/eth-news/news/2020/06/the-first-intuitive-programming-language-for-quantum-computers.html
个人分类: 量子计算|2316 次阅读|0 个评论
云计算、人工智能背后的意义——人类社会的自我进化
shaopenghan 2020-1-31 07:30
细胞进化由DNA主导,人类社会体系的进化由社会信息系统主导。 在人的进化中,大脑结构上的进化是很重要的一部分,大脑信息层面的进化是不能忽视的另一部分。人们学习各种技能、知识,接受教育,提高竞争力,更好地适应社会和环境,大脑通过学习思考表现在人的行为上,这也是进化。 信息系统的进化包含结构层面的进化和信息层面的进化。一个是硬件,一个是软件。 在人类文明漫长的历史演变中,社会信息系统有许许多多的进步,每次信息技术的提升都在推动着人类社会体系的进化,其中比较大的有三次。第一次是语言、文字的出现,第二次是纸张、印刷术,第三次是计算机、手机和互联网。现在我们仍处在社会信息系统的第三次进化中,曾经的电报、无线电仅仅是前奏,计算机、手机、互联网推向高潮,当下如火如荼的大数据、云计算、物联网、人工智能、量子计算是继续。 信息技术的进步是结构层面的进化,而知识、思想的进步则是信息层面的进化。历史中基督教、佛教等一神教取代旧社会的多神教,近代的文艺复兴,科学技术的崛起,民主自由思潮的兴起,这些是思想层面的进步。进步思潮的不断涌现,信息技术的突飞猛进,作用在社会中,工业革命、技术革命高潮迭起,让人类社会体系的进化步入快车道。 在人的进化中,有很长一段被大脑的进化所占据,人类社会体系的进化也是如此。技术层面,物联网、大数据、人工智能、量子计算还有很大的拓展空间。信息层面,知识思想的进步会是无止境的。社会信息系统的进化还有很大发展空间,它将是未来人类社会体系进化的重要一部分。 随着人类社会体系的进化,中级文明乃至高级文明或许会变成可能。 未来将来。Future is comin
1536 次阅读|0 个评论
[转载]165页论文或破解困扰爱因斯坦的“量子纠缠”!
quantumchina 2020-1-17 14:33
去年,科学家首次拍到“量子纠缠”的照片引爆互联网,爱因斯坦不愿承认的“幽灵”终于有了铁证。 量子纠缠 现在,纯数学和算法联系的证明将“量子怪诞性”(quantum weirdness)推向全新的高度。 爱因斯坦有句名言:量子力学应该允许两个物体在遥远的距离上瞬间影响彼此的行为,他称之为“幽灵般的超距作用”(spooky action at a distance)。 他去世的几十年后,实验证实了这一点,但是直到今天,人们仍不清楚大自然究竟允许远距离物体之间有多大程度的协调(coordination)。 近日,有五位研究人员说,他们已经解决了一个理论上的问题,表明这个问题的答案在原则上是不可知的。 这篇165页论文题为“MIP*=RE” 研究小组的165页论文发表在arXiv上,但尚未经过同行评审。如果证明成立的话,它可以一举解决纯数学、量子力学以及计算机科学分支一个被称为“复杂性理论”(complexity theory)的许多相关问题。 特别是,它回答了一个40多年来一直没有解决的数学问题。 研究结果从冯·诺依曼代数理论角度,反驳了Connes的嵌入猜想理论 这篇论文证明,由经典验证与多个量子理论验证相互作用而确定的语言类别MIP,相当于递归可枚举语言的类别RE。 研究人员证明建立在的量子低度测试的基础上,整合了最近的新成果,并与递归压缩框架相结合。研究结果的直接作用是,将Halting问题有效地简化为两人非本地量子纠缠值为1或至多为1、2的问题。 量子纠缠值的不确定性意味着对Tsirelson问题做出了否定回答:研究人员举例证明了量子张量积相关集的闭包Cqa严格包含于量子交换相关集Cqc。研究结果从冯·诺依曼代数理论角度,反驳了Connes的嵌入猜想理论。 论文摘要 换言之,这项研究的含义如下: (1)有一个协议,两个纠缠的证明者可以说服多项式时间检验者解决任何可计算问题的答案(!!),或者给定的图灵机真的停止运行了。 (2)在一个类似于Bell / CHSH博弈的两人证明博弈中,对于A和B而言,在数量无限的纠缠中,它们的表现要比在任何数量有限的纠缠中明显更好。 (3)没有算法可以估算出两人证明博弈的纠缠值(也就是说,在A和B使用尽可能最佳的策略并尽可能多地纠缠的情况下,不可能估计出A和B赢得博弈的可能性)。而是,此问题等效于Halting问题。 (4)A和B之间存在着某种类型的相关性,这些相关性可以使用无限的纠缠来产生,但不能通过任何有限的纠缠来近似。 (5)Connes的嵌入猜想是错误的,该猜想源于上世纪70年代的算子代数理论的中心猜想。 专家热议:我从没想过我会在有生之年看到这个问题被解决 如果他们的证明成立,“这将是一个超级美丽的结论”,荷兰代尔夫特理工大学理论量子物理学家Stephanie Wehner说。 本文的核心是复杂性理论中的一个定理的证明,它涉及到算法的效率。早期的研究表明,这个问题在数学上等同于“幽灵般的超距作用”问题,也被称为“量子纠缠”。 这个定理涉及一个博弈论问题,一个由两个玩家组成的团队即使不被允许互相交谈,也能够通过量子纠缠来协调他们的行为。与没有量子纠缠的情况相比,这使两个玩家都能“赢得”更多的钱。 作者们指出,但这两个参与者本质上不可能计算出一个最佳策略。这意味着不可能计算出他们理论上能达到多少协调。 论文合著者Thomas Vidick 加州理工学院的合著者Thomas Vidick说:“没有一种算法能告诉你量子力学中最大违背(maximal violation)是什么。” 伦敦大学学院的量子信息理论家Toby Cubitt说:“令人惊讶的是,量子复杂性理论一直是证明的关键。” 前两天该论文发表后,关于这篇论文的新闻迅速在社交媒体上传播,引发了不小的轰动。 Joseph Fitzsimons推文 “我本以为这是一个复杂的理论问题,可能需要100年的时间来回答。恭喜所有参与这项研究的学者。”新加坡初创公司Horizon Quantum Computing首席执行官Joseph Fitzsimons发推文说。 Mateus Araújo评论 “我勒个去!”另一位物理学家、奥地利科学院(维也纳)的Mateus Araújo说道:“我从没想过我会在有生之年看到这个问题被解决。” 论文结论:原则上,量子系统不能用“有限的”来近似 在纯数学方面,在法国数学家和菲尔兹奖得主Alain Connes之后,这个问题被称为Connes嵌入问题(Connes embedding problem)。这是算子理论(theory of operators)中的一个问题,它是由20世纪30年代为量子力学提供基础的努力产生的一个分支。 运算符是可以具有有限数或无限数行和列的数的矩阵。它们在量子理论中起着至关重要的作用,每一个运算符编码一个物理物体的可观测属性。 在1976年的论文“Classification of Injective Factors Cases II1, II∞, IIIλ, λ ≠ 1”中,使用运算符的语言,Connes提出一个问题:具有无穷多个可测量变量的量子系统是否可以用具有有限数的简单系统来近似。 但是这篇论文表明,答案是否定的:原则上,量子系统不能用“有限的”来近似。 物理学家Boris Tsirelson重新定义了这个问题,根据他的研究,这也意味着,不可能计算出两个这样的系统在纠缠时可以在空间上显示的关联量(correlation)。 研究结果可能没有技术意义,因为所有应用都使用“有限”的量子系统 这个证明令许多社会人士感到惊讶。“我确信Tsirelson的问题得到了答案,”Araújo在评论中补充说,这一结果动摇了他的基本信念,即“在某种模糊的意义上,自然在本质上是有限(finite)的。” 但是,研究人员才刚刚开始了解结果的含义。量子纠缠是量子计算和量子通信这些新兴领域的核心,可用于制造超级安全的网络。 特别是,通过测量通信系统中纠缠对象之间的关联量可以证明它是安全的,不会被窃听。 Wehner说,但是结果可能没有技术意义,因为所有应用都使用“有限”的量子系统。她说,实际上,甚至很难设想一个能在本质上“无限”的系统上测试“量子怪诞性”的实验。 复杂性理论、量子信息和数学的融合意味着很少有研究者说能够掌握这篇论文的方方面面。Connes表示,他没有资格发表评论。但是他补充说,他对这件事有多大的影响感到惊讶。“问题能深入到这个地步,而我从未预见到这一点,太不可思议了!” 清华博士一作,研究团队介绍 这篇论文是由悉尼科技大学、加州理工学院、德克萨斯大学奥斯汀分校和多伦多大学的五位研究者合写的。论文一作是悉尼科技大学量子软件与信息中心季铮锋教授。 季铮锋 季铮锋(Zhengfeng Ji),悉尼科技大学工程与信息技术学院量子软件与信息中心教授。他多年致力于量子计算机科学的研究,主要研究兴趣包括量子算法、量子复杂性理论、量子密码学等。 他于2002和2007在清华大学计算机科学与技术系获得学士和博士学位,师从应明生教授。毕业后,他成为中国科学院软件研究所的助理研究员。后来他移居安大略省滑铁卢,并于2008年在周边理论物理研究所和2011年在滑铁卢大学量子计算研究所担任博士后研究员。 Henry Yuen 论文通讯作者Henry Yuen是多伦多大学计算机科学与数学(联合任命)的助理教授。他是CS理论小组和量子信息与量子控制中心的成员。他还是滑铁卢大学量子计算研究所的会员。他的研究重点是量子计算、复杂性理论、密码学和信息论之间的相互作用。 参考链接: https://www.nature.com/articles/d41586-020-00120-6#ref-CR4 文章来源:新智元微信公众号
个人分类: 量子信息|1806 次阅读|0 个评论
[转载]中国科大在光量子计算领域取得重要进展
quantumchina 2019-12-25 11:14
演示量子计算优越性目前有两种途径:利用超导量子比特实现随机线路取样和利用光子实现玻色取样。在第二种路线上,中科大团队一直保持国际领先,近期实现了20光子输入60×60模式干涉线路的玻色取样量子计算,输出状态空间维数高达三百七十万亿,其复杂度相当于48个量子比特,逼近谷歌最近报道的53个超导量子比特。 中国科学技术大学潘建伟、陆朝阳等与中科院上海微系统与信息技术研究所尤立星以及德国和荷兰的科学家合作,在国际上首次实现了20光子输入60×60模式干涉线路的玻色取样量子计算,输出了复杂度相当于48个量子比特的希尔伯特态空间,其维数高达三百七十万亿。这个工作同时在光子数、模式数、计算复杂度和态空间这四个关键指标上都大幅超越之前的国际记录,其中,态空间维数比国际同行之前的光量子计算实验高百亿倍。论文以“编辑推荐”形式近日发表于国际学术权威期刊 《 物理评论快报 》 。美国物理学会Physics网站以“玻色取样量子计算逼近里程碑”为题对该工作做了精选报道。 量子计算机在原理上具有超快的并行计算能力,在一些具有重大社会和经济价值的问题方面相比经典计算机实现指数级别的加速。当前,研制量子计算机已成为前沿科学的最大挑战之一,成为世界各国角逐的焦点。其中,量子计算研究的第一个阶段性目标是实现“量子计算优越性”(亦译为“ 量子霸权 ”),即研制出量子计算原型机在特定任务的求解方面超越经典的超级计算机。 利用超导量子比特实现随机线路取样和利用光子实现玻色取样是目前国际学术界公认的演示量子计算优越性的两大途径。 面向这一战略目标,潘建伟、陆朝阳研究组长期致力于可扩展单光子源和玻色取样量子计算的研究。2013年,研究组在国际上首创量子点脉冲共振激发,解决了单光子源的确定性和高品质这两个基本问题。2016年,研究组研制了微腔精确耦合的单量子点器件,产生了国际最高效率的全同单光子源,并在此基础上,于2017年初步应用于构建超越早期经典计算能力的针对波色取样问题的光量子计算原型机,其取样速率比国际上当时的实验提高24000多倍。 2019年,研究组提出相干双色激发 和椭圆微腔耦合 理论方案,在实验上同时解决了单光子源所存在的混合偏振和激光背景散射这两个最后的难题,并在窄带和宽带微腔上成功研制出了确定性偏振、高纯度、高全同性和高效率的单光子源,相关成果被选为《自然光子学》封面文章。加拿大滑铁卢大学Reimer教授以“The quest for a perfect single-photon source”为题专门对这一成果发表评论文章,指出:“ 之前,国际上对完美单光子器件的探寻持续了二十年,然而这三项指标从未同时实现过 (in the search for a perfect single-photon device, which has spanned over two decades, all three demanding criteria have not yet simultaneously been met) ”,“ 这项开创性的研究是实现完美单光子源的里程碑式成就 ( groundbreaking research reporting a milestone achievement towards this ideality goal with the realization of a single-photon source )”。 中国科大研究组利用自主发展的国际最高效率和最高品质单光子源、最大规模和最高透过率的多通道光学干涉仪,并通过与中科院上海微系统与信息技术研究所尤立星在超导纳米线高效率单光子探测器方面的合作,成功实现了20光子输入60×60模式(60个输入口,60层的线路深度,包括396个分束器和108个反射镜)干涉线路的玻色取样实验。与牛津大学、维也纳大学、法国国家科学院、布里斯托大学、昆士兰大学、罗马大学、麻省理工学院、马里兰大学等研究机构的国际同行的类似工作相比, 实验成功操纵的单光子数增加了5倍,模式数增加了5倍,取样速率提高了6万倍,输出态空间维数提高了百亿倍 。 其中,由于多光子高模式特性,输出态空间达到了三百七十万亿维数, 这 等效于48个量子比特展开的希尔伯特空间 。因此,实验首次将玻色取样推进到一个全新的区域: 无法通过经典计算机直接全面验证该玻色取样量子计算原型机,朝着演示量子计算优越性的科学目标迈出了关键的一步。 审稿人指出:这个工作“ 在解决关键问题上迈出了重要几步 (makes essential steps towards solving a critical problem)”、是“ 令人印象深刻的技术成就 (an impressive technological achievement)”、“ 一个巨大的飞跃 (a significant leap)”、“ 不仅是对光量子计算能力的一次有影响力的测试,更是通往实现量子计算优越性的弹簧跳板 (is not only a powerful test of photonic strength but, rather, a trampoline for the upcoming quantum computational supremacy)”。美国物理学会Physics网站对该工作的总结指出:“ 这意味着量子计算领域的一个里程碑: 接近经典计算机不能模拟量子系统的地步 (it signifies a milestone in the field of quantum computation: approaching the point where a classical system cannot feasibly mimic a quantum system)”。 相关链接: 论文: https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.123.250503 美国物理学会报道: https://physics.aps.org/synopsis-for/10.1103/PhysRevLett.123.250503 文章来源:墨子沙龙微信公众号 谷歌实现量子优势论文中文翻译(1) http://wap.sciencenet.cn/blog-3364677-1199384.html
个人分类: 量子计算|2932 次阅读|0 个评论
量子智能计算会导致新的信息霸权
热度 1 lhj701 2019-12-21 09:13
量子智能计算会导致新的信息霸权 随着谷歌量子霸权的兴起,在计算机及 信息化领域,在目前AI深度学习火热之后,估计未来5-10年量子智能计算要火, IBM、 微软、亚马逊、谷歌等纷纷争先恐后推出量子云平台(模拟仿真+真实量子运算硬件),抢占量子计算的生态链桥头堡。2019年12月20日,中科院软件所也推出国内首个量子程序设计平台,加入了竞争的大军。 2018年,意大利帕维亚大学的研究团队在量子硬件计算机上实现了世界上第一个单层神经网络在Nature上发表。帕维亚大学的论文见《An Artificial Neuron Implemented on an Actual Quantum Processor》(《在实际量子处理器上实现的人工神经元》): https://arxiv.org/abs/1811.02266。 谷歌53量子比特足以让世人震惊,未来真正的量子计算机号称需要百万量级,但可以预见,在从53到1百万之间,量子智能计算能够实现的算力,会逐步获得更为重大的突破。大家不会等到100万的量级,才会用它解决实际问题。 尽管量子计算还不能解决所有问题,并且 量子计算机的优势需要非常巧妙的算法才能发挥出来,而目前 只对少数特定的问题,比如 因数分解和无结构数据库的搜索。 因数分解的困难性是常用的密码体系RSA的基础,能快速分解因数就意味着能快速破解RSA。 结构搜索的应用就更广泛,从交通流到制药,不计其数的问题都归结于搜索。 量子智能计算最大优势在于对特定问题的快速并行计算,因此,量子计算的算力最大优势可以用在对于时延要求低的场景, 这比较的不仅是耐力----不仅仅是算力的强,而是计算的快---“快力” :比如 未来,对于车联网,比如可以快速算出城市中每一辆车即时的动态的路径规划,使用5G等技术可以将实时信息快速高带宽推入计算容器,5G降低了信息的上推速度和下推速度,但目前传统计算机在决策计算上还不够快,也就是一个“木头脑袋”,你再着急,也没有用。而未来的量子计算也许可以解决这个问题,这样快速的算力,使得CPS物理虚拟系统内聚性更好。 另外一个场景是城市数字孪生。一直以来,数字城市、智慧城市怎么实现?需要一个信息快速交互、计算、快速送达的高度复杂的信息关联容器,数字孪生也许是一个实用的方向。但是,想象一下,一个城市所有具有密切关系的人、物、事,如果真正实现 实时监测、关联,并实时控制几十亿、上百亿这样的虚拟物体,如果信息的上推、下达速度能够解决(不拥塞,当然算力可以降低信息通道的占用),目前的经典云平台能圆满解决这个需要快速并行决策计算的问题吗? 因此,在物联网领域,目前最火的AI人工智能深度学习等,处理的是“事”(数据),从人和物产生的多角度映射中找到“矿“,而5G、6G和未来的天基网,实现“事”和“矿”的快速流动。从某种意义上,量子智能计算也许是要找到“光”:它凸显的是算力的快,在那些很快熄灭的“光”信息消失之前,找到它,传递它,然后才能更好的应用它。 总之,量子计算具有的算力强和算力快的优点,也许会改变未来的信息和计算机领域,并有可能导致新的信息霸权。我们未来的汽车和机器人,说不定会配备量子计算机。并且,未来,也许,你会从网上购买一台量子笔记本呢。 PS:这个学期刚好上一门《智能信息处理》的课程,其中有一章《量子智能信息处理》,附上上课的ppt转pdf。(ppt好像非Window平台打不开,并且过了48小时,不让修订内容)。 第9章- 量子智能信息处理ppt-转pdf.pdf PS: 中科院软件所发布中国首个量子程序设计平台 http://baijiahao.baidu.com/s?id=1653427642083694262wfr=spiderfor=pc
个人分类: 物联网|3169 次阅读|1 个评论
《第9章- 量子智能信息处理》课件ppt
lhj701 2019-12-15 08:53
《第9章- 量子智能信息处理》课件ppt 仅限教学交流使用,欢迎批评指正。 部分内容和图片来自网上资源,版权属于原网页及资源所有。 第9章- 量子智能信息处理.ppt
个人分类: 物联网|2948 次阅读|0 个评论
量子霸权已经实现,什么时候传统信息体系会受到巨大冲击?
热度 4 leiyian 2019-12-3 16:29
这个问题似乎不用问,在主张量子霸权的人士们看来,量子计算可以秒杀传统计算的方方面面,无论是计算速度,无法解决的计算难题,还是数据安全。 量子霸权一旦实现,传统计算和信息系统就该淘汰了。根据谷歌的主张,量子霸权已经实现了,那么量子计算应用会什么时候大规模出现,传统计算什么时候会淘汰呢?三年?五年?十年?二十年? 我们可以不讨论传统计算的全面淘汰,但可以期望第一个秒杀传统计算的应用什么时候出现。既然量子霸权已经实现了,第一个量子计算应用当然应该很快出现。它的出现,应该导致部分传统应用消失,或者能够解决一类新的,传统计算无法解决的问题。根据一般的技术投入应用速度,量子霸权应用三年怎么也应该小成,五年应该投入市场了。现在是2019年,量子霸权已经实现,我们给宽裕一点时间,到2025年,如果还没有出现实用的量子计算应用,我们是不是应该认真考虑一下,量子计算或许是个错误的概念? 我们可以看看,历史上曾经发生过什么。电子计算机诞生以来,发展速度大致遵循摩尔定律,即大约每18个月,芯片上的晶体管数量增长一倍,整体计算能力也大概增长一倍。 原理上,量子计算应该能提供双指数增长的潜力,摩尔定律只是单指数增长。所以量子计算应该发展更快。 最先讨论过的,量子计算对传统计算的威胁,来自于Shor算法,它可以用物理的方式分解大数,从而破解传统信息安全体系。很长一段时间,Shor算法也是量子计算最热门的研究方向。2001年,实验演示了3x5的分解,也就是3个二进制位数的分解。如果遵循传统计算的摩尔定律发展,应该每18个月增加一倍分解数字的长度,到2019年,应该达到3*4096=12288二进制位的数字了,也就是已经秒杀现在的RSA1024,2048加密方案了,但实际上呢?2012年演示了11x13,也就是8二进制位。然后再没有进展。反而,在2018年美国科学院等几家科学机构的评估中,认为Shor算法挑战传统加密方案希望渺茫。我早就指出,还有博友姬杨也说明,Shor算法不可能分解真正的大数,也就是上千位的二进制数。 Shor算法神话破灭之后,量子霸权神话又出现了。虽然我认为量子计算的理论基础存在严重问题,但是我能够接受量子霸权应用的出现,只要不是产生随机数这样的可有可无的应用就行。它应该明显区别与传统的实验,可以进行抽象的计算。 量子计算在全世界已经掀起巨大的热潮,量子霸权也已经实现了,投入那么多的人力物力,到2025年,还不出现一种像样的,足以威胁传统计算的应用,就实在说不过去了。
个人分类: 量子力学|7244 次阅读|5 个评论
在英国皇家学会做的关于量子计算的一个联合报告
leiyian 2019-11-12 16:07
题目叫:Quantum Computing: Untangling the Hype。 报告是去年做的了。“Hype”是热点营销的意思。虽然题目看起来对量子计算不友好,报告人实际上是支持量子计算的。 目前越来越多的量子计算研究者来自于传统的计算机科学行业,他们的问题是接受了量子计算的基本工作原理,不再怀疑。而物理学界和数学界的怀疑声音越来越强。 传统计算机科学还有一种思维定势,就是电子计算机技术过去半个世纪的巨大成就和快速发展步伐。量子计算似乎提供了一种更快发展的可能。这种乐观思维对于科学研究来说,不一定有相应的理论基础。 http://www.phy.pku.edu.cn/~lei/riqc.mp4 来源于: https://www.youtube.com/watch?v=wE1OCXvaDtct=3562s#
个人分类: 科普|3656 次阅读|0 个评论
谷歌“量子霸权”作者报告
leiyian 2019-11-3 22:58
谷歌“量子霸权”论文第一作者,谷歌和加州大学圣芭芭拉大学教授,John Martinis,近日在Caltech的报告: http://www.phy.pku.edu.cn/~lei/qs_caltech.mp4 视频来源: https://www.youtube.com/watch?v=FklMpRiTeTA 看过以后有一个问题: 前面的LC电路就一个经典的电路,但是论文一直用量子方法分析,为什么不用经典电路方法分析呢? 后面说的一个潜在应用是产生随机数,说实话,这样产生随机数太贵了。随机性也需要严格的检验,因为是通过电路产生的,电路的瑕疵会导致随机数分布偏离理论分布。 用物理实验产生随机数的方法很多,至少在测量层面,放射性的随机性是经过严格验证的。
个人分类: 量子力学|3899 次阅读|0 个评论
[转载]中国科学家肯定谷歌量子霸权:明年我们或也能实现
quantumchina 2019-10-29 21:46
网易科技讯10月29日消息,据《南华早报》报道,尽管美国竞争对手对谷歌在量子计算领域取得的突破表示怀疑,但中国科学家肯定了谷歌所声称的“量子霸权”。他们呼吁继续在相关领域进行投资,以免落后于美国。 上周三,谷歌在《自然》杂志上发表的文章称,其开发的53位量子计算机Sycamore在200秒内完成的特定问题计算需要花费世界上最快超级计算机Summit 1万年的时间。谷歌声称通过Sycamore已经实现了“量子霸权”。 中国科技大学教授、中国初创企业本源量子创始人兼首席科学家郭国平表示,这一成就具有“划时代意义”。 “量子霸权是一个转折点,它证明了量子计算机相对于传统计算机的优越性,” 郭国平指出,“如果我们在通用量子计算的下一阶段落后,这将意味着冷兵器和火枪之间的区别。” 量子计算机采用了一种处理信息的新方法,理论上能够比世界上现有最强大的超级计算机运算速度快几个数量级。 谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)在另一篇文章中写道:“随着这一突破,我们现在离量子计算应用更近了一步,例如可以设计更高效的电池,用更少的能量制造化肥,以及找出可以制造有效药物的分子。” 当谷歌庆祝技术突破时,包括IBM和英特尔在内的竞争对手对这种说法表示怀疑。IBM表示,谷歌没有充分利用其Summit超级计算机的全部算力。如果采用理想的模拟方法,Summit本可以在2.5天或更短时间内处理谷歌的计算。 英特尔在一份声明中表示,量子计算的实用性还有待进一步发展。 不管每家公司的反应如何,郭国平说200秒到2.5天的巨大差距也足以让谷歌称王称霸。 该领域的其他中国研究人员指出,谷歌声明的重要性不止是量子霸权本身,而更在于实验中使用的新技术,比如用于连接量子比特的可调耦合器。 “‘量子霸权’可以解决的问题目前还没有任何实用价值,但谷歌已经证实其能够维持53个量子比特的正常运算,”中国科学技术大学超导量子计算研究员黄浩亮指出,“可以预见的是,不久的将来可能会为机器学习等领域带来突破和应用。” 在全球技术竞争日益加剧之际,美国科技公司、中国大学和企业正竞相开发量子计算机,谷歌也是其中之一。 市场研究公司Patinformatics的数据显示,2017年中国在通信和密码设备方面申请的量子技术专利数量几乎是美国的两倍。然而,得益于IBM、谷歌、微软和其它公司的巨额投资,美国在量子计算领域的部分专利处于全球领先地位。 黄浩亮承认,由于起步较晚,中国仍在努力赶超美国。他表示,由于量子技术整体仍处于早期发展阶段,在现阶段落后可能并不会产生重大影响。 “但我们必须意识到,如果我们不加大支持和投资,差距可能会越来越大,”他表示。 黄浩亮补充说,致力于50位量子计算技术的中国研究人员有望在明年年底实现“量子霸权”。 根据2016年的一份政府报告,美国每年向该领域的研究投入2亿美元。 郭国平认为,中国在技术突破、人才引进等方面比欧美落后三到五年。他说,这一差距可能会扩大,因为该领域的大多数科学家都处于发表有关基础研究论文的阶段。他补充说,最重要的应用研究仍处于烧钱阶段,没有任何要实现商业化的迹象。 近年来,中国一直在加大力度实现其量子领域的雄心壮志,但并没有透露投资资金总额。根据2016年公布的“十三五”规划,中国启动了一个量子通信和计算的“大型项目”,目标是到2030年实现技术突破。 2017年,中国开始在安徽省合肥市建设世界上最大的量子研究实验室,目标是开发量子计算机。量子信息科学国家实验室耗资100亿美元,计划于2020年开放。 包括百度、阿里巴巴、腾讯和华为在内的中国科技企业也招募了一些中国顶尖科学家,并建立了研发量子技术的实验室。(辰辰) 来源: http://tech.163.com/19/1029/13/ESLKS11P00097U7T.html#
个人分类: 量子计算|1865 次阅读|0 个评论
谷歌终于实现量子霸权了吗?
热度 8 leiyian 2019-10-24 14:09
2017,2018,2019年早些时候连续三年宣布之后,谷歌终于还是正式宣布实现“量子霸权”了,还找了Nature站台。内容就是上次NASA网站贴出来的。我之前已经写过一篇文章说明该“量子霸权”其实什么也没有实现: 雷奕安:谷歌的“量子霸权”靠谱吗? ​ zhuanlan.zhihu.com 它做了一个量子模拟实验,用0.1%的保真度(即误差三个量级)实现了某种计算,连计算结果都没有,或者说明该计算有什么意义。谷歌指定现有的超级计算机按照它要求的方式模拟,说如果那样算的话需要一万年。该文章已经有耶鲁和希伯来大学的Gil Kalai教授指出是错误的,也有IBM量子计算专家指出,即使超算进行谷歌要求的计算,也根本用不了一万年,只需要几天。 我早就说过量子模拟跟传统的实验无法区别: 科学网-究竟什么是量子计算 - 雷奕安的博文 ​ blog.sciencenet.cn 且不说0.1%保真度(可信度)的计算有没有意义,对于任何一个量子模拟系统,对该系统的测量(即量子计算,无论方式多么复杂),只能得到该系统自身的信息,不能用于任何别的系统。比如随便一个原子(非氢原子),其能级(或者任何其它性质)就是自然的量子模拟,到目前为止,我们原则上无法计算出该原子的能级,但是实验可以测量出来很多。实验结果当然是可靠的。谁便一个原子都是这样,不用说更复杂的系统了。虽然对大部分系统,我们采用近似的理论(比如说量子力学)就足够,但是我们的确无法完备准确地描述该系统。量子模拟就是实验,不能说采用了近似的非相对论量子力学进行分解描述,就成了量子计算。 如果一定要把量子模拟实验叫做量子计算,那么“量子霸权”早就实现了,根本不需要任何人做实验证明。因为任何一个实验,或者一个物理体系,都是对自身的量子计算,都是自身所有微观量子过程的综合效应,一般来说,都很难计算,或者无法计算。量子霸权从来都存在,它就是真实的物理世界,而我们对真实物理世界的理论描述,及相关的数值计算总是不够完备。谷歌的“量子霸权”是对这一基本事实的分解论证。 再举一个例子,双缝干涉实验,很容易用经典的波实现,原理也很清楚。如果做成量子实验,把波源变成一个一个的量子(光子,电子,等),大量统计之后,还是得到跟经典波一样的实验结果,原理也是一样的。只不过多了一个如何理解单个量子怎么穿过双缝的问题,虽然该理解根本不影响实验结果。 要说明量子模拟不是传统实验,而是计算,就必须能计算出另外一个东西来。这个东西可以是抽象的,比如整数分解,也可以是另一个实际问题,问题是量子模拟做不到。它就是它自己,不是任何别的东西,原因我以前也说过。一个量子系统,无论是动态的还是静态的,最后就是该系统遵循薛定谔方程的解(非相对论近似理论情形),薛定谔方程是一个微分方程,其解取决于其势函数和边条件。而势函数和边条件是系统设定,不能变化,变化了就是另一个系统。一个系统的解不能用于另一个系统,虽然非常接近的系统之间有一定参考价值。 已经宣布实现“量子霸权”了,却又说还没有实用价值,是不是有强行制造轰动效应的嫌疑?就像一个炼丹的,不停吹嘘他炼出的丹药可以包治百病,长生不老,然后说已经炼出来了,但是告诉你既治不了病,也不能延年,围观者会怎么看?
个人分类: 量子力学|11856 次阅读|9 个评论
[转载]谷歌量子优势文章正式在Nature发表
quantumchina 2019-10-24 07:51
雷锋网 AI 科技评论按:在九月下旬,「谷歌实现量子优越性(quantum supremacy)」的消息占据了各大媒体的头版头条。 (注:国内大多媒体将 quantum supremacy 翻译成「量子霸权」,无疑相比来讲后者更能博大众的眼球,谷歌官方认为“量子优越性”的翻译更为准确,下文将全部使用“量子优越性”) 据英国《金融时报》等媒体报道 称,谷歌在一台 53 比特的量子计算机上仅用 3分 20 秒便完成了在超级计算机上需要一万年的计算,这是量子计算领域的一次巨大突破,一些圈内人士纷纷表示 「有一种即将亲历 2012 年 Hinton 发表 AlexNet 文章的感觉」、「或将迎来下一波科技浪潮」。 图注:谷歌发表文章中,对量子优越性的证明。a)验证基准测试方法。根据测得的位串和经典模拟预测的相应概率,计算出补丁电路,消除电路和完整电路的验证值。尽管在复杂性方面存在巨大差异,但所有四个曲线之间的紧密对应关系证明了它们在优越性领域( supremacy regime)中的使用是正确的。b)对于电路深度为20时,在量子处理器上获得一百万个样本需要200秒,而在一百万个内核上进行等保真度经典采样将花费10,000年,对保真度的验证将花费数百万年。 针对这些报道,一个多月来,谷歌并没有作出任何回应,且在新闻报道之前便从网上撤掉了相应的论文。10月21日,IBM发表博文 以及arXiv文章 称谷歌的实验存在缺陷,作为对比的超算计算时间其实只需要2.5天。 图注:IBM对谷歌的回应。分析预期的经典计算运行时间与“ Google Sycamore Circuits”的电路深度。蓝色线估计了一个53量子位处理器的经典运行时间(电路深度为20时,运行时间为2.5天),而橙色线则估计了一个54量子位处理器的经典运行时间。 作为一切吹捧和质疑的回应,谷歌终于在今天(10月23日)正式在Nature上发表了他们的这项工作《Quantum supremacy using a programmable superconducting processor》 。 不仅如此,谷歌CEO 桑达尔·皮查伊(Sundar Pichai)还为此专门撰写一篇文章,谈论「量子计算里程碑的意义」 。 皮查伊与谷歌量子计算机 @ Santa Barba 皮查伊在文中称,“对于我们从事科学技术工作的人们来说,这项工作正是我们一直在等待的「hello,world」,是迄今为止使量子计算成为现实的最有意义的里程碑”。他表示,从今天的实验室试验到明天的实际应用可能还有很长的路要走,但这项工作的意义在于,它代表了量子计算世界的“一个可能的时刻”(a moment of possibility)。 雷锋网注意到,除了皮查伊的文章外,谷歌量子人工智能实验室首席科学家 John Martinis (量子硬件)与Sergio Boixo(量子理论)还联合发表了一篇关于「量子优越性」的技术博客 ,简要介绍了他们的工作内容,包括实验、处理器硬件、测试、应用以及接下来的目标。 那么「谷歌实现量子优越性」,是谷歌带给人类的又一次革命,还是仅仅一次媒体炒作?或许时间将给出证明。 延伸阅读:使用可编程超导处理器的量子优越性 物理学家谈论“量子计算能做什么”这个问题已经超过 30 年了,但问题一直存在:研究它真的有用吗?值得为此研究进行投资吗?正像计算机的发明一样,量子计算的研究也是一个大规模的研究,因此去制定一系列具有决定性的短期目标,以此来证明设计是否朝着正确的方向发展,是一个良好的工程实践。谷歌所提出的这项“短期目标”就是他们所称之为的“量子优越性”(quantum supremacy)实验,并以此作为指导来制造可编程且功能强大的量子计算机。 谷歌今天在《自然》杂志的“使用可编程超导处理器的量子优越性”(Quantum Supremacy Using a Programmable Superconducting Processor)一文中发布了他们在“量子优越性”实验中的最新结果。他们开发了一种名为“ Sycamore”的新型 54比特处理器,该处理器由快速、高保真量子逻辑门组成,以执行基准测试。由此构建的机器能够在200秒内完成目标计算,而作为对比,要想产生类似的输出将需要世界上最快的超级计算机一万年的时间。 图注:a)处理器的布局,显示一个54量子位的矩形阵列(灰色),每个矩形都用耦合器(蓝色)连接到最近的四个上。可以显示不可操作的量子位。b,Sycamore 处理器的实物照片。 1、实验内容 为了帮助理解实验的内容,首先想象有一群刚刚入门的量子计算爱好者来到谷歌的量子计算实验室参观,然后想在谷歌的新量子处理器上运行一个量子算法试试效果。实验室给他们提供了一张表,上面有处理器可以执行的最基础的门操作,他们可以组合这些操作来编写算法。由于每个门都有一定概率出错,这些爱好者编写的算法就需要有一定的规模限制,整个操作序列中参与的门加起来不可以超过1000个。假设这群人此前并没有什么编程经验,那么他们设计的操作序列看起来就很有可能是在一列随机的门里走了一圈;可以把这个看作是量子计算机的“hello world”程序。由于这样形成的随机电路里没有什么结构可以供经典算法利用,想要用经典计算机模拟这样的量子电路的话就通常避免不了用超级计算机进行长时间计算。 量子计算机上的这些随机量子电路的每次运行都会产生一串二进制数字,比如 0000101. 由于量子相干性的存在,即便量子电路是随机的,只要重复这个实验足够多次,它们产生的二进制数字的出现的概率就会显出一定的模式,有一些结果会更经常出现。想要找到这种随机量子电路的输出模式,在量子计算机上只不过是普通的任务,但如果想要用经典计算机模拟这种计算的话,随着量子比特数量(宽度)的增加和门循环次数(深度)的增加,计算难度会以指数速度增加。 图注:演示量子优越性的实验过程 在实验中,谷歌首先分别运行了12位量子比特到53位量子比特的随机简单电路,保持电路深度固定。他们测量了用经典计算机模拟时的计算性能,并和理论模型进行了对比。一旦确认了系统能正常工作,他们就会运行53位量子比特的随机困难电路并增加深度,一直到经典模拟已经变得不可行为止。 图注:根据 薛定谔-费曼算法绘制的量子优越性电路实验结果示意图,图中自变量为量子比特数目和运行循环数量。图中的红色星是用经典计算验证对应的实验电路所需的时间。 这个实验结果也成为了经过拓展的邱奇-图灵论题(Church-Turing thesis)的首个反对证据。邱奇-图灵论题指出,经典计算机可以高效地实现任何合理的计算模型。而在这个实验中,谷歌已经首次证明了存在无法被经典计算机合理地模拟的量子运算,这也可以看做是谷歌已经打开了一个计算的新世界,等待我们进一步探索。 2、Sycamore 处理器 谷歌的量子优越性实验是在Sycamore处理器上运行的,这是一个完全可编程的、具有54位量子比特的处理器。它具有二维的网格结构,其中每一个量子比特都和四个其它的量子比特相连接。受益于密集的连接,处理器芯片有很好的连接性,其中的量子比特的状态可以很快地在整个处理器上传递、互动;处理器的整体状态也就已经完全没办法用经典计算机做高效的仿真了。 谷歌设计的量子优越性实验之所以能够成功,还是要归功于他们改进过的含有两位量子比特的门,它具有更高的并行能力,即便当许多个门同时运行时也能可靠地带来目前为止最高的性能。谷歌采用了一种新的控制节,它能够关闭相邻的量子比特之间的互动。这大大减少了这样的多连接量子比特系统中的错误的数量。谷歌还优化了芯片的设计降低串扰,以及开发了新的控制校准方法,可以避免量子比特的缺陷;这都进一步提升了芯片的性能。 电路的结构是一个二维矩形网格,其中每一个量子比特都和四个其它的量子比特相连接。这个架构也带有前向兼容性,可以和量子纠错一共使用。54位量子比特从数量上已经相当惊人,但在谷歌看来,这也只不过是越来越强大的量子处理器之路上的第一步而已。 图注:a)泡利误差(黑色、绿色、蓝色)和读出误差(橙色)的积分直方图(经验累积分布函数,ECDF),在隔离的量子位上(虚线)以及同时操作所有量子位时(实线)进行测量。每个分布的中值出现在垂直轴上的0.50处。平均值(平均值)如图所示。b)热图,显示了位于处理器布局中的单比特和二比特泡利误差e1(cross)和e2(bar), 显示了同时运行的所有量子位的值。 3、验证量子物理 为了确保量子计算机未来也能持续地发挥作用,谷歌需要现在就确认它采用的量子机理没有什么基础性的问题。通过实验来探索理论的边界是物理学研究中悠久的优良传统,因为特殊的物理参数往往会勾勒出新的物理学范式,从而在实验中体现为新的物理学现象。在之前的实验中,谷歌的量子计算团队已经发现,一直到大约1000维的状态空间,量子机理的实际运行情况都符合他们的期待。 这次,他们把实验的规模扩大到了 10^16 维,然后发现所有机理仍然可以正常运转。他们也测量了基础的量子理论,他们测量了具有2位量子比特的门的错误率,发现它可以准确地预测完全达到了量子优越性的电路的测试结果。这说明,他们没有遇到什么会导致谷歌的量子计算机性能下降的意外的物理现象;也就是说,他们的实验提供了有力的证据,表明更复杂的量子计算机也可以遵循现有的理论运行。这也让谷歌的量子计算团队更有信心构建出更大规模的量子计算机。 4、应用 Sycamore量子计算机完全可编程,而且可以运行通用的量子算法 。自从去年做出了量子优越性的结果以来,谷歌量子计算团队就一直在努力做出近期应用方面的成果,包括量子物理模拟计算、量子化学方面,以及生成式机器学习和其它很多别的领域。 5、未来展望 谷歌这支量子计算团队未来有两个主要的目标,两个目标也都是要为量子计算找到有价值的应用领域。首先,未来他们希望让其他的合作者、学术研究人员都有机会使用这样的计算能力足以展现量子优越性的量子处理器,他们也同样欢迎有兴趣为今天的 NISQ 处理器开发算法、寻找应用场景的企业参与进来。创新的最重要来源永远是有创意的研究人员们,在谷歌看来,如今他们已经有了新的计算资源,就希望能够有更多的研究人员也加入到这个领域中来,并把创造出一些有用的东西作为他们的目标。 其次,谷歌也会在团队和技术方面做长期持续的投资,尽快建造出一个具备容错能力的量子计算机。这样的设备能给许多有价值的应用带来机会,比如,未来量子计算机有可能可以帮助我们设计新的材料,包括为电动汽车和飞机设计更轻的电池、可以更高效地生成化肥的催化剂(目前化肥生产的过程造成了全球碳排放的2%)、也可以找到更有效的药品。真正达到这些任务所需的计算能力肯定还需要很多年的扎实的工程和科学研究,但在谷歌看来,这条道路已经非常清晰,他们已经迫不及待地迈步前行。 参考资料: 英国金融时报在9月20日对谷歌“量子优越性”的报道, https://www.ft.com/content/b9bb4e54-dbc1-11e9-8f9b-77216ebe1f17 IBM 对谷歌“量子优越性”的回应博客 On “Quantum Supremacy”, https://www.ibm.com/blogs/research/2019/10/on-quantum-supremacy/ IBM对谷歌“量子优越性”论文的验证,发表在arXiv上, https://arxiv.org/pdf/1910.09534.pdf 量子优越性论文, https://www.nature.com/articles/s41586-019-1666-5 谷歌CEO皮查伊撰写文章“量子计算里程碑的意义”, https://www.blog.google/perspectives/sundar-pichai/what-our-quantum-computing-milestone-means/ 量子优越性技术博客, https://ai.googleblog.com/2019/10/quantum-supremacy-using-programmable.html 来源: http://baijiahao.baidu.com/s?id=1648194058952134876wfr=spiderfor=pc 更多: https://tech.qq.com/a/20191023/008916.htm 谷歌实现量子优势论文中文翻译(1) http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1199384
个人分类: 量子计算|2352 次阅读|0 个评论
[转载]谷歌用深度强化学习提高提高量子计算机性能
quantumchina 2019-10-10 12:58
雷锋网 AI 科技评论按:日前,谷歌在 Nature 合作期刊《npj Quantum Information》上发表了一篇论文,提出结合深度强化学习的方法来实现通用量子控制,从而能够极大地提高量子计算机的计算能力。谷歌也在官方博客上发表文章介绍了这项工作。 论文下载地址: https://www.nature.com/articles/s41534-019-0141-3.pdf 实现近期量子计算机的主要挑战之一与其最基本的组成有关:量子比特。量子位可以与任何携带与自身能量相近的东西交互,包括杂散光子(如不需要的电磁场)、声子(量子设备的机械性振荡)或量子亏损(制造期间所形成的芯片基板中的不规则性),其中,量子亏损会不可预测地改变量子比特本身的状态。 而使问题进一步复杂化的是,用于控制量子比特的工具带来了许多挑战。研究者通过经典的控制方式来操作和读取量子比特:模拟信号以电磁场的形式耦合到其中嵌入了量子比特的物理基底,例如超导电路。这些控制电子设备中的缺陷(会造成白噪声)、来自外部辐射源的干扰以及数模转换器的波动会引入更多的随机误差,从而降低量子线路的性能。这些现实问题都会影响计算的保真度,因此限制了近期量子设备的应用。 为了提高量子计算机的计算能力,并为实现大规模量子计算铺路,就必须首先建立能够准确描述这些实验性问题的物理模型。 谷歌在 Nature 合作期刊《npj Quantum Information》上发表的《通过深度强化学习实现通用量子控制》(Universal Quantum Control through Deep Reinforcement Learning)论文中,提出了一种使用深度强化学习生成的新的量子控制框架,其中可以通过单个控制成本函数来概括量子可控制优化中的各类实际问题。与标准随机梯度下降的解决方案相比,该框架可将量子逻辑门的平均误差最多降低两个数量级,并且大幅降低了来自最优门生成的副本的门时间。这一结果为使用近期量子设备来开展量子仿真、量子化学和量子霸权测试开启了更加广阔的应用空间。 这种新的量子控制范式,其创新之处在于对量子控制函数的改进以及提出的基于深度强化学习的高效优化方法。 为了创建一个全面的成本函数,首先需要为实际的量子控制过程创建一个物理模型,基于该模型,我们能够可靠地预测误差量。对量子计算的准确性最不利的误差之一就是泄漏:在计算过程中损失的量子信息量。这种信息泄漏通常发生在量子比特的量子态被激发为较高能态或通过自发辐射衰退成较低能态时。泄漏误差不仅会损失有用的量子信息,而且还会降低「量子性」,并最终使量子计算机的性能降低得与经典计算机差不多。 在量子计算过程中准确地评估泄漏信息的常见做法是,一开始就模拟整个计算。然而,这并不利于达成构建大规模量子计算机的目的,因为量子计算机的优势就在于它们能够执行经典系统所无法执行的计算。谷歌研究人员通过使用改进后的物理模型,能够让通用的成本函数对逐渐增加的泄漏误差、控制边界条件的违背情况、总的门时间和门保真度进行联合优化。 创建了新的量子控制成本函数后,下一步就是应用高效的优化工具将该函数最小化。经证实,现有的优化方法无法找到对于控制波动同样具有鲁棒性的令人满意的高保真度解决方案。相反地,谷歌研究人员则采用同步策略的深度强化学习(RL)方法,即置信域强化学习(Trusted-Region RL),因为该方法在所有基准问题中均表现出良好的性能,对样本噪声具有固有的鲁棒性,并且能够优化有着数亿个控制参数的数百种高难度的控制问题。 这种同步策略强化学习与先前研究的异步策略强化学习方法之间的显著差异在于,其对控制策略的表示独立于控制成本。另一方面,例如 Q 学习等异步策略强化学习使用单个神经网络(NN)来表示控制轨迹和相关的奖励,其中控制轨迹指定要耦合到不同时间步长的量子比特的控制信号,而相关的奖励则评估量子控制当前步长的好坏。 同步策略强化学习引人关注的一项能力在于:能够在控制轨迹中利用非本地特征。当控制领域是高维且包含大量组合的非全局解决方案时,这种能力就变得至关重要,而对于量子系统而言,这种情况经常发生。 研究人员将控制轨迹编码为一个完全连接的三层神经网络,即策略 NN,同时将控制成本函数编码为第二个神经网络(值 NN),后者可以对折扣未来奖励(Discounted Future Reward)进行编码。强化学习智能体在模拟现实中的噪音控制驱动的随机环境下训练这两个神经网络,获得了鲁棒的控制解决方案。此外,他们还为一组连续参数化的两位量子门提供了控制解决方案,这对于量子化学应用而言很重要,不过,使用传统的通用量子门集实现这一操作,成本也很高。 谷歌研究人员使用这一新框架进行的数值模拟结果表明,与通用量子门集的传统方法相比,该方法将量子门误差减少了 100 倍,与此同时,还为一系列连续参数化的模拟量子门将门时间减少了平均一个数量级。 这项工作凸显了使用创新性机器学习技术和能够利用通用量子控制方案的灵活性和附加计算能力的近期量子算法的重要性。进一步,该领域的研究者还需要做更多的实验来将机器学习技术(就比如说我们在这项工作中开发的技术)整合到实际的量子计算过程中,从而利用机器学习来充分提高量子计算机的计算能力。 雷锋网 via https://ai.googleblog.com/2019/10/improving-quantum-computation-with.html 来源: https://www.leiphone.com/news/201910/tJH7KTvVUOED9cxW.html?uniqueCode=KxLLR7JKUTzE7EVK
个人分类: 量子计算|1581 次阅读|0 个评论
谷歌实现量子优势论文中文翻译(2)
quantumchina 2019-10-5 13:08
用一个可编程超导 处理器 实现量子优势 Google AI Quantum and collaborators 本文由谷歌公开发布在网上的英文论文翻译而来,也参考借鉴了网上发布的中文介绍文章,翻译者为四川大学锦城学院电子信息学院的同学,我们将分成几部分陆续发布,以便广大中国科研工作者参考。 翻译: 彭欣怡 李琦 钟玥 邓涛 杨松瑞 肖鑫 李生华 漆国华 指导教师: 刘勤 (获取完整pdf版可联系邮箱:qinliu@scujcc.cn) 研究者核实了采用一种被称为交叉熵基准测试(XEB) 的方法可以使量子处理器有效工作, 它比较了在实验中观察到每个比特串的频率,以及在经典计算机上通过模拟计算出的相应的理想概率。对于给定的电路,研究者收集测量的位串 ,并计算线性XEB保真度 ,这是研究者测量的位串的模拟概率的平均值: 其中, n 是量子比特数, 是理想量子电路计算的位串 的概率,并且平均值超过所观察到的位串。直观地说, 与研究者采样高概率比特串的频率相关。当量子电路中没有错误时,对概率分布进行采样将产生 。另一方面,来自均匀分布的采样将给出 ,并 产生 。 的值从0到1对应于电路运行时没有错误发生的概率。概率 必须从经典模拟量子电路中获得,因此计算 在量子优势的机制中是棘手的。然而,通过一定的电路简化,研究者可以获得运行宽和深的量子电路的全操作处理器的定量保真度估计。 研究者的目标是为具有足够宽度和深度的电路实现足够高的 ,从而使经典计算成本大得令人望而却步。这是一个困难的任务,因为研究者的逻辑门是不完善的,研究者打算创造的量子态对错误是敏感的。算法过程中的一个位或相位翻转将完全洗牌散斑图案并导致接近0的保真度 。因此,为了宣称量子优势,研究者需要一个以足够低的错误率执行程序的量子处理器。 建造和表征高保真的处理器 研究者设计了一个名为Sycamore的量子处理器,包含一个由 54 个 transmon 量子比特组成的二维阵列,每个量子比特都以可调的方式与周围四个最近邻的量子比特耦合。连接是向前兼容的,使用表层代码进行误差修正 。该设备的一个关键系统设计突破是实现高保真的单和双量子比特运算,这不仅是在隔离的情况下,而且在对多个量子比特同时进行门运算的情况下,还能进行实际的计算。论文将讨论以下要点;扩展的细节可以在附件材料中找到。 谷歌实现量子优势论文中文翻译(1) http://blog.sciencenet.cn/blog-3364677-1199384.html 自然杂志:什么是量子计算霸权? http://blog.sciencenet.cn/blog-3364677-1077943.html
个人分类: 量子计算|1282 次阅读|0 个评论
Gil Kalai教授对谷歌“量子霸权”的评论
leiyian 2019-10-5 11:38
Gil Kalai教授是耶鲁大学和以色列希伯来大学的教授,方向是数学与计算科学,从事量子信息研究多年,主要讨论量子计算的纠错,认为NISQ系统不可能实现,因为需要的纠错是无法实现的。Kalai教授认为,从计算复杂性角度来说,NISQ系统只是原始的传统计算装置,和我上一篇文章最后的比喻异曲同工。 Kalai教授对谷歌“量子霸权”的评论: Quantum computers: amazing progress (Google IBM), and extraordinary but probably false supremacy claims (Google). ​ gilkalai.wordpress.com 页面上面还有他写的一些文章和报告的链接。 他的基本结论是: 谷歌的工作是实验的重大进展,但是还不成熟,在他看来,是错的。
个人分类: 量子力学|3298 次阅读|0 个评论
谷歌的“量子霸权”靠谱吗?
热度 2 leiyian 2019-10-4 08:20
谷歌终于宣布实现“量子霸权”了,虽然文章很快撤回,但是还是引起了很大的轰动,有人认为量子计算时代到来了,传统计算很快就要过时。 跟很多人的激动不同,很长时间以来,我对量子信息的各种神奇功能持怀疑态度,因为我发现量子信息的理论基础有问题。本博客量子力学专题中有多篇文章讨论量子计算的理论基础问题,如量子位的问题,非相对论量子力学的应用范围,数学与物理的差别,究竟什么是量子计算,等。 就谷歌宣布实现“量子霸权”本身,我也不太理解业内人士的激动。既然是业内人士,就应该知道这样的“划时代突破性进展”在过去的几十年内已经发生过很多次了,IBM,Intel,D-Wave,微软,华为,阿里,……,数不胜数。然而最后什么都没有发生。还没有解决任何传统方法无法解决,或者值得解决的问题。大概加入量子计算研究的新人实在太多了,总有大部分业内人士不知道量子计算的辉煌突破史。单单谷歌一家,已经连续三年宣布当前年度内将实现“量子霸权”。 就发生的事情本身,为什么就有很多业内人士相信了一篇至少还没有获得公开认可的文章呢? 一般来说,文章撤回是一种不体面的行为,至少是一个bad sign,虽然不排除最后会被接受发表。但无论如何,事件本身不等于他们的主张(claim)就是事实,毕竟,他们前两年的宣布已经被证明不是事实,这是另一个bad sign。 “霸权”(supremacy)从来不是一个正面词汇,比如白人至上主义“white supremacy”。量子计算什么都还做不了,就声称要实现量子霸权,超越传统计算机,破解传统加密。这种宣传方式,也是一个bad sign。 文章声称的“霸权”是比传统计算机快很多倍地解决了一个问题。是一个什么问题呢?一般我们说解决了一个问题,应该是说明问题是什么,再给出量子计算机算出的答案。该问题最好是一个实际问题,有理论结果,或者实验结果,可以比对。文章中的问题,可以说是专门为这种计算机设计的虚拟问题,想不出别的场景下有什么用。 文章中提到的hybrid Schroedinger-Feynman algorithm(混合薛定谔费曼算法,hSFA)应该是一种量子蒙特卡洛算法。在实际应用中,如果要用该算法计算什么东西,必须有具体的势函数或者相互作用,那个东西总是有一些实验值可以比对的,这样我们就可以知道算法可信不可信,算出来的实验无法测量的值可信不可信。 在计算物质(这里是量子多体体系)的性质的时候,量子蒙特卡罗算法并不是很有效的算法,原因的确是蒙特卡洛算法需要的计算量太大,但是我们有很多更有效的方法,如自洽场(Hatree-Fock),密度泛函(DFT),等等。即使是量子蒙特卡罗算法,量子计算机也无法把希望计算的物理体系放进去,因此这台量子计算机只能计算自己。就算是谷歌这台量子计算机本身,如果传统计算希望模拟,未必使用hSFA来模拟,完全可以建立更有效的数学模型,以致于传统计算甚至可以比量子计算更快,更精确。所以,量子霸权已经实现的说法,完全是研究者单方面的主张。 文章只是给出了计算速度和保真度,没有给出计算结果对不对。保真度只有大约0.1%,这样的计算结果有意义吗?该数据不是说明了计算结果99.9%不可信吗?一个99.9%不可信的计算结果有用吗?如果再算一次,会得到另一个完全不同的结果,一样99.9%的不可信。文章的说法是,传统计算如果要达到同样的可信度,需要算好多年。可是传统计算绝不可能做一个目标为99.9%不可信的计算啊!99.9%的不可信是什么意思?如果计算一个整数,正确结果应该是10000的话,量子计算出来的结果是10到10000000之间的任何值? 总结一下: 1、文章主张的结论还没有得到认可。 2、这台计算机用0.1%的保真度计算了自己,如果用传统计算机用文章指定的方法计算,需要很多年,没有这台计算机快。 3、该计算的实际应用仅限于自身。文章也没有说能解决什么别的问题。 这种只能计算自身的意思是:任何一个实验,或者一个物理体系,都是对自身的量子计算,都是自身所有微观量子过程的综合效应,一般来说,都很难计算。所以我说过和传统的实验测量无法区别。 另外一些看法: “道路是曲折的,前途是光明的”,这只是一些人的个人信仰,你凭什么相信前途是光明的?科学讲逻辑,讲实证,“相信”只是一厢情愿(wishful thinking)。人类历史上,很多被部分人信仰的理念,最后被证明并不成立,早期的有信神炼丹,近期的有人体科学,水变油,还有长期的永动机。科学的东西经得起质疑,不能有人质疑就怪别人心不诚。以前的气功大师们就有一个论调,说如果有不信的人在场,人体特异功能就很难成功。很长一段时间,中国科学界曾经把气功大师们奉若神明。 单纯从实验的角度,我认为这样的工作还是很有意思的,我很想知道最后能做出什么有意义的东西来。虽然我很怀疑,这样的装置能不能解决研究者们希望解决的通用问题。 量子模拟的确是一个最有可能取得实际应用的量子计算研究方向,虽然个人认为和传统的实验无法区别,不过是把传统实验的一次测量变成了麻烦的,不确定的多次测量。有点像把传统波干涉实验做成一次通过一个量子,用很先进的技术,做强大的数据处理后,得到一个显然的结论。 新闻稿中提到了质疑者,也就是说,这些研究并没有被学术界广泛接受。对任何一项研究,质疑是正当而且是应当的,能够经受越多的质疑,研究结论才越有可能正确。但明显可以看出,国内很多业内人士对质疑相当情绪化,言论中不乏对质疑者的人身攻击。
个人分类: 量子力学|3744 次阅读|6 个评论
谷歌实现量子优势论文中文翻译(1)
quantumchina 2019-9-30 21:27
用一个可编程超导 处理器 实现量子优势 Google AI Quantum and collaborators 本文由谷歌公开发布在网上的英文论文翻译而来,也参考借鉴了网上发布的中文介绍文章,翻译者为四川大学锦城学院电子信息学院的同学,我们将分成几部分陆续发布,以便广大中国科研工作者参考。 翻译: 彭欣怡 李琦 钟玥 邓涛 杨松瑞 肖鑫 李生华 漆国华 指导教师: 刘勤 (获取完整pdf版可联系邮箱:qinliu@scujcc.cn) 摘要: 量子计算机的诱人前景在于量子处理器上执行某项计算任务的速度要比经典处理器快指数倍,而根本性的挑战是构建一个能够在指数级规模的计算空间中运行量子算法的高保真度处理器。在这篇论文中,谷歌研究者使用具有可编程超导量子比特的处理器来创建 53 量子比特的量子态,占据了 2^53~10^16 的状态空间。重复性实验得到的测量值对相应的概率分布进行采样,并利用经典模拟加以验证。谷歌的量子处理器大约只需 200 秒即可对量子电路采样 100 万次,而当前最优的超级计算机完成同样的任务大约需要 1 万年。这相对于所有已知的经典算法有了巨大的速度提升,是在计算实验任务中实现的量子优势,预示着下一个万众瞩目的计算范式的到来。 引言 20 世纪 80 年代早期,Richard Feynman 提出,量子计算机将成为解决物理、化学难题的有效工具,因为用传统计算机模拟大规模量子系统的开销呈指数级增长 。实现 Feynman 所描述的愿景需要面临理论和实验方面的重大挑战。首先,量子系统能否被设计为一个足够大的计算(希尔伯特)空间来执行计算并且错误率够低、速度够快呢?其次,我们能否提出一个对经典计算机来说很难但对量子计算机来说很容易的问题?谷歌的研究者通过一个超导量子比特处理器 在一个新的基准任务中解决了上面两个问题。该实验是迈向 全集成 量子计算的一个里程碑事件:量子优势 。 谷歌的研究者通过实验证明,量子加速可以在现实世界的系统中实现,而且不受任何潜在物理定量的限制。量子优势也预示着有噪声的中等规模量子(Noisy Intermediate- Scale Quantum,NISQ)技术的到来。该基准任务可以直接应用于生成可证明的随机数 ;这种计算能力也可以用于优化 、机器学习 、材料科学及化学 等领域。然而,完全实现量子计算还需要设计具有容错能力的逻辑量子比特 。 为了实现量子优势,研究者在误差校正方面也实现了许多技术突破。他们开发了快速、高保真门,可以在二维量子比特阵列上同时执行。研究者使用交叉熵基准(XEB)在组件和系统层面校准了用到的量子计算机,并对其进行了基准测试。最后,他们使用组件级的保真度来准确预测整个系统的性能,进一步表明量子信息在扩展至大型系统时表现与预期一致。 一个计算任务证实量子优势 为了展示量子优势,研究者在一个伪随机量子电路输出的采样任务中将他们的量子计算机与当前最强的超级计算机进行了比较 。随机电路是进行基准测试的一个合理选择,因为它们没有结构,因此可以保证有限的计算难度 。研究者通过重复应用单量子比特和双量子比特逻辑运算来设计一组量子比特纠缠的电路。对量子电路的输出进行采样,可以产生一组比特串(bitstring),如 {0000101, 1011100, ...}。由于量子干涉,比特串的概率分布类似于激光散射中的光干扰产生的斑点强度模式,因此,一些比特串比其他比特串更容易出现。随着比特数(宽度)和门循环数量(深度)的增加,用经典计算机计算这种概率分布的难度呈指数级增加。 论文链接: https://drive.google.com/file/d/19lv8p1fB47z1pEZVlfDXhop082Lc-kdD/view
个人分类: 量子计算|3462 次阅读|0 个评论
[转载]Scott Aaronson:只有谷歌实现了量子优势
quantumchina 2019-9-26 12:52
注:文中的“量子霸权” 也译为 “量子优势” 著名理论计算机科学家、量子计算专家 Scott Aaronson 在个人网站就谷歌的“量子霸权”研究进行了 FAQ 解答,他认为谷歌的正式论文可能会在一个月内在某知名期刊(哪本期刊?选项可以缩小到 2 个)发表。Scott Aaronson 分析了谷歌的量子霸权实验、量子霸权本身是否有任何应用、谷歌下一步是什么等问题。 一、Scott Aaronson 何许人也? Scott Aaronson,美国理论计算机科学家,德州大学奥斯汀分校计算机科学教授,量子信息中心主任。 此前曾与麻省理工学院电子工程与计算机科学系任教多年,研究领域包括量子计算机的性能与局限,更广义的计算复杂度理论等。在 MIT 期间,Scott 曾是姚班学霸陈立杰的导师。 Scott Aaronson Aaronson 在康奈尔大学获计算机科学专业学士学位,在加州大学伯克利分校获博士学位,在加拿大滑铁卢大学量子计算研究所做博士后研究员。2007-2016 年在麻省理工学院任教,2007 年秋任助理教授,2013 年春晋升为副教授。2016 年至今在德州大学奥斯汀分校任教,任全职教授。著有《德谟克利特以来的量子计算》。 他的个人博客 “Shtetl-Optimized” 经常从科普向角度解答一些关于量子计算的问题,一直广受欢迎。他撰写的《谁可以命名更大的数字?》一文在计算机科学学术界中得到了广泛传播,文中使用了 Tibor Radó 所描述的 Busy Beaver Numbers 的概念来说明在教学环境中可计算性的局限性。 他讲授的面向研究生的调查课程《自德谟克利特以来的量子计算》的讲义已由剑桥大学出版社出版。 书中将关于量子计算的不同主题编成一个整体,其中涵盖量子力学、复杂度、自由意志、时间旅行、人类准则等内容。 知名科普期刊《科学美国人》曾发表了他的《量子计算机的局限性》一文,他的观点和言论也经常被大众主流媒体所引用。 二、“量子霸权”15 问:没有破解不了的密码了吗?非也 Q1:什么是量子计算霸权? 通常缩写为“量子霸权”(quantum supremacy),这个术语指的是利用量子计算机来解决一些定义明确的问题,而这些问题如果使用现有的经典计算机和已知算法来解决,需要的时间是数量级更长的。这不是偶然的原因,而是由于渐进量子复杂性。 这里的重点是,要尽可能确定这个问题确实已经被量子计算机解决了,并且确实对于经典计算机而言是棘手的,并且在理想情况下能够很快实现加速。如果这个问题对某件事也有用,那就更好了,但这完全没有必要。莱特飞行器和费米堆本身并没有什么用处。 Q2:如果谷歌真的实现了量子霸权,是否意味着正如民主党总统候选人安德鲁・杨(Andrew Yang)最近在推特上所说的那样,现在“没有什么密码是不可破解的”? 不是这样。(但我仍然喜欢杨。) 这里有两个问题。首先,目前由谷歌、IBM 和其他公司制造的设备具有 50-100 个量子比特,而且没有纠错功能。运行 Shor 算法来破解 RSA 密码系统将需要数千个逻辑量子比特。使用已知的纠错方法,可以很容易地转换成数百万个物理量子比特,而且这些量子比特的质量比目前存在的任何一种都要高。我认为现在没有人能做到这一点,我们也不知道需要花多长时间。 但第二个问题是,根据我们目前的理解,即使未来拥有可扩展的、有纠错功能的量子计算机,它们也只能破解某些密码,而不是全部。不幸的是,他们能够破解的公钥密码包括了我们目前用来保护互联网安全的大部分内容:RSA、Diffie-Hellman、椭圆曲线加密等等。但是私钥密码受到的影响应该很小。甚至还有一些候选的公钥密码系统(例如,基于 lattices 的),经过 20 多年的尝试,仍然没有人知道如何进行量子破解。现在正在进行的一些工作,已经开始迁移到这些系统了。 Q3.:谷歌计划进行或已经完成了哪些通常认为经典计算机很难做到的计算? 它计算的是:一个“challenger”生成一个随机量子电路C(即一个由 1 个量子比特和最近邻的 2 个量子比特组成的随机序列,深度为 20,作用于n=50 至 60 qubits 的二维网格上)。然后,challenger 将C发送到量子计算机,并要求它将C应用于全部为 0 的初始状态,以{0,1}为基础来测量结果,并返回所观察到的所有n-bit 字符串,并重复数千次甚至数百万次。最后,challenger 利用统计检验来来检查输出是否与量子计算机所做的一致。 所以,这不是一个因式分解问题。电路C在n-bit 字符串上产生了一些概率分布,称为 DC,问题是从这个分布中输出样本。事实上,通常会有2^n个字符串支持 DC,如此之多,以至于如果量子计算机按预期工作,将永远不会观察到相同的输出两次。然而,关键的一点是,DC 的分布并不均匀。虽然我们只会观察到与2^n相比很小的样本,但我们可以检查样本是否优先地聚集在预测更有可能的字符串中,从而建立起我们对完成传统上棘手的事情的信心。 一句话总结: 量子计算机只是被要求应用一个随机(但已知的)量子操作序列 ——不是因为我们关心结果,而是因为我们试图证明它能在一些定义明确的任务上击败经典计算机。 Q4:但是,如果量子计算机只是执行一些随机的电路,其唯一的目的就是经典计算机难以模拟,那么有什么意义呢?这不是过度宣传吗? 不,当然有意义。 要对我们在这里所谈论的巨大规模,以及使它成为现实所需要的可怕的工程,有一点尊重。达到量子霸权之前,量子计算机怀疑论者可以嘲笑,因为花了数十亿美元、20 多年,仍然没有一台量子计算机能比笔记本电脑更快地解决一个问题。在后量子霸权的世界,情况将不再是这样。 我再次提到莱特飞行器,因为我们正在谈论的内容与我在互联网上见到的人们的不屑一顾之间的鸿沟,对我来说非常令人惊讶。就好像,如果你坚信空中旅行从根本上就是不可能,那么看到一架木制螺旋桨飞机保持在高空飞行不会改变你的信念,但也不会让你感到放心。 Q5:几年前,你批评大众对D-Wave 过于兴奋,而它声称通过量子退火可以极大地加速优化问题。但现在,你又批评大众对量子霸权不够兴奋。这是为什么? 因为我的目标不是朝着大众偏爱的方向发展“兴奋水平”,而是朝着正确的方向!事后看来,你会承认我对D-Wave 的看法基本上是正确的,即使那让我在一些圈子里非常不受欢迎。我也在努力证明我对量子霸权的观点是正确的。 Q6:如果量子霸权的计算只涉及从概率分布中采样,你如何验证它们是否正确? 好问题!这是我和其他人在过去十年中发展起来的大量理论的主题。我已经在我对 Q3 的回答中给出了一个简短的版本:通过对 QC 返回的样本进行统计来验证,检验它们优先聚集在混沌概率分布 DC 的“峰值”。有一个简便的方法,谷歌称为“线性交叉熵检验”,就是将量子计算机返回的所有样本 s1,…, sk 的 Pr 相加,然后求和。当且仅当总和超过某个阈值(例如 bk/2^n, 常数b介于 1 和 2 之间)时,才声明测试 “成功” 。 诚然,为了应用这个测试,你需要在经典计算机上计算 Pr 的概率,而唯一已知的计算它们的方法需要蛮力,并且需要大约2^n的时间。如果n是 50,并且你是谷歌,那么是有能力处理2^50 这样的数字的。通过运行一个巨大的经典内核集群(比方说)一个月,你最终可以验证量子计算机几秒钟内生成的输出——同时还可以计算量子计算机快了多少个数量级。然而,这确实意味着基于采样的量子霸权实验几乎是专为目前正在建造的 50 量子比特设备而设计的。如果有 100 个量子比特,我们可能就不知道如何使用地球上所有可用的经典计算能力来验证结果了。 Q7:等等,如果经典计算机只能检验量子霸权实验的结果,在一个经典计算机仍能模拟实验(尽管速度极慢)的体制下,那么你怎么能宣称“量子霸权”呢? 对于一个 53 量子比特的芯片,在一个仍然可以直接验证输出结果的系统中,你完全有可能看到速度增加了数百万倍,同时你也可以看到速度随着量子比特的数量呈指数增长,这与渐近分析所预测的完全一致。 Q8:是否有数学证据证明没有任何快速的经典算法能够欺骗基于采样的量子霸权实验的结果? 不,目前没有。但这并不是量子霸权研究人员的错!只要理论计算机科学家不能证明P≠NP 或P≠PSPACE 这样的基本猜想,就不可能无条件地排除快速经典模拟的可能性。我们所能期望的最好结果是 conditional hardness。 我们确实成功地证明了一些这样的结果——例如玻色子采样那篇论文,或者 Bouland 等人关于随机电路中振幅计算的平均情况#P-hardness 的论文,或者我与陈立杰合著的论文(“Complexity-Theoretic Foundations of Quantum Supremacy Experiments”)。在我看来,这方面最大的理论开放问题是证明更好的 conditional hardness 结果。 Q9:基于采样的量子霸权本身有什么应用吗? 人们第一次想到这个问题时,答案显然是“毫无用处”!不过,最近情况发生了变化,例如,由于认证随机性协议,显示了一个基于采样的量子霸权实验几乎可以立即被重新利用,从而生成可以被怀疑是随机的比特(在计算假设下)。反过来,这可能适用于持有量证明加密货币(proof-of-stake cryptocurrencies)和其他加密协议。我希望在不久的将来能发现更多这样的应用。 Q10:如果量子霸权实验只是产生随机比特,那不是很无趣吗?仅仅通过测量就能把量子比特转换成随机比特,这不是很简单吗? 关键是量子霸权实验不会产生均匀的随机比特。相反,它从一些复杂的、相关的、超过 50 或 60 位字符串的概率分布中采样。 Q11:数十年的量子力学实验——例如,那些违反贝尔不等式的实验——难道还没有证明量子霸权吗? 这纯粹是文字上的混淆。其他的实验证明了“量子霸权”的其他形式:例如,在违反贝尔不等式的情况下,你可以称之为“quantum correlational supremacy”。他们没有展示量子计算的优势,这意味着是不可能用经典计算机模拟的事情(在经典计算机模拟中没有空间局域性或其他类似的限制)。今天,当人们使用“量子霸权”这个短语时,它通常是量子计算霸权(quantum computational supremacy)的缩写。 Q12、即便如此,目前仍然有无数材料和化学反应无法用经典方法实现模拟,而且现在也出现大量特定用途的量子模拟器。 为什么这些都不算是实现了 “量子霸权”? 如果按照一些人对 “量子霸权” 的定义,确实已经实现了!这次谷歌实现的与他们的主要区别在于,有了完全可编程的设备,可以通过传统计算机发送适当的信号,使用任意序列的最近邻的 2 - 量子比特门进行编程。 换句话说,这下量子计算的怀疑论者肯定会不高兴了,可以肯定的是,有些量子系统很难用经典方法模拟,但这仅仅是因为大自然确实很难模拟,而且你不能把发现的什么化学物质随意重新定义为 “可以自我模拟的计算机。” 现在,在任何正常的定义下,谷歌、IBM 和其他公司正在建造的超导设备都的确是 “计算机”。 Q13、“量子霸权” 的概念是你发明的吗? 不是,但我在开发上发挥了一些作用,这导致萨宾・霍森费尔德(Sabine Hossenfelder)等人误以为整个概念都是我提出的。“量子霸权” 一词是约翰・普雷斯基尔(John Preskill)在 2012 年提出的,尽管从某种意义上说,其核心概念可以追溯到 1980 年代初的量子计算本身。1994 年,使用 Shor 算法来分解大量数据成为 “量子霸权” 实验的手段,不过即使在现在,这个实验仍然很难执行。 使用采样问题来证明 “量子霸权” 的关键思想是由 Barbara Terhal 和 David DiVincenzo 在 2002 年发表的一篇有远见的论文中首次提出的。当时出现了一批论文,不仅表明 “简单的” 非通用量子系统可以解决看似困难的采样问题,而且面向相同采样问题的有效经典算法将意味着多项式层次结构的崩溃。即使是近似量子采样问题,用经典方法解决也是非常困难的。 据我所知,“随机电路采样” 的思路源于我在 2015 年 12 月发起的一次电子邮件对话,参与成员还包括 John Martinis,Hartmut Neven,Sergio Boixo,Ashley Montanaro,Michael Bremner,Richard Jozsa,Aram Harrow,Greg Kuperberg 等人。该对话的标题为 “40 量子比特的硬采样问题”。 当时我们讨论了三种基于采样方法的 “量子霸权” 方法的优缺点:(1)随机电路,(2)通勤哈密顿量,以及(3)Boson Sampling。在 Greg Kuperberg 提出支持方案(1)的意见后,我们迅速达成共识,即从工程学的角度来看方案(1)确实是最好的选择,即使理论分析仍不能令人满意,也可以补救。。 之后,Google 团队对理论和数值上的随机电路采样进行了大量分析,而 Lijie Chen、Bouland 和我则对此进行了分析,从理论上证明了用经典方法解决这类问题的难度。 Q14、如果量子霸权真的实现了,对于量子计算的怀疑论者而言意味着什么? 我现在可不想成为他们的一员!他们当然可以退一步说,量子霸权是可能实现的(谁敢说绝对不可能?),其实真正的问题一直是 “量子纠错”。确实,这些人中有些人始终保持这个立场。但是其他人,包括我的好朋友吉尔・凯莱(Gil Kalai)在内都曾经预测过,说出于根本原因,量子霸权不可能实现。现在把话收回去好像有点晚了。 Q15、下一步呢? 如果实现了量子霸权,那么我认为 Google 团队已经有了必要的硬件来执行我提出的协议,生成认证的随机比特了。他们下一步确实计划这么做。 除此之外,显而易见的下一个里程碑将是可编程量子计算机的应用(如 50-100 量子比特),可以比任何已知的经典方法更快执行一些有用的量子模拟任务(如凝聚态系统)。此外,“量子纠错” 将走向应用,可以使编码的量子比特存活时间长于基础物理量子比特的存活时间。毫无疑问,谷歌,IBM 等领跑者将朝着这两个重要里程碑迈进。 三、谷歌“量子霸权”的论文究竟讲了什么?MIT 量子物理博士生专业解读 尽管 NASA 在上线谷歌“量子霸权”的论文不久后悄悄撤下,这篇论文仍通过各种渠道流传出来。MIT 量子物理专业博士生(知乎 ID:少司命)从专业角度,以通俗的语言解释了谷歌这篇论文的主要内容。新智元经授权转载如下: 毫无疑问的是,这会是量子计算领域一个里程碑一样的大新闻. 9 月 20 号刚刚看到这个消息,据说是 NASA 发布到官网上而后又迅速删掉,但是内容已经在网上大规模流传开了。文章写的非常简单易懂,我尽量用简单的语言陈述一下这个新闻的主要内容吧 (蹭热度),如果没有任何背景可以只看加粗字体部分。如果哪里不准确欢迎指正补充。 首先一个概念, 所谓的 quantum supremacy,有人翻译为量子优势也有人翻译为量子霸权,一般指的是量子计算在某一个问题上,可以解决经典计算机不能解决的问题或者是比经典计算机有显著的加速 (一般是指数加速)。 回到文章,在硬件方面,谷歌家一直用的是超导电路系统,这里是 54 个物理比特 (transmon) 排成阵列, 每个比特可以与临近的四个比特耦合在一起,耦合强度可调 (从 0 到大概 40MHz),实物图和示意图分别如下。 图中一个灰色的叉号就代表一个量子比特,蓝色的则是可调的耦合装置 有了硬件就要衡量其性能的好坏,所以首先要知道对这些量子比特进行操作时发生错误的概率 (error rates)。 这里他们用 cross-entropy benchmarking (XEB) 的方法测量这些 error。XEB 早就有了我记得 google 在今年 3 月会议时候就讲过,跟 randomized bechmarking 很像都是加一系列随机的门操作,然后从保真度衰减信号中提取出 error rates. 下图是他们最终得到的结果,在没有并行时候单比特 0.15% 的错误率其实不算高,而双比特 0.36% 的错误率 e2 有 0.36% 则还不错,像 google 另一个 18 比特的 Gmon18 我记得两比特的有 0.8%. 上面列了各个 error rate, 下面是 error 分布的 heat map. 下面是文章最重要的部分,google 在多项式时间内实现了对一个随机量子电路的采样,而在已知的经典计算机上需要的时间则非常非常之久,像文中实现的最极端的例子是,对一个 53 比特 20 个 cycle 的电路采样一百万次,在量子计算机上需要 200 秒,而用目前人类最强的经典的超级计算机同样情况下则需要一万年。亦即 在这个问题上,量子实现了对经典的超越。 这里的 cycle 指的是对这些比特做操作的数目,一个 cycle 包含一系列单比特操作和双比特操作,可以近似理解为电路的深度 (circuit depth)。对于最大的电路,即 53 个比特 20 个 cycle 的情况,在量子处理器上做一百万次采样后得到 XEB 保真度大于 0.1% (5 倍置信度),用时大概 200 秒。而要在经典计算机上模拟的话,因为比特数目很多整个的希尔伯特空间有 而且还有那么多电路操作,这已经超出了我们现在超级计算机的能力 (within considerable time),就像文中举的另一个例子,用 SFA 算法大概需要 50 万亿 core-hour (大概是一个 16 核处理器运行几亿年吧), 加 Wh 的能量 (也就是一万亿度电...),可以想见是多么难的事情了。而量子这个问题上为啥会比经典好也非常容易理解,用到的就是量子运算的并行性,即量子态可以是叠加态可以在多项式时间内遍历整个希尔伯特空间,而经典计算机模拟的话需要的资源则是随着比特数目指数增加的。 左边图 a 是经典计算机可以模拟的区域,右边图 b 则是量子有优势的区域。红色数据点为最复杂的电路,绿蓝代表两种稍作简化后的电路。 当然有没有可能是有些更好的经典采样算法和量子的差不多,只是我们没有找到呢?文中没有给出很直接的回答,他们认为从复杂度分析来讲经典算法总是会随着比特数和 cycle 指数增加的,而且即使未来有一些更好的经典算法,到时候量子的处理器也发展了所以还是会比经典的好。 最后个人的一点 comment, 振奋的同时也要保持清醒,我们离着实现量子计算的完全功力还有很远的距离。 硬件上有集成化的问题,比如这里的超导比特系统要加微波 control 要谐振腔 readout,比特数目增加后有空间不足和 cross-talk 等各种问题,远远不止我们图中看到的一个小芯片那么简单;再一个比特数多了电路深度大了怎么继续提高保真度也是很大问题,像这篇文章里 53 个比特到第十几个 circuit cycle 时候保真度只有 10 的负二次方量级了,怎么 decorrelate error 实现量子纠错,最终实现容错量子计算等等,这些都是硬件上的挑战; 算法上,除了这里的采样问题(由此延伸的可以解决的问题其实是非常有限的),又有哪些问题是可以证明量子比经典有显著优势的,可不可以设计一些算法使得量子计算机能解决经典不能解决的问题,或者量子比经典有显著的加速,就像文章最后所说的: ...As a result of these developments, quantum computing is transitioning from a research topic to a technology that unlocks new computational capabilities. We are only one creative algorithm away from valuable near-term applications. 在 NISQ (noisy-intermediate scale quantum computer) 的时代 (如下图),虽然我们离绿色真正的容错通用量子计算机还很远,但是现在已经开始进入到蓝色区域相信在未来几年会有一些有趣的 near-term 的应用出现。 横坐标比特数目越大越好,纵坐标错误率越小越好 回答一下大家关心的问题吧,以下是个人观点: 一个是中国在这方面有什么进展,我们国家在近些年在量子方面投入很大,很多组也做出了许许多多非常突出的贡献,但必须承认的是,至少在我们在文中提到的用超导比特去做通用量子计算机这方面确实还有着比较明显的差距,但是道路是曲折的前途是光明的,我相信国内一定会迎头赶上并在很多领域做出超越的。现在无论学校科研院所还是大企业都有投入和发力,只不过具体方向会不一样很多优秀的成果也没有得到媒体的关注。 再一个问题就是很多同学表示还是看不太懂,确实没有相关背景了解起来会比较吃力,既准确又通俗的科普是件很难的事...anyway, 还是我在文中强调的,文章的内容是量子计算重要的一步但是其应用是非常非常有限的,以后的路仍道阻且长,我们离着可以破解 RSA 密码离着量子计算机的大规模普及还很远,而且量子计算机也是不可能取代现在用的经典计算机的,这些应该是现在的业内共识。 文章来源: https://news.cnblogs.com/m/n/640386
个人分类: 量子计算|2085 次阅读|0 个评论
[转载]IBM研究主管:谷歌的“量子优势”是宏伟的时刻
quantumchina 2019-9-24 14:40
IBM研究主管:谷歌的“量子优势”是宏伟的时刻,但不算是计算领域一个开创性时刻。 IBM研究主管吉尔说:“这项研究只是一个实验室实验,基本上,几乎可以肯定地说,它完全是为了实现一个非常具体的量子采样程序,没有实际应用。” 图注:谷歌声称其量子芯片在3分20秒内完成了一次计算,而这一次计算让世界上最强大的超级计算机来完成则需要1万年的时间 腾讯科技讯 谷歌近日宣称自己实现“量子优势”(quantum supremacy,也称“量子霸权”)后有多种评论,这究竟是一个重大的科学突破,代表着计算机的第二个时代的曙光?还是仅是一项几乎没有实际应用的引人注目的研究。据外媒报道,对于前一种说法,IBM研究主管接受采访时称其“浮夸”。 谷歌的研究人员表示,他们已经建造了第一台量子计算机,该量子计算机的计算能力,即使按照传统或经典路线建造的最强大的机器,已无法与其匹敌。这么看的话,人们期待已久的“量子优势”的壮举像是已经实现。 但并不是所有人都认为这是计算机科学的转折点。IBM研究主管达里奥·吉尔(Dario Gil)表示,谷歌的说法“站不住脚,它完全错了”。IBM是这场量子计算竞赛的参与竞争者之一。 在赞扬谷歌的一些技术进步的同时,吉尔驳斥了“这是计算领域一个开创性时刻”的说法,但他认为这应该被称为一个宏伟的时刻。 吉尔说:“这项研究只是一个实验室实验,基本上,几乎可以肯定地说,它完全是为了实现一个非常具体的量子采样程序,没有实际应用。” 然而,在该领域工作的其他人更愿意支持谷歌的说法。IBM前高管、量子计算初创企业负责人查德·里格蒂(Chad Rigetti)说,这项研究意义深远。“对于这个行业来说,达到这个里程碑是非常重要的。这对人类和科学来说都是一个重大时刻。” 谷歌在一篇题为《使用可编程超导处理程式的量子优势》(Quantum supremacy using a programmable superconducting processor)的研究论文中宣布了它的突破。英国一家媒体首先报道了这一消息,上周该消息被短暂发布在美国宇航局的一个网站上,随后被删除。而谷歌公司尚未表示何时将论文进行正式出版。 数字计算机中的比特不是1,就是0,与此不同的是,量子比特之下,两者可以是同时存在的。再加上另一种被称为纠缠的量子现象,量子比特可以通过纠缠影响其他甚至没有连接的量子,这为系统处理更复杂的大量问题开辟了道路。 计算机界的部分争议在于“量子优势”一词。这个词由理论物理学家约翰·普莱斯基尔(John Preskill)于2012年创造,指的是利用新技术构建的系统能够解决某个问题的时刻,而这“某个问题”是指即使是最强大的超级计算机也无法处理的问题。 这个术语意味着,从现在开始,量子计算机将占据优势,而几乎可以肯定的是,谷歌的说法已经引发了争议。 据一位熟悉该公司的知情人士透露,谷歌的研究人员担心,声称“量子优势”会让他们显得傲慢。他们考虑过为自己的成就创造一个不同的解释短语。 谷歌的优势地位是基于一个在规模或范围上有限的技术测试,即创建一个能够证明随机数生成器生成的数字是真正随机的数字的系统。该公司为此设计的量子芯片代号为Sycamore,在3分20秒内就完成了计算。研究人员估计,世界上最强大的超级计算机需要1万年才能达到同样的结果。 看到这项研究的里格蒂等专家表示,在这个有限的演示背后,是一系列将具有更广泛应用的技术突破,这为全面量子计算指明了道路。 由于难以控制量子比特,今天所有的基本量子系统都受到了影响。它们的量子态只维持了不到一秒钟的时间,在构建有用的系统时,纠正这些系统中的错误是最大的问题。然而,谷歌研究人员声称,他们已经做了足够的工作,产生了显著的结果。 根据南加州大学工程学教授丹尼尔·雷达(Daniel Lidar)的说法,真正的突破是大大降低了量子位相互干扰的程度,即一个叫做“串扰”(crosstalk)的问题。这使得研究人员能够在他们的系统中达到0.1%的保真度。丹尼尔说,尽管看起来很低,但相对于其他团队的成果,这仍然代表着非常低的错误率。 丹尼尔补充称,谷歌还能够展示,其系统中的误差是清楚的并且彼此不相关,而这也意味着它所使用的纠错技术总有一天会适用于更复杂的系统。 “他们已经展示了一条可扩展量子计算的道路,”丹尼尔说道。“一旦你有了一台完全纠正了错误的量子计算机,你将前途无量。” 然而,IBM的吉尔表示,谷歌该“系统”是一种专门用来处理单个问题的硬件,它远不是一台真正可编程的通用计算机。“执行这个任意的程序是一件非常具体的事情,”吉尔说道。 吉尔补充说,这意味着谷歌的优势证明并不是全面量子计算之旅的开始。吉尔认为IBM自己在这一领域的工作是与众不同的。 虽然谷歌的研究仅限于科学实验室,但IBM一直在与许多公司合作,试图为这项技术开发第一批应用程序。IBM一直在使用量子系统,而这些系统的设计初衷并不是为了显示其至高无上的地位,而是试实现“量子优势”,也就是说,实现量子优势时,该技术也就具有了实际用途时,将使其在处理某些问题上优先于经典系统。 不过,丹尼尔表示,即使谷歌的系统还不能完全控制,它也是可编程的。马特·奥奇科(Matt Ocko)是一位风险资本投资者,他支持过许多与量子相关的初创企业,将其与数学家查尔斯·巴贝奇(Charles Babbage)在19世纪早期设计的分析机(analytical engine)进行比较。虽然理论上一个通用的系统可以执行不同的任务,但是引擎的硬件必须被设置来执行特定的计算。 找到为系统编程的方法只是摆在面前的任务之一,这意味着量子计算的实际应用还需要数年时间。但旧金山Data Collective公司的合伙人奥奇科表示,对投资该领域的人来说,谷歌的演示仍然是一个重要的检验。 虽然IBM希望在十年内将量子计算引入主流商业应用,但谷歌已经把目光放得更高了。谷歌希望在解决远远超出当今计算机的问题上取得飞跃,比如蛋白质折叠模型或设计新材料。举个更具体的例子,比如设计出新材料以为更高效的太阳能发电系统提供动力。 对于世界上现有的超级计算机来说,在争夺最强大计算系统的竞赛中,他们并不会因此暗淡而走向终点。丹尼尔等专家提醒道,为这些经典机器编程的新技术,可能使它们能够达到谷歌的水平。但目前至少谷歌站在计算机世界的顶端,没有受到挑战。(腾讯科技审校/羽佳) 原文来源: https://tech.qq.com/a/20190923/009860.htm
个人分类: 量子计算|1553 次阅读|0 个评论
[转载]谷歌量子处理器用3分20秒完成世界第一超算1万年的计算量?
quantumchina 2019-9-21 20:43
本文全文均为转载: 芯潮(ID:aichip001) 文 | 心缘 世界第一超算Summit需要大约1万年来完成的计算,量子计算机需要多久? 谷歌研究人员给出答案,3分20秒。 据英国《金融时报》报道,谷歌研究人员在本周向美国国家航空航天局(NASA)提交的论文中写道,其实验标志着量子处理器上执行的首次计算。而这一堪称“恐怖”的计算速度,被研究人员称作是“量子霸权”的证明。 如果实验经过业界认可,这将是计算领域的一大里程碑。 而本周早些时候,IBM宣布将在10月推出53量子比特的可商用量子计算机,向外部用户开放使用,并称这是迄今为止全球最强大的量子计算机,能让用户运行“更加复杂的纠缠和连接设备”。 这是否意味着,量子霸权时代已经离我们不远了? ▲谷歌的量子计算系统 一、量子计算为什么强大? 所谓 量子霸权 ,即指 量子计算拥有秒杀所有传统计算机的计算能力。 为什么量子计算能强大到如此地步?这一烧掉全球无数科学家脑细胞的神秘黑科技,跳出来传统物理定律的限制。 传统计算机每比特非0即1,而在量子计算机中,量子比特可以以处于即是0又是1的量子叠加态,这使得量子计算机具备传统计算机无法想象的超级算力。 举个例子,如果x=0,运行A;如果x=1,运行B。 传统计算机永远只会一次执行一种逻辑分支,要么A,要么B,要么两种情况各运行一次。 但在量子计算机中,变量X是量子叠加态,既为1,又为0,因此它可以在一次计算中同时执行A和B。 如果我们将量子比特的数量增加到10个,那么传统计算机需要计算2^10=1024次。量子计算机需要计算多少次呢? 还是1次。 我们再把量子比特数加到100个、1000个、10000个乃至更多,看出差距了吗? 现有计算机要运行上万年的工作量,量子计算机只用几分钟就能搞定。 在量子计算机面前,复杂的宇宙模拟、航空航天、地震预测、天气预报、高能物理、化学模拟、药物研发、金融分析、加密通信等种种科学计算以及当下火热的AI应用所需的超强算力,都只是小菜一碟。 近年来,这一象征着国家科技实力巅峰的研究已经成为全球各国竞相发展的热点。 二、谷歌 IBM 英特尔均已布局,建造量子计算机难度大 “量子霸权”的深远意义,令无数科学家前仆后继地投入期研究之中。从世界顶级高校到谷歌、IBM、英特尔、D-Wave等IT公司都为这项事业砸下了大量的资源。 当前谷歌的新论文已提交至nasa.gov,但NASA公布后很快又尽管将其删除,谷歌发言人拒绝就论文及其结果的真实性予以回应,NASA也未予以置评。 据部分美媒报道,论文被撤或因其研究还未经同行评审彻底讨论,而评审过程需经数周或数月时间。 不算还未正式到来的IBM 53量子比特的量子计算机,现在市面上最大的商用量子设备大约是20量子比特。IBM、谷歌、IonQ等机构已经分别测试了50、72、160量子比特设备。 此前,谷歌曾于2018年3月推出其72量子比特的量子计算机芯片Bristlecone,当时称“对Bristlecone可以实现量子至上的态度持谨慎乐观的态度”。 目前的量子计算主要有三种技术路径,分别是谷歌和 IBM 采用的通过超导系统实现量子计算、微软的拓扑量子计算、英特尔的超导量子计算和硅量子点同步研发。 但迄今为止,尚无机构真正开发出一款可通用于各种计算任务的量子计算机。已经推出机器们都面临这各种各样的局限性,规模尚小、容易出错,在应用上也往往被限制于某种特定领域。 建造量子计算机的每一步都非常艰难,就现在而言,量子计算机的物理基础问题还远未得到解决。 比如为了保证粒子具有尽可能小的热量,研究人员们通常需要将处理器保持在几乎绝对为零的温度,否则错误率可能会急剧上升。控制系统亦需经过非常精细的设计,来自外部环境的少量能量都可能造成量子态崩溃。 另外,和其他自然过程一样,量子计算过程中也存在噪声,量子比特内部的热量、量子力学过程中的随机波动等因素,都可能干扰量子比特的状态,最终对计算结构造成影响。 ▲IBM Q量子计算机内部 三、论文遭热议:看好潜力,拒绝神话 美国通信巨头ATT最近也表示在研究量子网络或连接量子计算机的技术。 谷歌新论文的消息一经传出,麻省理工学院教授兼量子专家Will Oliver将其喻为美国“小鹰号”航空母舰在航空领域的首次飞行,相信它将进一步推动量子计算领域的研究。 英特尔量子硬件主管Jim Clarke同样看好谷歌这一进展,他认为商用量子计算机的实现离不开研发的进步,虽然目前还只是这场马拉松的第一英里,但他们坚信这项技术的潜力。 不过,并不是所有人都对谷歌这一新进展感到乐观。 比如有人质疑说,如果一台超级计算机要花一万年才能检验量子计算机所产生的答案,那你怎么确定量子计算机获得的答案就是对的呢? 由于目前尚不清楚谷歌的量子计算机究竟是在执行什么任务。IBM研究主管Dario Gil认为,一个可能是针对非常狭窄的量子采样问题设计的实验,并不意味着这些机器将占据主导地位。 他说:“实际上,量子计算机永远不会比传统计算机具有“至高无上”的地位,但由于它们各有千秋,它们将与它们协同工作。”对于许多问题,古典计算机将仍然是使用的最佳工具。 结语:量子霸权论将至,但真正落地还很遥远 如果谷歌的新量子计算机论文经过审议发表,这将是量子科学界非常值得庆贺的一件事。 不过,量子计算机距离严格意义的大规模商用还为时尚早,科学进步从来都是漫长的苦旅,要解决当前这些机器存在的易被破坏、不稳定等工程化问题。要造出易构建、易管理和扩展的商用机器,还需研究人员们持之以恒地探索。 来源链接 http://baijiahao.baidu.com/s?id=1645268383008635790wfr=spiderfor=pc
个人分类: 量子计算|2055 次阅读|0 个评论
[转载]IBM将推出53量子比特的可“商用”量子计算机
quantumchina 2019-9-19 14:19
新华社华盛顿9月18日电(记者周舟) 美国国际商用机器公司(IBM)18日宣布,将在下月推出53量子比特的可“商用”量子计算机,向外部用户开放使用。IBM说,这是该公司迄今开发的最强大的量子计算系统。 新的量子计算系统安装在IBM位于纽约州新的量子计算中心。目前该中心拥有5个20量子比特的系统、1个14量子比特的系统和4个5量子比特的系统。下月该中心将扩充到14个量子计算系统,其中包括这个新的53量子比特计算机。 IBM研究院院长达里奥·吉尔说,新的量子计算系统可以让用户运行“更加复杂的纠缠和连接设备”。 IBM说,该公司的系统可实现最先进的量子计算研究,95%的计算能力向用户开放。该公司称,其量子计算系统的用户包括美国摩根大通银行、日本三菱化学等。 该公司今年1月曾在美国拉斯维加斯消费电子展上展示了可操纵20个量子比特的“IBM Q系统1”。虽然其量子比特的数量不及业界此前发布的一些设备,但它具有表现稳定、结构紧凑等特性,实用性大为增强,被IBM称为可“商用”的量子计算机。 今年3月,IBM提出一个专门表示量子计算机性能的新指标——“量子体积”,其影响因素包括量子比特数、测量误差、设备交叉通信及设备连接、电路软件编译效率等。量子体积越大,量子计算机性能就越强大,能解决的实际问题就越多。 据介绍,年初发布的“IBM Q系统1”的量子体积达到16,当时实现了“迄今最高的量子体积”。该公司尚未公布53量子比特系统的量子体积,但表示其量子计算设备的量子体积每年翻一番,其增长规律与摩尔定律类似。 量子计算机成为近年来各国竞相发展的热点。与传统计算机相比,量子计算机利用量子态的叠加等性质,可以实现计算能力的飞跃。但目前尚无机构开发出可通用于各种任务的量子计算机,已有的一些设备都只能专用于某种任务。(完) 来源链接: http://baijiahao.baidu.com/s?id=1645078680437373777wfr=spiderfor=pc
个人分类: 量子计算|1296 次阅读|0 个评论
量子霸权或今年实现,坏分子雷奕安颤抖吧
leiyian 2019-7-20 10:46
量子义和团: 刚刚,谷歌霸气宣布,量子霸权或许今年就能实现: 量子霸权何时到来?谷歌专家:或许就在今年 ​ finance.sina.com.cn 作为不肯相信奇迹的坏分子雷奕安,已经没有几天可以负隅顽抗了,还不早点自己戴上高帽子,背上两捆荆条,向英勇的量子计算研究团体磕头认罪?臭民科雷奕安你还有什么话说? 伟大的量子计算事业突飞猛进,守旧腐朽的恶势力代表雷奕安,自己滚进历史的垃圾堆吧! 雷奕安: 英勇的量子神团,贵团理想丰满,现实可能有点骨感。反动坏分子也不是一小撮,可能会有贵团战胜不了的力量。谷歌霸气的宣布,也是向敝乌合腐朽之众的宣战,说明不相信贵团神功的人士,并不只有雷奕安。 谷歌的霸气有点长,2017年, 谷歌计划今年实现“量子霸权”,使用7×7量子位阵列 ​ www.sohu.com 2018年, 量子霸权何时实现?谷歌说就在今年,阿里巴巴给出了不同答案_网易订阅 ​ dy.163.com 敝团恐怕还能苟延残喘,说不定贵团哪天烟消云散。
个人分类: 量子力学|2863 次阅读|0 个评论
[转载]ProjectQ简介入门1
quantumchina 2019-4-27 23:47
量子计算是一种很有前景的技术,近年来已经有了巨大的进步,我们很快就会看到有100个,甚至上千个量子位的量子组合试验台。随着这些测试设备越来越大,为了加速量子软硬件的发展,将量子计算机的编程从指定单个量子门提升到在更高抽象层次上描述量子算法,需要一个完整的量子计算软件框架。 ProjectQ开源项目的目标是在三个关键领域改进开发。首先,在高效的高性能模拟器和仿真器上测试新量子算法之前,允许在高级语言中实现它们,从而加速了新量子算法的发展。其次,模块化和可扩展的设计促进了量子计算机科学家改进编译、操作规范化、门合成和布局模块的开发,因为这些单个组件可以很容易地集成到ProjectQ的完整堆栈框架中,该框架为测试、调试和运行量子算法提供了工具。最后,后端到实际的量子硬件——或者开放云服务——比如IBM的量子体验或者私有硬件——允许在变化的量子计算机测试床和原型上执行量子算法。将高级量子算法编译到量子硬件将通过反馈算法的性能来促进硬件和软件的协同设计:定向者可以调整他们的算法,使其在量子硬件上表现更好,实验人员可以调整他们的下一代设备,以更好地支持常见的量子算法原语。 开源项目建议使用具有直观语法和模块化编译设计的独立于设备的高级语言,量子编译器将高级语言转换为硬件结构,对量子程序的所有不同中间表示进行优化。在更高抽象级别上对量子算法进行编程可以加快其开发速度,而自动编译到低级指令集则允许用户仅通过更改一行代码就将其算法编译到任何可用的后端。这不仅包括不同的硬件平台,还包括可以用于测试、调试和基准测试算法的模拟器、仿真器和资源估计器,它们可用于测试、调试和基准算法。此外,项目的模块化编译方法允许快速适应新的硬件规范,以支持目前正在开发的所有量子位技术。 待续。。。 来源:官方网站相关文档
个人分类: 量子计算|2721 次阅读|0 个评论
量子计算、量子通信、经典通信与经典计算的江湖恩怨
热度 1 outcrop 2019-4-16 11:21
最近,量子计算、量子通信与、经典通信、经典计算处于混战状态;用凡人能理解的大白话翻译下,大概局势如下: 量子计算的出现,引来了经典保密通信危机。因为,以前传统计算机在有限时间破不了的密码,现在从理论上说,是可以在有限时间上可破了。 量子通信的意思是说,我有一种办法,量子计算也破不了! 经典派就跑出来骂量通,说你胡说八道,连我们碰到的危机是什么都没搞清,就胡搞。 因此,量通和经典就打起来了,但这些事都不关量子计算的事。 量计是麻烦制造者,不是解决者。 但是,最近搞量通的也去做了量子计算,就动了量计的蛋糕。 因此,量计就和经典联合了,就说,量计八字还没一撇呢,你搞量通的真是扯牛犊子。 当然,做量计的当然也得顺便宣传一下量计,就要谈谈量计带来问题是什么。为什么传统计算机解不了的,量子计算可以解决。 这就谈到了传统计算机的抽象模型,不管你怎么造计算机,只要你是传统的,抽象模型的完全NP问题都没戏。 量子计算呢?不敢保证解决完全NP问题,但是比之传统的,肯定能解决更接近完全NP的问题。 经典计算出场! 以上,Xu老师说南巫穷说的核心内容;大概能听懂,做笔记。
个人分类: 科技八卦|5283 次阅读|2 个评论
[转载]听郭光灿院士讲量子
quantumchina 2019-2-17 15:58
郭光灿院士在CCTV讲他在量子光学和量子信息领域的学习和工作经历,讲解深入浅出,生动形象,幽默风趣。 请点击下面的网页链接观看 http://tv.cctv.com/2019/02/03/VIDEEWSgBoFyAW2vxXaTy9DO190203.shtml
个人分类: 大众科普|1985 次阅读|0 个评论
究竟什么是量子计算
热度 4 leiyian 2018-12-31 20:31
究竟什么是量子计算 雷奕安 如果世界是理想的,简单线性的,光速无穷大的,测量都是无限精确的,量子计算机就能像宣传的那么好。如果世界是真实的,非线性的,光速有限的,测量是有误差的,量子计算机就会特别傻,不如没有。太不幸了,世界是真实的。 量子计算的理论基础 量子计算的理论基础是量子力学,相比传统计算,它声称的巨大性能提升来自于量子态的叠加性。 我发现很难跟量子计算(量子信息)的研究者解释清楚,他们说的量子力学实际上是非相对论量子力学,而非相对论量子力学只是一套近似理论,并不代表真实的物理。在量子信息研究者的眼中,只有一套神奇的理论叫做量子力学,谁也说不清楚怎么回事,但是它就是对的。谁反对都没有用,爱因斯坦也不行。无论爱因斯坦有多么伟大,在与量子力学的交锋中全都败下阵来。 其中最重要的一个争论,爱因斯坦认为世界是局域实在的,局域意味着满足相对论,不能超光速,实在意味着客观世界独立于人的意识而存在。而量子力学认为,世界(量子)是非局域的,量子现象可以超光速;世界(量子)在测量之前讨论它是不是客观实在是没有意义的;量子的非局域性已经得到了众多实验的严格证明。(这里说的量子力学观点存在重大争议,量子非局域性的实验证明,也没有得到广泛的认可。) 在非相对论量子力学中,作用势是唯象的,作用量传播速度无穷大;反应粒子行为的波函数充满全空间;薛定谔方程是一个线性方程,满足一定边条件的本征函数的任意叠加也是方程的解;量子状态的变化,也就是测量引起的波函数坍缩,瞬时在全空间发生,不需要时间,也就是波函数的坍缩速度无穷大。这些特点,在低能低速的情况下并不是什么问题,波函数足以描述系统的主要性质。但不能用来描述光子。 量子力学波函数或其它物理量的线性叠加性,同样是非相对论条件下近似满足的性质,不能无限外推。实际上,真实的物理一定是非线性的,哪怕只涉及一个客体,比如一个光子或者一个电子。 量子信息的所有理论推导,都基于非相对论的量子力学,都需要严格的线性条件。这些假设只在特殊条件下近似成立。所以,在数学前提下成立的理论推导,只能是一个数学的结果。也就是说,量子信息的所有理论都是数学,而不是物理,不是我们的真实客观世界。在真实世界中能不能实现量子信息理论推导出来的数学结果,完全是另外一个问题。而这个问题量子信息研究者似乎并不关心。 把一些在特殊条件下才能近似成立的前提,当成全部的真实物理,并无限外推出各种惊人的结论,这就是量子信息所有研究包括量子计算的实质。 无论如何我强调非相对论量子力学并不是最终理论,应用范围有局限,量子信息中的所有表达式都是非相对论的, 我的批评者们总是拿出更多的非相对论表达式来证明我的“不懂”和“错误”。 还有一类错误,干脆认为量子力学就是数学,是从某些公理出发推导出来的各种定理或推论。 量子计算的工作原理还决定了它无法调错,中间过程无法测量,无法判断计算结果是否正确。 再说一遍,量子信息所有研究的理论基础是线性非相对论量子力学。研究中的所有推导,都是数学,不是物理,说得更确切一点,是线性代数。 精度问题 在量子信息的理论推导中,不存在精度问题,所有的量子位都是严格无限精确的。但在实验中能够实现的精度却很低,经常连两位有效数字都达不到。 根据测不准原理和量子力学的测量理论,量子位保存信息的脆弱性,不确定性是本质的。独立的量子位保存的信息是没有精度的,或者说,误差和读出的值一样大。通过改变环境,即限制条件,增加量子位保存信息的可信度(保真度),一定会影响其它需要的量子属性。这是由玻尔的互补原理决定的。在实践中,虽然量子信息研究提出了很多量子纠错方案,和逻辑量子位概念,但这些方案和概念都是理论性的,也就是我们上面说的数学性的。实验上,要不量子位的精度非常有限,要不纠错效果不好,要不变成了一个经典模拟信号。 很多纠错方案,其实就是一个多数表决,如果有一个量子位跟别的不一样,就把它反过来。但是这种方案只对量子位正好处于0,或1才有效,在任何中间位置(叠加态)都是无效的。在量子态非常脆弱的情况下,即使前提成立,多数表决理论上仍然无法避免错误。 精度问题是量子计算特有的问题。传统计算中,由于信息数字化,离散化(实际上这才是真正的量子化),数据在设计的精度内(比如双精度数,15位十进制有效数字)是保证精确的,对于整数操作,无论多少位都是精确的(需要用数据结构实现)。 而量子计算的每一位都是不精确的。这种不精确有极为荒唐的后果。比如,把一个数保存到量子计算机上,这个数就再也读不出来了。如果没有原始的,由传统计算和存储方式保存的数据,根本无法知道写进去的是多少。连输入数据都无法保证正确,如何保证计算的结果正确? 量子计算原则上是一种模拟计算,其计算精度由模拟信号的精度决定。要增加模拟信号的精度或者可信度,只有尽量增强信号,而量子计算的概念正好相反,用到的信号很弱。为了改善信号的可信度,只好拼命加纠错。纠错的实质,就是增强信号。利用量子属性计算和增强信号,是逻辑相反的两个操作。 对于一些特殊的算法,如Shor大数分解算法,理论上要求无穷大的精度。要对现有传统加密算法构成威胁,需要至少150位十进制精度(常用RSA1024加密算法对应一个309位的十进制数)。如果量子计算机的大小是从太阳到比邻星那么大(40万亿公里),那么测量精度要达到10 -134 米,即比量子理论一般认为最小的尺度,普朗克尺度(10 -34 米),还要小100个量级!这是物理上绝不可能实现的。可观测宇宙的大小才10 26 米,比普朗克尺度只大60个量级。对于连续量,任何大于60个量级的测量精度都是不可能实现的,无论什么样的物理量。迄今为止,人类实现的最精确测量,是引力波的10 -21 。 注意以上精度跟阈值定理等概念中量子位的保真度无关,必须测量上达到上面说的精度。 Shor算法已经提出来25年了,因为跟传统数据加密有关,是量子计算中最热门的研究方向,2001年实验演示了3x5的分解,2012年演示了3x7,11x13,然后,就没有然后了。有人认为实际上演示了233x241,但只是理论推导。25年的重点研究只演示了一个小学一年级学生都很容易做出来的两位数乘法,谈论一个150位的数乘以一个150位的数是不是太乐观了一点?知不知道会存在多少原则困难?且不说传统加密方案把150位x150位改为300位x300位是非常简单的一件事情。所以量子计算要破解传统RSA加密方案,No!Never!(不可能!永远不可能!) 2012年之后再没有新的实验结果,是非常奇怪的。考虑到Shor算法那么重要,任何一个新的进展都应该是激动人心的。一个原因也许是,当人们尝试更大的素数分解的时候,看到了问题所在,知道即使勉强分解了一个更大的素数,但要发展到挑战传统加密方案程度,是不可能的。 量子多体问题 量子计算中必然有多体纠缠,也就是多粒子相互作用。量子计算认为,同时纠缠的粒子数越多,计算和存储信息能力就越强。 在物理上,一般来说,多体相互作用不能分解成两两相互作用的叠加。但是线性系统可以。由于量子信息已经假定了系统是严格线性的,所以相关的理论和推导是成立的。但是这一假定是不成立的。有多个粒子参与的多体相互作用,并不能干净地分解为两两相互作用的叠加,会出现一些额外的效应,如奇怪的对称性,及其它一些非线性现象,等。现实的例子是化学键。多体相互作用还会带来复杂性,从而受到热力学的影响,而不是希望执行的操作。 50个相互作用的粒子,没有非线性的多体相互作用是不可想象的。仅仅它们相互之间位置的微小变化,就会造成整体相互作用发生很大变化,而这种变化在线性表达中不会出现。 任何做过量子多体(少体,N-body)作用研究的人,如原子核物理,量子化学,原子分子物理,凝聚态,场论等学科方向,都很难接受多体问题可以完全线性分解为两体相互作用的说法。但这是量子信息研究的基本假定。 模拟计算(analog computing) 与离散的传统数字化计算相比,还有一类计算叫模拟计算。例子有早期的计算尺(数学用表),尺规作图,指南车,甚至是动物动作精确度的计算,比如弓箭鱼对昆虫的瞄准,变色龙舌头的对准等。模拟计算在自然界无所不在。量子计算研究者讨论的量子计算,是模拟计算的一种,是自然界无所不在的真正量子计算的一种线性简化。 尺规5等分圆形,或正五角星画法 尺规作图原理在平面几何中是精确的,但是实际作图中,总会有误差,因此不会是完美的五角形。 再比如求圆周率,模拟计算的做法是画一个圆,用各种办法量出周长,再量出直径,周长除以直径得到圆周率。 模拟计算的精度有限,如果要提高精度,需要付出很大的努力,但是不太清楚精度的极限在哪里。对于圆周率的例子,七八位十进制有效数字就非常困难了。非常特殊的情况下,一些物理测量可以达到12,13位有效数字。穆斯堡尔效应可以用来作非常精确的测量,精度能达到13到15位有效数字,甚至原则上可以达到22位(银107)有效数字,但是别的困难将开始出现。物理上要实现精确测量,目前只有激光干涉和穆斯堡尔效应这两种方法。它们的精度极限,就是物理测量的精度极限。但是它们是宏观现象的测量,虽然最后的精度仍然由量子效应决定,但是对于宏观现象,量子效应相对很小。量子计算机原则上要利用量子效应,所以量子效应(不确定性)必须很显著,因而测量精度非常有限。 但数学的方法不一样,有很多算法可以得到任意精度的圆周率值。 这就是物理与数学的差别,也是传统计算机与量子计算机(模拟计算)的差别。量子计算机的计算结果必须通过测量来表达。模拟计算可能很快,但是不精确。 很多模拟计算其实就是做实验,比如上面说的测圆周率。一些尺规作图方案也可以得到严格证明。 再举一个量子计算演示叠加性,或并行性的例子,说明为什么量子计算就是模拟计算,或者实验。 迷宫问题: 迷宫问题是传统计算中用演示递归算法的一种基本问题。在传统计算中,从迷宫内任何一点能不能走出去的算法是:先从一个选定的方向走,如果碰到分支(缺口),则按固定的次序选择转弯方向,如果走不下去了,则回到上一个转弯点,走另一个分支,用穷举的方法将所有可能的路线都走一遍,可以找到所有的路线。这种算法看起来效率不高,特别是对很大的迷宫,可能会因为分支太多导致堆栈溢出无法完成。 量子计算的说法是,一个量子的波函数会自动地、并行地寻找所有的路径,因此一下就找到出路了。但是问题没有那么简单。首先我们假定迷宫是2维的,或者上下封闭,否则粒子会直接从上面或者下面出来。其次,粒子的波函数必须覆盖全部迷宫,因此我们无法知道粒子究竟在哪里。如果我们在粒子出来之前不测量粒子,那么我们只知道存在出来的通道,但是不知道是哪一条通道。如果我们想知道粒子是怎么出来的,就必须不停地测量粒子,这样粒子波函数的叠加性就无法充分表达出来。因为我们要跟踪粒子,如果粒子每次的位置都变化很大,我们还是不知道粒子是怎么出来的,不知道出来的通道是哪一条。如果每次位置变化很小,就可以跟踪了,但这意味着粒子的波函数相干范围很小,不能有效探测所有的通道,也就是,波函数叠加性带来的并行效益就没有了。那么剩下的办法只有做非常多次数的测量,我们可以相信(?),粒子在通道上的几率会大一些,多次测量结果叠加,密度最大的线路就是通道。 那么我们在看看模拟计算,或者实验的方法:把迷宫平放在玻璃上,在起始点倒水,再加上一些漂浮的碎屑示踪,我们很快就会看到水从哪里流出来,和有水流的通道。 实验才是真正的量子计算。它是所有真实微观量子效应的总和。 量子计算的说法与实验的办法类似,只是需要做非常多次数的测量。显然效率没有实验高。 迷宫中的粒子要走出来需要尝试所有可能的路径 与迷宫问题类似的有最优路径问题。最优路径问题自然界的模拟解法包括蚂蚁,蜜蜂等昆虫的化学信息素浓度梯度算法。 建模与数字化问题 不是所有真实世界的东西都是数字。传统计算中,需要在计算机中处理的所有问题和客体都要数字化,变成计算机可以处理的二进制数。已经有各种方案将客体抽象化,数字化,如各种抽象数学概念,物理实体,等。复杂的,数据量大的系统有不同的描述方式,比如图像的不同格式,流媒体格式,等等。更复杂的系统需要更多的描述和数字化方案。 传统计算对真实物理世界客体的描述,在采用各种数据结构之后,可以根据应用的需要,用少量,或者非常大量的数据,来描述该客体。 量子计算中,还不知道怎么将客体变成计算中的数据。比如最简单的概念,自然数,在量子计算中就很难表达。自然数是精确的,离散的,而量子计算中的数据或者信号是连续的,无法准确表达一个整数。而整数是构成计算最基本的概念和数据类型。 关于算法的一些问题 叠加性、数据标定、基本计算 为了尽量利用量子位的叠加性,获得自然并行处理能力和存储能力,很多数据要叠加放置在一些量子位上,这些数据无法标定位置(indexing),也就是,数据没有存储地址的概念。这对集合类数据(数组,链表,队列,等)的处理是致命的,不仅基本的算法如排序无法实现,就算找到了,也无法知道是哪一个数据。 只要用到叠加性,就无法对数据定位,因为叠加是线性的,满足交换率,跟次序无关,完全没有办法知道哪个数据什么时候添加上去的。 如果不用叠加性,就回到了经典计算。 连续的数据还无法比对。数据比对(大小,相等)是基本的运算。量子计算数据的连续性和不确定性,导致比对必须采取一定的范围。比对关系就模糊了,不等的可以判断为相等,大可以变成小,……。比对的标准(相差阈值)是一个自由参数,或者经验参数。 量子计算的最终目标是通用计算,当然需要实现基本数据类型和算法。也需要有办法将真实世界的各种概念和客体变成相应的量子数据。但现在量子计算的做法是,需要解决一个问题,就必须设计一个算法,然后做一台实现该算法的计算机。一个算法只能解决一个单一的问题。到目前为止,只能做概念验证,不能实际应用。问题是,量子算法的种类非常少,很多设想中的算法未必能按照设想工作。 Shor算法 即大数分解算法,关键步骤是量子傅里叶分解,其实就是模拟傅里叶分解。动物对声波的傅里叶分解能力非常强大,有些昆虫的触角对红外线也能做傅里叶分解。Shor算法的精度问题上面已经专门说了。 Grove算法 即无序数据搜索算法。首先,传统计算中,排序很快,搜索也很快,数据集的存放一般是排好序的。看不出来为什么需要无序的数据集。 无序数据搜索在量子计算实现中,会有上面说的数据无法标定,比对无法精确等问题。 如果匹配的定义是允许误差的话,对于大的数据集,该算法必然搜出大量近似数据,并且无法判断哪个数据是想要的,除非回到传统计算再比对,因为传统计算数据是离散的,可以精确匹配。 退火与优化 退火与优化也是量子计算最能发挥优势的算法之一。因为退火过程和搜索最优值(最低能量态)是自动全局而且并行的。 但是,这种算法无法通用,只能case by case,一个具体应用一次计算,甚至一次量子计算机设计。除非非常简单的结果,计算结果很难应用到别的案例中,这是由函数的解析性,微分方程对边条件和初条件的依赖性决定的。 如果优化值很不明显(一些最优解差别很小,或者需要高的空间分辨率),量子算法同样不可靠。由于量子态的不确定性,空间和能量的分辨率都有限。 复杂分子计算 同样有上面说的优化问题。而且,复杂分子是无法用另一个架构的量子计算来模拟的。例如想知道某种药物分子的性能,必须做出这种药物分子,并且放在真实的生物体内环境中,才能分析相关的效应。这就是动物实验或者临床实验。 要想通过量子计算分析该分子的性能,根据上面说的函数解析性和微分方程对边条件和初条件的依赖性,看不出有理论根据。 量子计算与大脑工作方式的类似性 都可以很快,但结果都不太精确。 大量重复可以提高精度(训练,学习)。很多人争论或投票,答案或解决方案可以更合理(重复取样平均),但是不能保证正确。 人脑也可以分解一个素数,但普通人就是几十乘以几十的水平,经过心算训练也许可以几千乘以几千,但这基本是极限了。同样跟量子计算类似。 人脑是不可能分解一个150位x150位的素数的。当然可以随口蒙两个150位的数字,但是这个数字究竟是不是素数是不知道的,但的确有很小的可能就是需要找的那个数字。 量子计算研究的意义 量子计算研究当然是有意义的,即使理论基础有问题。但最好先把理论基础搞清楚,知道理论的局限和问题,才有助于更好地理解研究的内容。在开发量子计算算法的时候避开许多陷阱,少走一些弯路。 任何对未知的探索都是有益的,任何没有做过的研究都值得尝试。 量子计算还是可能取得很多研究成果,解决一些传统计算无法解决的问题,或者提供新的思路和解决方案。完全基于物理而不是计算而提出来的很多量子算法也很有意思。 一些特定的量子算法与传统计算的结合应该会有一些应用前景。包括优化,快速傅里叶分解,随机数产生,机器学习的回归算法,等等。 一开始就定位为通用计算是危险的。应该是先有基本计算的实现方案,再讨论通用计算。量子逻辑门的概念恐怕出发点就有问题。传统电路的逻辑门只有分立值。 在理论不清楚的情况下,挑战公认的数学定理(比如大数分解)也是危险的。 在科学技术发展史上,被主流看好最后被证明错误或无用的理论或者技术,比比皆是。量子计算最后应该不至于被放弃。 脚踏实地,一步一个脚印,解决一个一个问题,比提前宣布超过传统计算,实现量子霸权,破解传统加密,……,要实在得多。 如果不是对量子计算虚无缥缈神奇功能吹嘘的怀疑,我也不会质疑量子计算。 后记 1989年我考取了北京大学物理系理论物理专业的研究生,导师是曾谨言先生,研究方向是量子力学。曾老师带两个方向的研究生,一个是量子力学,一个是原子核结构。研究生期间,曾老师说,量子力学方向不好出成果,需要等机会。为了毕业的需要,我做的是原子核结构理论。博士期间(那时候直博还很少),两个方向都在做,发表的论文主要是核结构理论方向的,但毕业论文是量子力学方向的,是关于Berry位相的一些讨论。 应该是94,95年开始,量子计算的研究开始热起来,曾老师和北师大的裴寿镛,清华的龙桂鲁,中科院理论所的孙昌璞等老师开始举办量子计算方面的讨论会,后来出了好几本《量子力学新进展》专辑。 我一直对量子力学的基本问题很感兴趣,希望能搞清楚那些很难说明白的概念。但我知道这是一个长期的工作,不太可能计划到什么时候得到什么成果,因此也无法申请基金或者带学生做这方面的工作,我只能搭上自己的前途。 接触量子计算之后,开始也觉得很有意义,但是很快就困惑了。我自己对传统计算也比较熟悉,从1991年起,就协助管理系里的计算机室。最早接触的量子算法,当然都是Shor算法。我的直觉是,量子测量都是不精确的,Shor算法本质上要求无穷精确的测量啊,这怎么可能?当然,还有别的一些困惑,当时也说不清楚。这时候我已经博士毕业了,随后的工作安排并不需要专门从事量子计算研究,但我一直没有放下这些问题。毕竟,我留在了北大物理系理论物理教研室,而后来也没有再做原子核结构,怎么也应该把量子力学的一些基本问题搞清楚。 2002年到2003年在美国访问,做的是计算物理,高性能计算方面的工作。2003年回国,当时量子计算非常热门,我在述职的时候也讲过我对量子计算有疑问,觉得它的理论基础好像有问题,因此我不会做量子信息方面的研究。后来北大要做聚变,我就参加了聚变研究团队。 一直都没有停下对量子信息方面的关注,中间还带过几个本科生和研究生,但最后不敢碰这个题目,只是做了一些讨论。 到了四五年前,我觉得应该可以讲清楚了,就在三年前招了一个研究生,正式讨论量子信息领域的一些基本物理问题。我知道批评性看法是无法发表的,所以选择量子纠缠概念为突破口。这一概念历史上的争论就很多。我们发现,量子非局域性的实验验证有很多问题,这些问题完全可以在现有的理论框架内说清楚,但结论却和量子信息界普遍接受的概念完全不同,而是与爱因斯坦,薛定谔,德布罗意,甚至包括约翰贝尔等人的物理直觉相同,同时也是现代物理的实际理论基础。但是没有想到我们的文章发表非常困难。虽然多数不做量子信息的研究人员支持我们的看法,但是量子力学这个方向已经是量子信息的天下。 2017年底的时候,我在我们所的工作群里,信心满满地宣布,最迟到2018年底,我要说清楚量子计算究竟是怎么回事。于是2018年间,先写了好几篇文章作铺垫,强调物理与数学的差别,量子位定义的问题,量子纠缠概念的问题,非相对论量子力学的问题,等等。快到年底的时候,我准备总结一下,顺便把几个量子算法和我认为存在的问题说一下。但2018年年底,国际上也出现了对量子信息特别是量子计算的重磅批评声音。美国科学院等也写了一个评估报告,明显比本世纪初的类似报告务实,虽然还是有很多猜测性的乐观展望。我不太喜欢赶热闹,事情有人做,我一般就不做了。我觉得经过我的铺垫之后,明眼人也应该能看出来量子计算的问题所在了,就不太想写这篇文章了。但是,还是把事情做完吧。 至于量子通讯,因为一直有批评的声音,我不是很关注。如果我们对量子纠缠的理解确立的话,量子通讯的理论基础就没有了。
个人分类: 量子力学|10931 次阅读|6 个评论
对量子计算的反对
热度 4 leiyian 2018-12-23 13:27
按: 11 月,法国著名物理学家 Mikhail Dyakonov在IEEESpectrum上发表了 “ The Case Against QuantumComputing ”一文,引起量子计算界的巨大反响。这里将全文翻译如下: 文章来源: https://spectrum.ieee.org/computing/hardware/the-case-against-quantum-computing 对量子计算的反对 量子计算的实现方案需要实现极高的精度和巨量的变量 量子计算风靡一时,几乎每天都会出一条新闻,说明该项令人惊叹的技术,会给世界带来多么巨大的变化。但大多数新闻记者都忘了,或者有意无意的不提,人们研究量子计算已经有好几十年了,但却拿不出实际有用的算例来。 有人告诉我们说,量子计算机可以为许多学科带来突破,包括材料和药物研制,复杂人造系统的优化和人工智能,等。有人告诉我们说,量子计算将永远的改变我们的经济、工业、学术、和社会。有人告诉我们说,量子计算机将很快破解我们这个世界最机密数据的加密方案。量子计算已经变得如此重要,以至于很多物理学领域的研究人员,不得不尽量跟量子计算扯上关系,才能说明他们的研究是有意义的,才能获得支持。 与此同时,政府研究机构,学术部门和大企业的研究实验室,正在花费巨大的人力物力开发量子计算机。在华尔街,摩根士丹利和其他金融巨头预计,量子计算很快就会成熟,并且很想知道,如何充分利用这项技术带来的变化牟利。 量子计算正在成为一种自我激励的军备竞赛,许多组织似乎只是为了避免落后而不得不继续参加。谷歌,IBM和微软等公司的一些顶尖技术人才正在努力工作,利用奢侈的实验室设备,努力实现他们对量子计算未来的期望。 因此,我们很自然地想知道:量子计算机什么时候会派上用场?最乐观的专家估计,需要5至10年。更谨慎的预测20到30年。(顺便说一下,在过去的20年内,内容完全一样的乐观的和谨慎的预计一直在重复)。我属于极少数,我的答案是,“在可预见的未来无法实现。”我花了几十年的时间研究量子物理和凝聚态物理,最终形成了现在这一不乐观的看法。我的看法基于我对量子计算必须克服的巨大技术挑战的理解。 量子计算的想法最早出现在近40年前。1980年,俄罗斯出生的数学家尤里·马宁,就职于波恩的马克斯普朗克数学研究所,首先提出这一概念,尽管相当模糊。加利福尼亚理工学院的理查德费曼(Richard Feynman)也独立提出了同一概念。 如果被研究的量子系统很复杂,其计算机模拟会变得无法计算。费曼提出,计算本身应该以量子模式运行:“自然不是经典的,该死的,如果你想模拟大自然,你最好让它以量子的方式运行,这一定是一个非凡的研究课题,因为它看起来不那么容易“,这是他的说法。几年后,牛津物理学家David Deutsch正式提出了一种通用量子计算机,或者说一种通用图灵机的量子对应计算机。 该概念当时没有引起大家的注意。直到1994年,数学家彼得·肖尔Peter Shor(当时在贝尔实验室,现在在MIT)提出了一种算法,认为,一个理想的量子计算机,将可以非常快地分解一个非常大的数字,比普通的电脑要快很多。这一非凡的理论预言引发了人们对量子计算的浓厚兴趣。已经发表了数千篇关于这一问题的研究论文,其中大部分都是理论性的,论文还在继续以越来越快的速度发表。 量子计算存储和处理信息的工作方式迥异于基于经典物理的传统计算机。抛开许多具体的细节,我们可以简单的归纳为,传统计算机通过操纵大量微小的晶体管,实际上也就是很多微小的开关,进行计算。那些微小的开关会在计算机时钟周期的控制下改变状态。 在任何给定时钟周期开始的时候,经典计算机的状态可以由相应的单个晶体管的长序列来描述。对于N个晶体管,计算机有2 N 种可能的状态。根据程序的要求,在这台机器上进行计算,基本上就是将一些晶体管在“开”和“关”状态之间切换。 在量子计算中,经典的双态电路元件(晶体管,经典位)被称为量子比特的量子元件取代。与经典位一样,量子位也有两个基本状态。虽然量子比特有很多种实现方案,最简单的量子位可以用电子的内禀角动量,也就是自旋,来表示。自旋有一种奇怪的性质,也就是无论如何选择轴的方向,自旋在该轴上的投影只有两个可能的值,+1/2或者-1/2(单位是普朗克常数)。无论如何选择轴的方向,您都可以将电子自旋的两个基本量子态表示为↑和↓。 事情变得奇怪了。对于量子位,这两种状态并不是唯一可能的状态。那是因为电子的自旋由量子力学波函数描述。并且该函数涉及两个复数,即α和β(称为量子振幅),它们是复数,具有实部和虚部。那些复数,α和β,每个都具有一定的幅度,并且根据量子力学的规则,它们模的平方必须加起来等于1。 那是因为当你测量时,这两个幅度的平方对应于电子自旋为基本状态↑和↓的概率。例如,如果在↑状态下找到电子的概率是0.6(60%),那么在↓状态下找到它的概率必须是0.4(40%) - 其它任何结果都没有意义。 与仅能处在其两个基本状态之一的经典比特相比,量子位可以处在连续的可能状态,其状态由量子振幅α和β的值定义。这一属性通常用一种神秘和唬人的方式描述为,量子位可以同时处于↑和↓两种状态。 是的,量子力学常常违反我们的直觉。但是这一概念不应该用这种令人困惑的语言来表达。让我们设想一个x-y平面上的矢量,矢量与x轴成45度。有人可能会说这个矢量同时指向x方向和y方向。这种说法在某种意义上是正确的,但它并不是真正有用的描述。说一个量子位同时处于↑和↓两种状态,在我看来,同样没有意义。然而,这种方式已经成了记者们的规范。 在一个有两个量子位的系统中,有2 2 或4种基本状态,可写成(↑↑),(↑↓),(↓↑)和(↓↓)。当然,两个量子比特可以通过涉及四个复数的量子力学波函数来描述。在一般情况下,如果有N个量子位,系统的状态由2 N 个复数描述,这些复数的模方之和必须为1。 一台传统的计算机,如果有N个经典位,它的状态必须是2 N 个可能状态之一。但是有N个量子位的量子计算机,它的状态可以连续地处在2 N 个量子幅描述的状态中,而量子幅是连续参数(可以为任何值,而不仅仅是0或1)。这正是量子计算机声称的巨大计算能力的来源,但也是其难以克服的脆弱性和不可靠性的来源。 如何在这样的机器中处理信息?可以通过某些变换——被称为“量子门”——以精确和可控的方式改变这些参数(量子幅)来实现。 专家估计,如果与你的笔记本电脑比赛解决某些感兴趣的问题,一台可用量子计算机所需的量子比特数,在1000到100,000之间。因此,在任何给定时刻,描述这种可用量子计算机状态的连续参数的数量必须至少为2 1,000 ,即大约10 300 。这是一个非常大的数字。到底有多大?它远远大于可观测宇宙中亚原子粒子的数量。 再说一遍:一台可用的量子计算机,必须处理比可观察宇宙中的所有亚原子粒子加起来还要多的一组连续变量。 如果认识到这一点,无论这一可能的突破性技术多美好,即使死硬的工程师也会失去兴趣。但是让我们继续。在任何真实世界的计算机中,您都必须考虑差错的影响。在传统的计算机中,每个晶体管在该开的时候开,该关的时候关。可以在硬件中使用相对简单的纠错方法来防止错误的发生。 相比之下,如何控制一台可用量子计算机的10 300 个连续参数?这是绝对不可想象的。然而,量子计算理论家成功地说服了公众,让大家认为这是可行的。实际上,他们声称,一个叫做阈值定理(threshold theorem)的定理,可以证明这是可行的。他们认为,一旦每量子位每量子门的误差低于一定值,无限长的量子计算是可能的,代价只是需要大幅增加所需量子位的数目。他们认为,有了这些额外的量子位之后,可以通过使用多个物理量子比特构成逻辑量子比特来处理错误。 每个逻辑量子位需要多少物理量子位?没有人真正知道,但估计通常在1,000到100,000之间。因此,结果是量子计算机现在需要一百万或更多的量子比特。量子计算机——1000个量子位就已经要处理远超天文数字的连续参数了——只能变得更加荒谬。 即使不考虑这些无法想象的大数字,到现在为止,还没有人能想出办法,将很多物理量子位组合成数量较少的逻辑量子位,并且算出一些实际有用的东西来。这显然是令人沮丧的,因为那么多年以来,这显然应该是一个应当早已实现的简单目标。 在21世纪初,应先进研究和开发计划(美国情报系统的一个项目支持机构,现在是情报先进研究计划的一部分)的要求,量子信息方面的一个著名专家团队规划了一个量子计算路线图。根据路线图,2012年的目标是,“需要大约50个物理量子位”和“在容错 操作中运行多个逻辑量子位,以便实现相关量子算法的简单计算实例......“,现在已经到了2018年底,而且这种能力还没有看到演示。 量子计算已经产生了大量的学术文献。但是描述量子计算硬件的实验研究文献却很少。根据相对较少的实验文献,实验极难进行,尽管如此,这些文献必须得到尊重和钦佩。 这种原理验证实验的目的是展示进行基本量子操作的可能性,并检验已经设计出的量子算法的一些元件。这些实验的量子位的数目低于10,通常是只有3到5个。显然,从5至50个量子位(目标由ARDA专家小组2012年制定)的目标没有实现,说明实验上还有巨大的困难没有克服。最有可能的是,这一实验困难与如下简单事实有关:2 5 = 32,而2 50 = 1,125,899,906,842,624。 相比之下,量子计算的 理论 似乎没有遇到需要处理数百万量子比特的任何困难。例如,在关于错误率的研究中,正在考虑各种噪声模型。已经证明(在特定的假设条件下),“局部”噪声产生的误差可以通过精心设计的巧妙方法来校正,除了其它技巧外,还利用了大规模并行,数千个量子门同时应用于不同的量子位对,上千次测量也同时进行。 在十五年前,ARDA的专家小组指出,“在满足某些假设的条件下,可以确定,如果每个量子门的精度达到一定阈值,量子纠错将允许量子计算机无限计算。”这里的关键词是“在满足某些假设的条件下”。然而,该专家组没有讨论这些假设条件能否满足。 我认为他们做不到。在物理世界中,连续量(无论是电压,还是确定量子力学波函数的各种参数)不可能被精确地测量和操作。也就是说,不可能让一个可以连续变化的变量具有精确值,包括零。对于数学家来说,这可能听起来很荒谬,但正如任何工程师都知道的那样,这是我们生活的真实世界无可置疑的现实。 当然,可以准确地测量一个离散量,例如教室中的学生数量,或“开启”状态下的晶体管数量。但对于连续变量,不是这样的。这一事实说明了传统数字计算机和假想中的量子计算机的巨大差别。 实际上,量子计算理论家们做的各种假定,如制备量子位到指定状态,量子门的操作,测量的可靠性,等等,全部不能精确地实现。这些假定只能以很低的精确度实现。所以,真正的问题是:需要达到什么样的精度?比如,计算2的平方根(很多量子计算操作中无法避免的一个无理数),实验上需要达到什么样的精度?它应该近似为1.41还是1.41421356237?或者更精确?对于这些关键问题,没有明确的答案。 虽然现在正在讨论构建量子计算机的各种方案,但许多人认为最有希望的方法是IBM,Google,Microsoft以及其它一些公司追求的一套方案,该方案最早由加拿大公司D-Wave Systems实现。该方案中,需要将一个相互连接的约瑟夫森结的量子系统冷却到非常低的温度(低至约10毫开尔文)。 该方案的最终目标是建造一台通用量子计算机,可以用于各种计算,能够利用Shor算法在大数分解方面打败传统计算机,利用同样有名的Gover算法(贝尔实验室的Lov Gover1996年提出)做数据库搜索,和其它适合量子计算机的专用算法。 在硬件层面,研究也在继续。49比特芯片(英特尔),50比特芯片(IBM),和72比特芯片(谷歌),最近已经被研制出来并投入研究。这些工作的最终意义并不清楚,因为这些公司没有透露他们工作的细节。 虽然我相信这样的研究是有益的,并且可以导致我们更好地理解复杂的量子系统。但我非常怀疑,这些努力能够导致实际可用的量子计算机的出现。这种量子计算机必须能够在微观水平上以极大的精度操作——这样一个物理系统的特征是不可想象的巨大的参数集合,而每一个参数都是连续可变的。我们能够最终掌握控制10 300 个连续可变参量的能力,以确定这样一个量子系统的状态吗? 我的回答很简单。不可能,永远不可能。 我相信,与表面的繁荣相反,量子计算的热情已接近尾声。这是因为,几十年是技术或科学领域任何大泡沫的最长寿命。经过一段时间后,已经做出了太多未兑现的承诺,任何一直关注这个话题的人,都会对连续不断地宣布的即将到来的突破感到厌烦。更重要的是,到那时,该领域的所有终身职位都已被占用。支持者们变老了,不再那么热心,而年轻一代会探索全新的领域,并且更有可能成功。 所有的这些问题,和我没有在这里提到的一些问题,将引发量子计算未来的严重怀疑。在极端繁荣的量子计算理论研究,和基本的但是非常困难的实验研究之间,存在巨大一条巨大的鸿沟。理论需要可靠地操纵上千个甚至上百万个量子位才能进行有用的计算,而实验只能非常困难地操作几个量子位。这一鸿沟看不出有很快填平的希望。 在我看来,量子计算研究人员应该注意到IBM物理学家Rolf Landauer几十年前在该领域刚开始热门时所做的事情。他敦促量子计算的支持者,在他们的出版物中加入免责声明:“这种方案与所有其他量子计算方案一样,涉及未经验证的技术,不允许任何可能的噪声源,不可靠性和制造错误,可能不会奏效。“ 作者介绍: Mikhail Dyakonov在法国蒙彼利埃大学查尔斯库仑实验室从事物理学研究。他的名字与很多物理现象有关,也许最著名的是Dyakonov表面波。
个人分类: 量子力学|8952 次阅读|8 个评论
量子计算:前途光明 道路曲折(一)
热度 5 st69786 2018-12-12 08:09
量子计算:前途光明 道路曲折(一) 文 | 贺飞(北京大学) 本周,美国国家科学院、工程院和医学院的一个由13名量子计算专家组成研究小组向公众发布了长达205页的题为“Quantum Computing: Progress and Prospects”(量子计算:进展和前景)报告,认为“鉴于量子计算的当前状态和最近的进展速度,在未来十年里建造出能够危及RSA 2048或类似的基于离散对数的公钥密码系统的量子计算机,将是高度意外的事。 这份报告共分为七章,其中第1章介绍了半个多世纪以来计算领域的发展历史以及量子计算机的优势。第2章介绍了量子力学的原理如何使得量子计算的实现与众不同和富有挑战,并将其与当前“经典计算机”的运算进行比较。本章介绍了三种不同类型的量子计算:模拟量子、数字噪声中尺度量子(数字NISQ)和全纠错量子计算机。第3章深入j研究了量子算法。包括用于完全纠错机器的已知基本算法及其纠错开销(overhead)、模拟和数字NISQ计算机能达到实用的潜在算法等。第4章讨论了如何应对量子计算机的肖尔(Shor)算法对当前非对称密码的挑战。第5章和第6章则分别讨论了量子计算所需的一般体系结构和迄今为止在构建必要的硬件和软件组件方面的进展。第7章是关于量子计算取得重大进展所需的技术准备和其他因素的评估,介绍了几种评估工具,并展望了该领域未来发展。 这个名为“ 量子计算的可行性和影响技术评估委员会” 的 研究小组成员包括来自加州大学圣巴巴拉分校的John Martinis,他领导着谷歌量子方面的研究工作;芝加哥大学的David Awschalom,他曾在UCSB领导自旋电子学和量子计算中心;以及加州大学伯克利分校量子信息与计算中心共同主管Umesh Vazirani。此外,来自小组外的成员,如 美国达尔格伦海军水面作战研究中心的杰克·法林霍尔特(Jake Farinholt)对量子计算及相关领域的研究提供了文献计量分析;欧洲委员会驻美代表团Mary Kavanagh博士和澳大利亚驻华盛顿大使馆Anthony Murfett先生提供了欧盟和澳大利亚量子科技研究信息。 摩尔定律失效?量子计算成为热门话题 上个世纪70年代前后,英特尔(Intel)创始人之一戈登·摩尔(Gordon Moore)提出了摩尔定律,这个定律告诉我们:当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。但在部分原因是因为人们越来越担忧半导体技术进展速度有放缓的趋势。尽管这一定律揭示的技术进展趋势已持续半个多世纪,但它毕竟只是推测,而非自然或物理法则。 近年来,国际半导体技术进展速度放缓,以致于有人预计摩尔定律到2020年前后将会失效。对摩尔定律失效的担心,人们对替代计算的兴趣越来越浓厚,量子计算和量子计算机在过去几年里成了一个全球热门话题。而在十多年前,我们当中的大多数人对此还一无所知。近年来关于量子计算机独特的计算能力的讨论,以及其底层硬件、软件和算法的研究进展,更是使大家“脑洞大开”。 在量子计算机之前,我们所有已知的现存计算设备都满足 “广义邱奇-图灵论题”( the extended Church-Turing thesis ) 。这一理论认为,任何构建计算设备的能力只能比普通的“通用”计算机多项式地(polynomially)更快,也就是说,任何相对的加速都只能根据幂律(a power law)按比例放大。这些“经典”计算设备的设计者,通过更快的运算(增加时钟频率)以及提升每一时钟周期里完成的运算数,可将计算能力提升许多数量级。虽然这些改变能将计算性能提升许多数量级,但结果仅是比通用计算设备更快的(大)常数因子。伯恩斯坦等人在1993年揭示,量子计算机能违反广义邱奇-图灵论题。1994年,Peter Shor展示了分解大数能力的一个实例:量子计算机可以比经典计算机以指数方式更快地解决这个问题。虽然这一结果令人兴奋,但当时无人知道如何构建一台量子计算机最基本的元素,量子比特(a quantum bit),或“量子位”(qubit),更不用说一台完整的量子计算机了。 【邱奇-图灵论题是计算机科学中以数学家阿隆佐·邱奇(Alonzo Church)和阿兰·图灵命名的论题。该论题最基本的观点表明,所有计算或算法都可以由一台图灵机来执行。以任何常规编程语言编写的计算机程序都可以翻译成一台图灵机,反之任何一台图灵机也都可以翻译成大部分编程语言大程序.该论题和以下说法等价:常规的编程语言可以足够有效的来表达任何算法。该论题被普遍假定为真,也被称为邱奇论题或邱奇猜想和图灵论题。】 但情况最近发生了变化。有两项技术,一是使用俘获电离原子(trapped ionized atoms)(俘获离子),二是使用微型超导电路(miniature superconducting circuits),已发展到能让一些研究小组构建小型演示量子计算系统的地步,一些研究小组已取得了成功。这些最新进展使得全世界对量子计算的兴趣激增;然而,研究界对量子计算的潜力及其当前状态的兴趣越来越高的同时,难免也会有炒作和混淆视听的成分。有关量子计算将如何实现计算机性能的持续扩展(它不会)的文章很多,或改变计算机工业的文章也并不罕见(短期影响很小,长期影响未知)。 量子计算可行性和影响技术评估委员会的主要任务是研究通用量子计算机当前技术状态、可能的进展及其影响,重点聚焦理解量子计算硬件、软件和算法的当前发展态势,以及需要什么进展来构建能部署肖尔(Shor)算法的可扩展的(scalable)基于门的量子计算机,厘清量子计算的理论特征和局限性,同时纠正公众对该领域的误解。 委员会试图整合多学科观点,并从系统的视角来思考如何构建实用量子计算机。先后开了三次面对面的会议、一系列电话会以及远程合作。委员会在其工作之初意识到,当前的工程方法不能直接扩展到构建这种可扩展的、完全纠错的量子计算机。于是便集中精力寻找发展里程碑,提出测度这一领域进展的指标。 需要说明的是,相关研究基于公开信息完成,不涉及敏感保密渠道信息。小组成员的专业素养和经验、公开会议上收集的数据、与外部专家的一对一访谈以及来自许多公共领域的信息等都是研究的重要依靠。因此,这一研究毕竟是基于不完整信息,不排除来自公开渠道之外的研究进展(如机密渠道)会改变研究结论。 2. 量子计算横空出世 量子力学是描述非常小粒子行为的物理学子领域,它为新的计算范式提供了基础。量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。我们知道,传统的通用计算机的理论模型是通用图灵机;而通用的量子计算机的理论模型是用量子力学规律重新诠释的通用图灵机。从可计算的问题来看,量子计算机只能解决传统计算机所能解决的问题,但是从计算的效率上,由于量子力学叠加性的存在,目前某些已知的量子算法在处理问题时速度要快于传统的通用计算机。 量子计算(Quantum. computing,QC)的概念最早由美国阿贡国家实验室的P. Benioff于1980年代初期提出,他提出二能阶的量子系统可用来仿真数字计算;稍后费曼也对这个问题产生兴趣而着手研究,并在1981年于麻省理工学院举行的First Conference on Physics of Computation中给了一场演讲,勾勒出以量子现象实现计算的愿景。1985年,牛津大学的D. Deutsch提出量子图灵机(quantum Turing machine)的概念,量子计算才开始具备了数学的基本型式。但以上量子计算研究多半局限于探讨计算的物理本质,停留在相当抽象的层次,尚未跨入发展算法的阶段。 量子计算提出之初是作为一种改进非常小(“量子”)物理系统行为的计算模型的方法。到了20世纪90年代,随着肖尔(Shor)算法的引入,人们对其兴趣日益增长。1994年,贝尔实验室的应用数学家P. Shor指出,相对于传统电子计算器,利用量子计算可以在更短的时间内将一个很大的整数分解成质因子的乘积。这个结论开启量子计算的一个新阶段:有别于传统计算法则的量子算法(quantum algorithm)确实有其实用性,绝非科学家口袋中的戏法。相对于当今的计算机来说,量子计算机是可提供指数加速的唯一已知的计算模型。量子计算机如果能实现,将会以指数方式加速分析一些重要密码,潜在地威胁到用于保护政府和民间通信和数据存储的一些密码方法。 自此之后,新的量子算法陆续的被提出来,而物理学家接下来所面临的重要的课题之一,就是如何去建造一部真正的量子计算机来运行这些量子算法。许多量子系统都曾被点名做为量子计算机的基础架构,例如光子的偏振(photon polarization)、腔量子电动力学(cavity quantum electrodynamics,CQED)、离子阱(ion trap)以及核磁共振(nuclear magnetic resonance,NMR)等等。当前,考虑到系统可扩展性和操控精度等因素,离子阱与超导系统走在了前面。 3 . 量子计算的基本原理 量子力学态叠加原理使得量子信息单元状态可处于多种可能性的叠加状态,从而导致量子信息处理从效率上相比于经典信息处理具有更大潜力。普通计算机中的2位寄存器在某一时间仅能存储4个二进制数(00、01、10、11)中的一个,而量子计算机中的2位量子位(qubit)寄存器可同时存储这四种状态的叠加状态。随着量子比特数目的增加,对于n个量子比特而言,量子信息可以处于2种可能状态的叠加,配合量子力学演化的并行性,可以展现比传统计算机更快的处理速度。 如果把量子考虑成磁场中的电子,电子的旋转可能与磁场一致,称为上旋转状态,或者与磁场相反,称为下旋状态。如果我们能在消除外界影响的前提下,用一份能量脉冲能将下自旋态翻转为上自旋态;那么,我们用一半的能量脉冲,将会把下自旋状态制备到一种下自旋与上自旋叠加的状态上(处在每种状态上的几率为二分之一)。对于n个量子比特而言,它可以承载2的n次方个状态的叠加状态。而量子计算机的操作过程被称为幺正演化,幺正演化将保证每种可能的状态都以并行的方式演化。这意味着量子计算机如果有500个量子比特,则量子计算的每一步会对2^500种可能性同时做出了操作。2^500是一个可怕的数,它比地球上已知的原子数还要多(这是真正的并行处理,当今的经典计算机,所谓的并行处理器仍然是一次只做一件事情)。 虽然这些结果在1990年代非常令人兴奋,但人们的兴趣却只是停留在理论上,因为无人知道用量子系统构建计算机的方法。量子计算将有可能使计算机的计算能力大大超过今天的计算机,但仍存在很多障碍。大规模量子计算的问题是在提高所需量子装置的准确性上存在困难,即如何长时间地保持足够多的量子比特的量子相干性,同时又能够在这个时间段之内做出足够多的具有超高精度的量子逻辑运算。 ( 未完待续) 参考文献: https://www.nap.edu/catalog/25196/quantum-computing-progress-and-prospects
个人分类: 海外观察|6085 次阅读|5 个评论
原子时钟激励新的量子位(181205)
热度 4 ymin 2018-12-5 09:36
原子时钟激励新的量子位( 181205 ) 闵应骅 最近一期的 IEEE Spectrum 2018/12 发表一篇新闻,题目是“ ATOMIC CLOCKS INSPIRE NEW QUBITS ”,报道了量子计算领域新的基础研究,特介绍如下。 十年前,量子计算还是一个玩笑,量子计算的倡导者冒昧地提出了一种有前途的技术,因为没人知道怎么把一串量子位串起来。时间在前进,现在 IBM 已经造出 50 量子位的机器,英特尔 49 位,谷歌已经开发了 72 位的装置。今年 9 月,宾州大学 (Penn State) 的研究人员声称他们已建造了 125 量子位的计算引擎的主机。但是,不同于 IBM 、英特尔、谷歌,宾州大学系统做概念验证的基本部件不是计算机芯片,而是原子钟。 宾州大学和世界上其他研究人员提出的中性原子量子计算机是用铯原子在激光阱(精确的时间标准)中作为量子计算基本的量子位。由宾州大学建造的激光掌控下的 5 中性原子量子计算机样机如下图所示。原子的量子状态可以被用来存储信息。 宾州大学的物理学教授 David Weiss 说:“据我们所知,没有一个量子力学系统比一个原子更好。”他的研究组在 自然 杂志宣布他们可以用激光在一个立方体维持和冷却 125 个铯原子,每一个掌控临近 5 微米。(该量子位可以载入、冷却、屏蔽干扰,但该研究组还没有开发所必须的逻辑门和差错校正。) 原子时钟用这些极冷和稳定的原子作为记录时间逝去的基础,其特性已经有很好的研究,被称为超精确分解。它牵涉每个原子旋转最外面电子。(每秒普遍定义为从铯精确分裂出来 9,192,631,770 个辐射周期。) 对于量子计算机,其想法是用作原子时钟同样的铯量子状态。但是,铯原子作为量子计算机的部件,要用到原子钟所不用的量子性质。在铯原子量子计算机中的所有量子位可以占有一个精细状态(称为 0 ),或一个稍微高能的状态(称为 1 ),它们之间的状态称为量子叠加。 为了用原子阵列完成量子计算,原子必须纠缠。为此, Weiss 解释,激光撞击在 3D 阵列中的 125 个单个原子到高活跃电子状态,然后冷却下来。这整个系统就会如此敏感,使得靠近靶原子的铯原子感知到它的激发和非激发。这就会使阵列中的至少部分原子发生纠缠。 威斯康星 - 麦迪逊大学物理学教授 Mark Saffman 说,他的研究组诱捕的铯原子 2D 阵列可以保持其精致的量子状态达 10 秒,甚至更长。( Saffman 指出这个数据来自 Weiss 研究组)。而典型的操作(譬如一组量子位与另一个相乘)也不过 1 毫秒或者更少。所以,在量子状态被噪声击溃之前执行很多操作的可能性是系统固有的。 Saffman 说:“用激光束把这些原子量子位高度激活,我们可以随意执行很强的交互。” 当然,中性原子量子计算还有挑战性的问题。马利兰大学物理学教授、 1997 诺贝尔奖获得者 Willian Phillips 说,缺乏长期的很强的库伦交互意味着在很小体积里放置很多原子很容易,但控制这些原子,譬如快速形成量子门就没那么容易了。 在科罗拉多州博德的 ColdQuanta CEO Dana Anderson 说,现在单个原子可以可靠的稳定的冷却的稳定在 100 nanokelvins ( Kelvins 是绝对温度单位)以下,许多基础科学研究已经呈现, ColdQuanta 正在实现 Saffman 和 Weiss 的预想,作为量子计算机或模拟器的基础。 Anderson 说 : “当你得到如此低温的原子,我们就有了一系列的量子技术,不管是量子时钟,还是量子计算,它们内部其实都是同样的东西。” Weiss 说他的 3D 阵列用目前的技术可能扩展到 1,728 个量子位,排成 12 行、 12 列、 12 面。但是,有这么多量子位,就需要他的研究组和其他人开发强力的差错校正方法。 无论是 Weiss 的 3D 阵列,还是 Saffman 和 ColdQuanta 的 2D 阵列,长远来看,要想可行,还有许多需要研究的问题。 Anderson 说这些问题都是可以解决的,而且基本上都是一些工程问题。 作为一个外行,上述报道我也看不太懂,但是有两点感受: 1. 什么叫基础研究?这就是基础研究。并不是陈景润的 1+1 才叫基础研究,更不是那些空对空的哲学议论算基础研究。不是越空洞就越基础、越广泛就越基础。这是民科常常犯的毛病,也许是因为他们研究条件不够。 2. 量子计算的基础研究不是计算机系、学院、研究所所能完成的。原来搞电子计算机的这批人对于量子计算必须从零开始。现在的计算机人既缺乏高层的计算机应用研究,譬如 AI 用于医疗、 AI 用于警察(这两项本月 IEEE Spectrum 都有长文报道),也缺乏最底层的集成电路技术基础研究,大多是中间层的研究和开发,有点高不成、低不就,想个新点子,来个 APP 。这样的研究就整体来说成不了大器。 顶天立地的研究和创新靠整个科学技术界的合作和纠缠,像量子一样。科学技术界要有一种共同创新的氛围,才能形成合力。媒体要做实事求是的报道,不要等成果出来了才报道,更不要夸大其词,欺骗大众。不要以为让大家高兴了就好。最近浮夸现象在科技界有所增长,值得警惕!
个人分类: 计算机|12413 次阅读|18 个评论
数学量子位与物理量子位的差别
热度 6 leiyian 2018-9-11 09:10
量子位的定义 量子信息,包括量子计算,量子通讯,量子密码学等,现在已经成了一个庞大和热门的学术领域。我从上世纪九十年代初接触量子信息,但一直对其理论基础心存疑惑。本文将讨论量子信息理论中最基本的一个概念,量子位。 量子位(qubit, quantum bit)是量子信息的基本单位,它对应于经典信息论中的基本信息单位——位(bit)。经典的位概念是指任何一个二态体系(元件),只能取值其中一个状态,一般标记为0,1。一个经典位只能是0或者1。而量子位同样取一个体系(元件)的两个状态,但其状态可以是两个状态的任意线性相干叠加态: 这里 是量子位,0和1是两个状态的純态, a 和 b 是两个复数,分别表示量子位处于0态和1态的几率幅,需保证归一: 由于 a 和 b 之间还可以有一个任意的相位差,因此一个量子位需要两个任意 的实数来表达(布洛赫球表示): 所以一个量子位有无穷多个状态。 量子位的布洛赫球( Bloch Sphere ) 表示 注意这里的“线性”“相干”“叠加”几个关键词,一个词都不能少。“线性”表示两个状态是平等的,在量子位中的重要性(比例)由前面的系数决定;“相干”表示两个系数之间有固定的相位差,“叠加”表示两个组分的简单相加。 这就是量子信息中的量子位概念。量子信息相关研究中,只有量子位的概念,而不区别该概念的数学属性和物理属性。从来没有人讨论过数学量子位和物理量子位的区别,或者说,认为这两个概念是一致的。 量子位的信息量悖论 在经典计算中,一个物理的经典位和一个数学的经典位,概念上是一致的,这是现代信息科学的基本假定。该一致性由技术保证。经典数据可以在物理上可靠实现,操作可以正确完成。但一个数学的量子位没有物理对应,物理上无法实现。基于数学量子位定义的所有推论都是数学推导,跟物理实现无关。 量子信息领域定义的“量子位”,只是一个数学的定义,不是物理的定义。根据该定义,一个量子位具有无穷大的信息量。 我们先来看看经典位和量子位的具体形式:我们知道,在现代信息技术中,一个经典位(bit),需要很多个原子(一个稳定的宏观状态,磁盘和内存需要上百万的原子,自然存储效率最高的DNA需要几十个原子)才能保证比较可靠地表达一个最小信息量的信息。而一个量子位,可以用一个原子甚至一个电子或者一个光子表达一个信息量无穷的信息。这一点也常被解读为量子信息具有巨大优势的原因。 难道这里没有问题吗? 当然有。我们先看一个物理的量子位是什么样的。 一个物理的量子位,比如一个电子的自旋,或者一个原子的基态与激发态的叠加,我们假定它的确处于某一状态(无穷可能性中的一个)。一个经典位,处于两个状态中的一个,每次必须保证正确读出,这个位表达的信息才有意义。但一个单独的量子位,它的信息是绝对无法读出的。你可以读出一个数,但是无法知道这个数是不是该量子位的值。所以,一个单独的量子位,根据其数学定义,存储的信息量无穷大(两个实数 a 和 b ),但能提供的信息是0,也就是根本没有信息。读出操作本身,在读出信息之前,就将毁掉量子位存储的信息,如果以前有的话。 所以,一个数学的量子位信息量无穷大,但一个物理的量子位信息量为0。 物理量子位无法读写 一个任意的量子位,既无法读,也无法写。 计算,就是信息处理。信息首先要进入计算设备,也就是必须写进去。量子位首先无法写进去相位信息,几率幅系数也写不准。 为什么呢?我们可以看一看,量子位波函数是怎么得到的。为了得到量子位的波函数,我们必须解量子位的薛定谔方程。薛定谔方程是一个波动方程,或者说是一个微分方程。对于薛定谔方程,影响其解的因素有势函数,边条件。其实,对于一般的微分方程,还需要一个初条件,但传统的量子力学计算中,对薛定谔方程的解是求解一个局域势函数下的本征态,而不考虑量子的初始状态。解出来的波函数是一些通解,与量子的初始条件无关。但是本征态的线性叠加仍然满足薛定谔方程,也就是,满足边界条件的解有无穷多个。 那么如何才能将一个量子位制备为特定的状态呢?显然,薛定谔方程不能提供解决方案。也就是,不能通过设置一个特定的势场(这是宏观上唯一能做的操作),让量子位处于某个值。那么,究竟是什么原理让量子位处在什么状态呢?这套理论叫做量子统计,也就是关于量子的热力学。量子统计讨论量子在各种可能状态的分布。对于量子计算应用,热力学有一个讨厌的性质,就是量子的状态不固定,随时在变化。变化的幅度和快慢与温度有关。一个热平衡的体系是没有信息的,因为熵已经最大,而信息是负熵。因此只能靠一个外来的能量或负熵源为系统带来一个偏离热平衡的状态,比如对于一个基态-激发态量子位,可以用一个激光脉冲将基态激发到激发态。但是这里有一个问题,对于很多个量子位,激光能够造成一定的偏离热平衡的布居分布,但对于每个特定的量子位,无法知道它究竟处于哪个特定的状态,也就是无法知道量子位的线性系数 a 和 b 。 如果有温度,情况更复杂。因为环境的辐射会引起涨落。 如果没有温度,也就是处在绝对0度,好像可以不考虑辐射涨落的影响,但是根据量子场论,不存在空无一物的真空。所以,永远都存在环境引起的涨落。 也许有人会说,那只是误差,误差是可以控制的。在经典条件下,这句话在一定程度上是对的,但在量子条件下,这种误差,或者说不确定性,是本质的,不可能消除。也可以说,消除的代价是回到经典,因为可以忽略量子效应。当然,这样的话,信息就回归经典了,量子信息就不存在了。 量子位如果被制备为某一本征态,可能比较准确,并能维持较长时间,虽然这种维持可能来自于测量效应,而不是态本身的稳定性。但是,通用计算需要量子位在任意叠加态都维持一定的稳定性,否则该值不可信,计算也就不可信。 传统上,我们求解量子力学问题,会求体系哈密顿量的本征值,并认为体系会自然处于基态。也就是说,自然地制备了一个处于能量基态的量子(体系)。同样,这只是一个数学结果。这一结论要求如下假设: 第一, 哈密顿量完整,也就是不存在其它剩余相互作用。 第二, 体系处于绝对温度为零K的环境中。 做过原子分子能级计算的研究者们知道,即使对于一个简单的原子体系(比如仅有两个电子的氦原子),哈密顿量写完整也是一个不可能完成的任务。不可能从第一性基本原理出发,写出一个完整的非相对论哈密顿量,如果我们承认场论的基本原则。 也就是说,原则上不可能制备任何一个确定的量子态。 那么,能不能制备一个比较可信的量子态呢?由量子统计的原则,只要能隙足够宽,温度足够低,量子能够可信地处于能量基态。当然这里还要求不存在基态与其它能级之间的高阶相互作用。 制备一个能级基态的要求都那么苛刻,那么任何一个包含能量激发态的量子态純态当然就成了一个不可能完成的任务。 作为一个特例,我们讨论一下原子的长寿命能级问题,或亚稳态问题。特殊条件下,有些原子的能级具有很长的寿命,可以达到几千秒。那么是不是可以说,如果我们把这样一个原子激发到该亚稳态,就可以可信地认为它处于该激发态呢?我们看一下这类实验的过程:在一个离子阱或原子阱中,将一群离子或原子冷却到绝对零度附近,再用一束激光激发捕获的原子(离子)到亚稳态,然后可以得到单色性非常好的激光脉冲。要注意,在这一过程中,电子并不是停留在激发态上,而是不停地来回跃迁,所以这一过程并没有制备一些处于亚稳态的原子,而是电子在不停振荡的原子,无法知道任意时刻,任意原子上电子的状态。 以上的讨论有一个前提,就是量子位的两个状态之间存在能量差。如果不存在呢?比如光子的不同偏振状态。这时没有讨厌的量子统计原则,两个偏振状态也几乎没有相关性。光子的确是最好操作的量子位,如果偏振态容易精确制备的话。衡量偏振态单向性有一个指标,叫做偏振消光比(Polarization Extinction Ratio, PER),或简称消光比,即两个偏振分量强度的比值,通常只有几百分之一,虽然好于大多数别的量子位方案,但是离实用计算的要求差得远。光子作为量子位,应用中还有很多别的问题,比如光子与物质的相互作用,单光子的探测等。 物理量子位的其它性质 l 量子位不可拷贝(不可克隆定理),不可广播。 l 量子位不可删除(清0)。 l 一个量子位或者量子字节(量子寄存器),加载 (encoding) 的信息越多,信息越不可靠。 l 利用叠加性的自然并行计算,并行度越高,计算越不可靠。 l 现有的量子信息理论认为,通过量子纠错,原则上可以存储量子信息。我不认同这种说法。我认为这里要遵守玻尔的互补原理,信息保存得越可信,体系越经典。量子信息可以可信地存储,但是它将丧失它的量子属性。 l 舒尔算法(大数分解算法)需要无限精确的量子位。要对现有传统加密算法构成威胁,需要精度上千位十进制数的量子位和操作。 相关: 量子纠缠究竟怎么回事? 量子叠加是完美线性的吗?
个人分类: 量子力学|14637 次阅读|12 个评论
量子计算机研制进展(180704)
热度 2 ymin 2018-7-4 09:38
量子计算机研制进展( 180704 ) 闵应骅 本人在 2010 年就曾在科学网上介绍 D-Wave 量子计算机( D-Wave 系统是量子计算吗?( 100123 ) ) 8 年过去了,大公司都在量子计算领域进行探索。超级计算机按老路走下去,已经碰到瓶颈了,不能靠扎钱走下去了。而另一方面,计算机应用,譬如人工智能、大数据却叫得很响,这些应用的基础设备必须跟上。而现在看来,量子计算机是有希望的。中国这种举国科研体制不应该缺席。否则,我们又不得不跟人跑了。 据 IEEE Spectrum 2018/07 介绍,日本富士通公司设计了硅片上的计算机结构,称之为数字退火器,可以用在量子计算机中。今年 5 月富士通开始在日本提供云服务,以解决组合优化问题,譬如寻找分子模式的相似物,以加速药物发现。这种服务需要提升量子计算机。加拿大本拿必的 D-Wave 系统 2000Q 量子退火计算机正走向市场,据新闻报导将在两年内引进 5000 量子位。量子退火是对负责优化问题寻找优化解的一个数学工具,当可能的回答太多,以致传统的计算几乎无法处理时就显示了量子计算的优越性。 同时,公司和研究所也在企图创建通用的量子计算机。他们用量子门处理量子位,用比量子退火机更加复杂的算法。但是,已知这些通用计算机的设计和高度可控的超导环境的需求,这些机器能支持的量子位数现在还比较少,一般也就 50 量子位,而 D-Wave 可达 2000 量子位。 IBM 和微软采用量子门方案,而谷歌则用量子门和量子退火二者。 2016 年 IBM 做出 5 量子位的超导量子计算机,为研究者在线使用,以后做到 16 量子位,现在到 20 量子位已可使用。在 2018 年国际消费类电子产品展览会上,英特尔公布了 49 量子位的超导量子测试芯片,叫做 Tangle Lake 。 所有这些方案都有一个潜在的问题,就是史无前例的计算功率需求,也就是代价很高,价格很贵。为了能保持 0 或 1 的状态,它要求保持接近绝对零度,而且没有磁性干扰、温度噪声、机械振动,这是量子计算的基础。 富士通和多伦多大学合作,开发了数字退火器,和现有的量子退火计算机,譬如 D-Wave 有所不同。后者要求一个完全可控的冷却环境。富士通用传统的半导体工艺,在室温下工作,装成一个小的电路板,插到数据中心的架子上。 数字退火器是一个专用芯片(见图),用非亨诺伊曼体系结构,在解组合优化问题时极小化数据移动。它包括 1024 个按位更新块,带存储权值和偏移的片上存储器,完成位翻转的逻辑块和接口及控制电路。 和经典的计算机不同,数字退火器不需要编程,而是把问题上传成权重矩阵的形式,把它转换成能量场景。富士通组建了在温哥华的量子软件团队,以提供系统软件和用户软件包,用户可以自己书写自己的能量场景。 为了解决一个问题 , 每一个位块通过存储器中的 1023 个权重用其一对多的连接。数字退火器用此并行性基于权重矩阵和偏离向量去设定许多可能的状态。然后,位块共同运行随机搜索。这个随机搜索是最小化一个数学函数值的估计技术,以产生该过程的下一个候选序列。这个过程一直进行到能量场景中最低状态为止。 东京技术学院物理教授 Hidetoshi Nishimori ,也是提出量子退火的第一篇文章的作者之一,解释说,数字退火寻找较好解从一个状态到另一个状态的跳变类似于一个人在一个有山有谷的复杂场景中游荡,寻找最低点。在量子退火中,同时考虑所有可能的状态,高度并行地寻找最优解。 基于 CMOS 的带有 1024 位块的数字退火能够比带有 2000 量子位的 D-Wave 差不多或者更有效吗?也许是这样。 Nishimori 说,在富士通机器上,位块之间的权重使问题表达比 D-Wave 系统有更高的精确性。但是,长期运行后,量子退火可能由于超大质量的量子并行性而超过数字退火。富士通打算明年推出 8192 位块的数字退火,以后将达到 1 百万位块的机器。 富士通和多伦多大学合作,正在研究数字退火器的应用。今年晚些时候,公司将出售在线安装的数字退火服务器、塔器和芯片。富士通还将于年底前在北美、欧洲和亚洲铺开云服务,到 2022 年投入 1 千亿日元(相当于 9 亿美元)。 从上分析可以看出,中国的介入可能已经是时候了,首先是要建立一支队伍探索量子计算机。量子计算和量子通讯、量子保密是不一样的。不知道我国是否已经加入到这个全世界的研制队伍中来了?要想原始创新,必须赶快,或者可能是已经太晚了。
个人分类: 计算机|20857 次阅读|4 个评论
[转载]1000量子位可以做什么(中等规模量子计算)
quantumchina 2018-6-24 17:56
量子技术发展日新月异,在这个令人兴奋的领域中,构建功能性、可扩展性、有用的量子计算机仍然是最为重要的追求目标之一。1000个量子位可以做什么呢?这是在未来十年中我们可以期待的量子计算机的规模,这种大小的量子处理器的功能和应用将是确保在该领域继续研究和投资的关键。量子科学与技术这一专题中的五篇文章为这个问题提供了独立和互补的答案。 论文链接: Job J and Lidar D 2018 Quantum Sci. Technol. 3 030501 IOPscience Katzgraber H G 2018 Quantum Sci. Technol. 3 030505 IOPscience Iyer P and Poulin D 2018 Quantum Sci. Technol. 3 030504 IOPscience Perdomo-Ortiz A, Benedetti M, Realpe-Gómez J and Biswas R 2018 Quantum Sci. Technol. 3 030502 IOPscience Moll N et al 2018 Quantum Sci. Technol. 3 030503 IOPscience 原文链接: http://iopscience.iop.org/article/10.1088/2058-9565/aac869/meta 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space
个人分类: 量子计算|1372 次阅读|0 个评论
[转载]建造量子计算机(1)
quantumchina 2018-6-14 21:18
量子计算机的组成模块 转载内容来自于MOOC 教学平台edx。后续将会连续翻译介绍给大家。 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space
个人分类: 量子计算|1284 次阅读|0 个评论
Deutsch-Jozsa量子算法
热度 3 caozhengjun 2018-5-5 15:56
Deutsch-Jozsa量子算法 曹正军 David Elieser Deutsch (1953---), 英国人, 牛津大学教授, 获牛津大学博士学位. 1998年获狄拉克奖(Dirac Prize). 主要研究量子计算、量子图灵机、量子电路等. Richard Jozsa (1953---), 澳大利亚人, 剑桥大学教授, 获牛津大学博士学位(导师Roger Penrose). 主要研究量子计算、量子远距传送等. 他们在1992年的一篇论文中提出了所谓的Deutsch-Jozsa量子算法. 它是量子并行计算理论的基石, 著名的Shor大数分解算法就是以它为基础的. 理解该算法并不需要复杂的数学和量子力学知识, 只需熟悉一些矩阵与向量的运算规则就可以啦. 看到这里读者可能会明白, 为什么谷歌研制的72个量子比特的计算机还是碌碌无为, 虽然它已经跨越了50个量子比特的门槛, 夺取了``量子霸权. 如果不能从数学上解决并行算子的构造问题,那么所谓的量子计算机也只是用来刷刷屏而已. 本文摘自作者的书稿《现代密码算法概论》
个人分类: 量子计算与量子通讯|24277 次阅读|4 个评论
量子计算 (180406)
热度 3 ymin 2018-4-6 09:21
量子计算 (180406 ) 闵应骅 量子计算、量子通讯在国内炒得很热。其实也不但在国内,在国外也一样。大家觉得超级计算机已经走到瓶颈,量子计算机也许是一条出路。本月 IEEE Spectrum 2018/4 月号发表 Lee Gomes 一篇长文,题目叫“ Quantum Computing : Both Here and Not Here ”比较详细介绍了量子计算的现状与未来。 薛定谔的猫,大家都听说过,它同时既是活的,也是死的。现在追随薛定谔的科学家也是在一种怪异的状态,同时高兴又惊骇。薛定谔思想的实验现在进入创造量子计算机的时期,希望能做一些传统计算机不能做的事。 2014/2/17 时代 杂志封面 无穷机器 ,说它能解人类大部分复杂问题。此后许多杂志跟着这么夸张。科学家们希望表明量子霸权,即系统可以解决已有传统计算机内存和处理器无法处理的问题。实际上, Google 算法运行并没有什么实际意义,不过是超出了目前传统计算机的范围。 建造量子计算机来解决现实世界的问题还需要许多年的研究。 Google 和 IBM 搞量子计算的工程师们说:量子梦境机要解决令计算困惑的问题也许要几十年以后。即使在那时,也没人期望量子计算机会取代传统计算机。目前所有的量子计算机都是和传统计算机一起完成预处理和后处理的步骤。许多传统计算机可以很快执行的编程任务在量子计算机上可能更慢,即使与量子计算机配合的软硬件均已齐备,也是如此。 在美国标准与技术研究院( NIST )多年研究量子后来转到微软的 Stephen Jordan 说:量子机器只对用今天的计算机需要大量资源投入的一类计算任务有用。 量子计算机的想法源于 1981 年诺奖获得者、物理学家 Richard Feynman 的一次演说。他指出了用亚原子颗粒去模型化其他亚原子颗粒的形态的可能性。但是,一个关键的出发点是 Peter Shor 的一篇文章。他后来到了 ATT 贝尔实验室,现在 MIT 。他说如果量子计算机可以建造出来,它可以找到大数的质因子,从而战胜通常使用的公钥密码系统。这种计算机将基本上打碎因特网。这就开启了量子密码的研究。美国安全部门很快就开始研究量子硬件。过去 20 年主要是政府花掉了几十亿美元。现在这个技术已经接近商业化,风险投资也已介入。所以,目前对量子的大肆宣传并不奇怪。 量子计算机怎么工作呢?大家知道,量子的状态不是用 0 和 1 能表达的。量子计算机建基于量子位,它是一个量子对象,有无穷个状态,与是 0 或 1 的概率有关。任何东西,譬如电子、光子,只要带有量子性质、能隔离、能控制,就可以作为量子位。 当量子位装入计算机,它就得接触某些机构,能给它传递电磁能量。为了运行一个特定的程序,计算机用一个精心设计的序列,譬如微波传送,以一定频率在一定时间去推动量子位。这些脉冲对应于量子程序的指令。每条指令使量子位的未测量状态用特定方式卷入该过程。这些脉冲运作并不是针对一个量子位,而是针对系统中所有量子位,各量子位接收到不同的脉冲指令。量子计算机中的量子位通过一个所谓纠缠的过程进行交互,就像说话,联系着它们的命运。量子计算机的研究者们关注的重点是任何用量子位有序状态的变化去完成有用的计算。成千上万的脉冲之后,程序完成,测量量子位得到计算的最后结果,从而使每一个量子位变成 0 或 1 ,波形函数变成了量子机械。 这个过程很工程化,但必须保证在计算过程中量子位不被干扰。做到这一点非常困难。这就是为什么搞了这么多年,还只能做一二十个量子位,完成最简单的算术运算。由于干扰,量子位极易发生错误。因此,量子位必须有冗余的备份。当一位出错时,能用备份位纠正之。这种差错校正在正规的计算机里面也有,但备份位的数量在量子系统中就多得多。工程师们估计,在可靠的量子计算机中。每一个量子位需要 1000 个备份位,或者更多。因为许多近代算法一开始就要上千的量子位,所以,有用的量子机器可能需要上百万的量子位。 最近宣布的 Google 量子计算芯片只有 72 个量子位。能不能有用就决定于它们的差错出现率有多高。 Google 的量子计算机团队的先锋是 2014 年从加州大学圣巴巴拉分校招来的。去年 11 月 IBM 宣布他们做了 50 量子位的计算机, INTEL 宣布做出了 49 量子位阵列,还有新开的在加州伯克利的 Rigetti ,都依赖于特殊设计的芯片,用虚拟的超导电路环路使之具有了量子性。这些芯片必须保持在极低的温度下,冷却机制变得非常复杂,就像好莱坞的科幻电影道具,制造一个小系统。杜克大学物理学家 Jungsang Kim 和马里兰大学的 Christopher Monroe 新开一家公司 IonQ ,用完全不同的量子硬件结构。一个量子质点,即离子,悬浮在系统中,工作在室温下。他们用镱离子做了一个机器。微软追求第三条途径,叫拓扑量子计算,有理论承诺,但没有建造出硬件。 所有这些系统都没有做出被公众接受的与量子有关的计算平台。加拿大的 D-Wave 系统已经安装在大公司里面,譬如 Google 和 Volkswagen ,但是,从量子计算的领域专家看来, D-Wave 系统不能做任何传统计算机不能做的事,也没有达到任何量子加速。 看来 Google-IBM-Rigetti 的超导路线在硬件竞赛中占了上风。但是,不知道哪一种会最终取得胜利,或者三种都能并存。量子编程者并不在乎谁获胜,只要量子位好用就可以了。 量子计算的未知之一是机器增加量子位能有多快。对于传统的计算机技术,摩尔定律保证两年晶体管数可以翻一翻,但是,带量子机器的复杂电子却没有如此的预测。许多工程师预期在最近的将来,可能会有带少量量子位的机器,譬如几百个量子位。因为光是基本显示量子权威的机器可能提供不出什么有用的结果,而成熟的系统可能在许多年以后。所以,工程师们关注适当大小的量子系统上的算法能够在近期实现。有人怀疑:量子计算机是否能够在近期内解决现实世界的问题,或者用它来赚钱。我们需要更大的系统。 自从 MIT 的 Shor 开发了提取因子的算法,量子计算就与密码学紧密联系起来,但是,废除因特网的密码技术,使量子领域意识到 Shor-worthy 机器还有很长的路要走,而且,后量子密码学还要对任何量子攻击不受影响。现在 NIST 正在评估各种后量子密码方案。 最近研究人员不只关注加密技术,在 Feynman 关于量子计算原始想法的指引下转向研究用机器模型化原子和分子。在 NIST 量子算法 Zoo 里面模拟物理和化学,但代价比较高,譬如想象超导金属在室温下会怎么样。 非理性的繁荣应该防止。马里兰大学物理学家和计算机科学家 Andrew Childs 预言,第一代量子计算机只能处理相当简单的物理和化学问题。你可以用几个比特位回答凝聚态物理里的问题,但是,弄懂高温超导就需要很多比特位。 有了量子计算机,就要有越来越多的优化,实践的程序员得到实惠越多,他们的算法就会越好。这就是为什么 IBM 的量子机器放到网上,让研究人员随便改。我们需要可用的量子机器和算法的改进,需要上万的学生来促进这一领域。经典计算已经 100 年了,我们不希望还在电子管时代。希望还在,但路还很长。看下面的图片即可略知一二。 图 1 : IBM 和 Google 的量子计算机需要冷却到接近绝对零度才能工作,此冷却是用一个稀释冰箱。下面是其框图。 图 2 :谷歌是用超导量子处理器,譬如下面的 22 个比特位排成两行。 图 3 : IBM 用 16 比特位量子处理器去驱动 IBM 公用平台,探索量子计算。 图 4 :去年一月, INTEL 宣布制造出 49 量子位的超导量子计算处理器,被称为 Tangle lake 。 图 5 : 2016 年 IonQ 演示一个可以工作的 5 量子位计算机,用激光处理设备中的镱离子阱。 图 6 :在加州伯克利刚开张的 Rigetti 最近开始制造 19 量子位超导处理器芯片。
个人分类: 计算机|6570 次阅读|8 个评论
互联网时代的数据情缘(1)
热度 4 uestc2014xiaoyu 2018-4-3 07:56
前记: 这篇或者即将的这系列博文,主要是缘于我们学院一帮可爱的孩子,在联络一些老师做些关于大数据、人工智能等的科普文章,所以才写,既然写了,也想分享给大家。 其实受邀给大家分享一点儿对于这个时代的标签之一——“大数据“的见解,我是诚惶诚恐的。因为众多的大咖都在布道、躬身实践,唯恐自己的浅薄认知,让人贻笑大方。不过想到知识的包容性,也就释然一些。今天我就以自己这几年对数据的应用认知、基础理论发展脉络的把握,和大家一起聊聊我认为的数据,数据分析与挖掘的核心问题,以及什么是数据价值再造,如有偏颇,欢迎大家批评指正。 2013年9月,我与国外导师Kang L. Wang教授辞行、谈及未来规划的时候,他像孩子般率真微笑道“Yu, do you know the Big Data?”哈哈,说实话当时我有点儿懵圈了~大数据?难道就是直译大数据?还是一个更加专业的术语?“Sorry, I’ve no idea. Professor, is there any story?”随即,王老师给我讲了一个美国FBI的例子,又讲了一个发生在UCLA的故事,这些都是他眼中的大数据。他还说,现在国内big data已经很火了,建议我回去可以好好思考。例子的具体细节不是很清楚了,但是大体明白就是美国也有所谓的大数据,但是他们并没有上升到一个十分夸张的万能概念角度,而是有很多实实在在的应用,更多是为了保护国家的信息安全,等等,诸如此类。这是我生平第一次与大数据有交集。 随后回国,准备博士毕业,申请留校等工作。至次年2014年3月份,留校已经敲定,可以正式留在信软学院嵌入式实时计算团队,去见团队负责人雷航教授的时候,他语重心长对我说“晓瑜,你的博士研究方向量子计算和量子电路综合,很显然工作后将不能继续了,因为团队没有这方面的任何储备。你需要有大局观,站在团队的发展规划上,重新立意自己的研究方向……现在团队有这样几个方向:嵌入式操作系统、大数据、图形图像等,你需要考虑一下选择哪个?”其实这几个都不是我擅长的,第二次听到“大数据”已经不觉得陌生了,至少已经出现过一次了,我当时鬼使神差般回答道“雷老师,我就选大数据吧~”哈哈哈,人生很多时候就是各种戏剧,各种无常,似乎这才符合人生! 就这样我开始真正结缘、走近、认知、熟悉大数据,也开始真正的作为一个参与者而不是旁观者,来审视、建设、推动、批判这个新兴的交叉学科研究方向。一直以来,我都觉得自己有一个很强大的性格特质,那就是“随遇而安”而又适应性极强,最重要是总能活下来,姑且这是自我阿Q的一种精神激励法吧~就像从本科的EE到研究生的CS,再到博士期的Quantum Computing,自己还是自得其乐的。当然,这期间也会遭到质疑,这样会不会不够专注?会不会在哪个阶段就毕不了业呢?其实,我还真的没有想那么多,只是觉得喜欢,或许就是无知才无畏,无畏才有更多的创造力! 从2014年开始,可以称得上是我的大数据元年,我开始穿梭在国内顶级的几个大数据国际会议现场活动中,开始大量快速的阅读和大数据相关的新闻、图书、paper,其实只要你肯花时间,找到关键点,很快就能切入。我用了半年的时间,对于国内大家对大数据的认知程度、大数据的发展现状、大数据在产业界、学术界、政界等的天花板也了解的七七八八。随后,就开始深入建设我们自己的学术科研队伍,我们几位老师和学生给我们的大数据小组取名SunData Group(尚数据工场)。队伍从一开始只有2位老师、2位本科生;到1年后,我们有3位老师、5位研究生、10+位本科生;再到现在的5位老师、5位博士生、30+研究生、100+优秀本科生。这个成长速度和我们自身的努力分不开,但是还远远没有驻足,因为我们只是完成了长胖的过程,还没有完成长高、健美的过程。和大家分享这些经历,主要是想告诉大家,大数据,离你我并不远,也不神秘,只要你愿意,你也可以像我们一样,快速融入,并能深入和升华。 好,我们言归正传。今天主要和大家探讨如下几个问题: 1、什么是数据,什么是大数据 数据某种程度上是对我们周围的物理信息世界的一种符号抽象,所以数据包罗了各种信息,有用的、无用的、有序的、无序的、显式的、隐式的……同时与数据千丝万缕扯不清的两个概念就是:信息与知识,在我个人看来,数据好比原石,信息好比初步磨出的翡翠,而知识则是经过精雕细琢之后的一件翡翠艺术品。 自2003年世界进入大数据元年开始,各种机构、各路学者陆续给出了对大数据的解读,最后大家初步形成共识的是,大数据的4V+O特征,分别对应了:volume(体积,数据尺度大)、velocity(高速的数据in and out)、variety(数据类型的多样化)、veracity(数据的准确性)、online(线上数据实时性等)。其实有些场合我们也会增加一个V,那就是value(价值),因为无论是数据科学处理的终极目标,还是大数据处理的最终结果,如果没有价值体现,这项工作都将毫无意义。 说到大数据的首要条件就是数据量大,那么究竟多少算得上是大数据呢?我们知道不同行业领域的数据,其尺度存在较大的差别,比如社交媒体产生的数据量就远远超过我们高校学生数据。因为社交媒体含有大量的音频、视频、图片等大容量文件,而高校学生服务数据,多以电子表格、交易记录等为主,数据量基本以KB起,而前者动辄几百个GB,甚至达到TB。所以这几年学术界和产业界呼声较高的一个界定,基本上在PB级或PB级以上才算得上大数据尺度。数据的容量尺度为:KB à MB à GB à TB à PB à EB à ZB…… 同样大数据由于其多样性,也决定了大数据处理的时候,面临的数据类型不再是单纯的结构化数据,还有更多的半结构化、非结构化数据,如我们读的报纸、看的视频、听的广播和歌曲、拍的照片等,这些都称为非结构化数据。所以,大数据处理除了面临数据类型的挑战,还有就是关于海量数据存储的问题。其中,云存储与分布式文件存储等技术,有效的解决了这一问题。大数据时代的来临不是偶然,而是其他方方面面的技术发展带来的必然结果。试想二十年前信息高速公路刚刚提出来的时候,没有想到数据爆炸如此迅猛,自然,数据尺度很难达到所谓的“大”;十年前如果没有云计算技术的落地,今日如此海量数据,该如何存放,又该如何快速计算;近些年如果没有深度学习、机器学习、神经网络等核心技术算法的快速发展,如何支撑大数据的应用落地,等等。 2、大数据的核心问题 说到这里,不得不把大数据的核心问题单独拿出来与大家探讨。与传统的概率统计、机器学习相比,大数据处理有这样几点是需要我们初学者明确的: (1)全体数据,而不是样本数据 大数据研究的是全体数据的问题,而不是抽样样本的相关问题。这一点就决定了数据越多越好、数据越全越好,因为只有这样才能更加接近大数据的全体数据,才能更加接近事物的真相和本质。 (2)关联关系,而不是因果关系 大数据研究的是数据间的关联关系,而不是传统的因果关系。因果关系我们很明确,就是有这个结果,一定有导致其产生的原因,这个因果关系在辩证唯物主义上是普适的,是大家认知所接受的。然而,关联关系是完全无关因果的一种逻辑,正如大家耳熟能详的“啤酒与尿布的故事”、“蝴蝶效应”等。我们通过发现凡是购买了尿布的消费者,一般也有很大的概率购买啤酒这一有趣事实,来指导超市的货架展销策略,将尿布和啤酒放在靠近的区域,进而提升了销售额。这里你就很难说,因为他买了尿布,所以他又买了啤酒;我们只能说买了尿布,进而买啤酒的概率很大,二者有一定的关联关系。这就是突破我们传统认知的关联关系,也是我们要开始进行大数据处理必须学习的。 (3)预测而不是断定 当然了大数据是有很强大的功能,帮助我们挖掘很多隐藏在数据背后的真相,但是它也不是万能的!就好像我之前在博客里提到的一本网络小说《当我谈论算命时,我想谈的是大数据》,暂且不论这本书是否严谨,但是大数据的核心问题之一,与之有异曲同工之妙。大数据处理、分析、挖掘,最后的结果都是对下一步,或者之后即将发生事情的一种预测,既然是预测就无法做到百分百准确,总是存在概率问题。这一点就有点儿不同于传统的统计分析,并不能够准确给出事物发生的条件概率。甚至通过某些参数的调优工作,只能无限逼近,却永远无法到达。既无奈,又让人执着! (4)决策支持是价值体现 大数据处理的终极目标是实现对决策者的客观第三方辅助支持,那么这就回到了所谓的人工智能中真正的智能决策问题上,这个open question,至今也是争论不休。何谓真正的智能,何为人工智能?对于这两个问题,我们今天暂且不去过多讨论。 首先看下大数据预测与决策支持的问题,我们知道大数据一定是面向于行业和领域应用的。因为很多时候,抛开数据背后的业务逻辑,我们是无法解读出更多数据隐含的信息的。那对于数据分析师而言,既要理解业务逻辑,同时又要能够将数据分析、挖掘的结果,作为一个有利的辅助支撑材料,提供给决策者,以便综合做出最优的决策。大数据处理的价值体现,就在于提供的这个决策到底能起多大的分量。 由于时间和篇幅的有限,下一篇,我们将一起笑谈数据分析与数据挖掘处理的几类核心问题,同时聊聊大数据与物联网、云计算等的关系。
个人分类: 量子机器学习|22725 次阅读|12 个评论
[转载]微软重大突破:一个稳定的量子比特强过1万个普通量子比特
quantumchina 2018-3-29 15:40
微软的量子计算突破终于来了!研究人员今天在Nature发文,给出他们发现天使粒子—— 马约拉纳费米子(Majorana fermion)存在的有力证据,他们在特殊制备的导线中,将电子分为两半。 这项工作意义重大,至少在人工制备/调控、操纵量子态领域取得了巨大进展,有助于量子信息科学发展和应用。 就在刚刚,微软宣布了一项量子计算的重大突破:在一条导线中,电子分为两半。 微软的研究人员观察到被称为“天使粒子”的 马约拉纳费米子(Majorana fermion) 存在的相当有力的证据,电子在他们的导线中分裂成半体 。 如果微软希望建造一台能工作的量子计算机,这将是至关重要的。 IBM、谷歌、英特尔等大公司(甚至还有一些初创公司)已经造出具有多个量子比特的量子计算机。微软看起来是落后的,它甚至没有产生过一个量子比特!但是,微软正在研发自己的量子计算机,它结合brain-melting的物理机制,克服了困扰竞争对手的一大挑战。如果一切顺利的话,这将是一个非常重大的突破。 这是物理学家用来发现Majorana粒子最清晰信号的装置。中间的灰线是纳米线,绿色区域是超导铝条。 Credit: Hao Zhang/QuTech 量子计算机是以量子物理学为基础的计算机,即研究微观粒子的物理学。量子计算机被用于执行普通计算机很难或不可能完成的计算。虽然谷歌有报道过72量子比特的计算机,但这些都是不精确的的量子比特。来自外部环境的微小震动或能量都可能导致计算错误。但微软的“拓扑”量子计算机可能能够大大降低噪音。微软的研究人员今年取得了一系列重要进展,包括今天发表在Nature的论文。他们认为, 将在今年年底前得到可工作的量子比特 。 微软量子计算业务发展总监Julie Love几周前接受采访时说:“ 我们的一个量子比特将会有1000个、甚至10000个嘈杂的量子比特那样强大。 ” 计算机以比特(bits)作为计算单位,即二进制位,例如一枚硬币,可以是正面,也可以是反面。一个量子比特(quantum bit),或称量子位(qubit),也是一样的,只不过在计算过程中,硬币是在一个黑盒子里翻转。你可以在硬币的每一面设置一些初始值,例如高中学过的a+bi这样形式的复数。在操作时,输入硬币是正面或反面的概率。只有打开盒子,你才能知道硬币的值。计算是通过将几个硬币同时放在盒子中,并以某种方式让它们相互作用,以让上面的初始值发生数学上的交互。现在,输出就跟所有的硬币相关,使得某些正面和反面的组合的概率更大,其他组合的概率更小。 这个系统可以用于很多事情,例如高级化学模拟、人工智能等。但关键是找到一种 量子的“正面和反面”系统 ,在这个系统中,两种状态可以形成 叠加 (黑盒子)、 纠缠 (将硬币捆绑在一起)和 干扰 (硬币在盒子中纠缠时,概率发生变化)。你还必须找到另一个系统,在这个系统中,即使你推动(nudge)了盒子,硬币也仍会继续翻转,或者找到一种方法构建冗余(redundancies),以弥补这种推动。 微软的研究人员认为, 克服这个问题的关键是 拓扑系统(topological system) 。这是一个工程系统,无论你如何改变它,都会保留一些固有的特性。这些特性即 拓扑对象( topological objects) 。 研究人员首先需要构建他们的拓扑对象。微软专门制造了一条由锑化铟制成的半导体导线,并用超导铝包裹。在磁场中,将这条导线冷却至接近绝对零度,使电子形成一种集体行为,该行为迫使某些电子特性呈现离散值。 拓扑量子比特的示意图 via :微软 量子信息将被存储在这个系统中,但不是存储在单个粒子中,而是存储在整条导线的集体行为中。在磁场中操纵电线,可能会使电子的一半,或者更准确地说,是一半要成为电子但还不是电子的粒子,位于两端中的任意一端。这些所谓的马约拉纳费米子或马约拉纳费零模(Majorana zero-modes),受系统的集体拓扑行为保护,你可以在电线周围移动一个,而不会影响另一个。 这些马约拉纳零模也构成两个量子比特状态。如果你把它们放在一起,它们要么变成零,要么变成一个完整的粒子。 这就是今天微软科学家所报道的进展: 他们观察到这些马约拉纳零模存在的相当有力的证据,电子在他们的导线中分裂成半体 。 本质上说,微软开发了一个由原子组成的系统,这个系统看上去在两端都有一个电子的一半。当你移动其中一个电子半体时,他们的特殊设置不会因为量子噪音而坏掉。把这两个电子半体放在一起,你就会得到两个量子比特状态之一:是,或者什么都不是。 但是,这只是创建了一个不太静态的系统。要实际进行量子计算还有更多的事情要做。 “我们需要让两个马约拉纳子在彼此附近移动,这样交换所产生的效果应该显示非阿贝尔统计,”微软和代尔夫特理工大学研究员Leo Kouwenhoven接受Gizmodo采访时说(译注:非阿贝尔任意子由于其特殊的统计规律,在拓扑量子计算中有重要的应用)。 我们需要以某种方式实际操纵马约拉纳粒子。 所谓“非阿贝尔”,意思就是如果你在马约拉纳粒子上执行两种不同的操作,改变操作的顺序,将返回不同的结果。打个比方,如果你把手机往左转,再往右转,会得到一种结果;但是,如果你把手机先往右转,再往左转,就会得到另一种结果。这就是一组非阿贝尔行动。简单说,如果你用不同的方式交换马约拉纳粒子,你可以得到不同的测量结果。 从技术上讲,至少需要这样4个马约拉纳粒子来做量子计算。假设所有4个粒子都安排在“H”的四个角落,中间由两条特殊的导线相连。先交换上面两个马约拉纳粒子,然后交换下面两个,测量到的结果会跟先交换下面两个再交换上面两个不同。 这种交换动作称为编织(braiding)。基本上就是上面谈到的,在黑匣子中捆绑在一起的硬币。它必须是非阿贝尔的原因,是物理定律规定,每个粒子都是完全一样的。所以,用普通的电子建立这个系统并交换它们,不会留下关于以前发生的事情的任何知识。但是,用这些马约拉纳粒子的非阿贝尔性,意味着它们保留了之前发生的事情的记忆,这可以让研究人员分辨量子比特,并且计算它们。 拓扑量子计算机(Topological Quantum Computer)的优势在于,它对外在噪声的抵抗力比普通的量子计算机更强,更具鲁棒性。 最近几年,随着‘拓扑量子计算机’概念的出现,马约拉纳费米子受到了广泛的关注。 研究人员尚未通过实验展示编织,但微软量子研究公司副总裁Todd Holmdahl表示,他们希望在一年内实现这一发现。 Kouwenhoven说,重要的是要注意,这些拓扑量子比特还不能完成其他量子比特能够做的所有事情。如果把两个量子态所有可能的组合,看做一个球体上的点,这些交换操作不能击中球面上的每个点。但是,Kouwenhoven暗示,“我们有一个计划。” 没有参与研究的物理学家们对此感到兴奋,原因有几个。伊利诺伊大学厄巴纳 - 香槟分校物理系副教授Smitha Vishveshwara告诉Gizmodo说:“我认为这篇论文很重要。”她认为要做到编织(braid)还需要一定时间:“许多步骤仍然必须落实到位。但每当确认新的一步时,我都觉得这很刺激。” 她对物理本身同样兴奋。这些“马约拉纳粒子”最初被推定为以自身反粒子的形式存在于自由空间中。目前在自由空间中还没有发现马约拉纳粒子,但在像这样的系统中发现他们的模拟是很酷的。 毋庸置疑,微软已经投入数百万美元用于发现高度工程化系统中的新物理,以便让量子计算机发挥作用。这也从某种意义上说明,为什么微软还没有做出来相互作用的量子比特,但一直在开发量子硬件,以及量子计算机软件开发套件的工作。 微软有信心,如果它能够把所有东西都运转起来,它将拥有最好的能力,并且能够快速赶上竞争对手。 “我们有一个稳定的量子比特,比其他人的更稳定,”Love说。 “你可以用砖块建造一座房子,但砖是造不出摩天大楼的,我们的量子就像钢铁一样,能建立起高楼大厦。“ 相关研究发表在最新一期Nature杂志。 值得一提, 这项工作的三位联合一作,两位是华人, 分别是张浩、Chun-Xiao Liu和Sasa Gazibegovic。其中,张浩(下图)本科毕业于北京大学物理系,在杜克大学取得博士学位,现在TUDelft做博士后。Chun-Xiao Liu也是华人,所属机构是马里兰大学。 Nature论文:https://www.nature.com/articles/nature26142 Gizmodo原文:https://gizmodo.com/how-will-microsofts-wild-electron-splitting-topological-1824142429 来源链接: http://www.sohu.com/a/226657012_473283 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子计算|1353 次阅读|0 个评论
[转载]IBM:五年内量子计算将走近大众和课堂
quantumchina 2018-3-20 12:59
  5年之内,量子计算的影响范围将超出研究实验室。量子计算这种新的计算方法不再局限于科学界,而是被新的专业人员和开发人员广泛使用,用来解决曾被视为无解的问题。   量子将成为大学的一门常见课程,甚至还会出现在一些高中的课堂上。学生可以通过计算机科学、化学以及商业课程了解这项技术,并在毕业之后从事与量子计算相关的工作。量子计算将被融入到各种课程中,并且成为参与全球科学和工程项目的必备条件。如果没有接受量子相关的教育,学生将无法毕业。全球每所大学都将开设量子计算的课程,并通过在云端的量子计算机上运行的真实试验来培训学生。   业内将出现新的开发人员群体。计算机科学课程的“编码”概念中将有一个量子专题。人们将同时学习量子算法与信息理论中的经典算法。   未来5年,随着大众对量子计算相关知识的逐步了解,量子计算将进入商用时代的初期。在这个阶段,量子计算技术及其早期应用案例将快速发展。早期案例可能会利用量子计算来准确地模拟越来越大的分子和化学反应,帮助我们加快研究速度,开发出未来的新材料,更多个性化的药物,或者发现更高效和可持续的能源。   IBM 研究人员最近在量子化学领域取得重大进展,使用量子计算机成功模拟了氢化铍 (BeH2) 中的原子键合;这是通过量子计算机模拟出来的最复杂的分子。未来,量子计算机将继续解决更为复杂的问题,最终赶上并超越我们在只使用传统计算机时实现的成就。   5年之内,业界将发掘出量子计算机(与传统计算机一同使用)的用武之地,用它来帮助我们解决特定的问题。最先尝试的一批企业无疑将在量子计算时代获得明显的竞争优势。   未来,量子计算机将不再神秘。随着我们对量子计算的理解不断深入,以及这一技术逐步渗透各个行业和教育机构,大众将迎来新的时代。有关量子计算的概念和词汇表将不再含糊不清,继而成为主流语言的一部分。围绕量子计算的对话将变得很常见。每个人都会知道一个量子位是什么 - 或者很熟悉这一概念。 来源链接: http://tech.sina.com.cn/d/2018-03-19/doc-ifyskeuc4155847.shtml
个人分类: 量子计算|1534 次阅读|0 个评论
[转载]北大教授蔡剑:量子计算突破很快,区块链不改造可能失效
quantumchina 2018-3-16 21:14
来源:人民网   近日,北京大学光华管理学院管理实践教授蔡剑在清华MBA学生加密经济学俱乐部沙龙上进行分享时表示,虽然这个量子计算机目前(体积)还是很大,但是这个技术很快就会突破,现有的区块链技术如果不改造可能就会失效,很容易被解构和重构,也将可以做假。   蔡剑还同时指出,对区块链和比特币的争论把一个好的技术和一个代币等同起来,是有问题的。区块链是一种好的技术,但好的技术如果被错用,可能更会大量超发货币引起通货膨胀。 区块链这种技术的价值是需要整个社会体系里面在区块链之上有一个社会货币定价的准则 。   他还表示,一个货币当中如果不能根据市场的价格增加货币供应量,是很差的货币,会出现通胀紧缩,被人囤货。当被锁定的代币快速进场交易之后,目前持有的那些用户可能一夜之间经历币值大跌。 而且,政府监管措施的出台,有可能会让ICO所发的代币一夕之间被打回原形,成为旁氏骗局 。   以下为演讲内容(有删改):   今天讲的只代表个人不代表任何组织,这个题目我没有答案,希望在座同学们提供答案,一块来探讨。区块链、代币背后影响了我们过去好几个学科的基础假设,都在这几年当中受到了质疑,现在不只是经管学院焦虑,计算机系也焦虑,可能传媒学科也焦虑,这是一次整个科学范式的改变。   区块链对经济学的影响   从科技哲学来讨论,讲几个例子:第一个,在经济科学里面,区块链把过去长期使用的货币概念颠覆掉了。因为我们经济学关注两个概念,一个价格,一个价值。过去价格是基于货币,这个货币我们默认是国家法定货币,在这个基础之上才建起来经济学整个宏观的大厦。现在出现了自发货币之后,经济学家开始茫然了,没有考虑到这样一个现象:每一个公司、每一个社群都可以发行自己的数字货币,这样我们所谓研究的变量就会非常复杂,过去很多模型就不好解释了。   举一个简单例子,最早马歇尔讲经济学里面的定价,商品经济情况之下是一个供求曲线,这个是经济学的定义,教科书里面讲的二维的分析,需求和供给取得了一个中间市场的均衡价格。但今天就不是一个二维图了,关于这个定价,就会有上万种的货币可以去定价的,出现了超级货币市场,这是个题目。这是第一个区块链对经济学的影响。   过去讲货币是什么,为什么谈比特币和区块链的争论?我觉得应该做一个辨析,我们是否犯了一个基础错误,把一个好的技术和一个好的货币等同起来?这是有问题的,区块链是一种好的技术,是一个好的“印钞机”,但好的“印钞机”如果被错用,可能更会大量超发货币引起通货膨胀。津巴布韦货币最大面值一百万亿,只能买一筐鸡蛋。但津巴布韦在纸币印刷技术跟人民币差不多。所以好的货币一个前提条件是要稳定币值,我不希望明天出去以后滴滴打车,包括我们生活服务价值每天涨50%,这肯定不是好的货币,不是好的市场。但我也不希望这个价格每天跌50%,也不是好的市场。   所以区块链产生比特币以后,比特币的增值并不是因为比特币本身含义增值,比特币是一个媒介,媒介本身没有价值,是因为这个概念的增值,因为我们讲互联网当中一直谈论互联网商业模式,很多人说怎么看商业模式,看待经济价值,实际上很多时候看的是流量,流量本身背后代表并不是点击有价值,而是社会知名度,社会知名度就像荷兰的郁金香,是通过口碑传播出去的。我们说是一个网络,还不是完全网络,是一传十十传百的病毒式的传播,基本上很多公司,很多股票,很多价值事物,当80%人都认定它有价值的时候,意味着他开始准备崩盘了,区块链是这样,比特币是这样,乐视股票也是这样,荷兰郁金香过去也曾经是这样的,过去我们炒的邮票也是这样,只要它能够进入到一个网络化的传播的场当中,都会有这样一个情形产生出来,这叫价格和知名度对比。   几年以前我就判断,说区块链这种技术是好的,但是它的价值是需要整个社会体系里面在区块链之上有一个社会货币定价的准则,这个准则目前不掌握在区块链或者比特币这群人手里面,还是掌握在经济学家,或者是中国人民银行这样的决策者手中,目前区块链理论还没有突破。   量子计算对区块链技术的影响   区块链技术出现以后,我在思考,到底会出现什么样的结果,区块链背后是一个叫层层加密的打包算法,这相当于每个人都要钥匙放在钥匙里面,这个钥匙里面带着钥匙,所以你要把这个钥匙破解的成本非常高。一个好的货币技术一定要提高破解成本,降低识别真假的成本。中国宋朝当时白银出了问题,白银当时鉴别真假成本很高,几钱银子搞一小时,但是白银破解成本很低,做假成本很低,这就是差的货币。实际上今天的区块链是一个好的技术,降低我们识别真假的成本,人们都相信它,用技术很快计算出来,同时增加了破解成本,这是区块链作为货币技术的两大假设。   但今天区块链有一个重大假设也已经立不住了,比如说区块链是不是不可以被攻破?量子计算机已经出现了,可以在一秒钟当中把这个链重解再重构,可以做假的。这个技术已经宣布,准备量产了,虽然这个量子计算机还是很大,但是很快这个技术就会突破。五年以后我们可以判断,现有的区块链比特币的技术如果不改造的话,它可能就失效了,是可以被做假的。你想一想,如果这个加密技术有人把钥匙轻易破解以后,整个货币技术还有意义吗?没有意义了,那个时候就相当于每个人不但有比特币,每个人还有自己建的印钞机,在自己家里面,如果出现这种情况,这个系统又崩塌掉了,所以我是不看好比特币这个技术。   量子计算与区块链背后的线性计算用传统CPU(1010这样分解集数算法)的根本区别是什么?量子计算是用量子干涉,这边是20个量子,那边20个量子,它们进去以后互相交涉,出来以后甚至计算设计者本人也不能来得及想里面是不是科学,就信就好了,因为宇宙当中追寻最小作用原理,你只要相信这一条就相信他计算出来的结果,就可以做分析,原来你可能花好几天时间,现在它可以一秒钟给你算出来,就是这样一个结果。这个结果原理是不一样的,是用量子生产,有一个测不准原理,测不准反而是更高层次的一种计算方法,最近我们研究提出每个人心智都带有量子计算特性,只不过我们意识不到,这种感觉和直觉定量化了。   所以区块链并不是单纯的金融技术,它警醒了我们,计算机要改变。现在这一步当中核心知识产权和IP,很多还在竞争当中,所以华为和阿里巴巴花了重金,上千亿争抢下一个高地。 来源链接: http://capital.people.com.cn/n1/2018/0315/c417685-29868762.html
个人分类: 量子计算|2089 次阅读|0 个评论
[转载]微软推出量子开发工具套件Mac/Linux版
quantumchina 2018-2-27 19:15
今天,据外媒报道,微软 刚刚宣布了“量子开发套件”(QDK)的首个重大更新。其于Ignite 2017大会首次亮相,并于去年12月迎来了首个公共预览。   本次更新的最大变化,就是支持用Q#在Linux和macOS平台上做开发。开发者们可以借助Visual Studio Code中的量子模拟支持,来构建他们的应用。微软表示,这是大家在预览时最感兴趣的一项功能。   其次,新版QDK支持Python互操作,毕竟许多开发者都有现成的Python库。如此一来,开发者们无需Q#移植,便能轻松上手。   此外,新版QDK包含了更多开源库。微软早前曾分享过这些库的源码,以演示工作原理。显然,该公司希望开发者们能够重用代码和做贡献,于是授权了这么做。   最后,新版QDK改善了仿真性能,速度提升达到了4-5倍,特别在涉及20个或更多量子位的模拟中。 来源链接: http://tech.sina.com.cn/it/2018-02-27/doc-ifyrvnsw9675050.shtml
个人分类: 量子计算|1335 次阅读|0 个评论
[转载]量子计算将为AI带来更多推动
quantumchina 2018-2-11 18:08
人工智能(AI)已成为了一个热门词汇,它的技术可以应用在各种不同的领域中。同样的,量子计算也引起了大家的兴趣,它可以说是一种技术上的“游戏规则改变者”——它能够在多种用途中提高 网络安全 ,甚至建立一个新的互联网。虽然在最近的发展中两者都有很大的进步,但都还没有达到我们所期望的那样完美。   对于AI来说尤其如此,它目前的形式主要局限于专门的机器学习算法,能够以自动化的方式执行特定的任务。根据新加坡国立大学量子技术中心的一组研究人员的说法,量子计算可以极大地改善这一过程。   在《物理评论快报》(Physical Review Letters)期刊上发表的一项新研究中,新加坡国立大学的研究人员提出了一种量子线性系统算法,该算法可通过量子计算机更快地分析更大的数据集。   “之前的量子算法只适用于一种非常特殊的问题,如果我们想要实现对其他数据的量子加速,就需要对其进行升级。”研究作者赵志宽(音译)在新闻稿中说。   简单地说,量子算法是一种被设计在现实的量子计算模型中运行的算法。与传统算法一样,量子算法是一步一步的过程,然而,它们使用了特定于量子计算的特性,如量子纠缠和叠加。   同时,一个线性系统算法使用一个大的数据矩阵进行计算,这是一个更倾向于使用量子计算机的任务。“分析矩阵有很多计算方法。当它超过10000个条目时,就很难用在经典计算机上了。”赵志宽在一份声明中解释说。    更好、更快、更强的人工智能   换句话说,一个量子线性系统算法提供了比经典计算机所能执行的更快更重负荷的计算。量子算法的第一个版本是在2009年设计的,开始研究人工智能和机器学习的量子形式。换句话说,随着计算能力的提高,人工智能的表现会更好更快。   研究人员在他们的研究中写道:“量子机器学习是一个新兴的研究领域,可利用量子信息处理的能力来获取经典机器学习任务的加速效果。”然而,这是否意味着会有更智能的AI,则完全是另一回事。   今天的人工智能系统和机器学习算法已经获得了大量的计算能力。这些算法通过相应数据集进行训练的过程肯定会得到量子计算的推动。   当然,在赵志宽先生和他的同事设计出的算法能够找到有意义的用途之前,我们首先要开发出更好的量子计算机。这方面做的所有工作,在这一概念成为现实之前,可能不会有任何进展。   赵亮在新闻发布会上说:“我们可能会在未来三到五年的时间里,使用由实验人员制造的硬件来进行有实际意义的量子计算,并应用于人工智能领域。”与此同时,他的团队计划在不久的将来进行一个小组实验证明。 来源: http://server.it168.com/a2018/0211/3191/000003191883.shtml 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子机器学习|1146 次阅读|0 个评论
[转载]量子计算将促进强人工智能
quantumchina 2018-2-11 18:03
在上个月底的《麻省理工科技评论》新兴科技峰会上,MIT计算机科学和 人工智能 实验室教授Tomaso Poggio谈论了目前人工智能领域发展现状的看法,“现在,我们所提及的人工智能并不是真正的人工智能。” Tomaso Poggio教授在演讲中表示,当前的 AI 仅解决10%难题,90%要借助神经认知学科。同时,这位教授还认为当前人们所谓的“人工智能”技术根本就是错的,因为从生物学层面上根本就说不通。他对比表示,“人工智能”通过数百万次训练才分清了猫和狗的区别,但即便是婴儿时期的人类大脑也无需这么庞大训练来获得认知。 在Tomaso Poggio教授的观点之后,高通全球副总裁Charles Bergan也支持有相类似的观点,对当前人工智能研究进程表现出不满意。对于人工智能,商汤科技商汤研究院院长王晓刚也表示,当神经网络什么时候从上百层减到一层,与人脑相媲美的真正的人工智能就实现了。 北京大学信息科学技术学院教授黄铁军称,对于人类大脑的探索,从而令机器大脑拥有人脑的能力是一种“强人工智能”。是一种被学界认为具备自我意识、有知觉可以实现真正推理和解决问题的智能机器。黄铁军教授表示,要从机器大脑到强人工智能需要15到30年时间。 人类大脑经过5500年的演化,并成功创造了现代文明。因而人工智能的研究实质应该是对人脑的深度研究,鉴于当前人类大脑的构造及神经传输无法完整复制,人工智能的研究尚处于最初级阶段。 不过对人工智能来说好的一面是,计算机技术突飞猛进的发展。近期,新加坡国立大学量子技术中心的研究人员就宣布,通过量子计算就可以改善机器学习执行任务的局限性。通过量子计算机也可更快速的分析大数据集,随着计算能力的提高,人工智能的逻辑将表现的更好。 来源: http://www.qudong.com/2018/0211/467717.shtml 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子机器学习|1336 次阅读|0 个评论
[转载]中型量子计算(NISQ)及其应用
quantumchina 2018-2-4 14:48
选自arXiv 作者: John Preskill 「我们正进入一个量子技术新时代,我称其为『NISQ』。」加州理工学院理论物理学家、「量子霸权(Quantum Supremacy)」概念提出者 John Preskill 说道。在近期位于加州山景城 NASA Ames 研究中心举办的商用量子计算会议(Quantum Computing for Business)上,Preskill 认为,人类在即将实现 50-100 量子比特的中型量子计算机后,便可将其应用于探索更多现有经典计算机无法进行但更具开拓性的研究领域,也意为着人类即将进入一个量子技术发展的关键新时代,因此称其为「NISQ(Noisy Intermediate-Scale Quantum,含噪声的中型量子)」时代。Preskill 就该主题进行了主题报告,详细介绍了近期量子技术的应用前景,并表示学术界、产业界、投资界都不能对量子计算有过高的期待。会后 Preskill 将其演讲的内容整理成一篇论文并公布在 arXiv 上。机器之心重点编译介绍了该论文的第 6 部分「量子加速」的内容,包含 11 个应用方向,希望帮助读者了解在这个特殊的量子时代下量子计算即将创造怎样的应用,又将如何影响这个世界。 论文:Quantum Computing in the NISQ era and beyond 论文地址:https://arxiv.org/pdf/1801.00862.pdf 摘要: 不久的将来我们就能用上含噪声的中型量子(NISQ)技术。具备 50-100 个量子比特的量子计算机也许就能执行超越当前经典数字计算机能力范围的任务,但量子门中的噪声会限制可被可靠执行的量子回路的规模。使用 NISQ 技术的设备将成为探索多体量子物理学的有用工具,且可能还有其它更广泛的应用,但具备 100 个量子比特的量子计算机并不会瞬间为世界带来天翻地覆的变化——我们应该将其看作是向未来更强大的量子技术迈出的重要一步。量子技术学家应该继续为更准确的量子门而努力,并最终实现完全容错的量子计算。 6 量子加速 我想重点关注量子计算是否会有能被广泛使用的应用,尤其是能在相对近期实现的应用。关键问题是:量子计算机将在何时具备比经典计算机更快的速度求解问题的能力,以及针对什么样的问题? 至少在近期内,量子计算机很可能仍是大多数用户只能通过云端进行访问的专用设备。当我们谈论量子加速时,我们通常指量子计算机求解问题的速度比经典计算机更快,即使该经典计算机使用了可用范围内最好的硬件并且运行了可解决同一任务的最佳算法。(但可以说,即使经典超级计算机的运行速度更快,只要有例如量子硬件具有低成本和低功耗等优势,那么人们可能还是更倾向于使用量子技术。)无论如何,我们都应该意识到经典计算机的计算能力还会继续增长,预计未来几年内就会出现可用的超大规模系统(速度超过 10^18 每秒浮点计算(FLOPS))。量子计算机追赶的是一个正在前进的目标,因为经典硬件和经典算法也都在继续变得更好。 几年之前,我充满激情地谈到「量子霸权(Quantum Supremacy)」是人类文明即将迎来的里程碑 。我建议使用这个术语来描述这个情况:量子设备可以执行任何已有的(或可预见的)经典设备都无法执行的计算任务,且不管这个任务是否具有任何用途。我曾经试图重点强调现在是我们星球粗糙的技术史上一个非常特殊的时期,而且我不后悔这么做过。但从商业角度看,我们显然应该关注这些任务是否有用!量子霸权是一个值得追求的目标,但值得企业家和投资者关注的并不特别在于其本身的重要性,而是因为这是一个未来将近一步实现更有价值的应用的进展标志。 我们也应该记住,由于 NISQ 时代的技术的不完美表现,我们可能难以验证一台量子计算机给出的答案是否正确。对于物理学家尤其感兴趣的量子模拟问题而言尤其如此。所以继续寻找验证量子计算机输出的更好方法对于研究者而言是非常重要的。 6.1 量子优化器 我已经强调过,我们并不期望量子计算机能够有效求解 NP-hard 问题(比如组合优化问题)的最糟糕情况;但仍然可以相信(虽然无法确保)量子设备能够找到更优的近似解或更快地找到这样的近似解。比如,我们可能在 n 个比特上指定 m 个约束,然后求解尽可能多地满足这 m 个约束的 n 比特串。如果可以找到同时能被满足的约束的最大数量 k,那么也许可以说我们确实已经求解了这个优化问题;而且如果可以保证可满足的约束的最大数量 k,至少满足 k'(k'k),那么我们可得到一个近似解;近似率 k'/k 是衡量该近似解是否优质的方法。 对于某些优化问题,比如在近似率足够接近于 1 的情况下求出一个近似解也是 NP-hard 问题,而且在这些情况下,我们预计量子计算机也无法有效地为该问题的困难实例找到近似解。但对于很多问题来说,在我们使用目前已知的最优经典算法所得到的解的近似效果,距离解决 NP-hard 问题还存在很大的差距。所以不难发现:对于寻找近似解的任务而言,量子计算机相对于经典计算机而言存在优势——更多使用者也许会认为这个优势很有价值。 这个量子优势是否真的存在目前还悬而未决,但我们很快就将有机会使用量子硬件用实验方法来探索这一问题了。当然,就算在处理近似优化问题上量子优势确实存在,NISQ 时代的量子技术可能也并不足够用于展示这一优势;尽管如此,尝试一下,看看效果如何,也会很有意思。 使用近期的量子技术来求解优化问题已逐步形成趋势,这一新兴范式是一种量子与经典的混合算法。在这种方案中,我们使用量子处理器来制备一个 n 个量子比特的量子态,然后再使用经典优化器来测量所有的量子比特以及处理测量结果;这个经典优化器可以指示量子处理器微调 n 个量子比特量子态的制备方式。这个过程将重复很多次,直到其收敛到一个可以提取出近似解的量子态。当被应用于经典组合优化问题时,这个流程被称为量子近似优化算法(QAOA:Quantum Approximate Optimization Algorithm) 。但该流程也可被应用于量子问题,比如寻找多粒子量子系统(比如大分子)的低能态。当被应用于量子问题时,这个量子与经典的混合流程被称为可变量子本征求解(VQE:Variation Quantum Eigensolver) 。 所以 NISQ 技术在有运行 QAOA 或 VQE 算法下,能否超越寻找同样问题的近似解的经典算法?没人知道,但我们正打算尝试,然后看看我们能做到多好。这是个宏伟目标,因为我们用于求解这些问题的经典方法已经历了数十年的打磨发展,效果已经相当好了。另一方面,即使早期 NISQ 时代的量子设备还无法与最好的经典计算机媲美,实验结果也可能会激励我们期待看到 QAOA 和/或 VQE 在未来超越经典方法,从而近一步推动技术发展。 6.2 量子硬件测试平台的意义 经典计算的发展历史告诉我们:当硬件变得可用时,会刺激和加速新算法的发展。有很多启发式研究成果都是通过实验发现的,这些效果反而更优于理论研究者最初可解释的想法。我们可以预见,同样的情况也会在量子计算机上发生。 比如说,理论研究者最终解释了用于线性规划的单纯形法(simplex method)在实践中效果良好的原因 ,但很久之前人们已经通过实验发现它很有用。深度学习也是现今一个较具代表性的例子 ;对于深度学习效果良好的原因,我们目前还缺乏一个足够好的理论解释。在量子方面也是如此,实验也许能够验证启发式算法的表现,而我们并不理解它们有效的原因。对于我们正计划测试的量子优化算法,这种情况尤其可能出现。 但我要再次强调,NISQ 系统中不完美的量子门会严重限制它们的计算能力,因为带有许多量子门的回路可能会有太多噪声,以至于无法给出有用的结果。近期的实验将会探索我们能用 100 个量子比特和少于 100 层回路深度(即时间步骤的数量)的量子计算机做什么,也许使用的量子比特位数更少、回路深度更浅。量子算法设计者和应用用户之间的热烈讨论可能有助于指明有潜力的实验方向;类似于这次会议的一大重要目标就是促进和激励量子计算的商用前景。 6.3 量子退火 我一直都在强调:50 至 100 个量子比特是量子技术即将迎来的里程碑,但事实上我们现在已经有一种 2000 量子比特的量子设备了——D-Wave 2000Q。这个机器并非一种基于回路的量子计算机,而是一种我们称为量子退火机(quantum annealer)的设备,它使用了一种不同于量子回路的运行方法来求解优化问题,而且通常能成功求解这些问题。 但就目前而言,我们还没有令人信服的理论论证或可信的实验证据来证明量子退火机确实能够加速求解——相比于针对同样问题的运行最优算法的最优经典硬件算力 。这个情况有些微妙。量子退火机是我们所说的绝热量子计算的有噪声版本(比如对于 D-Wave 机器,使用的也是质量相当差的量子比特)。对于无噪声量子比特的情况,我们确实有一项理论论证表明绝热量子计算和基于回路的量子计算一样强大 。但是,这个论证表明,只有当绝热方法以一种需要付出更多代价的方式,即需要在具有额外的物理量子比特的环境中执行时,绝热量子计算和基于回路的量子计算之间的等效性才会成立;这与当前量子退火机所使用的方法相当不同。无论如何,这个形式论证仅适用于无噪声量子比特,而且(和基于回路的量子计算不同),我们没有很好的理论论证表明量子退火机是可扩展的。也就是说,在量子比特有噪声的情况下,就算我们愿意花费相当大的成本来增强有噪声下量子计算机性能的稳健性,我们也不知道如何证明量子退火机在问题规模扩大时还能继续成功地工作。 目前而言,量子退火机基本都应用于当退火过程处于 stoquastic 模式(哈密顿体系的一种,更常见于现实场景)的情况——也就意味着经典计算机能相对容易地模拟量子退火机所做的事情 。非 stoquastic 模式下的量子退火机很快就将出现,这在实现相对于最优经典算法的加速上可能有更大的潜力。 因为理论研究者仍未确定量子退火是否强大,所以还需要近一步的实验。未来几年使用量子退火机进行的实验很可能将提供丰富的信息。特别要指出,除了量子退火机在经典优化问题上的应用之外,在量子模拟问题上的应用也应该得到探索 。 6.4 抗噪量子回路 我已经着重指出最终我们将使用量子纠错(quantum error correction)来扩展使用有噪声量子计算机可靠执行的计算规模。但由于量子纠错机制具有很高的开销成本,NISQ 设备在近期还不会使用它。不过,寻找减轻噪声影响的方法可能是 NISQ 时代一个重要的研究方向。 人们可能会天真地认为,对于一个具有 G 个门的通用回路,回路中任何位置的单个错误都会导致计算失败;如果真是这样,那么如果每个门的错误率远大于 1/G 时,我们就不能可靠地执行这个回路。但是,至少对于某些问题和算法而言,这个结论可能过于悲观了。 具体来说,对于物理学家感兴趣的某些量子模拟算法,仅在相对少数的回路位置,错误门才会导致计算严重出错。其原因是回路的深度较浅,而且我们可以允许最终观测结果中每个量子比特有一个恒定的错误概率;或者是因为早期在回路中由某个错误导致的损害会在之后衰减。某些张量网络结构就具有这样的抗噪能力,可以借助这种结构使用 VQE 来求解量子优化问题 。 未来几年对于实验主义者和理论研究者来说存在一个合作的重大机会,可以努力寻找实现量子回路抗噪的更好方法,并由此增强 NISQ 技术的计算能力。但我们也应该审慎对待这样一种潜在的权衡——让量子回路抗噪能力更强可能也会让通过经典方式模拟它更容易。 6.5 量子深度学习 机器学习正在实现技术变革,而且也对科学有很大的影响,所以我们很自然就会思考机器学习与量子技术结合起来的潜力。量子机器学习(quantum machine learning)有一些不同的概念。这一主题的大多数文献都是关于开发能够加速线性代数及相关任务的量子算法 ,我会在随后的小节中指出这些应用。 但首先我想评价一下量子深度学习(quantum deep learning) 的潜力。深度学习本身已经变成了一个宽泛的主题 ,但为了具体论述,让我们思考一下受限玻尔兹曼机。这也许可以被看作是一个处于低温但非零温度条件下热平衡环境的自旋系统,其中有很多分隔输入和输出的自旋隐藏层。(「受限」一词意味着某个给定层内的自旋没有耦合;只有相继的层中的自旋是耦合的。)该系统可能具有数百万个耦合参数,这些参数会在训练阶段得到优化,从而为输入和输出得到一个所需的联合概率分布。这个训练过程可能是监督式的(比如可能是教该网络学习识别有标签的照片集),也可能是无监督式的(其目标是识别无标签训练数据集中的模式)。这种机器的量子模式可以具有相似的结构和功能,但这里的自旋是量子比特而非经典比特。相比于经典的深度学习网络,量子深度学习网络可能具有优势;比如它们针对某些目的的训练可能更容易。但我们实际上并不真正清楚——这是另一个需要尝试并了解结果的机会。 对于量子机器学习的潜力报以期待的一个可能原因在其被称为 QRAM 的概念,即量子随机存取存储器(quantum random access memory)。通过使用 QRAM,我们可以将一个具有 N 个分量的向量编码进仅仅 log N 个量子比特中,从而能以非常简明的方式表示大量经典数据。但量子机器学习应用的典型提议都受严重的输入/输出瓶颈限制。对于使用大量经典数据集的应用,人们应该考虑将输入数据编码进 QRAM 中的成本,这会削弱其算法的潜在优势。此外,量子网络的输出本身是一个量子态;为了得到有用的信息,我们需要对该状态进行观测,而在对 log N 个量子比特的单次观测中,我们得到的信息不会超过 log N 个比特的经典信息。 当我们试图训练一个量子网络来学习经典数据中的相关性时,这些瓶颈就会出现。也许在输入和输出都是量子态的情境下思考量子机器学习要更为自然。因此,比如在控制复杂量子系统方面,我们也许可以预见量子网络比经典网络更优。更宽泛而言,在试图学习量子纠缠具有重要影响的概率分布时,可以相信量子深度学习会比经典深度学习更强大。也就是说,量子深度学习网络可能非常适合量子任务,但对于我们目前广泛研发的深度学习应用,还不确定量子网络是否具有优势。 从积极的一面看,值得注意的是,量子深度学习机器并不非得是通用的基于回路的量子计算机,也可能是一种专用设备——也许是不含太多噪声的量子退火机。 6.6 量子矩阵求逆 QRAM 对量子算法还有更近一步的影响。特别是量子技术能给矩阵求逆任务带来指数级的加速,这可能具有很多应用。 我们称为 HHL 的算法(得名于九年前第一次讨论该算法的三位作者)的输入包含一个非常大的 N×N 矩阵 A 的简明表示(该矩阵必须足够稀疏且是良态的)和一个包含 N 个分量的向量 |b(在 QRAM 中被编码成 log N 个量子比特的量子态)。这个量子算法的输出是量子态 (带有很小的误差),这是将矩阵 A 的逆应用到输入向量 |b 上所得到的结果。该算法的运行时间为 O(log N),相比于经典的矩阵求逆实现了指数级的加速(对于固定的误差与 A 的固定稀疏度和条件数)。 但是,除了矩阵 A 是稀疏的并且是良态的之外,还要注意输入向量 |b 和输出向量 都是量子态。一旦我们有了输出态,我们就可以执行观测来了解输出向量 的特征;通过多次重复这一方案,我们可以了解到该输出向量的更多细节。但如果我们试图将该矩阵求逆算法应用到经典的输入数据上,我们就需要考虑将经典数据载入 QRAM 的潜在成本,这可能会抵消其指数级的加速。或者,通过在量子计算机上计算 |b,而不是从数据库导入,也许可以避免将经典数据载入 QRAM 的过程。 我们确实有很好的理由相信这种量子矩阵求逆算法很强大,因为它能解决所谓的 BQP-complete 问题。也就是说,任何可以使用量子计算机有效解决的问题都可以被编码成这种矩阵求逆问题的一个实例。而且人们已经提出了一些潜在有用的应用。比如说,我们可以使用这种矩阵求逆算法来寻找经典的线性场方程 的近似解,在对空间格(spatial lattice)上的场进行离散化之后,再应用一个合适的预条件处理。这个过程可被用于,比如,求解在复杂三维几何中的电磁学方程,从而可以优化天线的性能。 我预计 HHL 最终会有具重大影响的应用,但在 NISQ 时代恐怕无法实现。对于不使用纠错机制的量子计算机来说,这个算法成功执行的成本可能会非常高。 6.7 量子推荐系统 最近有研究者提出了另一个量子算法 ,该算法在做出高价值推荐的任务上能相比于当前已知的最优经典算法实现指数级的加速。该任务的目标是:基于对某个客户和其他客户的偏好的理解有限的情况下,向该客户推荐他可能会喜欢的产品。 我们将该问题的简化版本形式化表示一下,假设有 m 个客户和 n 件产品,设 P 为一个二值的 m×n 的偏好矩阵;如果客户 a 喜欢产品 i,则 ;如果客户 a 不喜欢产品 i,则 。实际情况下,我们可能有 m≈10^8 个用户和 n≈10^6 件产品,但该矩阵的秩 k 相对较小,也许为 k≈100。秩小说明客户类型的数量有限;因此,一旦我们知道了一个新客户的一些偏好,我们就可以准确地推荐该客户会喜欢的其它产品。 推荐系统的算法有两个阶段。第一个阶段是离线执行,会构建偏好矩阵 P 的一个低秩近似。第二个阶段是在线执行,新客户会揭示出一些偏好,然后该系统输出一个该客户有很高概率会喜欢的推荐。量子能够带来加速的是在第二个阶段(在线执行阶段)。量子运行时间为 O(poly(k)polylog(mn)),而已知的最优经典算法需要 poly(mn) 时间才能返回一个高价值的推荐。关键在于,与经典算法不同,量子算法不会尝试重建完整的推荐矩阵,这样做会花费太多时间。相反,量子算法是从 P 的低秩近似上进行有效的采样。 这能为真实世界的机器学习应用提供显著的量子加速,能够激励人们发现其它类似的加速。但是,我们目前还没有一个有说服力的理论论证表明由量子推荐系统所执行的任务(在 polylog(mn) 时间内返回一个高质量推荐)无法通过经典方法实现。进行这样的论证有助于强化我们对量子计算机对机器学习会有重大影响的信心。但是,在 NISQ 时代,同样因为该算法的成本可能太高,从而无法得到让人信服的验证。 6.8 量子半定规划 半定规划(semidefinite programming)是指优化服从矩阵不等式约束的线性函数的任务。具体来说,给定输入 m+1 个 N×N 埃尔米特矩阵(Hermitian Matrix) 和实数 ,目标是找到一个半正定的 N×N 矩阵 X,使之能最大化满足 m 个约束 ( A i X ) ≤ b i 的 tr(CX)。这种类型的凸优化问题有广泛的应用,使用经典方法可以在 poly(m,N) 时间内解决。 最近发现的一个量子算法 能在 polylog(N) 时间内找到该问题的一个近似解,即能实现指数级的速度提升。在该量子算法中,输出是一个量子态,一个近似最优矩阵 X 的密度算符ρ。然后可以对这个量子态进行观测,以提取出有关 X 的信息,而且可以对这个过程多次重复,从而得到有关 X 的更多细节。 但是,在分析量子算法时,人们会假设存在某种特定形式的初始量子态——与一个哈密顿量关联的热吉布斯态(thermal Gibbs state),该哈密顿量是这个半定规划的输入矩阵的一种线性组合。这种指数级加速能否真正实现取决于能否使用量子计算机有效地制备出这个吉布斯态。 对于结构正确的半定规划,吉布斯态的有效制备是可能的,因此指数级加速实际上是可以实现的。具体而言,如果该半定规划的所有输入矩阵都有低秩,或如果对应的哈密顿系统能快速热化,那么该量子算法就能实现指数级加速。我们目前还不清楚在实践中这些性质能在半定规划上应用到何种程度;搞清楚这一问题是未来的一个重要研究目标。 有趣的是,该量子算法中的关键步骤是在非零温度下制备一个热态。这说明该算法有一些固有的热噪声稳健性,或者该算法的热化阶段可以通过量子退火来执行。可以相信,能够通过 NISQ 技术实现半定规划的量子求解器。 6.9 量子模拟 正如我已经强调过的,我们预计量子计算机非常适用于研究许多粒子构成的高度纠缠系统的性质。正如 Laughlin 和 Pines 在我之前引述过的那项声明中强调的那样,我们认为模拟那种「强相关」物质是一个艰难的计算问题。因此,正如费曼指出的那样 ,对高度纠缠的量子物质的模拟显然是量子计算机相比于经典计算机有明显优势的领域。 长远来看,使用量子计算机进行量子模拟有广泛影响世界的巨大潜力 。由量子计算助力实现的量子化学进展也许能够促进新药物的设计以及带来提升固氮或碳捕获效率的新型催化剂。由量子模拟得到的新材料有望带来更高效的电力传输方式或改进太阳能的收集方法。我们可能难以想象更强大的量子模拟器所能带来的最具变革力量的发现。但在 NISQ 时代,这个愿景不太可能实现,因为在没有纠错的情况下,实现能成功准确模拟大分子和特殊材料的量子算法的成本实在太高了。 在模拟量子动力学方面(即预测高度纠缠的量子态如何随时间变化),经典计算机的能力是非常差的。量子计算机在这一任务上具有很大的优势,而且物理学家希望能在相对近期使用 NISQ 技术了解有关量子动力学的有趣地方。有一个事件可做参考。上世纪 60 和 70 年代,在有可能使用经典计算机模拟混沌动力学系统之后,经典混沌理论(在经典动态系统中对初始条件极其敏感的性质,这让我们没有能力预测两周之后的天气)得到快速发展。我们可以预见,模拟混沌量子系统(在这样的系统中,纠缠的传播速度非常快)能力的出现将能促进我们对量子混沌的理解。使用具有 100 个量子比特的有噪声设备也许就已经能搜集到有价值的信息了。 6.10 数字型量子模拟与模拟型量子模拟 我已经强调过模拟量子动力学的潜在价值,我还应该谈谈模拟型(analog)量子模拟和数字型(digital)量子模拟之间的差别。当我们谈论模拟型量子模拟器时,指的是一种带有很多量子比特的系统,其动力学类似于我们试图研究和理解的模型系统的动力学。相对而言,数字型量子模拟器是一种基于门的通用量子计算机,当被合适地程序化后,该系统可以用来模拟任何相关的物理系统,而且也可被用于其它目的。 近 15 年以来,模拟型量子模拟一直都是一个非常活跃的研究领域,而使用通用目的的基于回路的量子计算机的数字量子模拟才刚刚起步。但囚禁离子和超导电路等实验平台在这两方面都可应用。值得注意的是,模拟型量子模拟器明显变得越来越复杂了,而且也已经在超出经典模拟器能力范围的量子动力学研究领域得到了应用 。但模拟型量子模拟因为不能完美地控制而受到了阻碍——实验室中的实际量子系统只能粗略地与相关模型系统近似。由于这个原因,模拟型量子模拟器最适用于研究物理学家所说「广义」特性,即在引入少量误差源时能保持相对稳健的特性。使用模拟型量子模拟器进行研究的一个主要挑战是确定量子系统对误差稳健同时又难以通过经典方法模拟的可用特性。 我们可以预见,模拟型量子模拟器最终将会过时。因为它们难以控制,所以未来某天它们会被可使用量子纠错机制可靠地控制的数字型量子模拟器超越。但因为量子纠错具有极大的开销成本,所以模拟型量子模拟器的主导地位可能还会持续很多年。因此,在探寻量子技术的近期应用时,我们不应该忽视模拟型量子模拟器的潜在力量。 6.11 量子游戏 经典计算的进步带来了一个电子游戏新世界,触及了数百万人的生活,创造了数十亿美元的收入。量子计算机也能做到这一点吗? 物理学家常说量子世界是反直觉的,因为它与常规经验相差太大了。就现在而言,这是实情,但未来可能会不一样吧?玩量子游戏长大的孩子也许会具备我们这一代人缺乏的对量子现象的深刻理解。此外,量子游戏可以为量子机器学习方法开辟一个新场地,这些方法可能会抓住机会在量子纠缠扮演重要角色的场景中提升游戏玩法。 8 总结 现在让我总结一下我试图传达的主要观点。 现在是科学技术史上的一个特殊时期,我们正见证着 NISQ 时代的启幕(NISQ=含噪声中型量子技术)。我们很快就将有机会使用 NISQ 技术进行实验,看看它们能做到什么。也许在不久的将来,NISQ 能让我们加速求解人们广泛关注的问题,但我们并不知道这是否将会发生。 我们有一些想要尝试的特定想法,比如用量子-经典混合算法求解优化问题,这种算法既是经典的,也是量子的。 可以预见,一旦我们有了可以进行实验的量子计算机,量子算法的发展就会加速。也许人们会发现用于求解有用问题的新的启发式方法,尽管我们可能无法很好地解释这些启发式方法的工作方式——至少不能很快解释。 尽管我们可能无法使用充分的量子纠错来保护 NISQ 时代的设备免受噪声干扰,但在近期我们在设计量子算法时应该将抗噪考虑进来。精妙的抗噪算法设计可以提升 NISQ 设备的计算能力。 经典计算机模拟高度纠缠的多粒子量子系统的能力非常差;因此量子动力学是一个尤其有前景的领域,量子计算机在这一领域可以有超越经典计算机的重大优势。 我们应该继续重点开发具有更低门错误率的量子硬件。量子门准确度的提升能够降低最终实现时量子纠错的开销成本。在更近期,更准确的门让我们可以执行更大规模的量子回路,进而提升 NISQ 技术的能力。 只有 NISQ 本身可能无法改变这个世界。相反,量子平台近期的主要目标应该是为更大的回报奠定基础——这些回报将会由未来更先进的量子设备实现。 未来真正变革性的量子技术可能必须具备容错能力,而由于量子纠错具有极其高的开销成本,所以容错型量子计算的时代可能仍然还相当遥远。没人知道我们还要多久才能到达这一时代。在量子社区急切地想要抓住机会实验即将到来的 NISQ 设备的同时,我们也不能忽视至关重要的更长期目标:加速容错时代的到来。 来源:机器之心。链接: http://www.sohu.com/a/220858225_129720 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子计算|1960 次阅读|0 个评论
[转载]电子自旋的量子信息推动硅量子芯片发展
quantumchina 2018-2-1 10:18
摘要:全球正在加速竞争创造更多、更好、更可靠的量子处理器,荷兰代尔夫特理工大学(TU Delft)Vandersypen教授领导的科学家团队正致力于该领域的研究,在与竞争对手的激烈竞争中,他们证明了电子自旋的量子信息可以被传送给硅量子芯片中的光子。这一重大发现对于连接整个芯片的量子比特并允许扩展到大量的量子比特是十分关键的。新的研究成果发表在世界权威学术期刊《科学》杂志上。    Iccsz讯 全球正在加速竞争创造更多、更好、更可靠的 量子 处理器,荷兰代尔夫特理工大学(TU Delft)Vandersypen教授领导的科学家团队正致力于该领域的研究,在与竞争对手的激烈竞争中,他们证明了 电子自旋 的 量子 信息可以被传送给硅 量子 芯片中的光子。这一重大发现对于连接整个芯片的 量子 比特并允许扩展到大量的 量子 比特是十分关键的。新的研究成果发表在世界权威学术期刊《科学》杂志上。 图为研究人员,从左至右依次是Nodar Samkharadze,Lieven Vandersypen和Guoji Zheng 研究背景   未来的 量子 计算机进行计算的能力将远远超出当今计算机。 量子 叠加和 量子 比特( 量子 位)纠缠使得执行并行计算成为可能。全世界的科学家和公司都在创造具有越来越多 量子 比特的更好的 量子 芯片。代尔夫特理工大学的QuTech研究机构正在致力于研究多种类型的 量子 芯片。    量子 芯片的核心是由硅制成的。QuTech机构的Lieven Vandersypen教授解释说:“这是我们非常熟悉的材料,硅在晶体管中被广泛使用,因此可以在所有电子器件中找到。”   但同时硅也是 量子 技术非常有前景的材料。在读博士Guoji Zheng说:“我们可以利用电场捕获硅中的单电子作为 量子 比特,这是一种有吸引力的材料,因为它确保了 量子 比特中的信息可以长时间存储。” 研究挑战   进行复杂的计算需要大量的 量子 比特,这成为全球范围内的挑战难题。研究人员Nodar Samkharadze解释说:“要同时使用大量的 量子 位,他们不仅需要互相连接,还需要良好的通信。目前在硅中被捕获为 量子 比特的电子只能与其相邻的 量子 比特直接接触,这使得扩展到大量的 量子 比特变得非常棘手。”   其他的 量子 系统可使用光子进行长距离交互。多年来,这也是硅 量子 研究的主要目标。只有近几年科学家们才在这方面取得了进展。    重大发现与意义   代尔夫特理工大学的科学家现在已经证明,单 电子自旋 和单光子可以耦合在一个硅芯片上。这种耦合理论上可以在自旋和光子之间传递 量子 信息。Guoji Zheng说:“实现把硅芯片上的远距离 量子 比特连接起来非常重要,可为硅芯片上的 量子 比特扩展铺平道路。”   Vandersypen为他的团队感到自豪:“在全球竞争的巨大压力下,我们的团队在相对较短的时间内完成了这一成果。”这是代尔夫特理工大学一项真正的突破,Vandersypen 补充表示:“衬底是在代尔夫特制作,芯片也是在代尔夫特洁净室制造,并且所有测量都是在QuTech进行的”。 图为单 电子自旋 和单光子耦合在一个硅芯片上的示意图    下一步研究   科学家正在努力进行下一步工作。Vandersypen表示,现在的目标就是通过光子将 电子自旋 的信息转移到另外一个。    研究资助   该研究是由欧洲研究理事会(ERC)协同资助计划(Synergy Grant)、荷兰科学研究组织(NWO)的Nanofront项目以及美国因特尔公司共同资助。    成果发表   N. Samkharadze, G. Zheng, N. Kalhor, D. Brousse, A. Sammak, U. C. Mendes, A. Blais, G. Scappucci, L. M. K. Vandersypen. Strong spin-photon coupling in silicon. Science, 2018 DOI: 10.1126/science.aar4054 来源链接: http://www.iccsz.com/Site/CN/News/2018/02/01/20180201014316597400.htm 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子计算|1522 次阅读|0 个评论
[转载]“量子的3D大脑”让计算处理变得更高效
quantumchina 2018-1-31 21:02
Aaron VanDevender作为Founders Fund首席科学家,设计出了单光子和单原子量子计算机,刷新了微观黑洞的量子力学理论。 Aaron 主要专注于能源、生物科技、纳米科技和计算机领域。在 EmTech China 峰会上,他分享了跨学科科研及生物领域投资的感悟。以下是经整理后的演讲全文: 世界上第一台通用可编程的电脑ENIAC出现于1946年,多被用于军事目的或是宇宙观测)被发明;1982年一位科学家发现他的电脑只能出现0和1两种情况,对于量子物理学家,这个现象非常有趣。我们知道量子力学的功效非常强大,和经典物理学不一样,比如量子纠缠和量子叠加,我们也知道量子可能会以很快的速度在两个物体间运行,只是我们不知道是哪一个,这就像是两个平行的现实,而我们的物体可以同时存在于这两个现实之中。 量子纠缠是量子力学中很有趣的东西,所有的信息以及信息的关系是可以和事物相互联系的,哪怕他们本身之间是没有任何的关联的。比如我们一人拿一个硬币,分别开始掷硬币,结果是随机,不可预测的。但实际上我的硬币和你的硬币是相关的:我的如果是正面你的也是正面,我的是背面你的就也是背面。虽然我们还是无法预测结果,但却可以发现两者还是有关系的,一种超越物理本身的关系。 从量子物理意义的体系上说,我们对于盒子里所发生的所有事情的描述都将是动态的,如果这样的纠缠是真实存在的,那情况就会发生不同,我们把它叫做非本地化的。 如果你想要模拟这样一个量子计算的公式,你要把每个部分,以及每个部分之间它们的叠加关系表示出来。这样一个公式看起来很简单,但是当你真正地在计算机上做一定数学公式处理的话,常规计算机模拟一个量子算法好像不是很有效;但单独的量子计算机的纠缠和叠加可以在新的计算机中得到完美体现。 我们在二十世纪八十年代提出这个理念,但当时我们根本不知道怎么制造这样的量子计算机。人们往往更多的去使用常规计算机,因为用起来很简单,而且容易得到结果。但也有一些人尝试建立了更复杂的计算机,比如在计算机制造能力上也经历了一定历史的突破,后来任务越来越重,人们找到更加复杂的宇宙元素来进行计算机设计,但是基本还是种常规的理解和设计。 比如说加州理工学院的一些物理学家,他们想了解黑洞是什么样子的,于是就用了一些专门的望远镜以及其它的工具来理解,从不同的距离观察黑洞。但是模拟出来的结果还是在传统的计算机上做的。随着时间的推移,随着人工智能的发展,计算机取得了更多的进展,我们可以在一些游戏的模拟中得到更好的体现。 就比如扔硬币,我们发现,随着游戏的进行,你需要捕捉到一些最好的瞬间作为一个代表性的表现,甚至像《星际争霸》这种复杂的游戏我们也从中汲取了一些经验。这对于人工智能来说,利用常规的电脑实现人工智能的新技术的发展,能够帮助他更好的利用这样高层级的关系,收集到更多的大规模的数据。 从理论上我们是能够理解这样的一种扔硬币的关系,神经网络可以帮助我们解决问题,但是它太复杂了,在现实中很难应用,我们需要一些工具。比如说分布式计算系统、单指令多数据以及多指令多数据的系统,它们都可以实现我们的目标。 在过去几年里,有研究团队制作了一个芯片,他们有非常好的算法,而且利用这个算法能够很好的分析不同的关系,尽管他们有很大的技术上的先进性,能够处理复杂的状况,但是也会存在错误。他们遇到一些比较大的问题的时候会把这个大问题分解成小片段,然后独立的来解决每一个小问题。 这看起来好像是正常人工作的方式,我们把这个过程称为“分解”,“分解”在计算机技术上曾经也取得了成功,它建立了一种高秩序感的关系,通过分拆成不同的小片段,会有一些层级的关系在片段之间,有一些是高层级的模型,它们逐渐地帮你更好地理解每个部分。比如书写中的“分解”过程,我们发现有一些卷积算法和神经系统科学技术的应用,能够检测到并且能够区分到手写的字母之间的区别。 对于邮局来说,如果他们能够自动地读取信封上的字母的话,会改善工作效率,但是与此同时使用这样的工具需要同时关注到很多的细节,也要注意在同时处理的过程中,会不会有一些层级的关系被遗漏掉。接下来一个问题是量子计算机到底有没有用,我们可以采取一些方法来赋能使量子计算机帮助人类解决许多现实的问题,或者是让人工智能的算法实现传统计算机所不能实现功能。 所以最简单的做法就是建立一个叠加的公式,比如存在一个东西,同时在很多个地方都存在。如果我有一个量子计算机,就可以进行叠加,每个叠加态都能够在其相关性中体现出来,并且每一个叠加态都是独立的,然后同时处理不同的问题。这里面揭示出了一个问题,虽然有平行关系,但是基本上却还是在表层处理的。如果我要做这样的量子算法的话,可能我每一个这样的叠加完成了自己部分的工作以后,需要逐一地进行核查,而且要按照顺序进行核查,才能找到整体的解决方案,这样会比常规的计算机的算法更加复杂。 我们的理想状况是,利用我们的量子计算机,不仅把它作为一个叠加效应,而且要有一定的纠缠效果,使这些量子计算机的叠加或者是元素能够建立更好地连接性,有了这样的连接性以后,我们的量子计算机才能发挥更大的作用。我们要相信,没有任何一点是一个孤岛,正是因为有了纠缠和叠加,所有的元素之间都是相互连接的,所有的量子计算机都是相互作用的。这才让量子计算机发挥作用,我们希望这样的量子计算机能够覆盖到我们所有的系统中来。 但是我们的量子却可以做更多的事情,它就像是有一个3D的大脑一样,他能够在很多个领域内,准确定位到关系的存在,从而能够让我们在很短的时间里找到自己要处理的关系。制造这样的量子计算机可以说有很悠久的历史了,从1946年的ENIAC计算机开始,我们还想要做一些模拟,模拟宇宙中很小的一部分,但是目前为止,还是传统世界中的一个模拟。我们现在正努力的方向是利用量子计算机模拟量子世界,我们想要理解的事情是我们宇宙运行的一些机制,模型,或者一些高关注度的这些管理如何才能够更好的为人类所理解。 来源链接: https://baijiahao.baidu.com/s?id=1590976493450998105wfr=spiderfor=pc 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子计算|1191 次阅读|0 个评论
[转载]量子计算机将带来人工智能的下一个飞跃
quantumchina 2018-1-30 11:39
1月29日下午消息,在由《麻省理工科技评论》和DeepTech主办、新浪科技作为首席媒体支持的全球新兴科技峰会期间,发明了单光子和单原子量子计算机的Founders Fund 首席科学家Aaron VanDevender、整合并发展前沿科技为用户提供人工智能领域最先进解决方案的 IBM 研究院副院长Robert Sutor、开创了个人区域网(PAN),将计算、储存和网络资源虚拟化并互连的D-Wave 公司CEO Vern Browenll,共同探讨了量子计算未来的发展蓝图。这场讨论由中国科学技术大学中科院量子信息和量子科技前沿卓越中心陆朝阳教授主持。   以下是整理后的内容:    陆朝阳: 我想代表观众问一下,要如何定义量子计算机,因为有许多的观众,他们第一反应是普适的计算机才能算作量子计算机。对于你们来说量子计算机是一种普适性计算机还是一种非普适的量子模拟器?另一方面,如果你有足够的资金,你们会投资普适型量子计算机还是量子模拟器? 图 | 陆朝阳    Aaron VanDevender : 其实量子计算机已经有大多数人能接受的定义,其也有一些标准上的变化,同时有一些技术方面进展是大家有目共睹的。我觉得量子计算机应该能够以量子计算的形式维持多年的运转,有比特这样的特性。可以说,量子计算机的计算模型是不同于常规计算机有所不同的模型。   我们已经设计出相关的模型,这些模型可以在算法设计的过程中优化量子计算机的性能,从而我们可以知道努力的方向在哪里,尤其是在工程建设方面。当然这存在争议,比如到底是退火器还是模拟器更适用于量子计算机?我觉得重点在于,过去这些计算机的机器模型中并没有一个完美的代表,不管是iPhone还是云服务的所有计算系统,都是一种基于理论研究结果的抽象概念。但是,同样重要的是,尤其是针对计算机科学方面的开发商而言,是需要知道有没有真实的环境设置从而引导计算机的实践。   量子计算机在实践中,一定要能够做一些有用的事情,如能够告诉人们我们所生活的世界是什么样的,因此我觉得这些争论是不重要的。Robert Sutor:首先,选择对你有用的信息,谨慎对待一些理想化的论点。因为每个人都有基于自己本身情况想要的算法从而找到合适的计算机。我刚才在我的演讲中也提到了,而我比较支持普适型的模型。   非常重要的是,量子计算机如何能够显示出我们现有的是什么?可能过去两三年里,有一些人做了很多不切实际的承诺,比如未来我们能够进一步提高它的量子位数,或者2017年可以达到什么目标。但现在还是与先前一样。因此我们要能够认清现实,在刚才提出的门模型基本上接近于落地阶段了。我们结合了常规意义上的计算机算法和量子算法,使得这样的模型具有一定的执行能力。但我们还需要做很多努力来确保其在纠错方面有更高的效率,而且能够有效提高量子位。因为量子位的数量,会影响到它的连接性,同时量子位的质量也能够帮助我们解决很多的问题。所以,我想说的是,你先要做好自己的事。    Vern Browenll : 关于这个量子计算机,其优势就是可以很好地利用量子比特。可能有些人会有不同的角度,企业也会选择量子计算机的一些能力,如为速度更快地为企业提供一些有用的应用,这才是应用量子计算机的竞争力所在。   老实说,2014年时也做了一些有争议的决定,比如说出台了我们自己的退火器,我不知道创始人为什么做这样的决定,但是我是比较支持他们的决定的,相对于像IBM这样的一些巨头公司我们是也有一定的竞争力的,我们也有自己的机器,当然这样的过程也是很困难的。首先,在引进这样的一台量子计算机时,你要知道他对你的业务和公司有什么样的作用。正如刚才前面一位嘉宾所说的,许多时候承诺是美好的,但是你有了量子计算机,你买了之后,是不是真的给你带来它所承诺的效果?有一些研究人员也想要把这个量子计算机和云服务结合起来,获得更好的一些效率,我觉得这个问题要从现实的角度去考虑。    陆朝阳: 第二个问题,你们觉得量子计算机商业化应用会是什么?可以就你们自己的企业谈一谈,它到时候会带来什么样的影响,市场规模有多大?我们之前谈到了很多原型机器,是不是可以从原型机器的角度说?    Vern Browenll : 首先,我们的兴趣点是人工智能和量子计算的结合,这不只是关于如何提高神经系统网络或者说人工智能如何改善它的机器学习,又或者说在退火器、量子计算方面单独做出改善。在算法和刚才提到的一些方面,甚至昨天探讨的技术领域都需要提升,和人工智能合作是非常重要的领域,我们需要非常好机器学习团队和算法团队共同合作。 图 | Vern Browenll   另外,我们还需要投资银行的支持,有一些专门的模拟器,我们可能通过引用的一些技术,做这些风险模型的设计和分析,而这是需要与企业合作的。从本质上来说,量子计算机比常规的计算机体系更有效率的和计算空间。之前我举到关于优化的问题,每个地方如医药行业、金融行业、生物制药行业等领域都会遇到算法优化的问题。我们的客户也一样,希望通过量子计算技术解决优化问题。    Robert Sutor : 我基本上同意,各个领域和学科是紧密结合的,如化学生物学的基础,是医药学的基础,也是蛋白质材料的基础,所以我们要着眼于长远的未来。很多年前,如果人们没有电脑,是无法实现我们今天的成就。后来我们有了一些新的发现,如在药物发现方面取得了成绩。同时我们也希望计算机可以做更多的事情,现在我们就在利用材料计算实现更多的成就,对于每个人来说,这都是有利益的事情。   但是量子计算的关键是够代表大量的数据,并且比常规的计算机更有效率。举个例子,早上提到的分子模拟模型可以提醒你要要喝咖啡了,但是它也需要有很多的电子和质子作为技术基础,而且它也需要10—48个比特作为支撑,这些数字有多大?这个数字意味着什么?科学家预测,地球上的原子数量基本上占了总的10%—49%。所以想象一下,这个比例和我们的分子模型很相像的,这个体量很大,是没有办法和它竞争,只能做一个粗略的估算。但是可以利用量子位做一定的表达的,比如刚才提到的门模型,有数以千计的量子位,我们正在尝试做这方面的技术突破,我们不断地提到自然是数字化的,可能不应该有0和1这样简单地表达方式,也会需要有一定的优化。   我想强调的是,量子计算机是一个跨学科的行业,我们有物理学家、计算机科学家、数学家,这些人能够找到这些真正地解决方案。量子计算机领域甚至需要一些金融行业的定量和分析家,来帮助我们覆盖到所有领域的计算并与我们一起合作来设置新的算法,这样才能够实现这种有价值的量子计算机。这样量子计算机才能做为一个平台帮助更多的人。    Aaron VanDevender : 我非常同意刚才提到的关于化学是物理学等跨学科的合作,因为处理一些复杂的数据不是一件简单的事情。我们往往会先着手于一些简单的目标,首先我们的研究是需要资金支持的,比如90年代的时候,我们刚开始从事算法研究的时候是需要资金,但是量子算法可能会影响到更多人。 图 | Aaron VanDevender   所以量子计算的价值是不可估量的,对于许多政府或者是智库,他们都愿意投很大的钱来研究量子计算。想要获得成果并且实现商业化,是需要非常庞大的算法。尽管我们的研究人员做出了很多的努力,也有一些量子计算机的产生,但是对于量子计算机仍具有很高的期望,我也非常期待量子化学或者是其他的一些跨学科的领域能够共同合作才能够带来真正的算法的创新。    陆朝阳: 第三个问题是针对Vern Browenll提的,您提出50量子位的IBM的机器,有什么作用?您刚才谈到所谓的超级模型,好像对 谷歌 提出的模型不是很感兴趣,但是这个50量子位的机器要实现的目标是什么?是有更多地算法可以在上面运行对吗?    Vern Browenll : 这是一个原型,我们可以运用其做一些基础的计算,最开始发展的时候,我们有一个5和6量子位的计算机,后来从17开始作为下一代的量子计算机,到20,再到50。其实20—50之间是一个新的架构。在去年11月份发表我们发表的相关文章后,我们在IBM内部也积累了很多的经验,而且整个的流程在整个内部都很清楚的。我们不光觉得50是一个重大的量级的转变,本质上想了解如何操作这种大型的计算机。   此外,我们期待这些芯片能够有重大的飞跃,我们希望芯片能够给我们带来一些体积微小的同时还能有更好的体验。但是现在不一样了,因为整个量子位不像芯片一样可以无限地缩小、无限地加晶体管,因为需要别的零部件和算法同步,才能够再进行下一次量子位的升级。所以,我觉得我们还要等很多的时间,要等等每个量子位的升级。大家可以阅读我们发表的一些文章和技术参数,包括从1位到5位、7位、17位、20位到现在,是怎么在上面做实验的,以及相关一些成果和进展。    陆朝阳: 我有一个相关的问题,在IBM内部,这种超导的最大数是什么?量子纠缠最大的数据,分子纠缠是多少?    Robert Sutor : 我们没有公开讨论过这个数据,不方便。明年你们再邀请我来讨论这个数据。 图 | Robert Sutor   我们基本上是按做乘法的效率在进行更新,只是整个过程要花很多时间去不断的优化,同时不要让成本走的太高。很多人听到这个概念的时候,觉得非常有意思,因为好像量子可以和各个领域都进行结合,包括我自己,原来是个数学家,从数学领域来看,我们要做的就是从理论数学到实践数学再到工程学。理论是不断进化的,现在有一些新的物理的理论,也有一些新的数学理论,如我刚刚举过一个例子叫模拟,就是其中一个理论的突破。我们所看到的量子计算机是很美好的,因为没有哪一种计算机可以超越它,但是如果出现任何要去解释技术上的背景的话,一定要建立一个新的量子系统开始理解。    陆朝阳: 最后一个问题,现在提到了一些量子软件、量子比特这些概念,这种量子软件和传统的软件有什么差别?我们一般用几个量子位来理解量子软件,但是量子硬件就不一样了,因为硬件非常昂贵,它需要很多量子比特,对一个完整的硬件系统,因为我们觉得软件硬件的差别非常明显,尤其是和传统的软件相比,所以我们想问一下关于软件方面的差别?    Aaron VanDevender : 首先,在软件方面最大的差别是要突破传统的固定思维。不是做一些空间的分解,而是要了解量子纠缠再做一些空间的解读。 Robert Sutor : 我想这更多的是理论层次的探讨。传统来说,你可以把一些传统的算法,运用在量子计算机上。但是没有必要这么做,因为这会极大的减少速度,没有任何意义。而量子软件是非常特殊的,我觉得这就是差别吧。从基础开始讲,计算模型是颠覆的,我觉得软件工程师可以从现在开始了解量子计算的基础理念。工具是需要不断地优化,计算机、手机上的软件是越来越好的。我觉得这些软件开发的工具,也将越来越好,但还是有问题,比如量子计算机的这些代码还没有跟上。一旦跟上这会带来更多的机遇,如新的语言和内存管理等。    Vern Browenll : 我也同意,我们向我们的客户提供了不同层级选项的系统,有低的像机器语言层,用量子位源去匹配一些低源的设计,但是慢慢地我们想在计算机信息站上面不断地往上挪,包括要真正采用到一些量子纠缠,整个的量子位源铺开。我觉得传统的技术和量子的技术肯定是不一样的,因为基础层可以用基础的技术,但是高层的话就不能用这些传统的技术了。人们的一些编程的技术中,如TensorFlow系统和谷歌的开源系统,你可能还不知道你在使用量子计算机,单这只是打开的一个新的算式和模型而已。我觉得高层的模型就一定是需要做量子,只是用户不清楚而已。我们也会非常谨慎地去考虑量子计算所带来的一些复杂性,这是我的一些观点。 来源链接: http://tech.sina.com.cn/csj/2018-01-30/doc-ifyqyuhy7555070.shtml 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子机器学习|1249 次阅读|0 个评论
[转载]IBM将如何引领量子计算
quantumchina 2018-1-30 11:33
IBMRobertSutor团队正在整合并挖掘前沿科学技术潜力,为客户提供人工智能领域最先进的解决方案,如机器学习、深度学习、文本和图像分析、统计、预测分析和优化。而引领量子计算和区块链技术的老牌科技巨头将会展开怎样的新蓝图,1月29日EmTechChina峰会上RobertSutor为您展开演讲,以下是整理演讲原文: 量子计算是一个非常奇妙的东西。它的特性决定你没有办法一下子就明白它是什么东西,而是需要逐步地去理解的,而当你理解了一部分后又会有无法理解的东西出现。 量子计算机的概念已经有几十年的历史了,但是我们现在究竟能实现到什么样的程度?我过去几年一直在负责IBM的研究,我们做的事情就是要让人意识到量子计算机和其他计算机不同的地方。接下来我也会给大家展示,到底这一先进技术处在什么状态,有什么特征。 我先要澄清一下,许多人误把量子计算机和量子通信弄混了,这两件事完全不一样,我今天所要谈的是量子计算机,是一种硬件,用于做计算。 这是一个量子计算机在IBM研究室中的样子,环境温度是比较低的,它基于的是超导技术,基本上是0.015开尔文。0开尔文意味着没有热运动。外太空的环境应该是2—3开尔文,即使这个温度对计算来说依然太高。 我们在外部也设置了一个平台,通过平台可以体验量子计算,这就是我们的IBMQISKit。大家可以今天晚上回家就直接试用一下这个官方平台,只要注册一下,我们的孩子、朋友都可以利用这个平台。这个平台上,有不同的一些功能,教育者、研究者和爱好者都可以使用。我们有很多视频在网上可以供大家参考,有非常丰富的内容,如果大家要学习量子计算的话,那不妨晚上去看一看这个视频去学习一下,我们已经把整个生态系统给大家呈现出来了。我们有超过7万名用户利用好我们平台进行量子计算。总共超过了225万次的计算,用户来自7大洲。我们的云平台能够帮助大家实现所有的计算,大家只要注册学习怎么样使用,就可以使用我们的平台了。 量子的概念来自上个世纪像爱因斯坦这些传统的物理学家最早提出了量子物理的早期理论,后来人们越来越靠近量子理论了。在上世纪八十、九十年代,科学家从传统的物理学出发,去做一些量子计算器方面的实验,一些传统的物理理论和工程理论结合了起来。 我把量子计算的发展分为三个时期,我们现在处在第二个时期,量子成熟期。我们的芯片够小了,有可能实现通用型的计算机,可以去完全一些传统计算机不能够完成的事件。现在的量子计算机可以去处理某一些特定的行业的问题,成果比传统的经典计算的处理成果更好,量子计算机可以和传统的经典计算机配合完成工作,但是传统的计算机和量子计算机还是不一样,量子计算需要通过云和Internet完成。 去年晚一点的时候,我们有一个模型,这是一个50量子位的量子计算机,这也是一个原型。 有时候大家会有一些疑虑,我们在做量子计算的时候,它的运算非常快,这并不意味着它可以完成一些传统计算,因为量子计算的方法和传统的方式不一样。 行业里有一种叫做“量子霸权”的概念,但是我不太赞同。有一些科学家,会提出一些人造的问题,这不是现实的化学、优化、金融或者是医疗领域的问题,都是些理论问题。这些科学家指出,如果你可以用量子计算机解决这种理论问题的话,就证明了我们可以超越现在的瓶颈完成此前不可能完成的任务从而超越传统经典计算机、打造出计算的新的领域。 其背后的逻辑错误在于他们没有考虑所有的可行性。去年的11月份,有数学家证明了用量子计算的方式提出的解决方案也可以用传统计算机的计算解决。所大家在提出假设的过程中要谨慎,要真正了解极限,还要去观察硬件的可行性,要真正地务实地提出一些问题。我觉得有很多标题、噱头、听上去非常漂亮,但是没有什么用,我们要防止这些噱头,保持理性和清醒,展现硬件计算机能力,这才是关键。 我们还可以思考一下量子体积,因为量子体积可以回答一个基本的问题,究竟这个计算机的速度有多快,假如我有不同的体量的计算机,哪个更快?而我们又怎样去定义所谓的计算能力?其实,你不能直接去将其与经典计算机做对比,因为你不能去对比内存、不能对比芯片,所以我们推出了一个新的概念叫量子体积。 我们的第一次应用在化学领域,解决了一个自然界问题,也在《自然》上面发表了文章。我们采用了新的技术,在量子设备上实现了一种新的量子算法,高效精确地计算出小分子的最低能态,而且我们也希望发表更多的有应用价值的文章。 之前给大家展示了实验室,现在我们想去应用这些新的技术,开发新的量子设备。图片中的是我们IBM的QISKit网络,是一个全新的实验室,也是在纽约,我们正在不断完善这个实验室。 从IBM的角度来说,我们希望这个实验室能够成为未来的量子计算机的中心,而不是数据中心。计算中心可以充分利用其计算能力去支持机器学习、分析问题等,因为量子计算的重点是计算能力。我认为这也是未来的一个趋势。 来源链接: http://info.printing.hc360.com/2018/01/301024653627.shtml IBM副总裁:量子计算面临人才短缺 http://news.sina.com.cn/o/2018-01-30/doc-ifyqyesy4137561.shtml 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子计算|912 次阅读|0 个评论
[转载]D-Wave促进量子计算机商用化
quantumchina 2018-1-30 11:26
1月29日下午消息,由麻省理工科技评论和DeepTech主办、新浪科技作为首席媒体支持的全球新兴科技峰会在京举办,Vern Brownell在 EmTech China 峰会上带来了量子计算的前沿技术以及商业化现状的分享。   作为全球数据中心基础设施的领导者,Vern Brownell 开创了个人区域网(PAN),将计算、储存和网络资源虚拟化并互连的解决方案。   以下是全文整理:   我来自D-Wave公司,我们已经建立了量子计算机,来为客户提供产品。我们现在面临的问题是关于计算的,特别是在机器学习领域、优化及指标的选择方面。我们的目标是生产具有超级运算能力的计算机。目前的系统非常可靠而且也能够充当一部分数据中心的功能,但是一般来说是很难去充当客户的数据中心的,但是量子计算机具有这样的能力。   我们的项目还包括和算法、软件相关的实验。我们的商业模型是出售量子计算机等产品,同时出售一些在网站上可以使用的服务,比如说计算能力和分析能力。基本上来说,量子计算机是一种利用量子物理效应的计算机。1982年的时候我们提出量子计算机的预想,希望可以充分使用这种效应。我们会使用一些原理,首先是量子叠加,多个粒子进行叠加,而这些微小粒子,是量子计算机的基本组成部分,也是非常重要的组成部分。   其次是量子纠缠,指的是两个量子态的物理物体相互产生影响,这对于量子计算系统是非常重要的。最后是量子隧穿,是指粒子可以直接像穿梭隧道一样穿过能量阻隔。不管现在还是将来,这三个量子效应对于打造量子计算机都是非常重要的。那如何打造量子计算机呢?我们已经提出了一些方法。   首先第一种方法是Gate Model,。我们的数字计算机有很多的逻辑门,可以把这些量子效应放在其中,比如说 IBM 是第一个将自己的量子计算系统上传到云端的公司,随后 谷歌 也做出了非常大的努力,虽然他们还没有实现自己的目标,但是他们总是会实现的。但是Gate Model需要进行大量地纠错,对于一般的逻辑立方体,可能需要几千甚至几万个立方体来打造真正的计算机。刚才已经提到了未来量子计算机的前景,我们也希望可以拓展我们的量子计算机,甚至可以拓展到几百万个立方体,这样就可以做非常有用的计算了。   另外一个方法是 微软 使用的方法,这是一个非常有趣的方法,因为它可以不进行任何纠错。理论上来说,它可以用更少量子比特来处理问题。现在正在使用一种外来准粒子叫马约拉纳粒子(Majorana particle)来打造超强的计算能力,现在微软还没有制造出足够多这样的量子比特。所以说我们还需要花费许多的努力,可能在接下来的几年,这样的量子计算机会成为非常强大的一种技术。   2004年D—Wave选择了另外一种方法叫量子融合,它可以找到一种低能耗的配置,同时使用量子隧穿的方法。这种方法可以防错,并且可以用来解决很多商业问题。现在我们的产品还不是一种普适性的量子计算机,但是量子融合的方式可以量子计算机更加地普适,更具有商业化的价值。   下面我们简单地说一下我们的量子计算。我们可以把它比喻为3D图解,我们想要解决的问题是,如何在3D场景里面找到最低的一个点或者是一个问题的最佳解决方案。D—Wave量子计算可以使用一个公式来找到解决方案。一般来说,利用传统的一些算法找到这个最小的值是非常困难的,因为这需要在整个3D的场景里面走一遍才能找到,但是如果使用我们的量子计算,就可以非常迅速的找到最终答案。   我们的D—Wave的量子计算机有一个冷却器。整个量子计算机运算的温度非常的低,几乎已经达到了绝对0度,甚至比外太空还要冷,而且它必须是真空的,同时需要附加一个电磁隔离。可能未来200年或者更长的时间之后,人才可以在量子计算机周围走动。量子芯片上面采用超导体构建,它们构成了超导芯片。我们使用的是自己专利的技术打造芯片,这是世界上最先进的量子处理器。它可以达到2000乃至4000个量子比特的等级。   我们的量子比特基本上是一圈一圈的立方体。可以使用量子计算机解决很多困难的问题。除此之外超导体芯片本身的能耗也比较低,这样的芯片在未来可以很大程度上减少能源的消耗,它的运算能力更强,而且发热量也会越来越低。我们的量子优势或者说量子霸权存在哪些问题呢?我不是很喜欢霸权这样的词。实际上我们现在比较接近量子优势了。   有一些人比较怀疑D—Wave公司,他们希望看看传统的算法是不是可以比D—Wave的量子计算机更快的解决问题。但其实D—Wave的量子计算机是世界上最先进的量子计算机。他们最后会发现,我们的量子计算机的运算速度要比传统算法快2000倍。   D—Wave有可能是第一个展示出量子优势的公司。我们希望给客户提供真正的服务。我们的最新产品将会在未来的几个月内正式发布,我们也将在真实产品的应用中展示我们的量子优势。量子计算机的应用涉及各行各业,其中也包括机器学习、材料科学、网络安全、错误探测。   再举个简单地例子,我们和大众进行合作,希望可以减轻北京的交通压力。我们使用了量子算法来计算在北京的418辆出租车的交通流向,只用了22秒,并且找到了最好的方法来缓解北京的出租车的交通阻塞问题。   那么我们在量子计算机方面已经发展到什么阶段了呢?   图片上显示的横轴是时间,纵轴是计算性能,我们发表了很多论文证明我们已经超过了图中绿线的水平,接下来几个月发布的新的产品,将会在性能方面有所提升,我们也正在不断地提升自己的系统,并且和消费者进行合作,向其提供更多的服务和产品。 随着整个量子运算的能力越来越高,在未来量子计算使用起来也会更加方便。上图是我们自2004年以后所取得的一些进步,可以看到Gate Model(红色的线)的增长率比较低,D-Wave一开始也是一个Gate Model量子计算机的方式,后来我们决定放弃这种方式,开始使用量子退火的方式,可以看到增长的速度非常快。我们在这个领域已经超过20年,也一直在见证当前量子计算的发展。   现在有很多量子计算机供应商,不过我们相信D-Wave已经处于量子计算的前沿阵地。量子计算在未来将会是一个必要的计算工具,它可能不会替代传统的计算资源,但它会成为我们传统计算的辅助工具。   D-Wave也是目前唯一可以提供商用的量子计算机的公司,如果大家想要把量子计算机放到自己的数据库,那么我们可以给大家提供这样的服务,而且,我们现在有很好的理论,但实际上使用这些理论是非常困难的,想要大规模应用量子计算来解决困难的问题还需要几年的时间,我们也正在不断的进步,相信我们的技术是促进量子计算机商用化的最佳捷径。   相信量子计算将是一个非常令人兴奋的领域! 来源链接: http://tech.sina.com.cn/it/2018-01-30/doc-ifyqzcxi1720058.shtml
个人分类: 量子计算|833 次阅读|0 个评论
[转载]中科大潘建伟团队在光量子处理器上成功实现拓扑数据分析
quantumchina 2018-1-29 12:52
原标题:学界 | 中科大潘建伟团队在光量子处理器上成功实现拓扑数据分析 选自arXiv 作者:黄合良 等 机器之心编译 参与:刘晓坤 近日,来自中国科学技术大学、中国科学院-阿里巴巴量子计算实验室等机构,由潘建伟院士、陆朝阳教授带领的团队完成了在光量子处理器上执行拓扑数据分析(TDA)的原理性实验演示验证。TDA 可以抵抗一定噪声的干扰,从数据中提取有用信息,而量子版本的 TDA 能实现对经典最优 TDA 算法的指数级加速。量子 TDA 算法也是继 Shor 算法(用于大数因子分解进行密码破译)、Grover 算法(用于搜索问题)、HHL 算法(用于解线性方程组)之后,人类在量子计算机上可使用的一种新算法。该研究为在量子计算机上进行高维数据处理、甚至人工智能算法领域的探索打开了方向。 论文:Demonstration of Topological Data Analysis on a Quantum Processor 论文链接:https://arxiv.org/abs/1801.06316 通过识别带噪声、非结构化数据的底层结构,拓扑数据分析(TDA)可以鲁棒地从数据中提取有用信息。最近,人们提出了一种有效的量子算法 ,用于计算数据点的贝蒂数(一种拓扑特征,描述散点图中各个维度的拓扑洞的总数)。我们利用一个六光子量子处理器实现了这个量子算法的原理性实验演示验证,成功地分析了一个包含三个数据点的网络的贝蒂数拓扑特征,为量子计算领域的数据分析提供了新的探索思路和研究方法。 在探索性数据分析和数据挖掘中,我们的收集到的大数据通常编码了非常有价值的信息,然而,这些数据往往规模很大,并且是非结构化的、带噪声的、不完整的,从而使得从数据中提取有用信息变得很有挑战性。TDA 将拓扑学与数据分析进行结合,可以从无结构的数据中分析数据隐含的拓扑特征,对噪声具有较强的鲁棒性,提供了研究此类数据的一种分析方法。特别地,持续同调(persistent homology) 通过计算和分析数据的贝蒂数,用于提取数据的有用信息。其中,贝蒂数是一种拓扑特征,第 k 个贝蒂数β_k 表示为数据集中的 k 维洞的数量。例如,β_0、β_1、β_2 分别代表了连通分支、一维洞和二维洞的数量。通过贝蒂数可以对数据进行了抽象化表示,将其转化为拓扑性的描述,这对于理解数据集的底层结构很有价值。使用 TDA 分析数据的贝蒂数这一分析方法近年来得到了快速发展,有望应用于图像识别 、信号处理 、网络科学 、传感器分析 、大脑连接 和 fMRI 数据分析 等。 然而实际上,当处理复杂数据的时候,经典的拓扑数据分析方法将面临计算量巨大的问题:n 个数据点的数据集拥有 2^n 个潜在拓扑结构,即使使用最强大的经典计算机也难以求解规模不太大的数据集。目前,估计数据集合所有阶贝蒂数的最优经典算法需要的时间复杂度为 O(2^nlog(1/δ)) ,其中δ为精度。此外,对某些类型的拓扑结构 ,计算所有阶贝蒂数是 PSPACE-hard 的。 最近,Lloyd 等人 将量子机器学习方法扩展到 TDA 中,以高效地计算所有阶的贝蒂数。如果从一个数据集中生成的 k-单纯形的比例足够大,则以精度δ计算所有阶贝蒂数的量子算法耗费的时间复杂度为 O(n^5/δ),相比已知最好的经典算法,具有指数加速。此外,该算法不需要大规模的量子随机存取存储器(qRAM) ,只需要 O(n^2 ) 的比特数即可——用于存储 n 个数据点之间所有两两间距的信息。该算法的潜在计算加速能力和可行性有望令量子 TDA 作为未来量子计算机的新算法(量子算法包括 Shor 算法、 、量子模拟 、求解线性系统 和线性向量的分类 等)。 我们首次利用一个小规模的光子量子处理器,进行了量子 TDA 算法的原理性演示验证。在实验中,我们在两种不同的距离参数下,监控和识别三个数据点的贝蒂数的拓扑特征,成功地展示了量子 TDA 算法的可行性,表明数据分析可能是未来量子计算的重要应用。 为了计算贝蒂数,我们首先以数据点之间的关系拓扑地表征数据。我们使用截断距离将数据点分类为单纯形(参见图 1(a)),即数据点的全连接子集。单纯形的集合构成一个单纯复形,然后可以从该拓扑结构中提取贝蒂数等特征。这些拓扑结构如图 1(b-d)所示。 通过确定ϵ所有范围的贝蒂数的完整集合,我们可以构建条形码(参见图 1(e)) ,即贝蒂数的距离依赖形式的参数化版本。H_k 区域内的每个条形代表一个 k 维洞,条形的长度表示其在参数中的存在持续性。利用条形码,我们可以定量地将短条形当做拓扑噪声过滤掉,并将长条形作为重要的特征(条形的长度表示其对抗间距变化的存在持续性)。在图 1(e)中,在 H_1 区域有一个条形延展了很长的范围,从而我们确定该非结构化数据(图 1(b))的底层拓扑特征是一个圆。 图 1:(a)k-单纯形(图中展示了 k=0、1、2、3 的例子)是 k+1 个数据点的全连接集合。(b)数据点的散点图。(c)使用某些任意的指标以量化数据点之间的距离,(以数据点为,圆心直径为ϵ)圆彼此接触的数据点之间以边连接。(d)单纯复形是单纯形的集合。着色区域表示复形中的不同单纯形。(e)条形码的结构。水平轴代表距离ϵ。在 H_k 的任意区域中,条形和垂直线的交点数等于(距离ϵ对应的)贝蒂数β_k。 一般地,量子 TDA 算法有两个主要步骤(参见图 2(a))。首先访问数据,构造的拓扑结构 k-单纯形的均匀混态。该步骤的时间复杂度依赖于 k-单纯形的比例,在最差的情况下是指数量级的。但是在实际应用中,复杂拓扑结构中 k-单纯形的比例一般不会太小。所以,在实际应用中,无论用经典算法还是 Grover 算法(进一步的二次型算法加速)都可以高效地实现这个步骤。在量子算法中,这个步骤可以分成两小步:(1a)单纯复形量子态的制备;(1b)均匀混态的构造。(2)揭示结构中的拓扑不变量,这个步骤使用相位估计算法 实现,在量子计算机上,该算法相对经典算法能实现指数级加速,实际证明 它的时间复杂度为 O(n^5/δ),其中δ为计算精度。 图 2:量子 TDA 的量子线路。(a)原始量子算法线路的简单示意图。(b)包含三个数据点的散点图。 (c)1-单纯形量子态(3ϵ_14) 的图表征。第一个和第二个数据点由一条边连接。 (d)1-单纯形量子态(4ϵ_25) 第一个数据点分别和第二个和第三个数据点连接。(e)5 量子比特的优化量子线路。不同颜色的模块代表 4 个基本阶段(单纯复形制备、构造混态、相位估计、测量)。 图 3:实验装置。中心波长为 394nm 的紫外激光脉冲(脉冲持续时间为 150 飞秒,脉冲重复频率为 80MHz)通过三个偏硼酸钡(BBO)晶体 以生成三对纠缠光子对 (|H|V+|V|H)/√2(空间模式分别为 1-2、3-4、5-6,细节参见附录 1)。光子 2(3)和 4(5)在 PBS 上进行干涉。所有的光子使用 3-nm 带宽的过滤器进行光谱过滤。C-BBO:三明治形态的 BBO+HWP+BBO 组合;QWP:四分之一玻片;POL:起偏器;SC-YVO4:用于空间补偿的 YVO4 晶体;TC-YVO4:用于时间补偿的 YVO4 晶体。 图 4:最终的实验结果。最终的输出通过在泡利-Z 基上测量本征值寄存器确定。两个不同 1-单纯形的态输入的测量期望值(蓝色条形)和理论预测值(灰色条形)如(a)和(b)所示。误差线表示 1 个标准偏差,它是根据原始数据,通过泊松分布推导得出的(c)0ϵ5 的条形码。由于不存在 k≥1 的 k 维洞,这里只给出了第 0 个贝蒂数。当 0ϵ3 时,所有点之间都没有连接,因此第 0 个贝蒂数等于数据点个数,即 0ϵ3 时有三个条形。当 3ϵ14 和 4ϵ25 时,第 0 个贝蒂数分别等于 2 和 1。 来源链接: http://tech.ifeng.com/a/20180125/44859818_0.shtml 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子机器学习|1327 次阅读|0 个评论
[转载]IBM科学家带您走进量子编程工具QISKit
quantumchina 2018-1-26 15:50
英特尔在拉斯维加斯的CES(消费者电子展)大放异彩之后,IBM不甘示弱,在ACM(美国计算机协会)直接开起了直播。 首先我们先来了解一下这个非常实用的学习平台——美国计算机协会(Association for Computing Machinery)。这是一个国际性的科技教育组织,创立于1947年,是世界上第一个科学性及教育性计算机学会,总部设在美国纽约。ACM每年都会举办世界性的讲座及会谈,以供各会员分享他们的研究成果。近年来,ACM积极开拓网上学习的渠道,以供会员在业余时间或家中提升自己的专业技能。 2018年的第一次网络学习研讨会,ACM邀请到了IBM的科学家Jay Gambetta,同世界各地对量子计算感兴趣的研究人员、学生等群体进行交流。Jay Gambetta是IBM量子计算和信息理论的负责人。他也曾是美国计算机协会举办图灵奖设立50周年庆祝活动的小组成员。 在这次网络讲座中,Gambetta将其讲述内容分为三个部分: · 量子计算令人振奋的原因 · 量子计算当下的现状 · 量子编程工具QISKit Part I Part 1 Gambetta提到了量子计算令人振奋的第一个原因,也就是我们常说的计算能力问题:摩尔定律的极限意味着日后芯片的处理能力无法再以指数形势增长,而量子计算机的计算能力却能够解决当前经典计算机无法解决的问题。这样看来就不难发现量子计算机的魅力所在。此外,Gambetta还比较了容错型量子计算和准量子计算(非容错型),同时也提到了量子退火技术。 Part 2 关于量子计算的当前现状,Gambetta以IBM的超导量子比特芯片硬件给我们做说明。下面仅截取讲座中一些图片仅供参考。 图:IBM Q超导量子比特设备的内部结构图 图:通过总线谐振器实现量子比特的耦合 Part III Part 3 QISKit,即量子信息编程工具包(quantum information software kit),是Gambetta此次网络讲座的重点。QISKit是开展实验和模拟的用户界面,能够推动在容错型量子计算到来之前的研究和应用。此外,QISKit的软件栈也在不断增长,包括更高水平的教学内容和示例。QISKit也是连接IBM QX和本地设备的界面。这一开源项目每隔几月就会发布新的版本。 来源链接: http://mp.weixin.qq.com/s?src=11timestamp=1516952418ver=659signature=KEIIZvCGRFdv5FG53MmIInvumWbqwvzpmOW42UvcdZbfq3YFmJLka-KkyVfxxGNHYU5-sNkEwxu2NYYcQDxH8PYkKN-JJgYIV837phMOKhL6EQMgrC2pxX3AlmSfWI8dnew=1 IBM量子计算机的运行声音是什么样? http://v.youku.com/v_show/id_XMzI4NjgwMTY5Ng==.html?spm=a2h0k.8191407.0.0from=s1.8-1-1.2 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子计算|1477 次阅读|0 个评论
[转载]30位新加坡科学家到访阿里巴巴
quantumchina 2018-1-26 15:28
今日,阿里技术官微发布消息称,30多位来自亚洲第一高校——新加坡南洋理工大学的顶级AI科学家到访杭州阿里巴巴总部,就人工智能相关领域的前沿技术和发展趋势召开研讨会,寻求双方在AI领域的全方位技术合作。 在这支科学家访问团中,包括了六位IEEE Fellow(国际电气和电子工程师协会院士)和二十余位教授、研究员。他们的研究方向主要集中在机器学习、计算机视觉、数据挖掘、云计算、物联网等人工智能相关领域。 据了解,人工智能被新加坡列为国家战略技术发展方向。自2017年推出“国家人工智能计划”以来,新加坡政府倾全国之力聚集人工智能领域的全球顶尖技术专家。 而新加坡南洋理工大学是顶尖AI人才的聚集地。2018年,南洋理工大学跻身QS(英国教育组织Quacquarelli Symonds)世界大学排行榜第11名,成为亚洲第一高等学府。 那么,来自亚洲第一名校的顶尖AI科学家在这样一个时间点,聚集到一家中国企业。不得不让人遐想:阿里巴巴将有什么大动作? 分析人士认为,此次访问,或同达摩院有关。早在2017年10月云栖大会上,阿里巴巴就宣布,达摩院会在北京、杭州、新加坡、以色列、美国、莫斯科等地设立不同研究方向的实验室,并将持续招募全球顶尖科学家加盟。 近年来,阿里巴巴一直在马不停蹄地寻觅世界顶尖人才。包括美国密歇根州立大学终身教授金榕、前亚马逊最高级别华人科学家任小枫、密西根大学终身教授、世界顶级量子科学家施尧耘、新加坡南洋理工大学终身教授王刚等在内的世界级科学家,均选择回国加入阿里。几天前,美国国宝级科学家、两届理论计算机最高奖“哥德尔”奖得主马里奥·塞格德也宣布入职阿里巴巴达摩院位于西雅图的量子实验室。 来源链接: http://www.sohu.com/a/219068190_114930 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子机器学习|1467 次阅读|0 个评论
[转载]量子技术的应用领域
quantumchina 2018-1-24 12:20
量子信息科学(QIS)基于独特的量子现象,如叠加、纠缠、压缩等,以经典理论无法实现的方式来获取和处理信息,技术应用包括量子传感与计量、量子通信、量子模拟及量子计算等方面,它将在传感与测量、通信、仿真、高性能计算等领域拥有广阔的应用前景,并有望在物理、化学、生物与材料科学等基础科学领域带来突破,未来可能颠覆包括人工智能领域在内的众多科学领域。 量子传感与计量:用途多多 QIS在传感与计量领域有多种用途。 利用纠缠现象,可将不同的量子系统彼此相连,对一个系统的测量会影响另一个系统的结果——即使这些系统在物理上是分开的。两个量子系统处于略有不同的环境中,可通过彼此干涉提供有关环境的信息,从理论上讲,这种原子干涉仪提供的感知性能要比传统技术高出几个数量级。原子干涉仪除用于惯导外,还可改装为重力仪,以及用于地球系统监测、矿物质精确定位等。量子授时装置,如美国国家标准技术研究院(NIST)研制的量子逻辑钟,是目前世界上精度最高的授时装置之一。光子源及单光子探测技术可提高光敏探测器的校准精度,用于微量元素的探测。 量子加密通信:安全性更高 传统加密技术使用密钥:发送方使用一个密钥对信息进行编码,接收方使用另一个密钥对信息进行解码,但这样的密钥有可能被泄露,从而不可避免地遭到窃听。不过,信息可以通过量子密钥分布(QKD)进行加密。在QKD中,关于密钥的信息通过随机偏振的光子发送,这限制了光子,使其仅在一个平面中振动。如果此时窃听者测量信息,量子状态就会坍塌!只有拥有确切量子密钥的人,才能够解密信息。 量子通信还可能应用于虚拟货币防伪和量子指纹鉴定等等。未来,量子网络将连接分布式量子传感器,用于全球的地震监测。而在5年—10年内,有望开发出可靠的光子源及相关技术,实现远距离量子信息传输,并推动量子处理器之间数据共享协议的相关理论研究。 量子模拟:建模材料最可能 量子模拟器使用易操控的量子系统,来研究其他难以直接研究的量子系统属性。对化学反应和材料进行建模是量子模拟最有可能的一个应用。研究者可以在计算机中研究数百万美元的候选材料,而无需再花费数年、投入数亿美元,却只能制造和定性少量材料。不管目标是更强的飞机用高分子材料、更有效的车用触媒转化器、更好的太阳能电池材料和医学品,还是更透气的纤维等,开发环节加快将会带来巨大价值。 基于不同技术的量子模拟器原型已在实验室环境得到了验证。 量子计算:未来研究显神通 量子计算是通过叠加原理和量子纠缠等次原子粒子的特性来实现对数据的编码和操纵。在过去的几十年里,量子计算只存在于理论上,但近些年的研究已经开始出现有意义的结果,开发并验证了多种量子算法,研制出了量子计算机实验原型机,未来的5年—15年里,我们很有可能制造出一款有实用意义的量子计算机。 量子计算机的出现将给气候模拟、药物研究、材料科学等其他科研领域带来巨大的进步。不过,最令人期待的还是量子密码学。一台量子计算机将可以破解目前所有的加密方式,而量子加密也将真正无懈可击。 来源链接: http://www.xinhuanet.com/science/2018-01/24/c_136919980.htm 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子信息|982 次阅读|0 个评论
[转载]硅量子计算机研发加速
quantumchina 2018-1-24 12:14
由硅制成的量子计算机能够利用大规模制造技术,更简单方便地制造出商用设备。 图片来源:《自然》杂志官网 科技日报记者 刘 霞 量子计算机由于强大的计算潜能和由此获得的广泛用途而“引无数英雄竞折腰”。在这个群雄争霸的量子计算机战国时代,各路英豪各出奇招,提出了不同的量子计算机物理体系,比如采用囚禁离子、超导等,这些方法可谓“春兰秋菊,各有胜场”。 而另一种比较低调的方法——用硅制造量子计算机,随着材料科学和工程学领域的不断进步,逐渐获得很多科学家的青睐。据英国《自然》杂志近日报道,半导体巨头英特尔公司已经研制出了首台采用传统计算机硅芯片制造技术的量子计算机。业内人士认为,用硅制造量子计算机意味着可以利用成熟的大规模制造技术,更容易地制造商用设备。 当然,也有不少专家指出,距离真正研制出实用的硅量子计算机,还需时日。 硅量子技术春天到来 目前,许多实验室已经开发出了量子计算机原型,但它们通常要在接近绝对零度的温度下工作。这场计算竞赛中的领跑者通常使用下列两种方法之一来编码量子位:利用被囚禁在势阱中的单离子,或利用在超导回路中振荡的电流。但这两种系统都需要精准控制:离子技术使用复杂的激光系统来读写每个量子位,超导量子位则必须各有一个装置来用无线电波控制它们。 而硅技术的拥趸看到了使用半导体来编码量子位的巨大优势。比如,这样的量子位可以更简单地利用蚀刻在芯片上的微型电线来操控;另外,如果传统芯片的大规模制造技术可应用到量子领域,那么技术转化为商用产品将会变得更容易。 上海交通大学教授金贤敏对科技日报记者说:“采用硅晶体管开发量子位,还有一个原因在于,相对于超导材料,硅量子位的可靠性更高。谷歌研究员此前曾发布论文指出,目前所有的量子位都容易出错,因为它们使用的量子效应非常脆弱,即使对设备的噪音加以控制,也能在远不足一微秒的瞬间扰乱量子叠加。” 现在,首台采用传统计算机硅芯片制造技术的量子计算机已由英特尔公司研制成功,并交付给了合作伙伴——位于荷兰代尔夫特理工大学的研究机构。英特尔的这台低调设备或许就像一朵羞答答的迎春花,昭示硅量子技术春天的到来。 一些科学家也表示,在“硅路线”上看到了希望。澳大利亚新南威尔士大学米歇尔·西蒙斯的团队也在开发用硅制造量子计算机的方法。去年5月,西蒙斯创办了初创企业“硅量子计算”,澳大利亚政府提供了资金支持。 商用前途漫漫仍可期 其实,用硅制造量子计算机的想法并不新鲜。早在20年前,美国马里兰大学帕克分校的实验物理学家布鲁斯·凯恩,就率先建议利用嵌入硅的磷原子核的磁向(自旋)来编码量子位。与此同时,IBM的理论物理学家戴维·文森佐和瑞士巴塞尔大学的丹尼尔·鲁斯,也提出了一种用半导体内部移动电子的自旋来存储信息的方法。 有不少研究人员针对这两项建议进行了实验性探索,但正如普林斯顿大学物理学家杰森·佩塔所说,囿于相关材料科学和工程领域多年来进展缓慢,硅量子计算机领域鲜有重大突破。 鉴于此,近年来,西蒙斯担任“掌门人”的新南威尔士大学量子计算和通信技术中心做了大量基础工作,他们开发了一种只需要极少控制导线的制造技术,可避免量子设备扩大后不可避免的拥挤问题。无独有偶,2017年,佩塔和代尔夫特大学的利芬·万德斯潘分别领导的团队均获得了里程碑式进展——他们设计出了第一个完全可控的双量子位硅元器件。 10年间,英特尔公司已在代尔夫特累计投资5000万美元,目前,该公司正为万德斯潘研制多量子位电子自旋设备。英特尔量子硬件开发负责人詹姆斯·克拉克说:“我们希望通过加速自旋量子位来与更成熟的方法竞争。” 西蒙斯计划在5年内建造一台10个硅量子位的计算机。谷歌、IBM等公司则“押宝”其他技术,试图构建出约有50个超导量子位的计算机;英特尔也在朝这个方向进发,但它同时投资了硅量子计算机技术,希望通过广撒网,最终在量子计算机竞争中拔得头筹。 金贤敏也对科技日报记者表示:“即使超导量子比特风头正劲,似乎更有希望,但其实其错误率等问题仍然很大,前景不容乐观。尽管硅量子计算目前能实现的量子位数最少,量子门实现的时间最晚,但成熟的硅基工艺却为未来的成长潜力提供了很大的想象空间。” 量子计算的黄金时代即将到来,它将为运算带来指数级加速,但无人知晓,最终哪种量子位能脱颖而出,助人类研制出最强大的实用型量子计算机,只有时间能告诉我们答案,让我们拭目以待。 (科技日报北京1月23日电) 来源链接: http://www.stdaily.com/kjrb/kjrbbm/2018-01/24/content_627823.shtml 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
个人分类: 量子计算|892 次阅读|0 个评论
[转载]第二次量子技术革命
quantumchina 2018-1-24 12:02
期待第二次量子技术革命 ——访英国国家物理实验室郝玲教授 英国国家物理实验室郝玲教授本报记者 郑焕斌摄 编者按 自去年底IBM公司推出全球首款50量子比特的量子计算原型机之后,全球量子计算领域的竞争进入关键阶段,“量子霸权”成为各国科研机构竞相追逐的目标。究竟量子技术可能带来哪些变革?未来研发的重点方向又是什么?科技日报国际部记者就此采访了国内外专家,为读者进行了梳理。 近年来全球量子技术的竞争,已不仅局限于谷歌等巨型公司之间,英美政府和欧盟也纷纷加入角逐。“其根本原因是量子技术有望成为未来各国竞争的制高点。”英国国家物理实验室(NPL)郝玲教授近日在接受科技日报记者专访时表示。 英国引领欧盟量子技术研究 英国政府早在2013年就宣布将在此后5年内投资2.7亿英镑,加速量子技术的商业化进程;2015年9月发布了《英国量子技术路线图》;2016年12月发布的《量子技术:时代机会》报告认为人类正处在第二次量子革命的前夜,选定了原子钟、量子成像、量子传感器和测量、量子计算和模拟以及量子通信作为五大重点研发领域。英政府首席科学顾问马克·沃尔帕特表示,这些领域“具有生产新产品和服务的潜力与价值”。 郝玲教授说:“英国是欧洲量子技术研究的先驱,政府在政策推动方面也极富远见。尤为重要的是,在自身重视量子标准研究的同时,它还以自己的经验和影响力,对欧盟量子技术旗舰计划的酝酿、四大支柱领域的甄选都产生了重要影响。” 据郝玲教授介绍,2013年英国国家物理实验室(NPL)专门成立了量子计量研究院,目前它正在进一步扩建为先进量子计量研究院——建立一批先进实验室,从固体物理和光学技术两个技术线路,加强对量子标准和传感器的研究。2016年4月欧盟发布了《量子宣言(草案)》,计划于2018年启动历时10年、投资规模为10亿欧元的量子技术旗舰项目。在该项目酝酿过程中,欧盟汲取了石墨烯旗舰项目没有把“石墨烯标准”放在重要地位的教训,借鉴了英国的经验。目前确定的四大支柱领域为:量子标准和传感器、量子计算机、量子通讯以及量子模拟。 量子标准和传感器是灵魂 郝玲教授认为,量子标准和传感器密不可分,只有使用基于量子原理的器件才能测定量子标准。量子技术产业的发展需要一套完整标准,依据标准把很多器件搭成一个系统;而每一个器件的组装、每一步运行,都需要标准支撑,唯如此才能最终达到系统的完整性。 她说,欧盟甄选的四个领域具有代表性,对未来具有战略意义,有助其在全球竞争中占据有利地位。前三个领域缺一不可,而量子模拟则是在前三项基础上扩展到很多应用领域,如大数据管理、模拟新材料和化学反应过程,以及高温超导机理等。即便量子计算机目前暂时无法实现“量子霸权”所需的量子比特数,其运算速度和效率也大大超出传统计算机。 郝玲教授强调:“英国和欧盟值得借鉴的共同经验是,都把人才培养放在重要地位。”英国已在牛津、伯明翰、格拉斯哥和约克等4所大学建立了量子技术研究中心;NPL也与伦敦大学学院、帝国理工和布里斯托3所大学合作建立了3个博士点,联合培养专门人才。 中英“强强合作”添新动力 2017年9月,我国发射的“墨子号”卫星利用光子的量子纠缠原理在北京和维也纳之间建立远程密锁通信,这标志着我国在量子通信领域的研究达到全面领先的优势地位。英国《量子技术:时代机会》也认为,“中国在量子技术论文发表方面居全球第一”。 郝玲教授表示:“中国的成就令人瞩目。最近中英发布的《中英科技创新合作战略》,搭建了未来十年的合作框架。这为中英在量子计算领域的研究和联合培养人才注入了新动力,尤其强调将致力于共同推动知识产权保护,以支持两国创新与贸易合作,这种举措将清除在石墨烯等领域合作中曾出现的障碍,有助于把英国的创新理念与中国的技术、市场有机结合起来,实现强强联合。中英加强合作有助于在量子计算技术领域走在世界前列。” 她认为,中英两国还应加强联合培养量子人才,通过建设专项博士点等方式,激励双方学者全方位交流——既要着眼于学术合作,更要着眼于密切文化交流。 (科技日报伦敦1月22日电) 来源链接: http://www.stdaily.com/kjrb/kjrbbm/2018-01/24/content_627821.shtml 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space
个人分类: 量子信息|1038 次阅读|0 个评论
[转载]日企正式启动量子计算机商业化研发
quantumchina 2018-1-24 11:57
参考消息网1月23日报道 日媒称,日本企业将正式启动运算速度远超现有计算机的量子计算机的研发工作。 据《日本经济新闻》1月22日报道,日本电气公司(NEC)将从2018年开始研发相当于“大脑”的基本回路,计划于2023年投入使用,富士通计划在三年时间里对相关技术投入500亿日元(约合4.5亿美元)。虽然日本企业在基础研究方面领先,但在商业化方面已经落后。政府的方针是从2018年开始强化对大学等研究机构的支援,以产官学三方合作实现反超。 利用电子等物理现象,量子计算机可以在瞬间处理超级计算机需要数千年才能解决的问题。量子计算机在促进人工智能飞跃发展、DNA分析、提高自动驾驶汽车选择出行线路的效率等方面有望创造新的价值。 报道称,NEC将要研发的“量子退火”算法擅长的是从庞大的选项中选取最佳答案。按计划,2018年制造基本回路,2023年之前投入数十亿日元研发实体机。 NEC的研发成果的容量将达到2000到3000量子比特,可瞬间导出数百座城市间最省时的出行线路。在该领域领先一步的加拿大D波系统公司发布的最新机器模型已达2000量子比特。NEC则表示,即便量子比特处于相同水平,它们的产品性能将更高。通过产官学的三方合作,计划在十年内达到1万量子比特的水平。 富士通将在2020年前对量子计算机相关技术投入500亿日元,还将向在该领域有着更多研究经验的加拿大多伦多大学派遣研究人员,推动基础研究。此外,富士通还将在面向量子计算机的软件领域与加拿大1QBit公司开展资金合作,拓展用户范围。 报道称,在量子计算机领域,加拿大的D-Wave系统公司和美国的国际商用机器公司都已经启动商业化进程,也有日本企业开始进行证实性试验。NEC早在20多年前就着手开始量子计算机的研发,但在实际运用方面却被海外企业超越。 来源链接: http://news.sina.com.cn/o/2018-01-23/doc-ifyqtycx2521215.shtml 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space
个人分类: 量子计算|1294 次阅读|0 个评论
[转载]量子机器学习入门
quantumchina 2018-1-22 11:21
量子机器学习(Quantum ML)是一个结合量子物理和机器学习(ML)的跨学科领域。它是一种互利互惠的结合——利用量子计算产生 ML 算法的量子版本,使用传统的 ML 算法分析量子系统。本文将介绍量子机器学习。 在 2017 年最近的一次大会上,微软 CEO Satya Nadella 使用玉米迷宫的类比,解释了传统计算机和量子计算机的计算方式的不同之处。在尝试寻找一条穿过迷宫的路径时,传统的计算机会找一条路径深入下去,遇到阻碍就返回;重新开始,再遇到阻碍就再返回,直到无路可走。这种方法尽管能找到答案,但是非常耗时。 相比之下,量子计算机“展现了惊人的并发性”,“它能同时探索玉米迷宫里的每一条路径”,因此,求解一个问题所需的步数指数级减少了。 并发性源自量子物理中的概念——量子位、量子叠加和量子纠缠。 量子计算 量子是任何物质(例如能量和质量)的最小可能的单元。在 1900 年,马克斯·普朗克提出,在原子和亚原子级别,物质的能量包含于称为量子的离散的包之中。 根据环境变化,量子有时候表现为波,有时候又表现为粒子,这种特性称为波粒二象性。量子论主要是要找到粒子出现在空间中给定点 x 的概率,而不是找到其具体位置。 传统的计算机使用经典的位(0 或 1)执行运算。然而,量子计算机使用量子位执行运算。 量子位可以表示为: 围绕原子核做轨道运动的电子:|1和|0分别表示激发态和基态。 光子:|1和|0是两种光子的极化。 量子位同时表现为 0 和 1,这种现象称为量子叠加。 虽然一个粒子能同时处于多种量子态,但是一旦我们测量该粒子的能量或者位置,它的叠加状态就会丢失而只处于一种状态。 量子位被定义为指向单位球面上的点的一对复向量。传统上,直接向上(正半轴)的量子位被表示为列向量|0,向下的向量被表示为|1(例如,图中的量子位是|0)。 即使相距很远,量子粒子间也能彼此相互作用,参照彼此来描述,而不是相互独立,这种现象称为“量子纠缠”。 在测量时,如果一对纠缠粒子中的一个被确定为处于“向下”的自旋状态(即最低能态,电子与其磁场对齐时),则这个结果被传达给另一相关粒子,该粒子现在处于“向上”的相反旋转状态。量子纠缠使量子位彼此瞬间相互作用,即使它们相距遥远。 量子计算如何带来无穷的并发性? 两个相互作用的经典位有四种形式:00、01、10 和 11。信息的这两个组成部分中的每一个(第一个位和第二个位)在给定时间仅表示二进制中的一个值。向普通计算机添加更多位仍然只表示一个二进制数。 一个量子位可以同时处于两个状态(0 和 1)。因此,两个相互作用的量子位可以同时存储全部 4 个二进制值。通常,“n”个量子位可以同时表示“2^n”个经典二进制值。因此,一个 300 量子位的量子计算机可以同时探索 2^300 个可能的解决方案,而不像传统计算机那样一次一个解决方案,这带来了巨大的并行性。给量子计算机增加更多的量子位将会指数级增加计算机的计算能力。 一台真正的量子计算机还没有实现,因为增加更多的量子位,并处理需要 -452°F 低温以保持稳定的亚原子粒子,这是一项艰巨的任务,而建造一台这样的计算机更是如此。因此,我们正在努力,使用微软的量子模拟器 LIQUi|(微软的 Azure 云计算资源扩展自它)模拟 40 个量子位的运算。 量子计算可以解决专门的科学问题,如分子建模、高温超导体的创建、药物建模和测试及为有机电池的创建选择分子。对于诸如观看视频或编写 Word 文档等一般任务而言,量子计算并不是最佳选择。 那么,量子计算如何和机器学习结合在一起? 量子机器学习 计算大型矩阵的特征值和特征向量 执行经典 PCA 算法的方法之一是对数据协方差矩阵进行特征值分解。但是,在高维数据的情况下,这效率低下。 一个未知的低秩密度矩阵的量子 PCA 可以揭示与大特征值相关的量子特征向量,比线性规模的经典算法快指数级倍。 使用量子计算机寻找近邻 在这里提出的用于计算监督学习和无监督学习中近邻的量子算法,为计算距离指标(例如欧几里德距离和内积)所需的输入数据的查询数量设置了上限。最好的情况是查询复杂度呈现指数式和超指数式降低,最坏的情况是查询复杂度呈多项式级降低。 量子方法改进希格斯玻色子实验 在希格斯玻色子实验中,希格斯玻色子粒子在产生后几乎立即衰变成各种质量较小的粒子集合。最常见的(我们可以观测到的)衰变是: 图片来源:http://www.particleadventure.org/the-higgs-boson-decays-into-other-particles.html 信号:希格斯玻色子衰变产生的 4 轻子事件 本底:非希格斯玻色子衰变产生的 4 轻子事件 在解决“希格斯信号与本底”ML 优化问题时,人们尝试将信号与本底分离开来。这项研究发现,混合使用量子退火和经典退火比最新的 ML 方法更有优势。 量子算法求解线性方程组 一些量子技术也有助于解决 ML 问题中的子问题,如矩阵求逆。 如果给定矩阵 A 和向量 b,找到一个向量 x,使得 Ax = b。对于求解一个线性方程组的量子算法,我们不需要知道解 x 本身,而是求解一个与 x 相关的某个算子的期望值的近似值,对于某个矩阵 M,即 x'Mx。 传统的 ML 算法已经被用来利用、控制和测量表现出了量子现象(如玻色 - 爱因斯坦凝聚体(BEC's))的系统。 BEC 是一种物质状态,在这种情况下,稀释的玻色子气体被冷却到非常接近绝对零度的温度。在 BEC 中,大多数玻色子处于基态。在宏观层面上,量子效应通常不会出现,但 BEC 在宏观层面能显示可见的量子效应。科学家创造了一个机器学习系统,发现创建高质量 BEC 的最佳蒸发速度。另外,优化的 BEC 创建过程更容易理解,因为机器学习模型确定了哪些参数对于创建 BEC 是必不可少的。 ML 算法有助于量子器件设计中的几个构建块。ML 算法有助于解决以下问题: 检测量子变化点 量子器件可以发射某种状态的粒子,在某个未知时刻开始发射不同状态的粒子。为了检测这个变化点,科学家比较了局部测量和全局测量的性能。 局部测量:每个粒子进入探测器之后立即测量其状态 全局测量:所有粒子进入探测器之后再行测量 对于局部测量,Sasaki 将未知状态的分类框定为一种监督学习。最后,发现在检测突然的量子变化时,全局测量比局部测量更胜一筹。 量子位状态二分类 科学家们训练了一个量子机器学习系统,将量子位状态分类为 0 和 1,内存只随着训练量子位数的呈对数增长。即使在一个足够大的训练集的组成变化下,它也表现良好。 量子去相干 当量子系统不完全隔离时,系统中的信息就会丢失到其环境中。这称为量子退相干,导致量子行为的损失。ML 技术被用来了解更多的关于量子位的随机相移过程,来预测量子位去相干和稳定未来的量子位相移。 重现热力学可观测值 利用称为玻尔兹曼机的递归神经网络可靠地再现了诸如能量、比热和磁性的热力学可观测量。玻尔兹曼机使用蒙特卡罗采样生成的数据集进行训练。 要获得关于量子 ML 及其最新进展的更多信息,可以参考以下链接: 量子计算智能——滑铁卢大学 https://uwaterloo.ca/institute-for-quantum-computing/blog/post/quantum-computational-intelligence 使用量子计算机搜寻希格斯玻色子 https://www.nature.com/news/quantum-machine-goes-in-search-of-the-higgs-boson-1.22860 查看英文原文: https://www.kdnuggets.com/2018/01/quantum-machine-learning-overview.html 作者|Reena Shaw,KDnuggets 来源链接: https://mp.weixin.qq.com/s?src=11timestamp=1516591035ver=651signature=rHrlhNb3A9IwLsEijsxLUX2T5RuOMRf6UVIJgQrxVaAHSvswnhmr-gYX8R85hVPJEtF7NnbV2QUFvGiodJHgZkdbQ*ggb9UEUKRGOexXw7WTVIxbhKhveI8IBjzd9xsRnew=1
个人分类: 量子机器学习|2563 次阅读|0 个评论
[转载]量子模拟和人工智能 (2)
quantumchina 2018-1-21 18:13
虽然略显无力,在未来人眼里我们如今的研究方法也许就是幼稚,但科学却从未停止对人类思维的探索。我们相信有一天人类能够了解自己,甚至可以模拟人类的思维而创造机械的思维,人工智能。2014年以后很多位互联网的科技大佬在不同场合要人们警惕人工智能。但这样的关于人工智能的恐慌已经有过好几次,第一次源于计算机的诞生。美国电影是个好东西,总反映着科学的最新进展和期望。电影《模拟游戏》以二战中图灵(Alan Mathison Turing)的经历为原本。德军认为牢不可破的密码被图灵的机械解码器破译了了,从而使盟军赢得了胜利。人们接下来想象,按这趋势发展下去计算机迟早可以超过人类。然而事情并没有那么简单,大型的商用计算机在处理一些问题上确实有效,但跟人比较智商还差的远。八十年代以后个人电脑的普及带来了人类对人工智能的又一次恐慌,IBM的深蓝甚至战胜了国际象棋大师卡斯巴罗夫,电影《机械战警》、《终结者》都是这个时期的代表。2006年以后随着计算机深度学习的发展,人类迎来了对人工智能的第三次恐慌。《超能陆战队》、《Her》和《机械姬》就代表这一阶段,尤其是被互联网人追捧的奇点理论,到2045年的时候,人工智能有可能超过人类,而最终绝尘而去,人类反而会被机器人奴役,被霸天虎或者汽车人统治着。 做物理的人没有数学家大胆,往往对科学幻想抱有实践主义的保守,我们非常实用的从技术实现的角度来考虑人工智能的现实困难。首先深度学习是件非常困难的事情,我们正在一点一点的进步。比如无人驾驶,要解决图像的识别问题,实际环境里阴晴雨雪的成像和路况问题都是非常复杂的事情。从认知的方式来讲,人类的认知过程与我们现在营造的人工智能是不一样的。人类有一种认知相对靠谱结论的直觉方法,跟计算机式的方法不同,人类可以认知新的事物和了解新的问题并不受哥德尔定理限制。以计算机的停机问题为例,虽然计算机速度和效率大大提高了,但它们本质上还是冯.诺依曼机。计算机的程序是基于二进制数字运算的命题演算系统,人能提供给它作为依据的公理总数是有限的,规则一条一条可计数的,计算机判定出命题的真伪,输出结果、停机并转向下一个命题。这符合哥德尔第一不完备定理成立的条件。这样的系统必然是不完备的,也就是说至少有一个命题不能通过“程序”被判明真伪,系统在处理这样的命题时,就进入逻辑判断的死循环而无法停机。无论我们怎样为计算机系统的命题扩充它的公理以包罗更多的内容,只要公理总数是有限的,物理上不允许无限大这个概念,哥德尔的问题始终存在。我们可以在数学上假设无限的公理集,然而对于计算机来说就意味着要描述这些公理集就无限大的存储空间,物理实现上显然是不可能的,这表明了计算机与人思维的不同。但哥德尔所限定的有限逻辑,可能不限制量子力学的基本逻辑,人类的直觉也可能不受哥德尔不完备定理的限制,从这个角度来讲现在的计算机结构不太可能具有人脑的能力。当然量子计算机基于量子逻辑,离实现还有实际的困难,我们不能够简单预期。 另外一个证据是钱德拉塞卡(Subrahmanyan Chandrasekhar)证明。这个证明并不复杂,买杯啤酒用杯垫的背面就能演算。如果我们认为人类的思维是图灵模式的计算机,那么我们现在做的计算机接入互联网之后,大概六十万台计算机的总计算单元已经与一个人的大脑可比,而事实上,人类接入计算机群的计算单元已经远远超过了这个数量。但我们现在还没有看到这样大规模的互联网有产生人一样思维行为,(即便有些许类似,也是因为互联网节点上的人类干预),至少说明人的思维模式不应该是线性叠加的,不应该是目前计算机这样的图灵机模式。思维有没有可能是量子模式呢?我们知道量子本身讲的是关联。如果人的大脑是量子化工作的,那它到底有多复杂呢?注意量子关联带来了非局域性,量子关联不一定发生在相邻的脑细胞上,而是可以发生在任何一个脑细胞上,即每一步它都会有130亿个新的选择。比如说,一个脑细胞只跟10个脑细胞经典的相连接,但并不等于它跟其他细胞之间没有量子的关联,有学者把这个机制叫作量子微管,我们暂且不去深入探讨。这里,我们假设量子关联因为量子长城关联性而确实可以不发生在相邻的脑细胞之间。那么,一个脑细胞和它关联的脑细胞就不是相邻的10个,而是另外130亿个。那么我们先假设每个脑细胞只须跟6个脑细胞发生关联,这样的关联数量有多大呢? 设想用经典的存储单元来描述这样的关联。先不用去管这些关联是怎样工作的,我们至少需要一个经典的存储单元来标记它。假设我们至少要用一个经典存储单元来标记一组这样的关联。经典计算机的存储模式我们称作“热投票”。比如说一个磁记忆单元,它存的到底是0还是1要看这个磁体北极所指方向。比方说每个用于记忆的磁单元由一万个小指南针构成,当这些小指南针有超过50%指北的时候这个磁体存储的是1,当超过50%指向南时,它存的是0。但每一个小指南针在量子层面上是处在叠加态的,即同时处在0和1的叠加态上,我们只能在观察的时候看大多数小指南针的指向来决定一个记忆单元整体时对外显示出的磁性指向,由于大多数的小磁针符合一定温度下的热概率分布,这个决定过程叫做热投票。计算机的存储单元应用的就是这个原理,根据大量的热原子的平均的行为统计来确定记忆单元存的是1或者是0。热投票的物理实现一个记忆单元至少选三个电子,并且用电子的“自旋”方向来代替小指南针的南北方向。 大脑有130亿的脑细胞,假设每个脑细胞允许跟6个其它 脑细胞发生关联,每个关联用3个电子来记忆和存储。总共要(13 000 000 000^6 x 3)个电子,每个电子都是有质量的,这些质量不能忽略。电子是我们能找到的稳定的可以用做信息存储的最轻的物质,所需单元总数乘以电子质量,总质量等于多大呢?它等于钱德拉塞卡极限。在1938年,钱德拉塞卡提出:当一个恒星的质量超过钱德拉塞卡极限时,这个恒星则会坍缩成一个黑洞,钱德拉塞卡极限大约是1.4倍太阳质量。这说明如果真的用经典的计算机去模拟一个人的大脑行为,计算机自身的质量已经把自己压成黑洞了。因此按照现在我们理解的计算机构造,地球上的资源都不足以构建这样一个庞大的系统。这里取6作为脑细胞可能产生的关联数,事实上每个神经元有可能跟另外1000个神经元发生关联。从这个角度来讲,用经典的图灵机办法做出一个超过人脑的计算机是有物理上的实际困难。 我们从另外一个方向来考虑,大脑的运作可能是基于量子力学的。思维有可能源于量子信息,得出这个结论基本上是排它法。因为我们在物理世界看到的信息只分为两类,经典信息和量子信息。经典信息来描述物体是由哪些分子原子组成,这些分子和原子的数量和位置;而量子信息描述它们之间的关联。另外一个证据是基于思维和量子之间的相似。思维会因为关联有非局域性的现象,而量子本身也会有。比如同样是记忆,计算机一个扇区坏掉了,这个扇区上所存的东西就消失了。新的扇区替换进去也不会再有相同的记忆内容。而大脑每天都在工作,细胞每天都在新陈代谢,组成细胞的碳氢氧原子不断被替换,我们的记忆并没有消失。我们还有一个间接的证据,一个高等生命体,被切割成为一段一段的局部后,生命也消亡了, 这与量子纠缠系统有不少类似。当分别测量的时候,我们割断了纠缠态的内在关联性,纠缠的两个实体也不再存在纠缠,寄于它们纠缠态上的量子信息也变化了。大脑的行为更像是量子的长程关联,类似于电子的超导现象,是一种非局域的相互关系,一对电子形成库柏对在晶格之间穿行,不再消耗能量。超导不是单个的粒子的行为,而是大量粒子在一起的量子化行为,任何单个粒子的变化对整体的量子效应并没有大影响。 量子关联的解释也许会渗入人类对认知的了解。如果大脑真的是依照量子规律工作,我会认为对人类这是一个好消息。我们用经典的方法来搭建的计算机会在很长时间内在这些方面不会超过人脑,我们也就不必太担心人工智能控制人类。类似的复杂系统组成了我们身边的世界,大脑是这样的系统,社交网络是这样的系统,甚至人类社会也是这样的系统。大脑始终不是一个经典物理的设备,脑细胞会建立起与其它脑细胞的复杂而超越局部的关联,而计算机的存储单元却不能。当系统足够庞大到其关联数量是130亿的N次方的时候,这样的复杂体系更应该是量子化的,有长程关联的存在。人的记忆更像是一个覆盖大范围脑细胞的非局域的行为,对于计算机的计算单元,我们目前只能建立相邻单元的关联而非复杂的非局域的长程关联。从这个角度来讲,机器人也很难会有类似于人脑的思维能力,也就不具有独立的学习和创新的能力。 然而费曼讲“只有量子系统才能描述量子系统”,如果我们人类的思维真是量子化的,那么就只能用量子系统来模拟它。我们在实验室用量子模拟来看这样的对复杂系统的模拟是否能行的通,从而使我们对人的认知更加深刻一点。因为量子系统有退相干的问题,一个纠缠和相干的系统到底能造多大我们并不知道,我们还在十几个量子比特上努力。大概每两年放一个新的量子比特到系统里,但这符合摩尔定律,因为量子比特每多一个,希尔伯特空间就多一个自由度,存储能力翻了一倍。但我仍然有个暗黑的想法,原谅一个物理学家的孩子气,即使我们最终依靠量子计算而搭建了一个够大的量子系统来完整的模拟人的思考能力。这个东西,也会这里那里因为退相干而忘掉该记得的东西,它是不是跟我们人一样,也得吃饭,睡觉,也打盹,也犯各种错误和闹情绪。如果这样,是不是生孩子成本会低一些? 功耗是另外一个旁证。计算相同的问题,人脑的功耗远小于计算机的功耗,然而量子计算提供了一个可能,因为它可以利用量子的叠加特性做大规模的并行计算。一个简单的例子,当我们讨论量子计算的德意志(Deutsch)算法的时候,它可以通过量子的叠加态,即我们前面讲的猫态,一次计算得到结果而不像经典算法那样需要计算两次。当类似的算法大量叠加的时候,就可以大量的节省能量。 基于我们现在对量子力学的粗浅认识,我们离做一个像人脑一样复杂工作的系统还有相当的距离。别着急反驳,以上想法要说明一个情怀,就是不必危言耸听,人工智能恐怕在三百年内还不会超越人脑。这个三百年的估计其实源于我们对物理学进展的了解,从牛顿到量子力学诞生两百年,量子力学到现在一百年,我们突然发现我们还懂得不够多,甚至被缴了械,问题似乎回到了起点,在我们的基本研究手段上我们可能出了问题。以过去科学的发展历史,我们大概还要相当长时间才有可能在此基础上使用这些技术。三百年不是太夸张的时间,三百年内,我们大可放心去跟机器相处。对于新事物我们时不时的会搞搞大跃进,炒作新概念会让不少人有饭吃,每个人都要让自己的选择正义化,看谁抢到话筒。对真实的科学研究的过程,是反对转型、跨越、发展的概念,它真的是慢慢往前日拱一卒,当积累了厚实的基础后,在某个方向上有所些许小的突破。但不能说泡沫都是不好的,泡沫对科普有益。但话说回来,在一个神秘主义有上千年传统的国家里,科普和迷信一样的有害。而只停留在泡沫上的传闻,对学科发展未必有利,这种杀君马者道旁儿在一个领域尚未成熟就被周边环境捧杀的案例我们看的也不少了。 来源链接: https://mp.weixin.qq.com/s?src=11timestamp=1516529392ver=650signature=T2-5RS8mA5G3gBSCFbbf2vuwQAf0Wn*1E8CVs5FGiwgqT3W9MEwamxC9n7oK9N4ZCTHEAMcGQ2F0xZGsb0CDSDjrKMfncnL-GUgSO5eMKZq*IBgc6eRA82ub91l-HKiInew=1 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space
个人分类: 量子模拟|1368 次阅读|0 个评论
[转载]什么是量子比特?
quantumchina 2018-1-21 17:38
导读 :“一个量子比特可以同时处于 0 状态和 1 状态”,是什么意思?正确的理解是:经典比特是“开关”,只有开和关两个状态,而量子比特是“旋钮”,有无穷多个状态。为什么“ n 个量子比特包含 2 的 n 次方个比特的信息”?张真人,群众请你出来解释真武七截阵的原理!    —————————————————————————————    近年来,量子计算和量子通信(即“量子信息”)的成果层出不穷,吸引了公众越来越多的注意力。一个副产品是,借量子之名碰瓷的也如雨后春笋般活跃。前两天还有人问我所谓“量子能增程器”是不是真的,回答是:纯属子虚乌有!       心好累    碰瓷蹭热点之所以这么容易,是因为大多数人不明白量子科学的原理。虽然如此,像“量子能增程器”、“量子袜子”、“量子鞋垫”、“量子水”、“量子隐身衣”、“量子能量精华口服液”、“量子医学”这样的,还是比较容易分辨,因为一看就很不专业,压根没有这样的概念。(普朗克、爱因斯坦、海森堡、薛定谔、狄拉克等人怒问:我们费这么大劲搞出量子力学,居然只是给你们造袜子鞋垫的?)       我的内心是崩溃的    但下面这句话,用的就全是专业概念:“基于量子叠加原理,一个量子比特可以同时处于 0 状态和 1 状态。”    这是个超级常见的说法,你如果关心量子科技的新闻,我相信你肯定看到过类似的。但这个说法不能较真,一较真你会发现很难理解它实际说的是什么意思:是说量子比特同时处于两个状态?或者迅速在两个状态之间切换?或者处于一个不确定的状态?或者……时空分裂了?(脑洞开得太大,已阵亡)       量子比特迅速在两个状态之间切换?就像……佛山无影脚?!(动图)    在本文中,我会告诉读者,这句话实际讲的是什么意思,——用一种准确而且容易理解的方式。    还有一个更神的说法,看起来不仅专业而且定量,内容却似通非通,把我这个写过不少量子信息科普文章的人都搞糊涂了:    “ 一个电子可以存储一量子比特信息。如果需要 2 比特来描述 1 量子比特,那么需要 4 比特来描述 2 量子比特,需要 16 比特来描述 4 量子比特…… ”    说得明确一点就是, n 个量子比特能存储 2 的 n 次方个比特的信息 。奇妙的是,说这番话的不是民科,而是 2016 年以来大火的《宝宝的物理学》系列的作者克里斯·费利( Chris Ferrie )博士。这是他在《宝宝的量子信息学》里写的。       《宝宝的量子信息学》    他甚至还做了一个幽默的比喻:为了存储我最喜欢的一个分子(咖啡因)的信息,就需要地球上所有的手机!       咖啡因分子    好好好,我们都知道你最喜欢喝咖啡了。在某种意义上,伟大的法国文学家巴尔扎克就是咖啡喝太多喝死的……       巴尔扎克    你可能在很多地方也看到过类似的说法。我严重怀疑这些作者看过金庸的《倚天屠龙记》,因为他们的描述就好像此书第十章《百岁寿宴摧肝肠》中武当派的“ 真武七截阵 ”:    “ 这七套武功分别行使,固是各有精妙之处,但若二人合力,则师兄弟相辅相成,攻守兼备,威力便即大增。若是三人同使,则比两人同使的威力又强一倍。四人相当于八位高手,五人相当于十六位高手,六人相当于三十二位,到得七人齐施,犹如六十四位当世一流高手同时出手。 ”       真武七截阵    这真是太好了……唯一的问题是,我知道这个说法实际表达的肯定不是字面上的意思,因为按照字面上,压根就不对。       这就很尴尬了    最近我咨询了一些量子信息的一线研究者,才明白了这个“真武七截阵”在什么意义上可以成立。当然,是类比的意义。在严格的意义上,它并不成立。    下面我们来从头解释起。    一、量子比特是什么?    “ 比特 ”是计算机科学的基本概念,指的是一个体系有且仅有两个可能的状态,一般用“ 0 ”和“ 1 ”来表示。典型的例子,如硬币的正、反两个面或者开关的开、关两个状态。    但在量子力学中,有一条基本原理叫做“ 叠加原理 ”:如果两个状态是一个体系允许出现的状态,那么它们的任意线性叠加也是这个体系允许出现的状态。    现在问题来了,什么叫做“状态的线性叠加”?为了说清楚这一点,最方便的办法是用一种数学符号表示量子力学中的状态,就是在一头竖直一头尖的括号“ | ”中填一些表示状态特征的字符。这种符号是英国物理学家狄拉克发明的,称为“ 狄拉克符号 ”。    狄拉克的名著《量子力学原理》    在量子信息中,经常把两个基本状态写成 |0 和 |1 。而 |0 和 |1 的线性叠加,就是 a|0 + b|1 ,其中 a 和 b 是两个数,这样的状态称为“ 叠加态 ”。“线性”意味着用一个数乘以一个状态,“叠加”意味着两个状态相加,“线性叠加”就是把两个状态各自乘以一个数后再加起来。如果你学过线性代数,恭喜你,复习的机会来了 ~    叠加原理说的是:如果一个体系能够处于 |0 和处于 |1 ,那么它也能处于 |0 和 |1 的任何一个叠加态。这样的一个体系,就是一个“ 量子比特 ”。    我们可以做一个比喻:经典比特是“ 开关 ”,只有开和关两个状态( 0 和 1 ),而量子比特是“ 旋钮 ”,就像收音机上调频的旋钮那样,有无穷多个状态(所有的 a|0 + b|1 )。       旋钮    现在,你明白“一个量子比特可以同时处于 0 状态和 1 状态”是什么意思了吧?它实际是说,量子比特可以处于 |0 和 |1 的叠加态。在一个时刻只会处于一个这样的确定的状态,既不是同时处于两个状态,也不是迅速在两个状态之间切换,也不是处于一个不确定的状态,更不是时空分裂。(黄飞鸿:可惜了我的佛山无影脚……)    不得不说,“同时处于 0 状态和 1 状态”是一个很容易令人糊涂的说法,好像禅宗的打机锋,远不如旋钮的比喻清楚易懂。更糟糕的是,读者可能会以为自己懂了,然后胡乱引申,造成更大的误解。在科普文章中,类似这样的令人似懂非懂的说法太多了,简直是遍地陷阱。          绊马索、陷马坑、连环陷阱!(动图,《秦时明月之万里长城》第 15 集《见龙在田》)    二、量子比特和经典比特的信息量怎么比?    了解了量子比特的概念后,你一方面会感到这是个巨大的扩展,一方面也会感到纳闷:从哪里能看出“ n 个量子比特包含 2 的 n 次方个比特的信息”?    张真人,群众请你出来解释真武七截阵的原理!       张三丰    实际上,稍微想想你就会发现,量子比特和经典比特的信息量根本不属于同一范畴,因为前者包含的是连续变量(任意的 a 、 b 两个数),而后者是离散变量( 0 或 1 )。你可以泛泛而言“量子比特包含的信息量比经典比特大得多”,但无法给出它们之间的定量关系,因为这就好像问:从 0 到 1 之间实数的个数,跟 2 相比是多少倍?回答是这个问题问得不好,因为从 0 到 1 之间的实数有无穷多个。       你是在逗我?    如果我们较真的话,甚至可以说: 一个连续变量里就包含了无穷多的信息 。因为我们可以把这个数写成一个二进制的无穷位小数(例如 0.10011100101 ……),用小数点后第一位表示第一个比特的信息,第二位表示第二个比特的信息,如此等等。无论你有多少个比特的信息,一个小数里都塞得下。因此,整座图书馆的信息,甚至全世界所有的信息,都可以放在一个量子比特里!    你也许会感到有点不对。这种存储的思路,连量子比特都不用,只要传统的一个旋钮或者一把尺子就可以实现了,为什么我们没有这么做呢?    原因在于,测量的精度是有限的。也许你可以准确地测出小数点后第一位,第二位也测得比较准,第三位就不太确定了,第四位就纯粹是蒙了,第五位以及更后面的,完全没有意义。因此,你貌似可以把任意多的信息存在一个连续变量里,但实际上取不出这么多信息。       幻觉,都是幻觉    三、真武七截阵的意思是……    那么,为什么许多人言之凿凿地说, n 个量子比特包含 2 的 n 次方个比特的信息?    要让这句话有意义,关键在于:把 a|0 + b|1 中的 a 和 b 这两个系数,当作两个比特的信息。这当然不是个严格的说法,因为把连续变量和离散变量混为一谈了。不过只要你姑且接受这种表述,你就可以明白,他们实际想说的是,“ n 个量子比特包含 2 的 n 次方个系数 ”,这就是正确的了。    这是怎么算出来的?    对于一个量子比特, n = 1 ,体系可以取的状态是 a|0 + b|1 ,有 a 和 b 两个系数,系数的个数等于 2 的 1 次方。    对于两个量子比特, n = 2 ,体系可以取的状态是……是什么?    你也许会觉得,第一个量子比特的状态是 a 1 |0 + b 1 |1 ,第一个量子比特的状态是 a 2 |0 + b 2 |1 ,总共有 4 个系数。    错了!按照这种方式,当你有第三个量子比特时,只是增加 a 3 |0 + b 3 |1 的两个系数,总共有 6 个系数。广而言之,每个量子比特提供两个系数,所以 n 个量子比特包含的系数个数就是 2n ,怎么会是 2 的 n 次方呢?    真正的关键在于,对于多量子比特的体系,基本的描述方式并不是“第一个量子比特处于某个态,第二个量子比特处于某个态……”,而是“ 系统整体 处于某个态”。    系统整体可以处于什么态呢?再次回忆叠加原理(敲黑板)!是的,叠加原理对多粒子体系也适用。       敲黑板(动图,来自作者与观视频团队合作的视频节目“科技袁人”第二集《有人觉得中国科技太弱,因为全世界除了中国只有一个国家:“外国”》, https://www.bilibili.com/video/av17932364/ )    所以,我们要做的就是找出多粒子体系可以处于的基本状态,而这些多粒子基本状态是由单粒子的 |0 态和 |1 态组合而成的。下面我们来看这些基本状态。    首先,你可以让每一个量子比特都处于自己的 |0 态,这时系统整体的状态是所有这 n 个 |0 态的直接乘积(称为“直积”),可以简写为 |000… ,狄拉克符号里有 n 个“ 0 ”。    然后,在这个态的基础上,你可以让第一个量子比特变成自己的 |1 态,这时系统整体的状态是 |100… ,这也是一个直积态。    然后,在 |000… 的基础上,你可以让另一个量子比特(比如说第二个)变成自己的 |1 态,这时系统整体的状态是 |010… 。这样,你可以走遍所有的由 n-1 个“ 0 ”和 1 个“ 1 ”组成的字符串。    然后,在 |000… 的基础上,你可以让两个量子比特变成自己的 |1 态。这样,你可以走遍所有的由 n-2 个“ 0 ”和 2 个“ 1 ”组成的字符串。    这个过程继续下去,最终你会把所有的量子比特都变成自己的 |1 态,得到由 n 个“ 1 ”表示的 |111… 这个态。在这个过程中,你得到了所有的由“ 0 ”和“ 1 ”组成的长度为 n 的字符串。    这样的态总共有多少个呢?第一位有 2 种选择,第二位也有 2 种选择,一直到第 n 位都是 2 种选择。所有这些选择乘起来,就是 2 的 n 次方种选择。注意是相乘,而不是相加。在高中学过排列组合、二项式定理的同学们,肯定都看明白了吧?       机智如我,早已看穿了一切    因此, n 量子比特的系统有 2 的 n 次方个基本状态。它可以处于的一般状态,就是    这 2 的 n 次方个基本状态的线性叠加 。可以写成 c(000…) |000… + c(100…) |100… + c(010…) |010… + … + c(111…) |111… ,其中每一个 c 都是一个系数,总共有 2 的 n 次方个这样的系数。    顺便说一下,这样的一个 n 粒子状态,有可能可以表示成 n 个单粒子状态的乘积,这时我们称它为“直积态”,但更常见的是不能表示成 n 个单粒子状态的乘积,这时我们称它为“纠缠态”。作为一个简单的例子,二粒子体系的 (|00 + |11) / √2 就是一个纠缠态。你可以试着证明一下,很容易的 ~    是的,上面讲的就是量子纠缠,就是那个你在很多文章里看到过、经常被宣传得神乎其神的东西。,其实它并不神秘,你如果想对量子纠缠获得更深入的了解,可以参见我的文章《你完全可以理解量子信息》的第 7 节“第三大奥义:纠缠”( https://mp.weixin.qq.com/s/LYVWlm6_tkCbmHrHxRI3cg )。    现在,我们终于明白“ n 个量子比特包含 2 的 n 次方个比特的信息”这句话实际的意思了。    张三丰:老道我也是蛮拼的!    四、这个优势有多大用处?    用处很大,根本上,这就是 量子计算机的优势所在 。    具体而言,对于 n 个量子比特的量子计算机,一次操作就可以同时改变 2 的 n 次方个系数,相当于对 n 个比特的经典计算机进行 2 的 n 次方次操作。如果使用得当,这可以导致指数级的加速。这里的关键在于对量子纠缠的利用,如果没有纠缠态,只有直积态,那么你只有 2n 个系数,就没有加速可言了。    魔鬼藏在细节中,这里的魔鬼就是“如果使用得当”。为什么会有不得当的?因为把数据读出来是大问题。    在量子力学中,测量是一个独特的操作,跟非测量的过程服从不同的物理规律。不测量的时候,系统是做连续演化的,我们可以预测系统的状态。而在测量时,系统可能会发生突变,我们可能也会失去预测能力。    对量子力学中的测量的详细解释,可以参见我的文章《你完全可以理解量子信息》的第 6 节“第二大奥义:测量”( http://mp.weixin.qq.com/s/fkFEojysHLDn8uDUqcbxCA )。在这里,我们只要明白量子力学中测量的结果可能是不确定的,就足够了。    这意味着,虽然你一下子获得了 2 的 n 次方次操作的结果,但当你试图从中读出数据的时候,又会失去大部分信息。       坑爹啊!    由此导致的结果是,量子计算机的这个优势,需要非常巧妙的算法才能发挥出来。 只对少数特定的问题,人们才设计出了这样的算法。 而对于大多数的问题,量子计算机还没有表现出任何优势。    因此,当你再看到用真武七截阵来为量子计算机做宣传的文章时,就可以明白:他们说的只是潜力,不是一般情况。量子计算机不是普遍性地算得快,干什么都比经典计算机强,而是只对一些特定的问题比经典计算机算得快。    淡定,淡定    不过,这并不意味着量子计算机不堪大用。因为在目前已知的少数能发挥量子计算机优势的问题中,就包括两个非常重要的问题: 因数分解和无结构数据库的搜索 。对这两个问题的详细解释,可以参见我的文章《你完全可以理解量子信息》的第 10 节“量子因数分解和密码破解”( http://mp.weixin.qq.com/s/irNUF7bNxbRI0dn6rvxA1g )和第 11 节“量子搜索”( http://mp.weixin.qq.com/s/XXZ5qWugxeexOfvRV6-M3Q )。    因数分解的困难性是常用的密码体系 RSA 的基础,能快速分解因数就意味着能快速破解 RSA 。想想你的信用卡、支付宝,如果能被人快速破解,世界会变成什么样?(剁手党的噩梦 .jpg )无结构搜索的应用就更广泛了,从交通流到制药,不计其数的问题都归结于搜索。即使找不到其他的问题,这两个也已经足够显示量子计算机的重要性了。    五、如果你问的就是存储……    最后,如果你的目标不是计算,而是单纯的存储,那么有一个定理会让你大跌眼镜: 从 n 个量子比特中能够读出的信息,最多就是 n 个经典比特! 这是苏联和俄罗斯物理学家亚历山大·豪尔沃( Alexander Holevo )在 1973 年证明的。在这个意义上,“ n 个量子比特包含 2 的 n 次方个比特的信息”的说法是完全错误的。       豪尔沃    也就是说,单就存储而言,量子比特没有任何优势。跟前面那个“一个连续变量存储整个世界的信息”的佯谬不同,这个结论甚至都不是由于测量的误差(即使你的测量完全精确都没用),而是由于量子力学的基本原理。    总结一下:量子比特的优势在于能处于两个基本状态的任何叠加态,但这个优势对于存储毫无价值,好处全都在计算上,而且只针对特定的能设计出巧妙算法的问题。虽然有这么多前提条件,但一旦能设计出这样的算法,让真武七截阵发动,就能发挥出神奇的威力!    现在,你对这个微妙的主题,理解深入多了吧?    至少,你用不着喝那么多咖啡了!每当让我在茶和咖啡中选择时,我总是毫不犹豫地选择茶 ~       同志哥,请喝一杯茶    作者简介 :袁岚峰,中国科学技术大学化学博士,中国科学技术大学合肥微尺度物质科学国家实验室副研究员,科技与战略风云学会会长,微博 @ 中科大胡不归,知乎 @ 袁岚峰( https://www.zhihu.com/people/yuan-lan-feng-8 )。    致谢 :感谢中国科学院信息工程研究所杨理研究员在科学方面的指教。    请关注风云学会的微信公众平台“风云之声”,微信号 fyvoice    知乎专栏: http://zhuanlan.zhihu.com/fengyun    一点资讯: http://www.yidianzixun.com/home?page=channelid=m107089    今日头条: http://toutiao.com/m6256575842 来源链接: http://www.kepu.net.cn/gb/ydrhcz/ydrhcz_zpzs/ydrh_201801/201801/t20180109_29431.html 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space
个人分类: 量子信息|10890 次阅读|0 个评论
[转载]量子模拟和人工智能 (1)
quantumchina 2018-1-20 12:09
复杂体系 对科学而言,我们感兴趣的不只是一种某些知识的结论,而是一种探究的方法,借助这种方法,能解决以前察觉的问题拓宽我们认知的边界。杜威非常小心地区分了现代社会中的两类活动,一类是产生更多意义和含义的活动,即理智的(intelligence)活动;一类是机械的和模仿的活动,即理性(rational)的活动。从人工智能(Artificial Intelligence)的发展来看,我们目前更多的是对机器人所从事的理性工作的夸张描绘。如果我们讨论一个人和人工智能会处于合作的状态的未来世界,由AI完成理性的工作,而人来完成理智的工作,将会产生新型的人的组织,这样的组织会更关注于个人的体验和创造性,而制造交给机器人去完成。也许多年以后我们还是投降于人工智能对人类的统治,但我会在这里努力从量子的复杂性来说明人类试图造出超过人类大脑的智能的实际困难,与之相对,我们更应该关注在设计一个更加和谐的未来人类环境。这样的环境里,个人的作用被工具放大而知识型工作组织成为社会的主体生产单元,这将意味着管理模式的全面更新。企业由更多自我觉醒的个人组成而企业不再是个人的管理体系而是个人的组织,管理也不再是组织内部的分工行为而成为个人的自我组成部分。 量子模拟和人工智能 量子理论在诞生之后的一百年,形成了几种对量子的不同诠释,有经典的量子的波粒两相性解释,也有多重宇宙解释、隐函数解释和整体论解释,而其中波粒两相性解释因为历史的原因成为主流的理论,当我们的学生发现量子力学还有别的诠释的时候多少都是要吃惊的。但随着近些年的量子信息论的发展,波粒两相性解释越来越显出了不那么充分。这里,我会介绍关联解释,它基于量子信息论里对于密度矩阵的研究,但由于它涉及了关联的本质,使得量子理论不再像传统认识的那样仅局限于微观世界的理论。至少,我们会看到,量子理论不是仅仅是一个描述原子和亚原子层面的理论,它的深奥和广大,远远超出了波粒两相性的限定。当我们承认关联是量子力学的本质,并且认为关联的性质在复杂系统中被推广了的时候,量子力学的第一性原理给了我们多少一点这样认识的信心。 Tele这个词根与远距离但即时有关,telegraph (电报),television(电视),telephone(电话),有一个新词叫teleportation,port是指运输,teleportation指的是远距离运输,不仅远而更强调立刻、实时。中文有个很酷炫的翻译,叫隐态传递。另外一方面,出于对宇宙探索的好奇,我们一直希望实现星际旅行,但相对论限制了我们在这一方面的想象:我们不可能跑的比光快。迄今为止,我们找到离地球最近的一颗环境跟地球类似行星叫Kepler-452b,它离我们大概有1200光年,以光的速度走需要1200年。如果真的要人坐飞船去那,以我们今天的技术,尤其是医疗条件的限制,人活不了那么久,况且这样的旅行真的很无聊好不好。量子的teleportation提供了一个解决方案。 微观粒子是全同的,地球上的碳原子和相隔几千光年的行星上的碳原子从物质上来说是完全一样的,它们的不同在于他们的量子信息不同,原子与原子组成物体的量子相位不同,因而它们的量子关联也不同。但我们知道这些关联是可以通过量子通道传递的。要穿越的地球人,组成身体原子的量子信息可以通过量子通道立刻的即时的传到Kepler-452b上。组成身体的经典信息,身上原子分子的组合结构和成分等可以通过各种高级的3D扫描设备获得,通过无线电以光速发射过去。经典信息通过光来传递,量子相位的信息通过量子通道传递,被传递的人至少以光速从一个地方到了另外一个地方而穿越了时空。1200年之后,当在Kepler-452b的接受方收到经典信息之后,他就可以把已经放了1200年的量子信息按照经典信息所提供的数量和种类的原子再次复合,被传递的人就可以醒过来复活了。在这个过程里宇宙经历了整整1200年,而对被传输的人来说,醒过来的时候保留了1200年前被扫描的全部信息,经典的粒子数量、种类、量子的粒子的关联和相位,而他已经生活在宇宙的另外一个地方。 人的思维更趋近于量子信息,当经典信息和量子信息的重新组合,会形成一个外表和记忆、思维完全一样的人。而量子力学要求,原来的物体因为被扫描的量子信息发生变化,完全消失了原有的关联而变成没有“灵魂”的原子团,“人”被传送到了宇宙的另外一段端。值得注意的是,由于人通过记忆来感知时间,当人在等待他的经典信息部分通过光速传来结合早已到达的量子信息部分而重新组合,醒来时人与被扫描时候的所有信息完全一致,依旧年轻和相同的记忆,十八岁还是十八岁。他对这1200年没有任何发生过的记忆或者任何知觉,对宇宙旅行中的他来说时间是停止的。这听起来像是天方夜谭,公元2000年的时候,丹麦的物理学家利用光子和原子在实验上证明量子信息隐态传的可行性,原子团的信息可以从一个地方到另外一个地方,所有的量子信息都被传递了。虽然这离人体传送还很远,而且我也很难相信这个路径将来会实现,但这并不妨碍科学家在更大更复杂的体系上向着这个方向努力。 我们这一假想里有两个还缺乏充分证据的关键假设,一,人的思维由经典信息和量子信息组成;二,在整个传递和等待过程的中间,量子信息没有发生退相干,没有因为跟其它系统相互作用而发生信息的改变,被很好的保留到被传递的人醒来的那一刻。 来源链接: https://mp.weixin.qq.com/s?src=11timestamp=1516421196ver=647signature=rjwCvS-xW-TJk67v6B42fGXZ-B7R67B3myz9pS6CoMJ-WrHylkLFZNiQZKs6HeFcyTlXIkUElFWC7kK4WlF-JZyi*FHSFeNYhaP6y5BqK3C8yibdN9OBfFe9iU2loa8gnew=1 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space
个人分类: 量子计算|1091 次阅读|0 个评论
[转载]哈佛大学教授Lukin:量子计算将在我们有生之年普及!
quantumchina 2018-1-19 11:19
在科学技术领域,我们多年来一直对研发量子计算机充满了热情,但它还尚未走进我们的日常生活。 编者按: 本文来自网易智能 ,选自:Futurism,编译:网易见外编译机器人,审校:付曾,36氪经授权发布。 人物观点: 量子计算机从科学理论转向大众普及,也许并不需要30年那么长时间。这是一个令人兴奋的领域,我们已经进入了具有巨大科学发现潜力的新时代,很快我们就会开始发现量子计算机能在更广泛的范围内发挥作用,包括物质科学、化学领域、物理系统、人工智能和机器学习等等。——米哈伊尔·卢金 在科学技术领域,我们多年来一直对研发量子计算机充满了热情,但它还尚未走进我们的日常生活。 量子系统可以无缝地加密数据,以及帮助我们对已经收集到的大量数据进行理解分析,甚至能够解决即使是最强大的超级计算机也无法解决的复杂问题,如医疗诊断和天气预报。 尚未成熟的量子技术在去年的11月份变得更加接近我们想要的熟练度了。在当时,最著名的科学期刊之一《自然》发表了两篇文章,并且文章中都展示了一些最先进的量子系统技术的最新研发成果。 如果你还不明白量子计算机是什么,它做了什么,或者它可以为你做什么,你并不需要担心。 Futurism新闻社最近与哈佛大学的物理学教授米哈伊尔·卢金(Mikhail Lukin)谈到了量子计算的当前发展状况,其中包括我们可能在某一天可以在手机或者办公桌上使用量子技术,以及在以上说的这些发生之前我们需要做些什么。 为了更加清晰和简洁,这次采访内容在后期进行了修改: 问:首先,你可以简单介绍一下关于量子计算的工作原理吗? 米哈伊尔·卢金:我们从传统的电脑工作方式开始说起。在传统的计算机中,你用一些输入的形式来制定你想要解决的任何问题,基本上是一个关于0和1进行无数种组合的数据信息流。 当你想做一些计算时,你基本上会根据这个流如何实际移动来对电脑本身创建一些特定的规则。正常机器中写入的计算过程有加法,一旦能做加法,就可以做乘法,而一旦可以做乘法,基本上电脑处理信息就无所不能了。 但是我们的微观世界形成已经有100多年的历史了,它的基本原理是基于量子力学的。而在量子力学中,常常有一个对应的系统来进行管理和应用。例如,在两种不同的状态下,你的电脑或者你的椅子可以相对应的同时放置——这就是量子叠加的思想。 换句话说,你的电脑可以同时在波士顿和纽约同时被使用。量子叠加的概念即使听起来很怪异,它在量子力学定律中也是被认可的。如果按照大范围考虑,例如我给的例子,这显然听起来很奇怪。但在微观世界中,就像单个原子一样,创造这种叠加态实际上是相当普遍的。所以科学家们通过这些科学实验可以证明,一个原子能够同时处于两种不同的状态。 量子计算机的想法基本上是利用这些量子力学规则来处理信息,所以我们很容易理解为何它可以如此强大。在传统的电脑中,你给我对应数量的输入信息,我就能把它们放在我的电脑里,然后让电脑给你输出数据。但是,如果我们的硬件应用了量子力学,那么不仅仅是顺序地提供一些输入和读出答案那么简单,利用态叠加原理,我们可以准备一个电脑寄存器处理许多不同类型的输入信息。 这意味着,如果我采用这种叠加态并使用量子力学定律对其进行处理,那么我可以一次处理多个输入。与传统的程序相比,这可能是一个指数级的加速。 问:量子计算机的外形是什么样的? 米哈伊尔·卢金:如果你走进一个带有量子机器的房间,你会看到一个真空室或导管,以及一束照射到它的激光,而且在本体里面有一个很低密度的特定的原子。我们使用激光来减缓非常接近能量绝对值为零的原子运动,这就是所谓的激光冷却。 (图片来源:哈佛大学Lukin实验室) 问:那你怎么编程呢? 米哈伊尔·卢金:为了制作量子计算机,我们将一百束紧密聚焦的激光束照射到这个真空室中。这些激光束中的每一束都起着光镊的作用,每束都可以控制住一个原子,但也可能一个都抓不住。 当我们有这些原子陷阱之后,我们通过在这些陷阱中拍摄的原子图,并找出哪些陷阱载满了原子,哪些是空的。然后,我们按照我们所希望的任何模式重新排列包含单个原子的陷阱。单个原子的个体保持容易控制的这种理想排列基本上是任意出现的。 定位这些原子是我们编程的一种方法。为了实际控制量子,我们小心谨慎地将原子从最低能态推入高能量态。我们通过精心挑选的激光束来照射特定的一个原子的过渡,并且它们的频率需要保持在非常严格的控制下。 在这种激发能量的状态下,原子实际上会变得非常大,并且由于这个原子尺寸,原子之间开始相互作用,或者换句话说:彼此交谈。通过选择我们激发原子的状态并选择它们的排列和位置,我们就可以以高度可控的方式对它们的相互作用进行编程。 问:对量子计算机最有帮助的应用是怎样的? 米哈伊尔·卢金:说实话,我们没有答案。一般认为,量子计算机不一定会对所有的计算任务有所帮助。但即使是最好的传统计算机也有在数学问题上难以解决的时候。这些复杂的问题中,涉及到例如复杂优化的问题,而这些问题包括试图满足一些对于对立面的约束条件等。 假设你想给一群人送一种礼物,而每个人都有自己的利基(网易智能注:Niche,是指针对企业的优势细分出来的市场,这个市场不大,而且没有得到令人满意的服务),所以对于这个礼物来说,这些不同的利基可能是矛盾的。 所以会发生的是,如果你用传统的方式解决这个问题,你必须对这群人每一对或三个一组进行检查,以确保至少他们的利基是满意的。这个问题的复杂性非常迅速地增长,因为你需要检查的经典的组合数量是以指数计算的。这里有一些人相信,对于这类问题,量子计算机比传统计算机更有优势。 另一个非常著名的例子是关于对因式分解的解决问题。如果你的数字很小,比如15,很明显,它的因数是3和5,但是随着数字变大,这种问题很快就会变得复杂。 如果你有一个很大的数字是两个数字很大的因数的乘积,从传统的角度说,没有哪种方法比从1,2,3往后依次寻找改数字的因数的方法更好。但事实证明,存在一个称为Shor算法的量子算法,它可以找到比最知名的经典算法指数更快的因子。如果你能做到一种方法拥有比使用其他方法快得多的速度,那么我们可以说,这是一个大收获。 问:这听起来像你的任务目标,而你的使命就是帮助我们推进和理解这项技术,但是与量子技术相关的应用程序开发是次要的,因为你认为当我们拥有这些工具时,相关应用程序就会自然来到我们身边。我说的对吗? 米哈伊尔·卢金:我会用一种类比来回答你的问题。当传统的计算机刚被开发出来时,他们大多用来做科学计算,数值实验来理解复杂的物理系统的行为。现在量子机器正处于这个发展阶段。他们已经允许我们研究复杂的量子物理现象,从该角度来说,它们对于科学研究来说是有用的,而且科学家们现在已经在用它们帮助研究了。 实际上,我们在“自然”杂志上发表的论文的一个重要意义就在于,我们已经建立了足够大,足够复杂,以及足够量的机器来帮助我们进行科学实验,即使是世界上最好的传统电脑,例如超级计算机也不可能完成量子计算机进行的科学实验。 在我们的工作中,我们已经使用了我们的机器来进行科学发现,而且是以前没有做出来过的,部分原因是因为传统电脑很难对这些系统进行模型制作。在某些方面,例如以科学研究作为目的,我们认为量子机器更加有用。 当传统的计算机正在开发之中时,人们对于计算机应该运行哪些算法有一些想法。但事实上,当第一台电脑建成时,人们在开始尝试使用这些电脑时便发现了更多实用有效的算法,并且一直如此。换句话说,那就是当他们发现这些计算机实际上可以做的更好的时候。 这就是为什么我说我们现在真的不知道量子计算机的潜能有多大。找到这些任务的唯一方法就是建立大型功能性的量子机器去尝试这些事情。这是一个重要的目标,我应该说我们现在正在进入这个阶段。当我们开始在大型机器上开始量子算法的实验时,我们已经非常接近目标了。 问:请告诉我一些关于你在《自然》杂志发表的文章中提到的,关于你所说的“进步”究竟指哪些方面的?我们有多接近能够发现在量子计算机上工作的算法? 米哈伊尔·卢金:既然你问到了,那么首先我们来谈谈一台机器如何能达到量子机器的标准。它应能够沿着三个不同的轴运作,其中一个轴上是规模 - 即能够容纳多少量子位(一个“量子位”,构成量子计算机基础的单位“经典计算”中的“位”),并且越多越好。 另一个轴是量子性的程度,该程度决定了系统的稳定与一致性。所以最终量化它的方法是,如果你有一定数量的量子,并且用这个量子计算,那么这个计算没有错误的概率是多少? 如果你有一个量子位,那么你会有一个几率犯下小错误。一旦你有很多,这个概率是呈指数上升。因此,本文和补充论文中描述的系统具有足够大的量子位,并且足够连贯,从而基本上可以完成具有相当低的错误概率的整个系列的计算。换句话说,在有限次尝试中,我们可以得到一个几乎没有错误的结果。 但是这还不算完,我们称第三个轴是你可以如何用这台机器编程。基本上如果你能以任意方式使每个量子位与任何其他量子位交互的话,那么你就可以把任何量子问题编码到这个机器中。 这种机器有时被称为通用量子计算机。我们现在拥有的机器不是完全通用(共通)的,但是我们展示了非常高的可编程性,所以我们实际上可以很快改变它们之间的互连。这些便说明了到底是什么使我们能够探索和发现这些复杂的量子现象的原因。 问:是否量子计算机的体积可以缩小到手机的大小,或者它在某种程度上来说是可以随身携带的吗? 米哈伊尔·卢金:那当然是没有问题的。我们有很多种办法来包装它,以便它成为一种便携式设备,并且尽可能小型化,可能比移动电话还要小,但也可能会和台式计算机一样大。但是现在的技术还不能做到。 问:你认为,像传统计算机一样,量子计算机将在30年左右从仅仅的科学发现理论转向大众普及化吗? 米哈伊尔·卢金:我想说,答案是肯定的,但为什么需要30年?也许更快。 问:现在和之后会发生什么?我们需要做什么样的进步? 米哈伊尔·卢金:我认为我们需要有足够大的电脑来开始真正了解它们的用途。我们还不知道量子计算机能做什么,所以我们不知道它们的全部潜力。我认为下一个挑战就是要做到这一点。 下一个阶段将是制造可能被用来当作专业用途的写入相关应用程序的机器。包括我的团队在内的人已经在开发一些小型量子设备,例如医疗诊断助手。在这些应用中,量子系统只是测量微小的电场或磁场,而利用这些数据可以使医生更有效地进行诊断。我认为这些事情已经到来了,其中一些想法已经被视为商业用途了。 也许,一些一般的应用程序可以商业化。在实践中,量子计算机和传统计算机将可能携手合作。事实上,最可能的情况是,大部分主要的工作是由传统计算机完成的,但是其中一些最困难的问题,可以通过量子计算机来解决。 另外还有一个领域叫做量子通信,它可以使量子态在站与站之间进行传输。如果你使用量子态发送信息,则可以构建完全安全的通信线路。而且,通过这些所谓的量子网络,它有时也被称为量子互联网,我们应该能够远程访问量子服务器。这样,我当然可以想象量子计算机可以进入日常生活的许多可能性,即使你不能把它放在自己的口袋里。 问:你希望更多的人如何去更多的了解量子计算机? 米哈伊尔·卢金:量子计算和量子技术的提出和研究已经有一段时间了。我们科学家都知道,这是一个令人兴奋的领域,因为这确实是跨越多个子领域的科学研究的前沿项目。在过去的五到十年中,大多数人认为量子学的事态发展是非常未来化的,因为他们认为我们创造任何有用的量子机器需要很长时间。 但情况并非如此。我认为我们已经进入了具有巨大科学发现潜力的新时代,这些发现可能在物质科学和化学领域具有广泛的应用,实际上还涉及了包括复杂物理系统的所有部分。但是我也觉得很快我们就会开始发现量子计算机能在更广泛的范围内发挥作用,从性能优化到人工智能和机器学习,我认为这些东西即将到来。 我们还不知道量子计算机将如何做到我说的这些,但我相信,我们很快就会知道的。 来源链接: http://36kr.com/p/5114708.html 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space
个人分类: 量子计算|1131 次阅读|0 个评论
[转载]本源量子计算云平台成功上线32位量子虚拟机
quantumchina 2018-1-13 14:57
2018年1月11日,合肥本源量子计算科技有限公司的“本源量子计算云平台” 新版本Beta2.0正式发布。基于国内首创的“量子音符”QRunes量子语言,该平台成功搭建32位量子虚拟机,与国际通用的量子语言相比,算法效率更高、更具可操作性。 量子技术使得数字化计算能力实现了指数级提升。量子位数越多,计算速度随之成倍增长,其发挥的功能也就越强大。合肥本源量子计算科技有限公司发布的“本源量子计算云平台”采用了国内首创的“量子音符”QRunes量子语言,在直接注册后,用户便可免费体验最大模拟32比特的模拟程序,旨在为用户提供量子计算在线演示、教育科普及模拟服务,为科研院所及高校提供量子计算解决方案,为有特定需求的专业用户提供可供定制的量子处理器的研发与培训服务。 当前,国外主流的量子计算云平台体验成本高昂,让普通用户望而却步。在搭建了32位量子虚拟机的“本源量子计算云平台”上,用户可免费体验编写和运行量子程序,直接查看已编辑程序的图形化显示效果;编写完成的量子程序被发送至远程量子服务器上,在云端完成编译、执行与测量,其结果可迅速传回本地。 据悉,“本源量子计算云平台”不仅可以免费体验量子编程,还涵盖量子科普、量子教学以及正在开发的量子小游戏等多种功能,量子“门外汉”也能快速上手学习量子编程。此外,用户在体验量子编程的过程中,还可结合“2量子比特的D-J算法”以及“3量子比特的Grover算法”的演示案例进行学习,更快了解量子编程。 来源链接: http://society.people.com.cn/n1/2018/0112/c1062-29762417.html
个人分类: 量子计算|1096 次阅读|0 个评论
关于量子计算机的点滴思考
热度 2 lwg 2018-1-11 10:38
关于量子计算机的点滴思考 看过袁岚峰先生关于量子信息的系列科普博文《 你完全可以理解量子信息(4-5) 》之后,引发个人相关思考,连续发了几个跟帖,形成了一点比较系统的判断,系统整理如下: 1. 恰如一根无伸缩的理想棒材,可以凭一条划痕,分为a,b两段,使得a/b对应一个有理数;使得,该有理数和全世界所有图书馆馆藏图书内容对应的二进制编码一致;一个“量子比特”,理论上也可以蕴含同样量级的信息。 2. 一个“量子比特”的信息容量空间理论上是无限大,和一个“量子比特”实际能提供给我们多少信息完全不是一回事;恰如一个经典比特,当我们不能确定其存储的“究竟是0,还是1?”时,它给予我们的信息量为零一样;一个“量子比特”实际能提供的信息量,取决于我们对其存储内容(对应a,b两个值)测定的准确程度;为此,需要n个彼此纠缠的“量子比特”,使我们对a,b的测量精度,理论上可以达到2^n分之一水平;从而,可以确定一个“量子比特”中所存储的数,是2^n个数中间的哪一个数,获得所需的信息。这应该是量子计算机需要制备n个纠缠量子的根本原因。 3. 基于上述“第2点”原因, 如果不能在一个量子比特空间里以高达 2^n分之一 精度 正确写入和保真读取信息,解决这个关键技术问题;量子计算机就是空中楼阁。 4. 当能够 实现上述“第3点”技术要求, “在一个量子比特空间里 以高达 2^n分之一 精度 正确写入和保真读取信息,解决这个关键技术问题”时, 又实际上证明了:量子计算机操作处理的信息,是特定的那一个被写入的数值(是2^n个可能值中间的一个特定值),而不是并行处理着2^n个数值! 换言之,这样的量子计算机, 其能力仅仅相当于数据宽度为n的普通计算机! 其能力仅仅相当于数据宽度为n的普通计算机! 其能力仅仅相当于数据宽度为n的普通计算机!
6522 次阅读|4 个评论
[转载]量子计算开启云计算新世界
quantumchina 2018-1-8 09:58
随着数据的海量增长,机器处理数据所需的时间也越来越多。增强现实、虚拟现实、人工智能、 机器人 、实时分析和机器学习算法都需要 云计算 提供无限快速且无限计算能力和无穷大的存储空间。有趣的是,这些都是在摩尔定律显示的发展速度放缓之后发生的,摩尔定律在几十年来几乎每个工程和技术的重大进步中发挥了作用。   到2025年,云中对传统计算功能的需求将会非常大,以至于云计算无法满足这些计算需求。量子计算的到来有望彻底改变云计算,量子计算提供的是大规模并行处理,原子级存储和试用物理定律而不是外部加密的安全性。云很快会被量子计算驱动,软件将会以全新的方式被写入。   虽然量子计算的概念已经提出了50多年,但是真正取得进步却是在最近5年以内,2017年可以说是量子计算的一年。    IBM 、 微软 、谷歌、Intel、D-Wave今年取得了巨大的进步,量子计算正在进一步推动计算机性能的发展。   什么是量子计算   量子计算就是利亚原子例子的量子态来执行记忆和处理任务,经典的计算机交换晶体管将信息编码为表示“0”或“1”的单位。相比之下,量子计算机本身使用原子(如电子、质子和光子)的基本构建模块,这些亚原子例子是自旋的。   根据量子物理的定律,粒子是否有上升或下降可能并不清楚。这些亚原子粒子同时拥有所有这些性质。 这被称为叠加。 一个量子位(一个与经典位不同的称为量子位的新术语)可同时存在为零或一个。叠加允许量子比赛一次执行多个计算,而不像传统机器那样按顺序进行。两个量子位可以同时存在四个可能的两位数(00,01,10和11)。这些叠加使得量子能够一次执行多个计算,而不像传统机器那样按顺序进行。   量子计算给用户带来的是大规模并行处理,可以类比为Grover搜索算法。想象一个奖品藏在四扇门后面的游戏,你必须在尽可能少的开门的情况下找到奖品。传统的电脑平均需要做两次以上的操作才能找到奖品,因为它必须连续打开每扇门。然而,量子计算可以一次找到奖品,因为它可以一次打开所有的门。这种计算的数量是每个额外量子的两倍,因此计算速度呈指数级加倍。由500个量子组成的量子计算机可以进行2 ^ 500个计算。   量子计算必须知道的五大问题   我们将以不同的方式编写程序,新的编程范例和语言,新的算法以及编写逻辑的新方法。   量子计算比传统计算快数千倍,谷歌宣布有一台量子计算机,比任何传统的实验室计算机都要快一亿倍。   量子计算革新了我们接近机器学习和人工智能的方式,将显着加速机器学习。由于使用量子遂穿,量子计算机将减少100到1000倍的功耗。   量子计算将破坏今天的互联网安全,它可以在几天之内破解今天的一些加密技术,如RSA何ECC。在这方面,量子计算就像是发现锁定在原子中的巨大能量的应用。核裂变发生在1938年,是二战开始前的九个月,它改变了世界。量子计算可能是一个原子弹的IT等价物。现在,我们正在与时间赛跑,准备现代密码技术才能被打破。新的安全方法,使我们能够使用物理定律而不是使用外部加密方法来保护数据。   量子计算不能适用于所有问题。在一些传统的任务中,川通服计算机仍然比量子计算机更实用。而量子计算解决的是新兴的业务问题,如自动驾驶汽车的协同、财务建模、天气预报和粒子物理等领域。   量子计算革新了处理计算机科学和逻辑的方式,很多算法将需要重新设计并重新编写使用量子计算的范例。 来源链接: http://www.iot-online.com/art/2018/010779513.html
个人分类: 量子计算|1141 次阅读|0 个评论
[转载]中美领跑量子计算机应用
quantumchina 2018-1-7 19:41
日媒称,半导体的高性能化正陷入瓶颈,“石油世纪”也在走向终结。影响企业竞争力的各种极限随处可见。企业该如何利用技术革新突破极限,又该到何处寻找竞争力的源泉呢?量子计算机将成为各国企业2018年追踪的焦点。 据《日本经济新闻》网站1月4日报道,如果400多辆车从市内到机场,如何快速得出避开拥堵的最佳路线?加拿大的创业企业D-Wave Systems的首席执行官维恩·布劳内尔表示,使用该公司的计算机,只需几秒钟就能计算出最佳路线,而“普通的计算机则需要30分钟”。 报道称,量子计算机应用量子力学的原理实现了高速计算。在计算用于新药开发的化学物质配比等方面能够发挥威力。不过,由于与现有计算机的动作原理不同,面临着小型化等问题,目前还处于发展的初级阶段。即便如此,各公司仍对量子计算机寄予厚望。原因是认为相同面积上搭载的电路数量越多、性能也随之提升的“摩尔定律”正渐渐失效。相反,量子计算机则能跨越这一极限。 据《日本经济新闻》网站报道,在量子计算机的应用方面暂时领先的是美国企业。谷歌正加紧自主推进量子计算机的开发,力争应用于人工智能(AI)。IBM也将本公司的量子计算机接入云端服务向大众公开,并与日本的化学企业JSR和德国戴姆勒等用户企业等推进开发。IBM的达里奥·吉尔表示“今后几年量子计算机的技术和应用将加速发展”。 报道称,中国企业的动向也不容忽视。拥有大量数据的中国企业为了活用这些数据,正在加紧开发高速计算机,在相关技术方面正加紧追赶美国。 据《日本经济新闻》网站报道,日本方面,日本电信电话公司(NTT)开发出自主方式的国产机,并从2017年11月开始免费公开。日本政府也决定从2018年度起的10年里投入约300亿日元(约合17.3亿人民币),但目前仍落后一步。 报道指出,左右国家产业竞争力的“未来大脑”的竞争已拉开序幕。 来源链接: http://news.ycwb.com/2018-01/07/content_25863313.htm
个人分类: 量子计算|822 次阅读|0 个评论
[转载]量子计算入门(2):3分钟了解关键概念
quantumchina 2018-1-7 17:35
量子计算是一种令人兴奋的全新计算模式,它不同于当前数据中心、云环境、PC和其它设备中的数字计算。数字计算需要把数据编码为二进制数字(比特位),每个比特位处于两个确定状态中的一个(0或1)。然而,量子计算使用量子位,后者可以同时处于多个状态。因此,量子位上的操作可以实现并行的大量计算。 从本质上说,量子计算就是并行计算的终极目标,有着攻克传统计算机无解难题的巨大潜力。例如,例如,量子计算机可以模拟自然环境来推进化学、材料科学和分子建模等领域的科研工作。 下面是构成量子计算基础的四个关键概念。 一. 叠加 如果把经典物理学看作一枚硬币,那么这枚硬币不是反面就是正面。比特位类似于此,不是0就是1。在量子物理学中,这枚硬币就像持续旋转中的硬币,同时代表正面和方面。因此,量子位可以同时是0和1,同时上下旋转。 量子态:同时代表多个经典状态 二. 纠缠 纠缠让量子计算能够指数级扩展。如果一个量子位同时代表两个状态,两个量子位结合起来就可以代表四个状态。它们不再被独立看待,而是形成纠缠在一起的超级状态。随着更多量子位链接到一起,状态的数量呈指数级增长,能够为计算机实现天文数字般的计算能力。 两个量子位不再被独立看待,它们形成超级状态 三. 脆弱性 量子态非常脆弱。测量、观察、接触或扰乱任何这些状态,它们就会坍塌成经典状态。这些状态不会坚持很长时间,这也就是为什么目前很难制造量子计算机。 如果被噪声或测量所干扰,量子态会坍塌成经典态 四. 不可克隆 脆弱性的一个推论是“不可克隆定理”。在经典物理中,如果两个比特位由下面的硬币来表示,人们可以复制或窃听和重新创建该信息。相比之下,如果人试图观察或复制一套量子位中的纠缠信息,则这些信息会丢失。量子态无法在发送者或接收者不知情的情况下被复制。这个概念是量子通信的基础。 无法在不破坏量子态的情况下 复制、拦截或窃取 量子计算可以大幅提升性能,有望解决当前的计算机无法解决的具体复杂问题。真正的量子计算机仍处于初级发展阶段,但量子计算有望解决复杂的模拟问题,例如大规模金融分析和更高效的药品开发。 来源链接: http://mp.weixin.qq.com/s?src=11timestamp=1515316956ver=621signature=XzGBKN*aX1oc6BU7k0oLv84Xc0QyHGa43yAVoDEmuSN0IJhoN8NpIiWwVVmXD5Bjbxtwaacl4myk2NhbgGZ-BKyvKBzzTlg7ELVYFJM9JzoLkILyQOQ4rLH1EKgJrjFpnew=1
个人分类: 量子计算|1106 次阅读|0 个评论
[转载]用Python实现量子计算
热度 1 quantumchina 2018-1-7 17:28
(转自: 大数据文摘) 大数据文摘字幕组作品 说到量子和量子计算,你会想到什么?薛定谔那只可能死了也可能没死的神秘的猫? (^._.^)ノhmmm 今天的小视频从我们为什么要用到量子计算机谈起,不仅仅讲背景,还会首次带我们用Python实现一个简单的量子算法, 还非常贴心地附有代码 万万没有想到吧,Python也可以进入量子计算的神秘世界!(仿佛打开了新世界的大门🌚) 我们知道, 普通计算机是靠电力运行的,它通过电线发送电流脉冲,向其他地方传送信息。计算机使用的晶体管有导通和不导通这两种状态,可以用1或0来表示, 这就是“ 比特 ”的概念,每个比特代表0或者1, 就像灯的开关一样。当这些1和0组合在一起,通过二进制编码规则可以表示任何数字或字母。 hmm...可是为什么看起来像一只鸭子? 1965年,Intel公司的创办人Gordon Moore预测说每平方英寸的集成电路上的晶体管的数目会每隔约18个月翻一倍,这就是 摩尔定律 。 但是,摩尔定律是有“尽头”的:物理定律会约束我们没法把芯片做得更小。 这就是为什么大家如此关注量子计算。 量子 这个词在物理中代表着相互作用中物理实体的最小单位,例如,一个光子是光的最小单位。量子物理学家研究原子世界以及其中的亚原子粒子。 正如 费曼 先生 所言,物体在极微小的尺度下表现出的特性,与你直接接触过或者你见过的任何事物都不同。▼ 像电子和光子一样的微小粒子能同时处于不同的态,但是在大一点的尺度下,它们表现出互斥性。它们可能同时出现在多个地方,或者同时展现出两种极性。我们无法观测到两种不同状态的叠加, 因为一旦人们尝试去测量,叠加态就消失了。 量子计算机使用在接近绝对零度时具有磁悬特性的粒子,称为 Q比特 ,除了能表示0或1,Q比特还可以同时表示两种状态。 wow~⊙o⊙ 除了状态叠加,还有纠缠的概念。如果系统中有不止一个Q比特,这些粒子之间并不是相互独立的,而是纠缠在一起。 比特粒子可以相互影响,即使他们在空间中距离很远。 爱因斯坦称纠缠为远距离的幽灵行为。▼ 没人知道这是如何发生的,但是我们依然可以利用这一叠加的概念将计算机从二进制表示中解放出来。一台运行在这些Q比特上的计算机,性能将超越传统计算机。 视频的最后,展示了一个用Python 连接IBM量子API实现的量子算法——Deutsch-Jozsa算法。具体代码可以看这里: https://github.com/llSourcell/quantum_computing *** 每次想到所谓“遥远的相似性”,都能感觉到自己和宇宙万物的微妙关联。在远方我们所不知道的角落里,也许会有一个粒子在和我们的粒子相纠缠,自己这边发生变化,对方也随之改变。 如果我们能看到那个微观世界,距离遥远的粒子在无言地交流,那将是怎样的诗意与恢弘?只可惜,一旦被干涉,纠缠态将不复存在。 如果能看到粒子的世界,你会对那样的景象厌倦吗? 本期工作人员 翻译: 高绪远、大宝宝、蔡育锋 校对: 桪子 后期: 安琪 监制: 龙牧雪 点击观看视频 时长9分钟 带有中文字幕 ▼ 来源链接: http://mp.weixin.qq.com/s?src=11timestamp=1515316956ver=621signature=7PHYtqZpXasBTdtiXM2dnR9wZZqZ3kI8kPFThlrkmuXdvD*uO1TMx73XWwqONw05vAtt2d*3*deXJMavEN6T*S5u63EnkuAiTYIHX-mpx7Mly-MIrYfA6VP7X9Fgtt4wnew=1
个人分类: 量子计算|2593 次阅读|2 个评论
[转载]量子计算入门(1):基础知识
quantumchina 2018-1-3 18:36
这个笔记的目的很简单,就是从头把量子计算的基础理论搞明白。 这次主要是介绍学习量子计算的必备前提知识,包括: 张量 直和 张量乘积 狄拉克符号 狄拉克符号里的向量 狄拉克符号里的矩阵 伴随矩阵 比特的符号系统 前方高能预警: 我只是纯萌新,数学物理什么的连皮毛都不算很懂,解释概念起来也是纯粹按照自己简单粗暴的直觉来讲;所以,这个笔记只是笔记而已,里头或许有好多错误(估计隔几年回头看会感到各种尴尬吧),非常希望各位读者大神指出笔记里的错误,帮我一个忙吧,谢谢~ 参考资料: David Mermin 的 Quantum Computer Science Nielson Chuang 的 Quantum Computation and Quantum Information Dr. Hitoshi Murayama 的伯克利 221A: Quantum Mechanics I Lecture Notes Dr. Barton Zwiebach 的 MIT 8.05 Quantum Mechanics II Lecture Notes 来源: http://mp.weixin.qq.com/s?src=11timestamp=1514975315ver=614signature=nkKQ6li4Pbyq5M0XXckMdSkMDSs7r1dL8hvkN8Er8kBL*nOF*zilHIDE9oQSSgs9BGoBw1tJjZy8T1M*-hofp1iBuwDB62*wD0tkrNTt3SDkAk41oI6g9bXBCw2X8e36new=1
个人分类: 量子计算|3765 次阅读|0 个评论
[转载]OpenFermion:量子计算机的开源软件包
quantumchina 2017-12-26 15:44
“对于大部分物理学和整个化学领域的数学理论来说,其所必需的基本物理定律是完全已知的,而困难仅是这些定律的精确应用所带来的方程式过于复杂,以致难以解决”。 ——保罗狄拉克《多电子系统的量子力学》(1929) 在上面所提到的这篇文章中,物理学家保罗狄拉克(Paul Dirac)哀叹道,尽管量子力学能够对所有的化学领域进行精确地建模,但想要精确地模拟相关的方程式似乎有着不可避免的复杂性。这个问题长期以来一直困扰着大家,直到1982年,理查德费曼(Richard Feynman)提出这样一种理论:与其屈服于量子力学的复杂性而无可作为,我们倒不如可以将其作为一种计算资源。因此,量子计算最初的发展动机是:在遵循量子力学定律的基础上操作计算机,人们可以对自然进行高效精确的模拟。而这种模拟可能导致在诸如光电池、电池、新材料、药品和超导等领域带来新突破。虽然现在我们还没有一个足够大的量子计算机来解决这些领域的经典难题,但我们正在不断地取得快速发展。去年,谷歌发表了下面所展示的这篇论文,详细介绍了使用超导量子位的量子计算机所进行的分子的首次量子计算。在这项研究的基础上,IBM量子计算小组将实验扩展到了更大的分子上,并在上个月占据了《自然》杂志的封面。 谷歌去年发表的论文《分子能量的可扩展性量子模拟》 9月13日,IBM宣布,在自己的超导量子设备上实现了一种新的量子算法,这种算法可以模拟真实分子,能够高效精确地计算出小分子电子的最低能态。此次他们就用量子计算机推导了氢化铍(BeH2)分子的最低能量状态。该研究成为了《自然》杂志最新一期的封面文章。 现在,我们宣布发布OpenFermion,这是第一个能够将化学和材料科学问题转化为可以在现有平台上执行的量子电路的开源平台。OpenFermion是一个用于模拟电子(费米子)相互作用系统的库,它能够产生物质的性质。在OpenFermion开发之前,量子算法开发人员需要学习大量的化学知识,并且要编写大量的代码,除了要将其他的代码组合在一起,甚至连最基本的量子模拟也涵盖在内。该项目起源于谷歌,在项目进行过程中,苏黎世联邦理工学院、美国劳伦斯伯克利国家实验室、美国密歇根大学、哈佛大学、牛津大学、达特茅斯大学、Rigetti Computing公司和美国国家航空航天局都为alpha版本的发布做出了贡献有关此版本发布的更多详情,可阅读此论文:《OpenFermion:量子计算机的电子结构软件包》。 一种常见的方法是将OpenFermion看做是生成和编译物理方程式的工具,能够将化学和物质系统描述成可以由量子计算机解释的表征。针对这些问题,最高效的量子算法得以建立,并扩展了由政府、工业界和学术界的研究化学家使用和开发的经典量子化学包的能力。因此,我们也将发布OpenFermion-Psi4和OpenFermion-PySCF,这是当OpenFermion和经典的电子结构包Psi4和PySCF协同使用时的插件。 核心OpenFermion库是以一种量子编程框架无关的方式设计的,以确保与社区开发的各种平台之间的兼容性。这使得OpenFermion能够支持外部包,而这些包可以为不同的硬件平台编译量子汇编语言规范。我们希望这一决定能够有助于建立OpenFermion成为将量子化学放置于量子计算机上的一个社区标准。要了解OpenFermion是如何与不同的量子编程框架协同使用的,请参阅OpenFermion-ProjectQ和Forest-OpenFermion-plugins——它们可以将OpenFermion与称为ProjectQ和Forest的外部开发的集成电路模拟和编译平台连接在一起。 以下工作流程描述了量子化学家是如何使用OpenFermion来模拟一个分子的能量表面的(例如,通过准备我们在过去的文章中所描述的量子计算种类): 1.研究人员对OpenFermion计算进行初始化,具体规定如下: 输入文件指定分子中核的坐标。 基础集(例如:cc-pvtz)应该用来对分子进行离散化。 系统的电荷和自旋多重性(如果已知)。 2.该研究人员使用openfermion-psi4插件或openfermion-pyscf插件来执行可扩展的经典计算,这些计算被用来优化量子计算。例如,一个人可能会执行经典的Hartree-Fock计算来为量子模拟选择一个好的初始状态。 3.然后,研究人员指定哪些电子是最适合在量子计算机上(称为活跃空间)进行研究的,并要求OpenFermion将这些电子的方程式映射到适用于量子位的表示,可以使用OpenFermion中可用的程序之一,例如Bravyi- Kitaev转换。 4.研究人员选择一种量子算法来解决某些特性,并用一种诸如OpenFermion-ProjectQ之类的量子编译框架,将量子电路以一种可以在量子计算机上运行汇编语言输出。如果研究人员可以访问量子计算机,那么他们就会执行这个实验。 关于我们能够用OpenFermion来做些什么呢?这里有一些可以在ipythonnotebook上演示了一些案例(https://github.com/quantumlib/OpenFermion/blob/master/examples/openfermion_demo.ipynb)。虽然量子模拟在短期内被广泛认为是量子计算中最重要的应用之一,但很少有量子计算机科学家熟知量子化学,而知道量子计算的化学家就更少了。我们的初衷就是希望OpenFermion能够帮助缩小这些群体之间的鸿沟,并为化学家和材料科学家呈现出量子计算的强大力量。如果你有兴趣,请查阅GitHub资料库(https://github.com/quantumlib/OpenFermion/blob/master/README.rst),了解更多详情。 注:OpenFermion的主要功能是使用由各种基集和活动空间所定义的二次量子化方法对电子结构问题进行编码,然后使用量子比特与费米子代数之间的各种同构性将这些运算符转换为自旋哈密顿量(spin Hamiltonians)。 OpenFermion OpenFermion是一个开放源代码,用于编译和分析量子算法来模拟费米子系统,包括量子化学。在其他功能中,当前版本的特征是数据结构和用于获取和操控费米子和量子位哈密顿算符的表示的工具。欲了解更多相关信息,请参阅我们发布的论文(https://arxiv.org/abs/1710.07629)和有关该项目的新闻稿(https://research.googleblog.com/2017/10/announcing-openfermion-open-source.html)。 入门 安装OpenFermion需要pip,确保你使用的是最新版本。有关入门其他信息,请参阅介绍:http://openfermion.readthedocs.io/en/latest/intro.html; 代码示例:http://openfermion.readthedocs.io/en/latest/examples.html; ipython notebook演示:https://github.com/quantumlib/OpenFermion/blob/master/examples/openfermion_demo.ipynb; 详细的代码文件:http://openfermion.readthedocs.io/en/latest/openfermion.html。 目前,OpenFermion仅在Mac和Linux上进行测试,因为电子结构插件仅与Mac和Linux兼容。但是,对于那些想要使用Windows或者安装OpenFermion及其插件有困难的人来说,我们在docker文件夹(https://github.com/quantumlib/OpenFermion/tree/master/docker)中提供了一个Docker镜像和使用说明。Docker镜像为OpenFermion提供了一个虚拟环境,并选择了预先安装的插件。Docker安装系统可以在任何操作系统上运行。 开发者安装 要安装最新版本的OpenFermion(在开发模式下): git clone https://github.com/quantumlib/OpenFermion cd OpenFermion python -m pip install -e . 库安装 将最新的PyPI版本作为库(以用户模式)安装: python -m pip install --user openfermion 插件 OpenFermion依赖于模块化插件库,以实现重要的功能。具体来说,插件用于模拟和编译量子电路并执行传统的电子结构计算。请查看下面的链接了解更多有用的插件信息。 电路编译和仿真插件 OpenFermion-ProjectQ: (http://github.com/quantumlib/OpenFermion-ProjectQ)支持与ProjectQ(https://projectq.ch/)的集成。 Forest-OpenFermion: (https://github.com/rigetticomputing/forestopenfermion)支持与Forest(https://www.rigetti.com/forest)的集成。 电子结构包插件 OpenFermion-Psi4: (http://github.com/quantumlib/OpenFermion-Psi4)支持与Psi4(http://psicode.org/)的集成(推荐)。 OpenFermion-PySCF: ( http://github.com/quantumlib/OpenFermion-PySCF)支持与PySCF(https://github.com/sunqm/pyscf)的集成。 来源: http://baijiahao.baidu.com/s?id=1582131260748913582wfr=spiderfor=pc
个人分类: 量子计算|1801 次阅读|0 个评论
[转载]IBM Q构建商用通用量子计算系统
quantumchina 2017-11-19 16:08
IBM 除了建造先进的量子计算机,还致力于发展其强大的量子计算生态系统,包括开源软件工具、近期系统所需的应用,以及量子社区所需的培训与支持材料等。通过 IBM Q 体验网站,超过 60,000 名用户进行了 超过170 万次量子实验,并发表了超过 35 篇第三方研究出版物。注册用户来自全球各地的 1,500 多所大学、300 所高中及 300 家私营机构,而且许多用户已经将访问 IBM Q 体验网站作为他们的正式培训环节之一。这种开放性访问与开放性研究的方式,对于加速量子计算学习与实施而言非常关键。 链接: IBM Q http://www.research.ibm.com/ibm-q/ 普林斯顿大学电气工程教授 Andrew Houck 表示,“IBM Q 体验网站和 QISKit 已成为我的量子计算课堂教学的一部分,对我而言,它们非常重要。就在几年前,量子计算课程主要教授理论,学生们也很感兴趣,但总感觉所描述的内容离我们很遥远。借助 IBM 提供的丰富资源,我可以让我的学生在课后练习中,在真实的量子计算机上运行实际的量子算法!这种方式让他们明白,量子计算是一种真实的技术,而不是空想。曾经看似遥不可及的事情,现在,学生们在大学宿舍里就可以体验到。量子计算课程的注册目前非常火爆,各个学科的优秀学生都对这门课程很感兴趣。” 链接:QISKit www.qiskit.org 为了增强由量子研究人员和应用开发人员组成的生态系统,IBM 在今年年初推出了 QISKit 项目,这是一个开源软件开发人员套件,可在量子计算机的编程和运行中使用。IBM Q 的科学家已经对 QISKit 进行了扩展。现在,用户可以构建量子计算程序,并在 IBM 的某个真实量子处理器或线上量子模拟器上运行这些程序。近期,IBM 进一步增强了 QISKit 的功能,具体包括:增加了一些有助于研究量子系统状态的新功能和可视化工具;将 QISKit 与 IBM Data Science Experience(一种可将预期实验映射到可用硬件上的编译器)集成在一起;提供量子应用的工作示例。 链接: Quantum Experience https://quantumexperience.ng.bluemix.net/qx/experience QC Ware 首席执行官 Matt Johnson 表示,“能够在 IBM 的量子硬件上进行工作,并通过 QISKit 等开源平台进行访问,这非常关键,有助于我们了解哪些算法及真实的用例可以在近期处理器上运行。模拟器目前无法捕获实际量子硬件平台之间的细微差别,而且就概念验证而言,最好的方式就是从实际的量子处理器上获得结果。” 量子计算的愿景是:解决远远超出传统计算机实际应用范畴的特定问题,比如化学模拟、优化类型等问题。在《自然》杂志近期发表的一篇论文中,IBM Q 系统的团队开创了一种基于量子硬件的新的化学问题解决方法,通过这种方法,将有望在未来改变新药物与新材料的发现方式。在 QISKit 教程中,我们提供了一个 Jupyter 笔记本,用户可通过该笔记本中的描述,重复实现该论文中所描述的量子化学突破的相关实验。此外,我们还提供了其他一些类似的教程,其中详细介绍了如何在 IBM 的量子硬件上解决 MaxCut 和 Traveling Salesman 等优化问题。 来源:IBM中国 网站
个人分类: 量子计算|1363 次阅读|0 个评论
[转载]自然杂志:通过量子机器学习寻找希格斯玻色子
quantumchina 2017-10-22 13:51
D-Wave系统(量子计算机系统)显示量子计算机可以学会在堆积如山的海量数据中发现粒子的特征,但目前还没有超过常规方法。 物理学家们一直在努力开发能够使用量子力学技巧加速计算的量子计算机。但他们也希望这样的量子计算机能够回报人们的青睐,帮助他们发现新的自然规律。 现在,一个研究团队已经表明量子电路可以通过学习从原子碰撞实验的大量数据中筛选数据以搜寻一个新的粒子。他们 的验证原理的 研究使用D-Wave公司的量子计算机,在处理现在熟悉的希格斯玻色子时,并没有提供比传统技术明显的优势。但是研究者们认为,当数据量增长到更大时,量子机器学习将会在未来的实验中产生影响。他们的研究发表在10月18日的自然杂志上。 原文: DWave system shows quantum computers can learn to detect particle signatures in mountains of data, but doesn’t outpace conventional methods — yet. Physicists have been working hard to develop machines that can use quantum mechanical tricks to speed up computation. But they also hope that such quantum computers can return the favour and help them to discover new laws of nature. Now, a team has shown that a quantum circuit can learn to sift through reams of data from atom-smashing experiments in search of a new particle. Their proof-of-principle study — performed using a machine built by quantum-computing company D-Wave working on the now-familiar case of the Higgs boson — does not yet provide a clear advantage over conventional techniques. But the authors say that quantum machine learning could make a difference in future experiments, when the amounts data will grow even larger. Their research was published on 18 October in Nature. 来源: http://www.nature.com/news/quantum-machine-goes-in-search-of-the-higgs-boson-1.22860?WT.mc_id=Weibo_NatureNews_20171020_CONT Solving a Higgs optimization problem with quantum annealing for machine learning http://www.nature.com/nature/journal/v550/n7676/full/nature24047.html
个人分类: 量子机器学习|1706 次阅读|0 个评论
[转载]微软用 12 年的时间让量子计算走进现实
quantumchina 2017-10-17 19:38
二十年前,当 Michael Freedman 加盟微软的理论研究团队时,他是一位著名的数学天才,他所研究的数学前沿领域被称作拓扑学。 他的工作职责就是继续研究数学,没有任何附加条件。 正是在这种开放的工作环境下,微软开发出首个拓扑量子位。微软认为强大的量子位将成为可扩展、通用量子计算系统的基础,这将是量子物理学领域一次意义深远的突破。 微软负责量子研究的副总裁 Todd Holmdahl 表示:“我们为一项革命性的新技术奠定了基础,我非常激动。” 在 2017年 9 月 25 日举办的微软 Ignite 大会上,微软展示了拓扑量子位以及硬件软件生态系统开发方面取得的进展,这些技术将让更多开发者充分利用量子计算的力量。 这些进展包括一种与 Visual Studio 深度集成,同时适用于量子模拟器和量子计算机的新型编程语言。 Michael Freedman (由 Brian Smale 拍摄) 微软构建量子计算生态系统的计划基于 Freedman 的数学研究领域,以及一个看似神秘的物理学分支——早期研究者曾援引哲学和灵性概念描述它,后来的门徒在上世纪 70 年代获得了资助和支持。即使在现在,专家也用“神奇状态”来描述量子计算理论和实践中的一些元素。 虽然量子计算让人联想到神秘事物,但是专家认为量子计算有很多实用的好处,因为它能让科学家在几分钟、几小时内,完成目前最先进经典计算机用几十亿年才能完成的计算,而这意味着人们可以解答之前无解的科学难题。 研究人员表示,量子计算最终将被用来解决全球社会面临的最棘手的问题——从饥饿到气候变化。 Krysta Svore 在微软负责基于量子计算机及量子模拟器上运行的软件开发工作,量子模拟器能让开发人员在实体机器尚未问世的情况下进行开发工作。她说:“量子计算机能够对自然进行建模,而通过经典计算机,我们并不能真正了解这些流程。” 专家认为,拓扑量子计算机最早的用途之一就是帮助人工智能研究人员利用机器学习,加快训练算法的劳动密集型流程。 微软首席研究与战略官 Craig Mundie 微软首席研究与战略官 Craig Mundie 在 12 年前第一个支持 Freedman 进一步研究量子计算。他强调,如果量子计算能够把 Cortana 数字助理算法训练的时间从一个月缩短到一天,这将是人工智能发展的重大进步。 Mundie 说:“即使其它保持不变,Cortana 的速度也会提高 30 倍。”他将继续深入参与该项目。 对于 Freedman 来说,看到毕生研究的理论数学模型变成一个能够解决之前无解问题的真正计算平台,确实“非常激动”。他的大部分职业生涯都在没有任何附加条件地探索理论数学(或者更具体地说,就是拓扑节理论),从某种程度上,这引领他完成了心目中人生第一份真正的工作——构建拓扑量子位。 Freedman 说,他很少思考自己的工作可能会产生哪些改变生活的影响。 他说:“许多人问我是什么激励着我?是想要治愈疾病、设计新材料、保护环境?事实上,跟这些都无关。目前在这个项目中,我唯一关心的就是让量子计算机运行起来。” 从理论到实践 Freedman 所面临的一个挑战是:微软不只对开发可在实验室展示的量子计算机感兴趣,还启动了完整的拓扑量子计算系统的交付计划,包括从能够持续运行需要数万个量子位计算的硬件,到可以编程并控制量子计算机的完整软件栈。 把测量线连接到一台量子设备上 微软负责量子研究的副总裁 Todd Holmdahl 表示:“我们在做各种工作,从物理到控制面板,到运行计算机的软件,到有趣的事情(例如量子化学)所需的算法,再到个性化医疗和应对气候挑战。”微软甚至有一个专注于后量子世界密码学和安全性研究的项目,并且正和整个行业一起准备量子抵抗密码算法。 但微软研究的核心是拓扑量子位。 12 年前,当 Freedman 找到 微软首席研究与战略官 Craig Mundie ,想让他支持自己的量子计算理念时, Mundie 说,量子计算有些低迷。 多年来物理学家一直在谈论开发量子计算机的可能性,努力开发一个拥有足够高精确度的有效量子位,以便在开发真正可行的量子计算机中发挥作用。对于那些仅使用最低精确度的物理量子位的研究人员来说,大约需要 1000 个物理量子位才能组成一个“逻辑”量子位,这种量子位非常可靠,足以用于任何真正有用的计算。问题在于,量子位非常挑剔。即便是最轻微的扰乱,它们也会“散开”,用外行话来说,就是它们不再是可用于计算的物理状态。 Freedman 表达了他一直以来探索的量子位理念,即拓扑量子位会变得更加稳健。因为它们的拓扑性质会使其更加稳定,且能提供更多固有的防错能力。根据定义,物质的拓扑状态就是电子可被分解、并出现在系统不同地方的状态。一旦电子被分解,就很难被干扰,因为你必须改变所有存储在不同地方的信息。 作为一位资深超级计算机设计师和软件工程师,Mundie 立即 表示他 接受了量子位的理念。因为量子位更强健,并且也有内置容错功能。它将使设计一台可扩展、有用设备的任务变得更容易。他说:“计算本身已经改变了社会和经济的方方面面,我意识到,如果创造出能够改变这些基本构建块的新型计算,就能够完成过去五六十年才能完成的计算。” 一个完整的堆栈 在 Mundie 的支持下,Freedman 在加州圣巴巴拉建立了一个实验室,并开始招募全球最杰出的凝聚态物质和理论物理学家、材料学家、数学家和计算机科学家,一起构建拓扑量子位。这个团队现在拥有许多著名的量子专家,过去几年,他们以员工身份加入微软,包括 Leo Kouwenhoven,Charles Marcus,David Reilly 和 Matthias Troyer 。 为了创建完整的计算平台基础设施,微软还同步开发用于拓扑量子计算的构建块、软件和编程语言。 Krysta Svore,在微软 负责基于量子计算机及量子模拟器运行的软件开发工作。 在 Ignite 大会上,微软宣布了开发完整堆栈的最新里程碑——一种专为开发者设计的新的编程语言,能够开发应用软件,在当前的量子模拟器上调试,并能够在未来真正的拓扑量子计算机上运行。 Svore 表示:“目前在模拟器中运行的代码,未来也可以运行在我们的量子计算机上。” 这些新的工具是专为那些计算机技术前沿的开发者而设计的,他们也是机器学习以及其它人工智能技术的早期采用者。即使不是量子物理学家,也可以使用。 新的编程语言与 Visual Studio 深度集成,包括进行经典计算(例如调试和自动完成)所依赖的各种工具。Svore 说:“它不应与他们已经在做的东西有太大差别。” 这套工具 将在年底前提供免费预览版,函数库和教程,以便开发人员熟悉量子计算。它的设计便于更高的层次上的抽象工作,没有量子计算专业知识的开发者也能真正调用量子子程序,或者写指令序列,最终编写一个完整的量子程序。 个人用户在可以模拟最多需要 30 个逻辑量子位能力的问题,而使用 Azure 的企业客户可以模拟超过 40 个量子位的计算能力。 在量子计算中,功率随着逻辑量子位数量的增加呈指数增长。一个逻辑量子位就是算法层面上的量子位。每个逻辑量子位在硬件中都由一系列物理量子位来表示,以保护逻辑信息。微软的方法是通过更少的拓扑量子位开发一个逻辑量子位,使其更容易扩展。 Svore 表示,拥有一种能在模拟环境中使用的编程语言的关键优势在于:它能帮助那些有兴趣使用量子计算机的人解决问题,更好地了解如何利用量子的能力解决不同类型的问题。一旦量子计算可用,将加快利用量子计算的能力。 地球上最寒冷的地方 即使拓扑量子位预计比一般的量子位更强健,但它还是相当脆弱。保护它免受外界干扰的唯一方法就是把它放在非常非常寒冷的地方。 微软量子计算部门架构师 Douglas Carmean 带领的团队致力于开发一个让量子位能够在近乎绝对零度(或 30 毫开尔文)条件下运行的 系统架构 。这是地球上最寒冷的地方,甚至比宇宙深空还要寒冷,但它能让在室温中工作的人和计算机进行通信。 量子位,必须在非常寒冷的温度下创建并运行。研究人员使用一个稀释冰箱,把量子设备插入一个“冰球中”,随后它将被冷却到毫开氏温度。 研究人员也许通过一个量子位在一个完美的实验室中取得进展,但 Carmean 希望创建一个让程序员使用的能计算数万个逻辑量子位的系统。他说:“我的工作职责就是把理论学家和实验学家展示过的东西再做一次,然后在有用的形式中复制数百万次。” 漫长旅程的开始阶段 已经完成 量子计算专家往往会强调两件事,一是,他们看到的拓扑量子位最好的使用案例就是开发更好的量子计算技术;二是,这种工作的最大的乐趣就是你无法预测它会产生哪些难以置信的进步。 12 年前,Mundie 第一次支持 Freedman 的研究工作,当时他就预见——到某一阶段,量子理论将转化成工程。 在 Richard Feynman 提出量子计算理念的 50 多年后,Mundie 正展望量子经济。他相信,这种新型计算将创造一种经济形态。就像经典计算改变了社会的方方面面一样,他认为量子计算最终将给万物带来革命性的改变,这种改变开始于化学、材料和机器学习。 Mundie 说:“70 年来,第一次我们想要构建一个完全不同的计算系统。这不是一次增量升级或改进,而是一个性质完全不同的新事物。” 来源: http://www.sohu.com/a/198434209_181341
个人分类: 量子计算|1062 次阅读|0 个评论
[转载]从0到1快速上手量子编程!
quantumchina 2017-10-17 11:44
科技日报讯 (记者吴长锋)记者近日从合肥高新区获悉,由合肥本源量子计算科技有限公司联合中科院量子信息重点实验室发布的“本源量子计算云平台”日前上线。这也是世界上首个上线的基于半导体量子芯片的量子计算云平台,平台同时采用了超导量子芯片。   量子云是以量子计算为核心的云服务。中国科技大学郭光灿院士团队研发的本源量子计算云平台,兼具科普、教学、编程等多重功能。在实际操作中,量子程序将会被发送到远程量子服务器上,在云端完成编译、执行与测量,最后将结果传回本地。本源量子计算云平台拥有国内首个图形化量子编程界面,简单点击鼠标即可在网页上完成量子线路搭建,构成多种量子算法。公众通过互联网远程登录,可使用我国自主研发的2位量子比特半导体芯片以及最大支持30位的量子仿真器来实现应用。   据国家重大科技专项“固态量子芯片”项目首席科学家郭国平介绍,本源量子计算云平台的一大突破是推出了全球首款半导体量子芯片编程语言“量子音符”,目的在于通过免费的云服务,扩大公众对量子计算的认知,并吸引更多的人使用量子编程语言参与开发应用。目前,该平台已推出移动端与桌面端,近期将会开放6位超导量子芯片和2位半导体芯片的在线演示。平台还具备完善的量子计算教程和量子云使用说明,量子“门外汉”也能快速上手量子编程。 本源量子云官方链接: http://www.qubitonline.cn/ 来源: http://news.xinhuanet.com/tech/2017-10/17/c_1121812939.htm
个人分类: 量子计算|2248 次阅读|0 个评论
[转载]清华大学:国际首个核磁共振量子计算云平台上线
quantumchina 2017-10-15 11:42
10月11日,量子计算云平台“中国版”正式启动,清华大学、阿里巴巴-中科大、本源量子-中科大在同一天发布了量子云平台。 量子信息革命正加速到来,2016年,IBM就向公众开放了基于云的量子计算平台,用户登录后能使用一台5量子比特的量子计算机进行算法或实验模拟;今年3月,IBM又宣布计划建立业界首个商用通用量子计算平台IBM Q。 在量子计算领域,国内外的竞争十分激烈,就在10月10日,英特尔通过其官网宣布,公司生产出一种包含17个超导量子位的全新芯片,标志着量子计算正从学术实验室进入半导体产业,向实用领域迈进。 与IBM不同,清华大学课题组的量子计算云平台是基于核磁共振量子计算机,不同的量子计算机物理体系有什么优缺点?我们采访了清华大学物理系核磁共振量子计算实验室,他们表示,“我们非常有信心将我们的量子云的控制层公开”。 核磁共振量子计算实验室部分工作人员 (李可仁 辛涛作为技术负责,指导老师为龙桂鲁,曾蓓 尹章琦 鲁大为 李俊 黄诗霖 陆思锐等是合作者) 观察者网: 你们推出的这项量子计算云服务测试版,是中国第一家此类在线服务吗?能否透露一下,现在用户的试用情况如何? 答: 我们、源自中科大郭光灿院士团队的本源量子公司、 阿里巴巴和中科大潘建伟院士团队合作,共三个团队在同一天都发布了量子云计算平台。 同时我们还在预印本网站上发布了相关论文。我们实现了网络与真实的核磁共振量子信息处理系统的对接,这是国际上首个基于核磁共振的量子云计算平台,在中文版上线后的24小时内,网站主页独立IP访问次数近2000次,来自清华大学、中国科大、九院等不同单位近150个的注册用户,提交的在线计算任务80余次,也引起了国际以及台湾地区同胞的关注。 观察者网: 你们的量子云平台只包含四个量子比特,但是逻辑门保真度超过98%,可以完成很多步复杂的逻辑门。目前这个平台上完成过哪些有代表性的计算任务,可以介绍一下吗? 答: 核磁共振作为实现量子计算最早的物理平台之一,至今已经发展了许多完善精确的量子操控技术以及积累了丰富的量子计算经验,在量子计算以及量子模拟等主要量子信息研究领域取得了许多重要的成果,比如用于这次云计算的谱仪之前在实验上实现了具有强大搜索能力的Grover算法,7个量子比特体系的高保真度相干操控,国际上首个和乐量子计算,量子隧穿现象以及植物光合作用等量子模拟。这个量子云平台不仅是个量子计算体验平台,而且更是一个开展量子计算和量子操控研究的平台,用户完成可以利用该量子云平台做创新性研究,期待他们能做出出色的成果。 量子云使用规则和量子云运行结果(举例) 观察者网: 据介绍,量子计算研究有不同层级,从最底层的物理层,到其上的控制层、电路层,一直到最上层的算法。IBM的量子云服务,开放的是量子计算中的电路层和算法层。对于想要自己造量子计算机的研究人员来说,这个服务还远远不够。那么,你们建立自己的量子云平台,能为控制层、物理层的研究带来哪些帮助? 答: 首先,我们建立自己的量子云平台的服务是完全可以开放到控制层的。所谓控制层,按我们的理解,核心是对系统控制脉冲的设计。我们在脉冲设计过程中要综合考虑时间或能量优化、减少系统误差、抵抗环境噪声等问题。核磁共振谱学在半个多世纪的发展中,在脉冲设计方面积累了大量的技术与经验。特别是近二十年来,基于核磁共振实验平台的量子控制方法趋向于比较成熟,我们的团队汇集了这方面的专业队伍。因此,我们非常有信心将我们的量子云的控制层公开。 来源: http://tech.sina.com.cn/d/2017-10-14/doc-ifymuukv2009454.shtml
个人分类: 量子计算|1786 次阅读|0 个评论
[转载]阿里发布国内首个量子计算云平台!
quantumchina 2017-10-12 09:41
新华社杭州10月11日电(记者张璇、吴帅帅)11日,记者在“2017杭州·云栖大会”上获悉,中国科学院量子信息与量子科技创新研究院(上海)联合阿里云共同宣布“量子计算云平台”上线。   据介绍,量子计算云平台是提供量子计算服务的云计算平台。云平台前端对用户提供云端的量子算法开发测试环境,后端连接经典计算仿真环境和真实超导量子计算。阿里云方面将提供云计算资源支撑经典计算仿真环境。   中国科学院院士、中国科学技术大学常务副校长潘建伟表示,量子计算云平台将培养行业生态,推动量子计算的产业化,“20多年前,我觉得量子计算在我有生之年不可能成为现实。但是20年过去了,我觉得新量子革命正在到来、正在发生,量子计算所发展的进程比我想象的要快得多。”   潘建伟说,量子计算具有划时代的意义。量子计算又被称作“自然赋予人类的终极计算能力”。一个形象的比喻是,将传统计算机的速度比作“自行车”,量子计算机的速度则是“飞机”。“量子力学催生了第三次产业变革,目前它又为了解决重大的瓶颈问题做好了准备,这就是说我们量子力学本身正在孕育着新的一次革命。”潘建伟说。   在潘建伟看来,量子计算机发展到50量子位的时候,就能实现“量子称霸”(quantum supremacy),超过世界上任何计算机,就能解决任何计算机解决不了的问题,第一次实现量子称霸必将成为物理学和计算机科学的一个里程碑,虽然不能说出确切的时间,但应该为时不远了。   公开资料显示,2015年7月,中国科学院与阿里云在上海宣布共同成立“中国科学院-阿里巴巴量子计算实验室”。2017年5月,世界上第一台超越早期经典计算机的光量子计算机在中国诞生,该计算机由中科大、中科院-阿里巴巴量子计算实验室、浙江大学等共同研制完成,将可高精度操纵的超导量子比特数从此前的记录9个提升到了10个。 来源: http://news.xinhuanet.com/2017-10/11/c_1121788790.htm
个人分类: 量子计算|1809 次阅读|0 个评论
[转载]光量子新算法或能实现百万个量子比特大规模运算
quantumchina 2017-10-10 10:12
最近,日本科学家发明了一种新的光量子计算方法,通过在光路上连成一列具有时间先后的光脉冲,实现了用最小规模光电路结构有效进行大规模运算操作。   从理论上来说,量子计算机的运算速度会远超现有的超级计算机,可用于高速数据库检索、开发功能性材料及药物等各领域。目前世界各国争相开发以原子、离子及超导电路为基础的各种系统通用的量子计算机。   量子计算机很难实现大规模化运算,目前数十个量子比特的计算已为极限。即使是使用光子的量子计算机,其大规模扩展也是今后长期的难题。近年来,科学家发现在一个光路上使用一列光脉冲群,可实现量子纠缠状态下100万个光脉冲的制备,实现某种大规模量子操作。但这种计算方法在实际操作中效率较低,计算精度有限,尚难以实现。   东京大学古泽明团队发表在《物理评论快报》上的报告称,他们的新方法理论上可处理100万个以上量子比特的大规模运算。新方法的重点在于:利用环路结构的光电路,无限反复使用一个运算基本单位“量子隐形传态”电路,进行大规模量子计算。由于光电路规模可小至极限以及计算效率的提高,新系统避免了利用量子纠缠状态计算方法的缺陷。   与原子、离子、超导电路等类型的量子计算机相比,光量子计算方式运算规模巨大,可在室温下、空气中运行,能克服量子噪声极限,适用于光通讯。而且,光量子计算机不需要巨大的冷却设施和真空设施。新方法还能促进光量子计算机大规模扩展,并大幅减少所需能源和成本,有望为光量子计算机带来创新。   研究团队表示,今后将分析基于新方法的光量子计算机的计算精度,以及如何实现各种算法,并着手开发光量子计算机。   上海交通大学物理与天文系金贤敏教授在接受科技日报记者采访时指出,这一方案原理上可以实现非常多的量子比特,但从理论走向实验实现仍然面临巨大挑战,包括如何降低光快门和回路耦合损耗等。 来源: http://www.cas.cn/kj/201710/t20171009_4616811.shtml 论文链接: https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.119.120504
个人分类: 量子计算|978 次阅读|0 个评论
[转载]自然杂志:什么是量子计算霸权?
quantumchina 2017-9-27 09:55
量子算法领域的研究目的是通过量子计算机找到办法来加速计算问题的求解。这一领域的一个重要里程碑是:当一个通用量子计算机执行 计算任务时 超出了任何经典计算机的能力,这一事件被称为量子霸权。这在实验上比全程量子计算更容易实现,但涉及到新的理论挑战。在这里,我们提出了实现量子霸权的重要建议,并讨论了如何可靠地将经典计算机的能力与量子计算机的能力进行比较。 (2017年9月27日) 原文: Quantum computational supremacy 来源: http://www.nature.com/nature/journal/v549/n7671/full/nature23458.html The field of quantum algorithms aims to find ways to speed up the solution of computational problems by using a quantum computer. A key milestone in this field will be when a universal quantum computer performs a computational task that is beyond the capability of any classical computer, an event known as quantum supremacy. This would be easier to achieve experimentally than full-scale quantum computing, but involves new theoretical challenges. Here we present the leading proposals to achieve quantum supremacy, and discuss how we can reliably compare the power of a classical computer to the power of a quantum computer.
个人分类: 量子计算|5296 次阅读|0 个评论
自然杂志:量子优势在机器学习中的证明
quantumchina 2017-9-25 18:13
量子计算的主要期望是有效地解决某些对经典计算机来说极其昂贵的问题。经过验证的量子优势的大多数问题涉及重复使用一个黑盒,其结构编码解决方案。算法性能的一个度量是查询复杂性,例如在给定概率下找到解决方案所需的 黑盒 调用的数量。量子算法的多比特的验证,如Deutsch–Jozsa 及 Grover算法,已在不同的物理系统,如核磁共振、离子阱、光学系统及超导电路中 实现 。然而,在小范围内,这些问题可以通过一些 黑盒 查询得到经典解决,从而限制了所获得的优势。在这里,我们解决了一个基于 黑盒 的问题,在一个五比特的超导处理器上 基于噪声 环境下的学习 校验 。使用相同的 黑盒 执行经典和量子算法,我们观察到查询计数中的一个大的差距,有利于量子处理。我们发现,这种差距是错误率和问题大小的函数,呈数量级增长。这一结果表明,虽然通用量子计算需要复杂的容错架构,但现有的存在噪声的系统已经显现出显著的量子优势。 (2017年9月25日) 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space Demonstration of quantum advantage in machine learning 来源: https://www.nature.com/articles/s41534-017-0017-3 The main promise of quantum computing is to efficiently solve certain problems that are prohibitively expensive for a classical computer. Most problems with a proven quantum advantage involve the repeated use of a black box, or oracle, whose structure encodes the solution. One measure of the algorithmic performance is the query complexity, i.e., the scaling of the number of oracle calls needed to find the solution with a given probability. Few-qubit demonstrations of quantum algorithms, such as Deutsch–Jozsa and Grover, have been implemented across diverse physical systems such as nuclear magnetic resonance, trapped ions, optical systems, and superconducting circuits. However, at the small scale, these problems can already be solved classically with a few oracle queries, limiting the obtained advantage. Here we solve an oracle-based problem, known as learning parity with noise, on a five-qubit superconducting processor. Executing classical and quantum algorithms using the same oracle, we observe a large gap in query count in favor of quantum processing. We find that this gap grows by orders of magnitude as a function of the error rates and the problem size. This result demonstrates that, while complex fault-tolerant architectures will be required for universal quantum computing, a significant quantum advantage already emerges in existing noisy systems.
个人分类: 量子机器学习|3135 次阅读|0 个评论
[转载]自然杂志:面向现实量子硬件的程序设计语言和编译器设计
quantumchina 2017-9-23 19:19
量子计算正处在一个重要的拐点。多年来,量子计算机的高级算法已经显示出相当大的希望,而量子器件制造方面的最新进展提供了实用的希望。然而,量子计算算法的硬件尺寸和可靠性要求与未来十年预测的物理机器之间仍然存在着差距。为了弥补这一差距,量子计算机需要合适的软件来翻译和优化应用程序(工具流程)和抽象层。考虑到量子计算中严格的资源限制,软件和实现层之间传递的信息将与经典计算明显不同。量子工具流程必须揭露层与层之间更多的物理细节,因此面临的挑战是当隐藏了足够的复杂性时要找到揭露关键细节的抽象。 (2017年9月23日) Programming languages and compiler design for realistic quantum hardware 来源:http://www.nature.com/nature/journal/v549/n7671/full/nature23459.html Quantum computing sits at an important inflection point. For years, high-level algorithms for quantum computers have shown considerable promise, and recent advances in quantum device fabrication offer hope of utility. A gap still exists, however, between the hardware size and reliability requirements of quantum computing algorithms and the physical machines foreseen within the next ten years. To bridge this gap, quantum computers require appropriate software to translate and optimize applications (toolflows) and abstraction layers. Given the stringent resource constraints in quantum computing, information passed between layers of software and implementations will differ markedly from in classical computing. Quantum toolflows must expose more physical details between layers, so the challenge is to find abstractions that expose key details while hiding enough complexity.
个人分类: 量子计算|1584 次阅读|0 个评论
量子计算机靠谱吗?
热度 3 leiyian 2017-5-4 08:51
量子计算机国际上很早就有人宣称生产出来了,而且已经商业化。很早就有狐疑,本来不太上心,不过这两天我国也有团队取得重大成果,超过国际水平若干,在朋友圈,公众号刷屏。狐疑回照,因而向各位请教: 量子计算机都有什么实际算例没有?光听说谁做出了量子计算机,就没听说算了什么东西,更别说超过传统计算机了。能算1+1吗?结果对吗?是1.85还是2.03? 好吧,据说量子计算机不能用传统计算来评价,但是可以计算传统计算机算不出来的重要问题,比如跟密码学相关的大数分解问题。好吧,请分解一个给我看?能算到多少?3x5=15?这需要麻烦量子计算吗?请问量子计算机怎么精确表达一个128位,256位,512位的整数?别告诉我波函数能精确表达一个整数。也别告诉我你要分别做10的512次方的平方次数计算,测量值的平均值的可信度就能达到50%。大数分解是量子计算机的最大卖点之一,假定你的确能计算出来,怎么输出结果? 好吧,精确计算不是量子计算的长项,复杂多值问题,NP问题你最拿手。假定你的模型足够好,计算出来了一个比如复杂优化问题的最优解,请问你的测量影响解吗?要多少次测量才能在可接受的精度范围内确定波函数一个位置的值?总共要做多少次测量?测量结果用量子计算能表达吗? 再退一步,你建的模型就是非常好,就是一次就把结果算出来了,怎么测量结果都一样,雷奕安我是不是没话说了?我当然有话说。你这种做法人家已经做过几百万年了,那叫实验,怎么突然改叫量子计算了? 看不懂不解释,看懂了要打脸,bring it on。 列举一下量子计算已经取得的一些成就: 2014年,能分解的素数:56153,该算法只能算相邻的两个素数积 https://medium.com/the-physics-arxiv-blog/the-mathematical-trick-that-helped-smash-the-record-for-the-largest-number-ever-factorised-by-a-77fde88499 2017年1月,D-Wave公司宣布其量子计算机已经达到2000量子位: https://www.dwavesys.com/press-releases/d-wave%c2%a0announces%c2%a0d-wave-2000q-quantum-computer-and-first-system-order
个人分类: 量子力学|8845 次阅读|4 个评论
[转载]量子卫星到底能干啥
uestc2014xiaoyu 2016-8-26 12:30
最近大家对于量子卫星的讨论,络绎不绝,无论是新闻推送还是大家的技术博客。 今天在量子信息群里,无意间看到一位老师分享的一个科普连环画,觉得甚有意思,几乎可以和《画说量子论》一比高下。所以,就果断的转在自己的博客中,希望大家对于量子卫星能有个更加通俗的理解。 原文的链接如下: http://mp.weixin.qq.com/s?__biz=MjM5Mjg3MTIzMQ%3D%3Didx=1mid=2658941551sn=2a07e6fb54b0537e2f8cd29d7985f3df 感谢 墨子号量子卫星组成员、量子物理学博士张文卓先生,北京市科协(蝌蚪五线谱)、潇轩社为本文提供了关键的知识顾问及 “Stone 娱乐阅读”支持,特此致谢!
个人分类: 量子机器学习|16187 次阅读|0 个评论
大数据与量子计算
uestc2014xiaoyu 2015-5-11 14:51
大数据与量子计算 王书浩, 龙桂鲁.pdf 其实,过年的时候就读到了王书浩等人的大作,心中十分高兴,因为自己现在的研究方向就是这个。仔细读完之后,更加心情沉重。因为,量子计算和大数据的融合,路还很远啊。我们这些研究人员真的需要沉下心来思考,到底如何应用,而不是为了“研究”而研究!
个人分类: 量子机器学习|23206 次阅读|0 个评论
Yale University博士很牛X,说话的口气更牛X
热度 3 jmluo0922 2014-10-11 11:39
【按】本来不想将我前面一篇博客中的讨论内容,再以这种形式公开,但我觉得我们对于一些声称“从头计算”的软件的计算模型和方法的认识存在误区。 王晓明 2014-10-11 04:16 在学术搜索引擎上查一下ab initio materials design或者ab initio materials simulation很难么? 就算您不会搜索,作为对材料模拟有兴趣的人,VASP这个软件总不该陌生吧? 博主回复(2014-10-11 11:02) : Yale University博士很牛X,说话的口气更牛X。 你的学术是从字面的直接理解得到的啊!这样说话是被你逼出来的。 ab initio materials design 是通过体系的薛定谔方程,不借助于近似方法和模型求解材料的性能? 给你普及一个基本常识,对于比材料结构简单得多的碱金属(原子)结构的计算,量子力学都必须采用近似的方法进行计算。外壳层S电子的薛定谔方程,是作了该电子在内壳层电子与原子核形成的等效电荷产生的中心场中运动的近似处理,才能计算。并且还要考虑电荷屏蔽效应(经典概念),量子亏损等,才能得到与实验结果 构 符合的结果。 附:纯量子力学计算 1、氢原子结构和光谱,单电子问题,可以通过体系的薛定谔方程精确求解,并且可以获得解析结果; 2、氦原子结构,双电子问题,也可以通过体系的薛定谔方程求解; 3、但对于锂原子,三(多)电子问题,纯量子力学的计算应该是三个电子在锂原子核中心场中的运动问题,对于三个电子的波函数同时进行计算和求解,而不作任何近似处理,到目前为止,我还没有见到相关报道。
个人分类: 杂谈|3833 次阅读|5 个评论
《基于半导体量子点的量子计算与量子信息》王取泉
ustcpress 2012-3-11 08:56
《基于半导体量子点的量子计算与量子信息》王取泉
丛书名:当代科学技术基础理论与前沿问题研究丛书——中国科学技术大学校友文库 (“十一五”国家重点图书出版规划项目) 出版日期:2009年1月 出版社:中国科学技术大学出版社 正文页码:384页(16开) 字数:393千 定价:68.00元 编辑邮箱: edit@ustc.edu.cn (欢迎来索要目录、样章的PDF) 当当网购书链接: http://product.dangdang.com/product.aspx?product_id=20509132 中国物理学会2009年度“值得推荐的物理学新书” 内容简介: 《基于半导体量子点的量子计算与量子信息》以清晰的物理图像和丰富的实验结果比较全面地介绍了基于半导体量子点激子的量子计算和量子信息方面的最新研究进展。全书共分8章,第1章和第2章是半导体量子点形貌结构和基本特性简要介绍;第3章至第5章是关于激子量子比特旋转和量子逻辑运算等量子计算方面的研究进展;第6章至第8章则是关于激子复合单光子发射和纠缠光子对发射等量子信息方面的研究进展。《基于半导体量子点的量子计算与量子信息》可以作为凝聚态物理、 光学、材料科学、量子计算科学等有关专业的高年级本科生和研究生的教学参考书,也可供上述领域的科技工作者参考。 作者简介:王取泉 ,武汉大学物理系博士生导师,1984年本科毕业于中国科学技术大学物理系本科生,1999年获武汉大学物理系凝聚态物理博士学位;2000年8月~2001年7月,北京大学物理系介观物理与人工微结构国家重点实验室进行访问研究, 研究纳米金属颗粒复合材料和纳米结构氧化物半导体薄膜的超快非线性光学响应。2001年9月~2003年8月,中国科学院物理研究所,国际量子结构中心博士后。2001年12月~2003年7月,美国德克萨斯大学奥斯汀分校物理系进行(博士后)访问研究,研究内容为InGaAs半导体量子点的单光子发射、Rabi振荡和量子比特旋转。被SCI收录的论文50余篇。目前主要从事的研究内容有:单量子点的光谱成象技术,半导体量子点的单光子发射,半导体量子点激子态的相干操纵、Rabi振荡、量子比特旋转、量子逻辑门和超快非线性光学效应。主持国家自然科学基金面上项目2项(半导体量子点中量子比特旋转和量子逻辑门的研究),重点项目1项(半导体低维体系中自旋动力学过程的研究)。
个人分类: 校友文库|4632 次阅读|0 个评论
缺陷在量子水平的价值
x224179896 2011-11-7 20:58
在宏观水平晶格缺陷被认为是有害的,但是在钻石中的氮晶格空位中心(nitrogen-vacancy center),这种缺陷却被人们利用以实现量子计算机的量子比特,最近人们再次发现碳化硅晶格缺陷也同样可以实现这种功能,这是一个比较重要的发现。但是与氮晶格空位中心一样,其主要困难仍然是如何实现可以扩展的量子计算。
3171 次阅读|0 个评论
量子计算的新方案
x224179896 2010-12-20 21:05
在量子计算的一般方案中需要量子计算机在计算过程中与环境高度隔离以保持计算过程的量子相干性.Cirac等人提出来一种新的方案,即在计算过程调控体系与环境的相互作用,使得在环境作用下体系的稳定态恰好是一般量子计算方案所的末态.该方案的新颖处在于把量子计算对退相干的要求降低了,所存在的问题是量子纠错还是必要的吗?如果有方案能降低纠错的要求将对量子计算的发展起着巨大的推动作用.
个人分类: 科研笔记|3249 次阅读|0 个评论
D-Wave系统是量子计算吗?(100123)
热度 1 ymin 2010-1-23 17:27
D-Wave系统是量子计算吗?(100123) 闵应骅 D-Wave系统是一家只有55人,投资6.5千万美元的加拿大公司。他们做了一个客户定制的,花几百万美元,用液态氦制冷的东西,说是基于量子力学的计算机。他们与Google和NASA合作,积累了50个专利,使他们的办公室成了世界级的量子实验室。 传统计算机的一位只有0和1两种状态,但量子计算机中一个量子位可以是0,1或0和1的迭加。如果能做到几百、几千量子位,它就能解决最困难的编程问题、极快搜索数据库、模拟复杂的量子系统,例如生物分子。 D-Wave要建造的是一个专用量子计算机,而不是一个通用机,去解一个特定的数学问题。这使我想起,在计算机发展的早期,专用机,甚至是专用模拟计算机曾经很时兴。事实上,用模拟机来解一个特定的问题很有效,尤其是在精度要求不高的情况下很可用。后来,发展为通用电子数字计算机。在量子计算机,是不是要来个否定之否定,又搞专用机呀! 现在他们可以做到128量子位,但不能说比现在的PC机更强。他们计划今后两年内他们将做到几万个量子位,最后做到百万位。不少专家怀疑他们这是不是量子计算机。 内行人说他们没有谈怎么解决纠缠态的问题,即量子位之间的耦合。达到百万位,那只能是一个广告。 D-Wave用一个包含约瑟夫逊结的铌金属环的芯片,两种超导体用绝缘体分开。当芯片制冷到特别低的温度时,电流沿着环流动,而显现量子性。用方向表示状态,逆时钟表示0,顺时针表示1,电流流动时表示0和1的迭加。许多人企图用这个来实现逻辑门。但D-Wave不是这样,而是用所谓绝热量子计算,先把各量子位初始化到最低能量状态,然后绝热地开启量子位之间的互动,来编码一个量子算法。最后,量子位转向一个新的最低能量状态。读出量子位就完成了计算。但是,量子位很脆弱,散射磁场和其他环境干扰很容易破坏其量子性和相干性。IBM的专家说,绝热量子计算必须能容错,即有效的差错校正。专家们就此提出的问题很多。但是,想一想,电子管计算机、集成电路计算机刚刚做出雏形的时候,问题也很多,甚至觉得是无法解决的。最后不是都解决了吗?我以为,我国应该下大力气,研究这些真正原始创新的东西、这些与世界在同一起跑线上的东西,才能达到世界科技前沿。
个人分类: 计算机|6518 次阅读|1 个评论
现代物理学勘误(八)--测量问题、量子纠缠
llllaa 2009-9-7 18:50
写在前面:本文中之观点均为非主流观点,如果您是学生或者非物理学专业人士,最好不要读此文以免被误导,如果出于好奇您一定要读,请一定以怀疑的眼光来看待本文中之观点。欢迎您发表自己的看法。 8、关于测量问题 有人说测量问题是物理的根本问题,这完全是人择的看法,任何物理实在都不会依赖测量而存在,也不会因为没有测量就没有各种物理量。 量子力学发明了测不准原理,根据这个原理,微观客体的任何一对互为共轭的物理量,如坐标与动量,都不可能同时具有确定值。对于现存的任何测量手段,这个原理都是具有指导意义的,它给出了我们测量的局限。但是这并不是物质的固有本质,我们不能把测量的外在属性赋予客体本身,如果这样会导致不可知论,如一个粒子的位置不定,那么怎么确定这个粒子是真正存在的? 假如存在一种终极手段,例如速度无限大,分辨率无限小的测量媒介,那么测不准就无从谈起了。您会说不存在这样的媒介,任何物理量的确定都是有限度的,如果离开误差谈确定可能并没有意义。是的,这个问题不会有争论的结果,但是这并不是问题的关键所在,而重要的是一个客体的物理量是否依赖于测量而存在,即人择的东西是否是本质的。 9、量子纠缠 本人说过量子纠缠不可证伪,有人并不同意,但是这是事实,因为量子力学原理决定了一旦你对纠缠态进行测量,它就会塌缩,那么塌缩之前的状态就是不可测量的,即不可知的,那么如果我说测量之前就是塌缩后的状态,也是无法被推翻的。 量子力学的特性使得测量前的状态成为一种没有意义的东西,如果真的存在这样一种奇异状态的话,它也是不能被研究的,在这个领域从来都伴随着一种玄学的味道。 如果相关的如光的波粒二象性、物质波、光的本质,基本粒子的结构等基本问题都被解决了的话,量子纠缠这个空中楼阁自然会烟消云散了。 个人认为由此衍生出来的所谓量子计算研究应该停止,这种子虛乌有的东西正在浪费大量的国家的财富和学子的生命,而制造出来的东西多年之后只能成为科学的笑柄。
个人分类: 物理|4676 次阅读|1 个评论
[名家]Lov K. Grover - Grover算法的始作者
fswdong 2009-8-27 18:56
Bell实验室上的个人主页 http://www.bell-labs.com/user/lkgrover/
个人分类: 科研资源|8016 次阅读|0 个评论
“中国科学技术大学校友文库”丛书之五:《基于半导体量子点的量子计算与量子信息》
why2084 2009-8-24 11:04
书名:基于半导体量子点的量子计算与量子信息 作者:王取泉等 备注:十一五国家重点图书 购书网址: 中国科学技术大学出版社网上书店 内容简介: 本书以清晰的物理图象和丰富的实验结果比较全面地介绍了基于半导体量子点激子的量子计算和量子信息方面的最新研究进展。全书共分八章。第一章和第二章简要介绍半导体量子点基本特性,其中第一章是关于半导体量子点形貌结构特征,第二章是关于量子点地基本相干特性和单量子点的实验探测技术。第三章至第五章涉及到量子计算。第三章介绍半导体量子点激子量子比特旋转及其品质因子,并且比较深入地讨论了量子点体系中多种复杂的退相干机制对其品质因子的影响。第四章介绍半导体量子点中实现CNOT量子逻辑门以及D-J逻辑运算,这两者是量子计算中的基本量子逻辑操作,也是未来量子计算机的曙光。第五章分析和讨论半导体量子点中激子自旋的驰豫机制,并介绍利用相干光学方法实现激子自旋的交换。第六章至第八章涉及到量子信息,其中第六章和第七章分别介绍半导体量子点的单光子发射和级联多光子发射过程,第八章介绍半导体芯片上单个半导体量子点发射纠缠光子对的特性,分析和讨论多种因素对光子偏振纠缠度的影响。 作者简介: 王取泉,理学博士,博士生导师,武汉大学物理系教授。 1979~1984年中国科学技术大学物理系本科生,学士学位; 1990年武汉大学物理系激光物理,硕士学位; 1999年武汉大学物理系凝聚态物理博士学位; 2000年8月~2001年7月,北京大学物理系介观物理与人工微结构国家重点实验室进行访问研究, 研究纳米金属颗粒复合材料和纳米结构氧化物半导体薄膜的超快非线性光学响应。2001年9月~2003年8月,中国科学院物理研究所,国际量子结构中心博士后。2001年12月~2003年7月,美国德克萨斯大学奥斯汀分校物理系进行(博士后)访问研究,研究内容为InGaAs半导体量子点的单光子发射、Rabi振荡和量子比特旋转。被SCI收录的论文50余篇。目前主要从事的研究内容有:单量子点的光谱成象技术,半导体量子点的单光子发射,半导体量子点激子态的相干操纵、Rabi振荡、量子比特旋转、量子逻辑门和超快非线性光学效应。主持国家自然科学基金面上项目2项(半导体量子点中量子比特旋转和量子逻辑门的研究),重点项目1项(半导体低维体系中自旋动力学过程的研究)。
个人分类: 好书共赏|3093 次阅读|0 个评论
[翻译]Shor算法求解步骤
fswdong 2009-7-22 17:28
源自网络上的资源,现整理翻译出来和同行交流。由于才疏学浅,如果有错误请不要拍砖!
个人分类: 科研资源|9300 次阅读|1 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-5-20 10:19

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部