演示量子计算优越性目前有两种途径:利用超导量子比特实现随机线路取样和利用光子实现玻色取样。在第二种路线上,中科大团队一直保持国际领先,近期实现了20光子输入60×60模式干涉线路的玻色取样量子计算,输出状态空间维数高达三百七十万亿,其复杂度相当于48个量子比特,逼近谷歌最近报道的53个超导量子比特。 中国科学技术大学潘建伟、陆朝阳等与中科院上海微系统与信息技术研究所尤立星以及德国和荷兰的科学家合作,在国际上首次实现了20光子输入60×60模式干涉线路的玻色取样量子计算,输出了复杂度相当于48个量子比特的希尔伯特态空间,其维数高达三百七十万亿。这个工作同时在光子数、模式数、计算复杂度和态空间这四个关键指标上都大幅超越之前的国际记录,其中,态空间维数比国际同行之前的光量子计算实验高百亿倍。论文以“编辑推荐”形式近日发表于国际学术权威期刊 《 物理评论快报 》 。美国物理学会Physics网站以“玻色取样量子计算逼近里程碑”为题对该工作做了精选报道。 量子计算机在原理上具有超快的并行计算能力,在一些具有重大社会和经济价值的问题方面相比经典计算机实现指数级别的加速。当前,研制量子计算机已成为前沿科学的最大挑战之一,成为世界各国角逐的焦点。其中,量子计算研究的第一个阶段性目标是实现“量子计算优越性”(亦译为“ 量子霸权 ”),即研制出量子计算原型机在特定任务的求解方面超越经典的超级计算机。 利用超导量子比特实现随机线路取样和利用光子实现玻色取样是目前国际学术界公认的演示量子计算优越性的两大途径。 面向这一战略目标,潘建伟、陆朝阳研究组长期致力于可扩展单光子源和玻色取样量子计算的研究。2013年,研究组在国际上首创量子点脉冲共振激发,解决了单光子源的确定性和高品质这两个基本问题。2016年,研究组研制了微腔精确耦合的单量子点器件,产生了国际最高效率的全同单光子源,并在此基础上,于2017年初步应用于构建超越早期经典计算能力的针对波色取样问题的光量子计算原型机,其取样速率比国际上当时的实验提高24000多倍。 2019年,研究组提出相干双色激发 和椭圆微腔耦合 理论方案,在实验上同时解决了单光子源所存在的混合偏振和激光背景散射这两个最后的难题,并在窄带和宽带微腔上成功研制出了确定性偏振、高纯度、高全同性和高效率的单光子源,相关成果被选为《自然光子学》封面文章。加拿大滑铁卢大学Reimer教授以“The quest for a perfect single-photon source”为题专门对这一成果发表评论文章,指出:“ 之前,国际上对完美单光子器件的探寻持续了二十年,然而这三项指标从未同时实现过 (in the search for a perfect single-photon device, which has spanned over two decades, all three demanding criteria have not yet simultaneously been met) ”,“ 这项开创性的研究是实现完美单光子源的里程碑式成就 ( groundbreaking research reporting a milestone achievement towards this ideality goal with the realization of a single-photon source )”。 中国科大研究组利用自主发展的国际最高效率和最高品质单光子源、最大规模和最高透过率的多通道光学干涉仪,并通过与中科院上海微系统与信息技术研究所尤立星在超导纳米线高效率单光子探测器方面的合作,成功实现了20光子输入60×60模式(60个输入口,60层的线路深度,包括396个分束器和108个反射镜)干涉线路的玻色取样实验。与牛津大学、维也纳大学、法国国家科学院、布里斯托大学、昆士兰大学、罗马大学、麻省理工学院、马里兰大学等研究机构的国际同行的类似工作相比, 实验成功操纵的单光子数增加了5倍,模式数增加了5倍,取样速率提高了6万倍,输出态空间维数提高了百亿倍 。 其中,由于多光子高模式特性,输出态空间达到了三百七十万亿维数, 这 等效于48个量子比特展开的希尔伯特空间 。因此,实验首次将玻色取样推进到一个全新的区域: 无法通过经典计算机直接全面验证该玻色取样量子计算原型机,朝着演示量子计算优越性的科学目标迈出了关键的一步。 审稿人指出:这个工作“ 在解决关键问题上迈出了重要几步 (makes essential steps towards solving a critical problem)”、是“ 令人印象深刻的技术成就 (an impressive technological achievement)”、“ 一个巨大的飞跃 (a significant leap)”、“ 不仅是对光量子计算能力的一次有影响力的测试,更是通往实现量子计算优越性的弹簧跳板 (is not only a powerful test of photonic strength but, rather, a trampoline for the upcoming quantum computational supremacy)”。美国物理学会Physics网站对该工作的总结指出:“ 这意味着量子计算领域的一个里程碑: 接近经典计算机不能模拟量子系统的地步 (it signifies a milestone in the field of quantum computation: approaching the point where a classical system cannot feasibly mimic a quantum system)”。 相关链接: 论文: https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.123.250503 美国物理学会报道: https://physics.aps.org/synopsis-for/10.1103/PhysRevLett.123.250503 文章来源:墨子沙龙微信公众号 谷歌实现量子优势论文中文翻译(1) http://wap.sciencenet.cn/blog-3364677-1199384.html
量子技术发展日新月异,在这个令人兴奋的领域中,构建功能性、可扩展性、有用的量子计算机仍然是最为重要的追求目标之一。1000个量子位可以做什么呢?这是在未来十年中我们可以期待的量子计算机的规模,这种大小的量子处理器的功能和应用将是确保在该领域继续研究和投资的关键。量子科学与技术这一专题中的五篇文章为这个问题提供了独立和互补的答案。 论文链接: Job J and Lidar D 2018 Quantum Sci. Technol. 3 030501 IOPscience Katzgraber H G 2018 Quantum Sci. Technol. 3 030505 IOPscience Iyer P and Poulin D 2018 Quantum Sci. Technol. 3 030504 IOPscience Perdomo-Ortiz A, Benedetti M, Realpe-Gómez J and Biswas R 2018 Quantum Sci. Technol. 3 030502 IOPscience Moll N et al 2018 Quantum Sci. Technol. 3 030503 IOPscience 原文链接: http://iopscience.iop.org/article/10.1088/2058-9565/aac869/meta 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space
前记: 这篇或者即将的这系列博文,主要是缘于我们学院一帮可爱的孩子,在联络一些老师做些关于大数据、人工智能等的科普文章,所以才写,既然写了,也想分享给大家。 其实受邀给大家分享一点儿对于这个时代的标签之一——“大数据“的见解,我是诚惶诚恐的。因为众多的大咖都在布道、躬身实践,唯恐自己的浅薄认知,让人贻笑大方。不过想到知识的包容性,也就释然一些。今天我就以自己这几年对数据的应用认知、基础理论发展脉络的把握,和大家一起聊聊我认为的数据,数据分析与挖掘的核心问题,以及什么是数据价值再造,如有偏颇,欢迎大家批评指正。 2013年9月,我与国外导师Kang L. Wang教授辞行、谈及未来规划的时候,他像孩子般率真微笑道“Yu, do you know the Big Data?”哈哈,说实话当时我有点儿懵圈了~大数据?难道就是直译大数据?还是一个更加专业的术语?“Sorry, I’ve no idea. Professor, is there any story?”随即,王老师给我讲了一个美国FBI的例子,又讲了一个发生在UCLA的故事,这些都是他眼中的大数据。他还说,现在国内big data已经很火了,建议我回去可以好好思考。例子的具体细节不是很清楚了,但是大体明白就是美国也有所谓的大数据,但是他们并没有上升到一个十分夸张的万能概念角度,而是有很多实实在在的应用,更多是为了保护国家的信息安全,等等,诸如此类。这是我生平第一次与大数据有交集。 随后回国,准备博士毕业,申请留校等工作。至次年2014年3月份,留校已经敲定,可以正式留在信软学院嵌入式实时计算团队,去见团队负责人雷航教授的时候,他语重心长对我说“晓瑜,你的博士研究方向量子计算和量子电路综合,很显然工作后将不能继续了,因为团队没有这方面的任何储备。你需要有大局观,站在团队的发展规划上,重新立意自己的研究方向……现在团队有这样几个方向:嵌入式操作系统、大数据、图形图像等,你需要考虑一下选择哪个?”其实这几个都不是我擅长的,第二次听到“大数据”已经不觉得陌生了,至少已经出现过一次了,我当时鬼使神差般回答道“雷老师,我就选大数据吧~”哈哈哈,人生很多时候就是各种戏剧,各种无常,似乎这才符合人生! 就这样我开始真正结缘、走近、认知、熟悉大数据,也开始真正的作为一个参与者而不是旁观者,来审视、建设、推动、批判这个新兴的交叉学科研究方向。一直以来,我都觉得自己有一个很强大的性格特质,那就是“随遇而安”而又适应性极强,最重要是总能活下来,姑且这是自我阿Q的一种精神激励法吧~就像从本科的EE到研究生的CS,再到博士期的Quantum Computing,自己还是自得其乐的。当然,这期间也会遭到质疑,这样会不会不够专注?会不会在哪个阶段就毕不了业呢?其实,我还真的没有想那么多,只是觉得喜欢,或许就是无知才无畏,无畏才有更多的创造力! 从2014年开始,可以称得上是我的大数据元年,我开始穿梭在国内顶级的几个大数据国际会议现场活动中,开始大量快速的阅读和大数据相关的新闻、图书、paper,其实只要你肯花时间,找到关键点,很快就能切入。我用了半年的时间,对于国内大家对大数据的认知程度、大数据的发展现状、大数据在产业界、学术界、政界等的天花板也了解的七七八八。随后,就开始深入建设我们自己的学术科研队伍,我们几位老师和学生给我们的大数据小组取名SunData Group(尚数据工场)。队伍从一开始只有2位老师、2位本科生;到1年后,我们有3位老师、5位研究生、10+位本科生;再到现在的5位老师、5位博士生、30+研究生、100+优秀本科生。这个成长速度和我们自身的努力分不开,但是还远远没有驻足,因为我们只是完成了长胖的过程,还没有完成长高、健美的过程。和大家分享这些经历,主要是想告诉大家,大数据,离你我并不远,也不神秘,只要你愿意,你也可以像我们一样,快速融入,并能深入和升华。 好,我们言归正传。今天主要和大家探讨如下几个问题: 1、什么是数据,什么是大数据 数据某种程度上是对我们周围的物理信息世界的一种符号抽象,所以数据包罗了各种信息,有用的、无用的、有序的、无序的、显式的、隐式的……同时与数据千丝万缕扯不清的两个概念就是:信息与知识,在我个人看来,数据好比原石,信息好比初步磨出的翡翠,而知识则是经过精雕细琢之后的一件翡翠艺术品。 自2003年世界进入大数据元年开始,各种机构、各路学者陆续给出了对大数据的解读,最后大家初步形成共识的是,大数据的4V+O特征,分别对应了:volume(体积,数据尺度大)、velocity(高速的数据in and out)、variety(数据类型的多样化)、veracity(数据的准确性)、online(线上数据实时性等)。其实有些场合我们也会增加一个V,那就是value(价值),因为无论是数据科学处理的终极目标,还是大数据处理的最终结果,如果没有价值体现,这项工作都将毫无意义。 说到大数据的首要条件就是数据量大,那么究竟多少算得上是大数据呢?我们知道不同行业领域的数据,其尺度存在较大的差别,比如社交媒体产生的数据量就远远超过我们高校学生数据。因为社交媒体含有大量的音频、视频、图片等大容量文件,而高校学生服务数据,多以电子表格、交易记录等为主,数据量基本以KB起,而前者动辄几百个GB,甚至达到TB。所以这几年学术界和产业界呼声较高的一个界定,基本上在PB级或PB级以上才算得上大数据尺度。数据的容量尺度为:KB à MB à GB à TB à PB à EB à ZB…… 同样大数据由于其多样性,也决定了大数据处理的时候,面临的数据类型不再是单纯的结构化数据,还有更多的半结构化、非结构化数据,如我们读的报纸、看的视频、听的广播和歌曲、拍的照片等,这些都称为非结构化数据。所以,大数据处理除了面临数据类型的挑战,还有就是关于海量数据存储的问题。其中,云存储与分布式文件存储等技术,有效的解决了这一问题。大数据时代的来临不是偶然,而是其他方方面面的技术发展带来的必然结果。试想二十年前信息高速公路刚刚提出来的时候,没有想到数据爆炸如此迅猛,自然,数据尺度很难达到所谓的“大”;十年前如果没有云计算技术的落地,今日如此海量数据,该如何存放,又该如何快速计算;近些年如果没有深度学习、机器学习、神经网络等核心技术算法的快速发展,如何支撑大数据的应用落地,等等。 2、大数据的核心问题 说到这里,不得不把大数据的核心问题单独拿出来与大家探讨。与传统的概率统计、机器学习相比,大数据处理有这样几点是需要我们初学者明确的: (1)全体数据,而不是样本数据 大数据研究的是全体数据的问题,而不是抽样样本的相关问题。这一点就决定了数据越多越好、数据越全越好,因为只有这样才能更加接近大数据的全体数据,才能更加接近事物的真相和本质。 (2)关联关系,而不是因果关系 大数据研究的是数据间的关联关系,而不是传统的因果关系。因果关系我们很明确,就是有这个结果,一定有导致其产生的原因,这个因果关系在辩证唯物主义上是普适的,是大家认知所接受的。然而,关联关系是完全无关因果的一种逻辑,正如大家耳熟能详的“啤酒与尿布的故事”、“蝴蝶效应”等。我们通过发现凡是购买了尿布的消费者,一般也有很大的概率购买啤酒这一有趣事实,来指导超市的货架展销策略,将尿布和啤酒放在靠近的区域,进而提升了销售额。这里你就很难说,因为他买了尿布,所以他又买了啤酒;我们只能说买了尿布,进而买啤酒的概率很大,二者有一定的关联关系。这就是突破我们传统认知的关联关系,也是我们要开始进行大数据处理必须学习的。 (3)预测而不是断定 当然了大数据是有很强大的功能,帮助我们挖掘很多隐藏在数据背后的真相,但是它也不是万能的!就好像我之前在博客里提到的一本网络小说《当我谈论算命时,我想谈的是大数据》,暂且不论这本书是否严谨,但是大数据的核心问题之一,与之有异曲同工之妙。大数据处理、分析、挖掘,最后的结果都是对下一步,或者之后即将发生事情的一种预测,既然是预测就无法做到百分百准确,总是存在概率问题。这一点就有点儿不同于传统的统计分析,并不能够准确给出事物发生的条件概率。甚至通过某些参数的调优工作,只能无限逼近,却永远无法到达。既无奈,又让人执着! (4)决策支持是价值体现 大数据处理的终极目标是实现对决策者的客观第三方辅助支持,那么这就回到了所谓的人工智能中真正的智能决策问题上,这个open question,至今也是争论不休。何谓真正的智能,何为人工智能?对于这两个问题,我们今天暂且不去过多讨论。 首先看下大数据预测与决策支持的问题,我们知道大数据一定是面向于行业和领域应用的。因为很多时候,抛开数据背后的业务逻辑,我们是无法解读出更多数据隐含的信息的。那对于数据分析师而言,既要理解业务逻辑,同时又要能够将数据分析、挖掘的结果,作为一个有利的辅助支撑材料,提供给决策者,以便综合做出最优的决策。大数据处理的价值体现,就在于提供的这个决策到底能起多大的分量。 由于时间和篇幅的有限,下一篇,我们将一起笑谈数据分析与数据挖掘处理的几类核心问题,同时聊聊大数据与物联网、云计算等的关系。
英特尔在拉斯维加斯的CES(消费者电子展)大放异彩之后,IBM不甘示弱,在ACM(美国计算机协会)直接开起了直播。 首先我们先来了解一下这个非常实用的学习平台——美国计算机协会(Association for Computing Machinery)。这是一个国际性的科技教育组织,创立于1947年,是世界上第一个科学性及教育性计算机学会,总部设在美国纽约。ACM每年都会举办世界性的讲座及会谈,以供各会员分享他们的研究成果。近年来,ACM积极开拓网上学习的渠道,以供会员在业余时间或家中提升自己的专业技能。 2018年的第一次网络学习研讨会,ACM邀请到了IBM的科学家Jay Gambetta,同世界各地对量子计算感兴趣的研究人员、学生等群体进行交流。Jay Gambetta是IBM量子计算和信息理论的负责人。他也曾是美国计算机协会举办图灵奖设立50周年庆祝活动的小组成员。 在这次网络讲座中,Gambetta将其讲述内容分为三个部分: · 量子计算令人振奋的原因 · 量子计算当下的现状 · 量子编程工具QISKit Part I Part 1 Gambetta提到了量子计算令人振奋的第一个原因,也就是我们常说的计算能力问题:摩尔定律的极限意味着日后芯片的处理能力无法再以指数形势增长,而量子计算机的计算能力却能够解决当前经典计算机无法解决的问题。这样看来就不难发现量子计算机的魅力所在。此外,Gambetta还比较了容错型量子计算和准量子计算(非容错型),同时也提到了量子退火技术。 Part 2 关于量子计算的当前现状,Gambetta以IBM的超导量子比特芯片硬件给我们做说明。下面仅截取讲座中一些图片仅供参考。 图:IBM Q超导量子比特设备的内部结构图 图:通过总线谐振器实现量子比特的耦合 Part III Part 3 QISKit,即量子信息编程工具包(quantum information software kit),是Gambetta此次网络讲座的重点。QISKit是开展实验和模拟的用户界面,能够推动在容错型量子计算到来之前的研究和应用。此外,QISKit的软件栈也在不断增长,包括更高水平的教学内容和示例。QISKit也是连接IBM QX和本地设备的界面。这一开源项目每隔几月就会发布新的版本。 来源链接: http://mp.weixin.qq.com/s?src=11timestamp=1516952418ver=659signature=KEIIZvCGRFdv5FG53MmIInvumWbqwvzpmOW42UvcdZbfq3YFmJLka-KkyVfxxGNHYU5-sNkEwxu2NYYcQDxH8PYkKN-JJgYIV837phMOKhL6EQMgrC2pxX3AlmSfWI8dnew=1 IBM量子计算机的运行声音是什么样? http://v.youku.com/v_show/id_XMzI4NjgwMTY5Ng==.html?spm=a2h0k.8191407.0.0from=s1.8-1-1.2 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html
D-Wave系统(量子计算机系统)显示量子计算机可以学会在堆积如山的海量数据中发现粒子的特征,但目前还没有超过常规方法。 物理学家们一直在努力开发能够使用量子力学技巧加速计算的量子计算机。但他们也希望这样的量子计算机能够回报人们的青睐,帮助他们发现新的自然规律。 现在,一个研究团队已经表明量子电路可以通过学习从原子碰撞实验的大量数据中筛选数据以搜寻一个新的粒子。他们 的验证原理的 研究使用D-Wave公司的量子计算机,在处理现在熟悉的希格斯玻色子时,并没有提供比传统技术明显的优势。但是研究者们认为,当数据量增长到更大时,量子机器学习将会在未来的实验中产生影响。他们的研究发表在10月18日的自然杂志上。 原文: DWave system shows quantum computers can learn to detect particle signatures in mountains of data, but doesn’t outpace conventional methods — yet. Physicists have been working hard to develop machines that can use quantum mechanical tricks to speed up computation. But they also hope that such quantum computers can return the favour and help them to discover new laws of nature. Now, a team has shown that a quantum circuit can learn to sift through reams of data from atom-smashing experiments in search of a new particle. Their proof-of-principle study — performed using a machine built by quantum-computing company D-Wave working on the now-familiar case of the Higgs boson — does not yet provide a clear advantage over conventional techniques. But the authors say that quantum machine learning could make a difference in future experiments, when the amounts data will grow even larger. Their research was published on 18 October in Nature. 来源: http://www.nature.com/news/quantum-machine-goes-in-search-of-the-higgs-boson-1.22860?WT.mc_id=Weibo_NatureNews_20171020_CONT Solving a Higgs optimization problem with quantum annealing for machine learning http://www.nature.com/nature/journal/v550/n7676/full/nature24047.html
量子算法领域的研究目的是通过量子计算机找到办法来加速计算问题的求解。这一领域的一个重要里程碑是:当一个通用量子计算机执行 计算任务时 超出了任何经典计算机的能力,这一事件被称为量子霸权。这在实验上比全程量子计算更容易实现,但涉及到新的理论挑战。在这里,我们提出了实现量子霸权的重要建议,并讨论了如何可靠地将经典计算机的能力与量子计算机的能力进行比较。 (2017年9月27日) 原文: Quantum computational supremacy 来源: http://www.nature.com/nature/journal/v549/n7671/full/nature23458.html The field of quantum algorithms aims to find ways to speed up the solution of computational problems by using a quantum computer. A key milestone in this field will be when a universal quantum computer performs a computational task that is beyond the capability of any classical computer, an event known as quantum supremacy. This would be easier to achieve experimentally than full-scale quantum computing, but involves new theoretical challenges. Here we present the leading proposals to achieve quantum supremacy, and discuss how we can reliably compare the power of a classical computer to the power of a quantum computer.
量子计算的主要期望是有效地解决某些对经典计算机来说极其昂贵的问题。经过验证的量子优势的大多数问题涉及重复使用一个黑盒,其结构编码解决方案。算法性能的一个度量是查询复杂性,例如在给定概率下找到解决方案所需的 黑盒 调用的数量。量子算法的多比特的验证,如Deutsch–Jozsa 及 Grover算法,已在不同的物理系统,如核磁共振、离子阱、光学系统及超导电路中 实现 。然而,在小范围内,这些问题可以通过一些 黑盒 查询得到经典解决,从而限制了所获得的优势。在这里,我们解决了一个基于 黑盒 的问题,在一个五比特的超导处理器上 基于噪声 环境下的学习 校验 。使用相同的 黑盒 执行经典和量子算法,我们观察到查询计数中的一个大的差距,有利于量子处理。我们发现,这种差距是错误率和问题大小的函数,呈数量级增长。这一结果表明,虽然通用量子计算需要复杂的容错架构,但现有的存在噪声的系统已经显现出显著的量子优势。 (2017年9月25日) 量子机器学习入门: http://blog.sciencenet.cn/blog-3364677-1096172.html 量子最快入门教程: http://blog.sciencenet.cn/home.php?mod=spaceuid=3364677do=blogid=1084559from=space Demonstration of quantum advantage in machine learning 来源: https://www.nature.com/articles/s41534-017-0017-3 The main promise of quantum computing is to efficiently solve certain problems that are prohibitively expensive for a classical computer. Most problems with a proven quantum advantage involve the repeated use of a black box, or oracle, whose structure encodes the solution. One measure of the algorithmic performance is the query complexity, i.e., the scaling of the number of oracle calls needed to find the solution with a given probability. Few-qubit demonstrations of quantum algorithms, such as Deutsch–Jozsa and Grover, have been implemented across diverse physical systems such as nuclear magnetic resonance, trapped ions, optical systems, and superconducting circuits. However, at the small scale, these problems can already be solved classically with a few oracle queries, limiting the obtained advantage. Here we solve an oracle-based problem, known as learning parity with noise, on a five-qubit superconducting processor. Executing classical and quantum algorithms using the same oracle, we observe a large gap in query count in favor of quantum processing. We find that this gap grows by orders of magnitude as a function of the error rates and the problem size. This result demonstrates that, while complex fault-tolerant architectures will be required for universal quantum computing, a significant quantum advantage already emerges in existing noisy systems.
量子计算正处在一个重要的拐点。多年来,量子计算机的高级算法已经显示出相当大的希望,而量子器件制造方面的最新进展提供了实用的希望。然而,量子计算算法的硬件尺寸和可靠性要求与未来十年预测的物理机器之间仍然存在着差距。为了弥补这一差距,量子计算机需要合适的软件来翻译和优化应用程序(工具流程)和抽象层。考虑到量子计算中严格的资源限制,软件和实现层之间传递的信息将与经典计算明显不同。量子工具流程必须揭露层与层之间更多的物理细节,因此面临的挑战是当隐藏了足够的复杂性时要找到揭露关键细节的抽象。 (2017年9月23日) Programming languages and compiler design for realistic quantum hardware 来源:http://www.nature.com/nature/journal/v549/n7671/full/nature23459.html Quantum computing sits at an important inflection point. For years, high-level algorithms for quantum computers have shown considerable promise, and recent advances in quantum device fabrication offer hope of utility. A gap still exists, however, between the hardware size and reliability requirements of quantum computing algorithms and the physical machines foreseen within the next ten years. To bridge this gap, quantum computers require appropriate software to translate and optimize applications (toolflows) and abstraction layers. Given the stringent resource constraints in quantum computing, information passed between layers of software and implementations will differ markedly from in classical computing. Quantum toolflows must expose more physical details between layers, so the challenge is to find abstractions that expose key details while hiding enough complexity.