(本文发表于《数字图书馆论坛》2020年第8期P56-62) 摘要: 为提高数字图书馆图像高质量存储和利用能力,探索一种基于db5小波基函数的图像压缩方法,主要分析小波分解层数对压缩结果的影响,对不同层数小波分解后的压缩图像进行了标引、检索实验。结果表明,随着分解层数的增加,小波分解后压缩图像所占内存明显减小,但是存在部分失真;而db5小波基函数进行二层分解后的压缩图像能取得最佳的检索精度以及较好的图像质量,适合在图书馆中广泛运用与推广。 关键词:图书馆;db5;小波基函数;图像压缩 链接: 基于小波分解的图书馆图像压缩应用研究-Application Research of Library Image Compression Based on Wavelet Decomposition http://www.dlf.net.cn/dlf/ch/reader/view_abstract.aspx?file_no=202008010flag=1
ImageNet项目是一个用于视觉对象识别软件研究的大型可视化数据库。超过1400万的图像URL被ImageNet手动注释,以指示图片中的对象;在至少一百万个图像中,还提供了边界框。ImageNet包含2万多个类别; 一个典型的类别,如“气球”或“草莓”,包含数百个图像。第三方图像URL的注释数据库可以直接从ImageNet免费获得;但是,实际的图像不属于ImageNet。自2010年以来,ImageNet项目每年举办一次软件比赛,即ImageNet大规模视觉识别挑战赛(ILSVRC),软件程序竞相正确分类检测物体和场景。 ImageNet挑战使用了一个“修剪”的1000个非重叠类的列表。2012年在解决ImageNet挑战方面取得了巨大的突破,被广泛认为是2010年的深度学习革命的开始。 ImageNet对其注释过程进行了众包。 图像级注释表示图像中存在或不存在对象类,例如“此图像中有老虎”或“此图像中没有老虎”。 对象级注释提供了指定对象(的可见部分)周围的边界框。 ImageNet使用广泛的WordNet架构的变体来对对象进行分类,增加了120种类别的狗品种以展示细粒度的分类。WordNet使用的一个缺点是这些类别可能比ImageNet最适合的“提升”:“大多数人对Lady Gaga或iPod Mini比对这种罕见的双龙座更感兴趣。” 2012年,ImageNet是Mechanical Turk的全球最大学术用户。 普通工人每分钟识别50张图像。 ( https://baike.baidu.com/item/ImageNet/17752829?fr=aladdin ) ImageNet is an image database organized according to the WordNet hierarchy (currently only the nouns), in which each node of the hierarchy is depicted by hundreds and thousands of images. Currently we have an average of over five hundred images per node. We hope ImageNet will become a useful resource for researchers, educators, students and all of you who share our passion for pictures. ( http://www.image-net.org/) Overview Welcome to the ImageNet project! ImageNet is an ongoing research effort to provide researchers around the world an easily accessible image database. On this page, you will find some useful information about the database, the ImageNet community, and the background of this project. Please feel free to contact us if you have comments or questions. We'd love to hear from researchers on ideas to improve ImageNet. What is ImageNet? ImageNet is an image dataset organized according to the WordNet hierarchy. Each meaningful concept in WordNet, possibly described by multiple words or word phrases, is called a synonym set or synset. There are more than 100,000 synsets in WordNet, majority of them are nouns (80,000+). In ImageNet, we aim to provide on average 1000 images to illustrate each synset. Images of each concept are quality-controlled and human-annotated. In its completion, we hope ImageNet will offer tens of millions of cleanly sorted images for most of the concepts in the WordNet hierarchy. Why ImageNet? The ImageNet project is inspired by a growing sentiment in the image and vision research field – the need for more data. Ever since the birth of the digital era and the availability of web-scale data exchanges, researchers in these fields have been working hard to design more and more sophisticated algorithms to index, retrieve, organize and annotate multimedia data. But good research needs good resource. To tackle these problem in large-scale (think of your growing personal collection of digital images, or videos, or a commercial web search engine’s database), it would be tremendously helpful to researchers if there exists a large-scale image database. This is the motivation for us to put together ImageNet. We hope it will become a useful resource to our research community, as well as anyone whose research and education would benefit from using a large image database. Who uses ImageNet? We envision ImageNet as a useful resource to researchers in the academic world, as well as educators around the world. Does ImageNet own the images? Can I download the images? No, ImageNet does not own the copyright of the images. ImageNet only provides thumbnails and URLs of images, in a way similar to what image search engines do. In other words, ImageNet compiles an accurate list of web images for each synset of WordNet. For researchers and educators who wish to use the images for non-commercial research and/or educational purposes, we can provide access through our site under certain conditions and terms. For details click here
早晨看到中科院高能所发布的一篇科普文章——物理学史中的库仑定律 ( http://weibo.com/ttarticle/p/show?id=2309404072552719845139#_0 ),发现第一张吉尔伯特 (William Gilbert,1544-1603)的图片 又用错了。这张错误的图片已经用错多次了,但仍在广泛流传着,三人成虎,误导太甚。 其实这张图片摹绘自20世纪德国数学家希 尔伯特(David Hilbert,1862-1943) 的一张照片,如下从对比图可以看得很清楚。一位吉尔伯特,是16世纪英国研究电学和磁学的先驱;一位是希尔伯特,20世纪杰出的数学家。风马牛不相及,结果还是错乱了。错误的原因在哪里呢?果不其然,垃圾的百度百科用的就是错误的图片,( http://baike.baidu.com/subview/106665/17588774.htm )。也难怪,许多人上当。写科普文章引用百度百科,不掉坑里才怪! 再联想到过去本人在科学网博客写过一篇小文——不能再以讹传讹了,一张胡适和胡先骕的合影 ( http://blog.sciencenet.cn/blog-451927-943544.html )。 本来是著名植物学家胡先骕,硬是说成了陈独秀,而且广泛流传。 昨天收到加州州立理工大学普莫娜分校历史系教授王作跃老师的一封邮件,说一位研究中国史的美国学者在一次讨论中引用了我的博文,开始我颇感诧异,读罢才知道也是因为上述胡先骕的照片引发的,故把这位美国学者的原文引用如下: Hu Xiansu mistakenly identified as Chen Duxiu in photo alongside Hu Shih (译:胡适旁边的胡先骕被错认为陈独秀) by Jeremy Brown Hi everyone, Following up on Joseph W. Esherick's Tracking an Iconic Photograph (PRC History 1, no. 3, Dec. 2015), I feel compelled to write this self-criticism because I have been mistakenly using a different iconic photo circulating on the internet. I don't remember how I originally found the image, but I've been using it on PowerPoint slide in my modern China class to discuss Chen Duxiu and Hu Shih, even asking the students to analyze the mens ' clothing and bearing. Two days ago, after a fruitful discussion about gowns, top hats, canes, glasses, and leather shoes, an undergraduate named Walter approached me and said, That's not Chen Duxiu, it's Hu Xiansu . He showed me Hu Xiansu's Wikipedia page . I thanked him, promised I would look into it, and...it looks like Walter was right: http://blog.sina.com.cn/s/blog_4c2373c30102vkoa.html http://wap.sciencenet.cn/blogview.aspx?id=943544 Many Chinese books, as well as the New World Encyclopedia online, reproduce this error, confirming Esherick's point that scholars should treat photos as critically as we treat textual sources. Time to revise my lecture slides. Hu Xiansu des erves it. 误传广泛的“陈独秀”(左,其实是植物学家胡先骕;右是胡适) 其中第二个链接就是本人在科学网的那篇博文,第一个链接是胡宗刚先生最先指出的另一篇文章。 先不说谷歌和百度目前均有图片识别功能就可避免,单独从百度百科吉尔伯特词条那里前后不一致的几张图片也能感觉到异常,还是那句话,世界上就怕“认真”二字。 致谢:感谢王作跃老师提供Jeremy Brown的信息。 补充 :承蒙科学网厚爱,推荐上了首页头条,索性再加一例。 《李约瑟画传》贵州人民出版社,1999年版P62有一幅李约瑟与多人的合影,见下。照片说明文字云: 图为1984年8月23日李约瑟、鲁桂珍在古观象台与中国科学院北京天文台台长王绶琯(左一)、古观象台主任王志伟(右一)合影(左三为黄兴宗)。 由于笔者单位在中科院自然科学史研究所,见过右二薄树人的照片,故右二是薄先生。但左一肯定不是王绶琯院士,因为笔者见过他在媒体上的多张照片,可以确定绝非他。下面置两张王院士的照片可以对比。至于左一究竟是何人?目前暂不得知。 王绶琯(青年,34岁) 王绶琯院士(晚年) 类似的主题,笔者还写过:科学史图像札记二则( http://blog.sciencenet.cn/blog-451927-996856.html ),供有兴趣的读者参考。
( 首先说明:该文在持续添加中,请谅解! ) Tony F. Chan 加州大学数学系教授,(似乎是香港出生的华人,待确认?)。在水平集图像分割方面,其论文《Active contours without edges 》提出的 C-V 模型,Google学术上显示被引用 5153 次之多。 http://www.math.ucla.edu/~chan/index.html Chunming Li 本科福建师范大学数学系,硕士复旦大学数学系,博士则在 University of Connecticut 电子工程专业。在水平集图像分割方面颇有成绩,其最有名的论文《 Level Set Evolution Without Re-initialization : A New Variational Formulation 》,Google学术显示被引用1128次之多。 http://www.engr.uconn.edu/~cmli/ http://scholar.google.com/citations?user=tpAgWBwAAAAJhl=en Daniel Cremers http://vision.in.tum.de/members/cremers http://scholar.google.com/citations?user=cXQciMEAAAAJhl=en 研究领域在:计算机视觉,数字图像处理,模式识别。 Mikael Rousson http://scholar.google.com/citations?user=SPKqz2kAAAAJhl=en Michael Leventon 麻省理工人工智能实验室 http://www.leventon.com/mit/ Bernhard Schölkopf 主要研究方向是机器学习,他在 Kernel方法,尤其是 Kernel PCA 方面成就很大。 http://www.is.tuebingen.mpg.de/employee/details/bs.html 他的文章大都在:http://www.is.tuebingen.mpg.de/research/dep/bs/publication-list-schoelkopf.html www.kernel-machines.org http://scholar.google.com/citations?user=DZ-fHPgAAAAJhl=en (说明:以下部分时转载自http://blog.sciencenet.cn/blog-672874-665865.html) CV人物1:Jianbo Shi史建波毕业于UC Berkeley,导师是Jitendra Malik。其最有影响力的研究成果:图像分割。其于2000年在PAMI上多人合作发表”Noramlized cuts and image segmentation”。这是图像分割领域内最经典的算法。主页: www.cis.upenn.edu/~jshi/ 和 www.cs.cmu.edu/~jshi/ CV人物2:Kristen Grauman毕业于MIT,导师是Trevor Darrell。其最有影响力的研究成果:Pyramid Match Kernel,用于图像匹配。她和Darrell在2005年CVPR合作发表了”The Pyramid Match Kernel: Discriminative Classification with Sets of Image Features”。金字塔匹配核函数可快速搜索两个特征集合之间匹配的特征,可应用于图像匹配、物体识别,是该领域经典算法之一。2011年Marr奖得主。主页: www.cs.utexas.edu/~grauman/ CV人物3:Irfan Essa现任教于Georgin Tech佐治亚理工大学,毕业于MIT,其最有影响力的研究成果:人脸表情识别。Essa和Alex Penland 在1997年PAMI合作发表了”Coding, analysis,interpretation,and recognition of facial expression”, 结合了几何模型和面部肌肉无力模型,用来描述脸部结构。主页: www.ic.gatech.edu/people/irfan-essa CV人物4:Matthew Turk毕业于MIT,最有影响力的研究成果:人脸识别。其和Alex Pentland在1991年发表了”Eigenfaces for Face Recognition”.该论文首次将PCA(Principal Component Analysis)引入到人脸识别中,是人脸识别最早期最经典的方法,且被人实现,开源在OpenCV了。主页: www.cs.ucsb.edu/~mturk/ CV人物5:David Lowe毕业于斯坦福大学,导师是Thomas Binfold,最有影响力的研究成果:SIFT。他是SIFT特征点检测的发明人。由于SIFT具有对于图像平移、旋转和尺度变化不变性的优点,使得SIFT成为近十年来最流行的图像特征点检测方法,被广泛用于图像匹配、物体识别、分类等领域。主页: http://www.cs.ubc.ca/~lowe/ CV人物6:Pascal Fua毕业于Orsay,导师是O.D.Faugera。最有影响力的研究成果:立体视觉。其在1993年发表了”A parallel stereo algorithm that produces dense depth maps and preserves image features”,提出了利用相关性来估计dense深度图的快速并行立体视觉算法,是立体视觉领域内经典算法之一。主页: http://cvlab.epfl.ch/~fua/ 和 http://people.epfl.ch/pascal.fua CV人物7:Luc Van Gool毕业于Katholieke Universiteit Leuven.最有影响力的研究成果:图像特征点检测和摄像机标定。Gool等发蒙的Surf(speeded up robust features)是除SIFT外,应用最广泛的特征点检测算法,surf具有提取速度更快、维度更低的优点,也被广泛用于物体检测、识别等。Opencv开源。Marc Pollefeys, Koch和Goolz 1999年IJCV上发表了”self-calibration and metric reconstruction inspite of varying and unknown intrinsic camera parameters”,是摄像机自标定领域内最经典论文,并获1998年Marr奖。主页: http://www.vision.ee.ethz.ch/~vangool/ CV人物8:Michal Irani毕业于Hebrew大学,最有影响力的研究成果:超分辨率。她和Peleg于1991年在Graphical Models and Image Processing发表了”Improving resolution by image registration”,提出了用迭代的、反向投影的方法来解决图像放大的问题,是图像超分辨率最经典的算法。我在公司实现的产品化清晰化增强算法就参考了该算法思想哈哈。主页: http://www.wisdom.weizmann.ac.il/~irani/ CV人物9: Jean Ponce毕业于Paris Orsay,最有影响力的研究成果:计算机视觉教育、物体识别。他和David Forsyth合写的”Computer Vision: A Modern Approach”被视为现代计算机视觉领域最经典教科书之一。其近年来的研究重点是物体识别,是Spatial Pyramid Matching算法发明人之一,比起之前广泛使用的bag-of-words方法相比,该方法考虑了一些局部特征之间的空间关系,因此更有效地描述物体特征。是目前最普遍使用的算法之一。主页: http://www.di.ens.fr/~ponce/ CV人物10: Andrew Blake毕业于Edinburgh,最有影响力的研究成果:目标跟踪、图像分割、人体姿态跟踪与分析。他是世界知名CV专家,两次荣获ECCV最佳论文奖和1次Marr奖。他和Michael Isard在1998年IJCV中合写的”Condensation—conditional density propagation for visual tracking”,将粒子滤波器用于目标跟踪,该领域的经典论文。二人1998年合写的另一篇”Active Contours”是图像分割领域经典算法,该算法用spline函数,通过最小化能量函数,是的样条逼近物体轮廓,在该算法基础上,衍生出了著名的Active shape model。Blake领导的微软剑桥研究院在人体姿态跟踪与分析上去的突破,用于Kinect中。主页: http://research.microsoft.com/~ablake CV人物11: Antonio Criminisi毕业于牛津大学,导师是Andrew Zisserman 和 Ian Reid。最有吸影响力的研究成果:Image Inpaiting.他在2004年发表”Region filling and object removal by exemplar-based image inpainting”,该方法用于去除图像中大的遮挡物或小的刮痕,结合了采样纹理生成和结构传递的图像修补技术,获得不错效果。主页: http://research.microsoft.com/en-us/people/antcrim/ CV人物12: Paul Viola毕业于MIT,研究领域:目标检测;最有影响力的研究成果:人脸检测;他和Michael Jones在2001年CVPR发表了”Rapid object detection using a boosted cascade of simple features”,真正意义上解决了人脸检测的问题,并开启了boosting算法的一个时代,很多学者受到boosting cascade算法的影响,扩展了该算法的应用领域,牛逼的影响力。主页: http://research.microsoft.com/en-us/um/people/viola/ CV人物13: Henry Rowley毕业于CMU,导师:Takeo Kanade;研究领域:大规模图像识别和机器学习;最有影响力的研究成果:人脸检测;他使用人工神经网络用于人脸检测,该算法是Paul Viola的boosting cascade人脸检测算法出现前,最经典的人脸检测算法。主页: http://www.cs.cmu.edu/~har/ CV人物14: Dorin Comaniclu毕业于Rutgers;最有影响力的研究成果:目标跟踪、图像分割;他在2000年发表了”Real-time tracking of non-rigid objects using mean shift”。该算法首次将mean shift用于目标跟踪,并在2002年PAMI发表了”Mean shift: A robust approach toward feature space analysis”,并将Meanshift拓展应用于图像分割中。主页: http://coewww.rutgers.edu/riul/FORMER/comanici/ CV人物15: Henry Schneiderman毕业于CMU,导师:Takeo Kanade;研究领域:目标检测和识别;最有影响力的研究成果:目标检测;他在2000年CVPR上发表了”A statistical method for 3D object detection applied to faces and cars”。该算法采用多视角训练样本,可用于检测不同视角下的物体,如人脸和车,是第一个能够检测侧脸的算法。他创建了PittPatt公司,后被Google收购。主页: http://www.cs.cmu.edu/~hws/ CV人物16: William T.Freeman毕业于MIT;研究领域:应用于CV的ML、可视化感知的贝叶斯模型、计算摄影学;最有影响力的研究成果:图像纹理合成;Alex Efros和Freeman在2001年SIGGRAPH上发表了”Image quilting for texture synthesis and transfer”,其思想是从已知图像中获得小块,然后将这些小块拼接mosaic一起,形成新的图像。该算法是图像纹理合成中经典中的经典。主页: http://people.csail.mit.edu/billf/ CV人物17: Feifei Li李菲菲,毕业于Caltech;导师:Pietro Perona;研究领域:Object Bank、Scene Classification、ImageNet等;最有影响力的研究成果:图像识别;她建立了图像识别领域的标准测试库Caltech101/256。是词包方法的推动者。主页: http://vision.stanford.edu/~feifeili/ CV人物18:Jitendra Malik毕业于斯坦福大学;导师:Thomas O.Binford;研究领域:轮廓检测、图像/视频分割、图形匹配、目标识别等;最有影响力的研究成果:边缘检测、图像分割和形状匹配;Malik培养了众多牛人,牛人的导师,你说牛不牛。培养了Alexie Efros, Jianbo Shi, Paul Debevec, Pietro Perona, Serge J.Belongie, Yair Weiss等知名专家。主页: http://www.cs.berkeley.edu/~malik/ CV人物19:Alexie Efros毕业于Berkeley大学;导师:Jitendra Malik;研究领域:Qualitative Reasoning for Image Understanding、Building the Visual Memex等;最有影响力的研究成果:图像纹理合成;他在1999年ICCV发表了”Texture Synthesis by non-parametric sampling”。该论文将MRF引入到纹理合成中。该方法最大限度保留了纹理的局部结构。主页: https://www.cs.cmu.edu/~efros/ CV人物20:Andrew Zisserman毕业于剑桥大学;最有影响力的研究成果:视觉几何、目标识别、可视化搜索;他牛逼了,三次获得Marr奖。是CV界权威中的权威。搞CV的人没读过他的多视几何学一书,枉为搞CV的。我2007年起,花了2年时间阅读、编码实现了其中所有两视几何学内容。主页: http://www.robots.ox.ac.uk/~az/ CV人物21:Ian D.Reid毕业于牛津大学;最有影响力的研究成果:目标跟踪;他在2007年PAMI发表了”MonoSLAM: real-time single camera SLAM”,是跟踪和机器人导航领域经典论文。在2011年CVPR上,和Ben Benfold发表了”Stable Multi-Target Tracking in Real-time survillance video”。主页: http://www.robots.ox.ac.uk/~ian/ ...
寻正 在2005年,《美国放射杂志》(AJR)登载了一篇文章,教人如何使用微软的MS Powerpoint(PPT)做学术杂志通常要求的高质量图像。【1】(AJR影响因子大约为3,算是不错的学术杂志)该文其实没有把相关技术问题讲透,也没有涉及很多人可能需要的实用技巧,此文在其基础上进行扩充更新。 一、PPT设置 Yam所讲内容,不出微软针对相关问题的讨论,【2】首先让我复述其细节。 任务是为自己向学术杂志投稿提供印刷图片,一般学术杂志都要求高质量(高像素)的图片,彩照要300DPI(Dots per Inch,每英寸像点),而黑白要600DPI。 如果你用照相机摄相,一般200万像素采用200万的设置,你拍出来的照片就是300DPI,可以达到要求。 Yam所介绍的,就是利用PPT,把幻灯片(Slides)直接存为杂志要求的图片形式(一般要求TIFF或者BMP非压缩性的格式)。PPT做成的幻灯片可以直接编辑,比如在图片上插入说明以及符号等,十分方便。 如果你直接将幻灯片存储为图片(在文件菜单下选择另存功能),你会发现其图片的分辨度(Resolution)只有96DPI,远达不到杂志所要求的分辨度。这是因为PPT的默认设置只有96DPI,你需要修改设置。不知道为什么,微软并不把修改这一必要设置的方式放在心上,因此,你需要进行一项危险的操作,修改注册表。如果你从未进行过注册表操作,就当记住修改注册表如果不适当,会让程序甚至操作系统失去控制,一定严格按下面提及的方式操作。 在微软视窗下,点开始==运行,然后键入:regedit,按回车。你需要浏览到HKCU\Software\Office\(版本号)\PowerPoint\Options,然后新建DWORD value,键名ExportBitmapResolution,键值为300(选择十位数制Decimal,如果选16位制Heximal,则为12c。修改后关闭注册表编辑器,你就可以使用PPT做杂志要求的图像了。 上述操作对于一般要求够用,然而,如果你投稿次数多了,还会有不够用的场景,比如杂志要求比300DPI更高的图像呢?或者你的图像高或者宽超过10英寸,你用PPT产生的图像就达不到300DPI这个最低要求。 二、像素与分辨度(Pixel Resolution) 我们先复习关于分辨度的一个基本概念,那就是像素。分辨度是指同一单位面积上的像素多少(密度),换言之,分辨度=像素量/(高度|宽度)。实际上PPT的限制在像素上,在高或者宽径上,PPT都最多能产生3072个像素,用它除以10英寸,就是307DPI。在我如上述设置输出分辨度为600DPI时,我只要使用高与宽均不能超出5英寸的幻灯片,就可以产生600DPI的图像,因为总像素在一个径向上不超过3072。如果我把高或者宽设置为20英寸,那么我能得到的最大分辨度只有150DPI,尽管我设置输出分辨度为600DPI。 当PPT输出图像时,它是PPT产生的新图像,而不是PPT本身存储的图像。假设你有一个高清图像,原分辨度在600DPI,你把它做成了幻灯。现在你需要高清图像,你是否可以用上面的办法直接产生一张幻灯图片,拥有300DPI呢?很大程度上是不会的。你的图像本身可能只有96DPI,虽然从技术角度生成的图片是300DPI,但这是PPT在原有的96个DPI乘上宽度与高度得到的像素基础上扩充的结果,PPT在这些像素中插入过渡性像素,或者重复邻近像素,图像失真,清晰度大减。 在这里我们需要理解为什么学术杂志要求高分辨度的图片。在电脑上,我们的显示器功能比打印机强大,由于打印机使用CMYK混色方式,其结果是图片远不如基于RBC混色方式的显示屏清晰,在显示器上,分辨度为96DPI看上去就不错了,这是为什么微软替咱们选择96DPI作为默认图片保存分辨度的原因。但这一分辨度用于CMYK就差了,产生的图片清晰度很低。 如果你使用PPT2003,那么检查工具(Tools)(在2007及2010则在文件菜单下)==选项(Options)==高级(Advanced)==图像大小与质量(Image Size and Quality)==默认(96DPI)。你可以改变默认大小,最大为220DPI。如果你一点也不担心文件大小,可以考虑选择“不压缩文件中的图像”(Do not compress images in file),然后PPT存储时会存储原图像文件,否则,会按照这里的设定压缩图像。 存储在PPT(或者其它办公软件比如Word,Excel等)的图片如果没有选择“不压缩文件中的图像”,本身都只有被缩后的DPI,如果你没有修改默认设置,则只有96DPI。尽管96DPI也能重新生成300DPI的图片,但清晰度已经大大下降。换句话说,即使你没有高分辨度的图片,也能产生不清晰的高分辨度图片,无非是在现有像素的基础上进行简单的扩充,某种程度上算是欺骗,如果效果太明显,会被编辑拒收,对发稿产生不良影响。 如果你要用PPT进行图片的编辑投稿,我建议选择“不压缩文件中的图像”,或者在产生相应图片时临时加载原始图片。原始图片在内存中进行操作时,会保留原有分辨度。一旦保存到文件,就会降低分辨度。 三、高分辨度的诀窍 事实上Excel本身就是一个做各种图表的非常优秀的软件,其效果往往优于统计软件,在不少发表文章中就会直接用到Excel做的图。那么我们如何取得这些图的高清度晰图形文件呢?如果我们用PPT做一张幻灯图,希望把它用于发表文章中,却不受3072个像素的限制,我们有什么办法呢? 如果你用Excel作图,在Excel中有一个输出图像文件的命令,但这个命令却需要用VBA来调用。大多数人不懂VBA,可以在网上搜索,有热心玩家提供的Addin,通过宏的方式把这个功能提供给你。但我建议你不必理会那一方式。从Excel中直接输出文件分辨度极低,低到那一方式毫无用处。 你输出高分辨度的选择是通过Word转存。在记录图形的方式上,除了逐点记录像素,就是矢量图,矢量图的特点就是用线性关系描述图形,那正好是由数据在Excel中产生图形的根本,因此,矢量图是我们这一操作的基础。矢量图由于是线性关系,它在放大缩小时不失真,可以做非常清晰的图形。在Excel中拷贝图形,然后在Word中用矢量图粘贴出来(特殊粘贴,Paste Special,选择Windowns Metafile,或者Advanced Metafile,我倾向于用后者,它是前者的扩充,更具灵活性)。 Word中的矢量图会给予用户另存为图形文件的选项,可以存储为多种图形方式,一般选择学术杂志需要的TIFF格式。此时你在文件浏览器(Winders Explorer)中可以查看文件属性,显示文件分辨度为96DPI。读者不免大叫,哇,千辛万苦做了个低分辨度文件,而事实上我选择用PPT来完成这一操作,显示的文件是150DPI。PPT转换的图形文件分辨度更高?不,我们前面述及,决定分辨度的是图形大小与像素,像素的多少才是最终决定性因素。在PPT中有3072个像素的限制,而Word没有——不是Word本身没有,而是我没有发现出来。 在Word中转存之后,我们需要用图形操作文件来重新定义图形大小,Word给你96DPI的文件,但这个文件的像素却是极多,可以多到远远超过3072,让你产生10英寸的600乃至于1000DPI的高分辨度文件。比如使用PhotoShop,重新设置图形大小时,去掉重新采样(Resample)这个选项,就会把相同的像素,排在你重设的图形大小了,减小图形,则分辨度大增。这一方法适用于你用PPT作图,你可以把整个幻灯拷贝(在幻灯片窗口执行拷贝操作),然后在Word中特殊粘贴为矢量图即可。一张标准的幻灯片(10X7.5英寸)可以存储为6000X4500像素(96DPI,63X47英寸大小),用Photoshop转为原来的大小,则其分辨度为600DPI! 如果你回到PPT中,把你的幻灯大小重设为原来的两倍(高与宽都乘以2,面积是4倍),再执行上述操作,你会发现,你在Photoshop中重置回原来大小后,分辨度变成了1200DPI。这一操作的意义具有普遍性,你可以通过在Excel中改变图形的大小而控制最终Word转存输出文件的分辨度!不要用PPT转存,其显示的分辨度够高为150DPI,但有3072的像素限制。Word中像素几乎没有限制,当然也不是实际没有,我用Excel图形测试时,到最后Word转存时会罢工,存储时出错,不能产生图形文件,那是32位版的表现,而在64位版,我用PPT做了张40X30英寸的的幻灯,转存为TIFF图形,我的配置不低的电脑如此憎恶这项工作,它在20分钟内把我的硬盘摇得象陀螺并拒绝接受任何其它任务。我产生了一个2400DPI的图形文件之后,不敢再试更高的分辨度了。32位与64位版的Word可能在像素多少的限制上有差异。有兴趣有条件的,不妨用配置更好的电脑试一试。对于一般应用而言,则可以考虑不存在那个上限。 四、高分辨度的设置 我在Word的注册表中选项中也创造了上述PPT相同的一个DWord,使用了同样的健值,但估计不起作用,如果你不能复制出上述效果,不妨添加之。在Word以及PPT中的图像压缩选项对上述操作没有影响。我没有发现任何设置对上述操作有影响,但不排除其存在,这是偶然发现及经验摸索,我没有找到微软相关的说明。如果你发现相关选项,望告之分享。 在上述方法外,还有其它方式把Excel及PPT中做的图形输出出来,但均达不到高分辨度高清晰度的要求。简单地把图形从Excel中拷贝到图形文件中不是好办法,得到新图形的像素值低。值得注意的是,你不能使用Microsoft Graph,在2010,如果你拷贝了Excel中的图形,粘贴到Word,可能产生一个带有数据的MS Graph Object图形,如果你在这基础上再拷贝,粘贴为矢量图,则像素会受到限制,原理?得问微软,咱不清楚。 从PPT中直接拷贝Chart Object也可以象Excel中的图形一样控制最终的分辨度,因此,也可以尝试拷贝其图形或者其它模块,通过矢量图转存为图形文件,获得高分辨度。 PS:通过上述转存方式,你可以获得任何层次的高分辨度图形文件,远超PPT所能提供的转存文件,突破3072个像素的限制。再次地,我需要提醒读者,高分辨度本身不代表清晰,因为再不清晰的文件,都可以把模糊用高分辨度存起来。如果基础图像不是矢量图,其像素本来少,但在上述转存过程中,Word会强制添加像素,达到分辨度要求,但并不提高清晰度一分半分。杂志要求高分辨度的目的是获得高清晰度图像文件,以抵消印刷过程中CMYK打印转换清晰度降低的作用,因此,对于摄影摄片,一定要在原始文件基础上操作,而不是微软办公系统软件存储的图像,因为PPT、Word、与Excel会对原图在保存时进行压缩,以减少文件大小。通过已经降低分辨度(清晰度)的图片重生高分辨度图形,由于不能回复原来的清晰度,本质上是一种欺骗杂志的行为,应一概避免。 参考文献: 1. Yam, C. S. (2005). Using PowerPoint to create high-resolution images for journal publications. American Journal of Roentgenology , 185 (1), 273. 2. How to change the resolution of a slide that you export as a picture in PowerPoint. (n.d.). Microsoft Support . Retrieved July 25, 2011, from http://support.microsoft.com/kb/827745