科学网

 找回密码
  注册
科学网 标签 CST

tag 标签: CST

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

Thermo Fisher悄悄下了一盘大棋:这能否颠覆整个抗体行业
热度 1 SciLondon 2016-9-8 18:17
( London-science.com 原创,网页转载请附带原文链接: http://www.london-science.com/archives/1536 ,微信转载请联系我们) 抗体市场革命 抗体行业的市场格局,在今年下半年经发生了巨大变化。 今年5月底,抗体巨头Santa Cruz Biotech涉嫌虐待动物,因而触犯美国动物保护法,惨遭350万美元巨额罚款。更严重的是,Santa Cruz被永久禁止生产和销售多克隆抗体-曾经叱咤风云的多抗玩家,现在彻底出局了(ScienceLondon曾对此进行了深度报道: 2016年第一个或将倒下的抗体巨头 )。这也就意味着,Abcam,CST,Santa Cruz三足鼎立的时代已经不复存在,整个抗体行业迎来了多年来的首次大地震(市场分析详见: 抗体双雄时代,看Abcam如何布局 )。 Santa Cruz占据了科研抗体市场19%的份额,而其主要营收是依靠多抗。Santa Cruz目前已经从网站撤下了所有多抗产品,仅存2万多种单抗。 而且不论是从营销策略还是市场定位都已经转向单抗。一家每年销售超亿美金级别的抗体巨头如今砍掉了将近90%的产品种类,这将意味着今年至少损失超过2/3以上的收入。而且目前在海外市场已经有不少大学等科研单位在官网通知不再从Santa Cruz购买抗体。 在目前西方的社会道德准则中,虐待动物和侵犯人权属于同级别严重的事件。所以这一系列连锁效应除了会导致销售额腰斩和市场份额锐减以外,同时Santa Cruz可能将陷入人才流失和大量裁员等困境。 Santa Cruz市场份额的流失很快将让科研抗体行业进入新的蓝海。从消费者的角度来看,既然Santa Cruz的多抗买不到了,为了能够重复实验,必然需要找到它的代替品。 因此,目前的市场格局将逐步由巨头垄断开始向分散化过渡,原市场中的中小型玩家的市场份额将会扩大(也就是Santa Cruz的替代者)。 根据小编的调查,自从Santa Cruz时间之后,众多抗体公司的Google付费搜索广告呈直线增长,SEO关键词也在不断扩张。当然,其它的巨头们也不会闲着,比如Abcam的官网首页就出现了这样的广告: 细心的用户会发现,目前如果在Google中搜索Santa Cruz相关的关键词,搜索结果已经被其它公司的广告占领了。 正所谓乱世出英雄,这次抗体行业震动,会让不少中小型公司得到前所未有的扩大市场份额的好机会,它们可能会迅速将一批急于寻找替代品的Santa Cruz用户收入囊中。 然而,就在市场陷入群雄割据时,另一个超级巨头Thermo Fisher却站了出来,向世界宣布了它在抗体行业的野心。 Nature上的重磅炸弹 Thermo Fisher采取了什么行动?它又将如何影响抗体行业的走向?这要从一篇论文说起。近日,Nature旗下的著名期刊《Nature Method》上刊登了一篇论文:《A proposal for validation of antibodies》。这篇论文再次强调了未经验证的抗体会引发质量问题,造成严重的经费浪费,并导致实验的不可重复。更重要的是, 该论文首次提出了一个系统化的、十分具体的抗体验证标准方案。 长期以来,抗体产品本身都存在着无法避免的质量隐患。每年,由于抗体质量造成的全球科研经费损失高达8亿美元,直接占到了整个科研抗体市场价值总量的三分之一以上。为了避免出现质量抗体问题,提高实验可重复性的最有效方法,恰恰是抗体验证(相关细节不再赘述,请见深度报告: 科研抗体的水有多深? )。因此,近年来,学术界越来越重视抗体验证,Nature杂志也不止一次刊登抗体验证相关的论文(今年6月的最新论文: 抗体验证,不容懈怠 )。越来越多的学者呼吁,不论是抗体供应商还是研究人员自身,都应该对抗体进行验证,促进行业的标准化和规范化。然而,到底该如何进行抗体验证?怎样的验证才是有效的?市面上一直缺乏统一的标准和规范化的流程,不论是公司还是研究人员,都是各干各的,到出现问题的时候,才发现原来大家的验证方式不统一,根本无法解决问题。 《Nature Method》上的这篇论文或许将改变上述状况,更有可能将抗体产品的规范化向前推进一大步。文章中提出了一个由”五大支柱“构成的抗体验证标准,指导用户和供应商应该如何进行抗体验证,从根本上确保抗体产品的有效性和可重复性: 1.基因策略: 在对照细胞或组织中,利用CRISPR/Cas或者RNAi对靶基因进行敲除(KO)或敲降(KD),然后测量相关的信号。 2.正交策略: 在多种样品中使用一种与抗体无关的定量方法(如MS),随后检查基于抗体的定量方法(如WB)与该非抗体方法之间的关联性。 3. 独立抗体策略: 使用两种或以上抗体(它们识别靶蛋白上不同的抗原决定簇)进行比较性或定量分析,以证实抗体的特异性。 4.表达标记蛋白: 对内源基因进行改造,添加一个亲和标签或荧光蛋白DNA序列。标签蛋白的信号可以与基于抗体方法的检测结果产生关联性。 5.免疫捕获和质谱分析: 偶联免疫捕获法,可以通过与一种靶蛋白特异性的抗体结合,从溶液中分离出靶蛋白。使用此方法后,再通过质谱分析鉴定出与这种抗体直接相互作用的蛋白,以及可能与靶蛋白形成复合物的蛋白。 该文章作者建议,不论是抗体用户还是供应商,至少使用一种上述方法来验证抗体产品。 文章的第一作者Uhlen称:“该文章的发表是向广泛性抗体验证标准迈出了重要的一步,从而能够极大地保证抗体的高质量,以及可重复性。” 这份指导性标准,无疑会在未来影响整个抗体行业的标准。 看到这里,你可能会有些糊涂了: 这篇文章固然能对抗体行业产生影响,但这跟Thermo Fisher有什么关系? 不要着急,我们从文章作者上开始找线索。不难发现,这篇文章的作者是国际抗体验证工作小组(International Working Group for Antibody Validation,IWGAV)。这是一个国际性的独立非盈利组织,由多个抗体研究和应用领域的大牛组成。而这个组织的目的,就是为了建立一套完整的抗体验证系统,为整个行业提供指导标准。而这个组织,恰恰是由Thermo Fisher赞助成立的!也就是说,这套系统的开发, 完全是通过Thermo Fisher提供的资金来进行的,这是Thermo Fisher攒的一个“局”。 从Thermo Fisher官方网站上我们可以发现,在2015年9月28日,Thermo Fisher发布新闻,宣布IWGAV正式成立,并在加拿大举行了第一次正式会议。Thermo Fisher的首席科学家称:”使用经过优化的抗体验证标准,将为抗体用户们提供信心:这意味着更可靠的抗体质量以及可重复的研究结果。新闻中表示, IWGAV将在2016年秋天完成这个指导方案的制定。 果然,今年9月5日,这个标准如期发布。同日,Thermo Fisher在官方网站上发布新闻,表达了对这项标准强烈拥护的决心。 从9月5日开始,Thermo Fisher将采取这五种方式,对自己的抗体产品线(Invitrogen)进行进一步验证,其中包括质谱,KO,抗体测序等等。Thermo Fisher将对通过严格检测的抗体进行重新包装,使用新的商标。 Thermo Fisher的生物科学部主席Peter Silvester称:我们相信这个标准能够帮助抗体用户克服现有的问题。这次抗体验证行动将按照IWGAV提供的标准执行,这表明了我们对于科学的责任,以及为广大用户提供高质量抗体的使命。” IWGAV的主席Uhlen也与Thermo Fisher惺惺相惜:“我非常高兴能看到抗体供应商在产品线中应用这些指导措施。” 既是教练又是运动员,Thermo Fisher这场棋下的很大。 而且它从一年之前开始策划,如今正好赶上Santa Cruz事件,可谓是占据天时地利。 在Nature期刊上发表的这篇文章,无异于投下了一颗重磅炸弹。要知道不仅IWGAV的成员名气很大,而且《Nature Methods》这份期刊的影响因子高达23(在2011年之前,大陆学者甚至从未在上面发表过一篇文章),这篇文章对抗体行业的影响力可想而知。 Thermo Fisher这次酝酿一年的计划,也是成功的给自己做足了广告。 这其实向广大抗体用户传递了一个信号:这是世界上最规范的抗体验证标准,我们Thermo Fisher已经执行了,你说我们抗体质量好不好?同时,这也是对传统抗体巨头们的一个挑战:这个抗体验证标准我们反正是照做了,你们做不做? Thermo Fisher此举措不仅能够影响抗体用户的消费理念,还对抗体行业的同行施加了压力,迫使他们在抗体验证工作上投入更多。如果Thermo Fisher能够在短期内完成大量产品的验证工作,必然将极大地提高它在抗体行业的地位,从而树立行业模范的形象。继Santa Cruz事件之后,Thermo Fisher也许将为抗体行业带来第二次冲击,从而使尚未稳定的产业格局再次发生变化。 如果说Santa Cruz主要影响了中低端抗体市场, 那么Thermo Fisher带来的冲击主要影响的是高端抗体市场。这些经过严格验证的抗体,售价肯定不会便宜,很多中小型公司很难与其竞争。Abcam、CST、Sigma等巨头则会成为它直接的竞争目标。 然而,Thermo Fisher的野心不仅是策划一场营销活动、促进销售这么简单。 巨头的野心 Thermo Fisher与Abcam等抗体供应商完全不在一个级别。作为行业领军人物,Abcam的市值仅在10亿美元级别,而Thermo Fisher的市值却高达600亿美元!另外,Thermo Fisher的业务范围及其广泛,从化工,仪器到抗体,无所不包。实际上,T hermo Fisher本身是不生产抗体的。在2014年,Thermo Fisher收购上市公司Life Technologies(2008年Invitrogen与Applied Biosystems合并诞生Life Technologies)后,才有了独立的抗体业务部门。 抗体的生产和研发,也是直接接手了Invitrogen原有的。这种财团性质的公司,与传统的生物技术公司盈利模式完全不同-不是依靠自有技术,而是依靠资本运作。最常见的手段就是并购,这也是在竞争中胜出的最强手段: 你的技术先进,市场份额大,我不跟你竞争,直接把你买下来。 这样一来,这个先进的技术连同市场份额都是我的了。从Thermo Fisher身上,我们可以看到无数并购的痕迹。从收购Life Technologies,到收购Affymetrix,再到上个月闹得沸沸扬扬的传闻:收购Illumina。Thermo Fisher的业务领域也在逐步扩张,大有”一统天下“的气势。 说白了,这种资本运作的终极目标就是垄断,侵占一个领域足够大的市场份额,从而操控这个领域的市场。 因此,依靠抗体销售赚的小钱,它是不会放在眼里的。 Thermo Fisher真正在意的是,利用抗体验证标准这个机会,实现从”玩家“到”规则制定者“的角色转变,通过“垄断”标准来掌控整个抗体行业。 如果抗体验证的标准能够被广泛认可,消费者为其愿意买单,那么Thermo Fisher的垄断地位也就唾手可得了。 另外, 也不排除Thermo Fisher收购其它抗体公司的可能性。 毕竟,CST, Abcam, Santa Cruz Biotech三家抗体巨头加起来的市值还不及它的一个零头。通过规范的制定,Thermo FIsher可以迫使其它公司妥协,进一步进行收购,从而彻底垄断抗体市场。只要Thermo Fisher算清楚这笔账,收购只是时间问题。 最后, 这对于抗体行业一贯的OEM模式也是一种挑战 。究竟有多少OEM厂商能够稳定供应符合规范的抗体产品呢?这会不会也将给OEM工厂带来冲击呢? 总结起来,Thermo Fisher会从以下几个方面影响抗体行业: 1.推广产品质量新标准,改变抗体用户的消费理念。 2.对高端抗体厂商施加竞争压力,迫使他们改变战略 3. 既是运动员,又是裁判员,对行业进行垄断 4. 新标准促进产业升级,OEM模式将被挑战 新标准推广的四大难题: 虽然Thermo Fisher雄心勃勃,行动迅速,但小编并不看好这项规范,也不认为Thermo Fisher能够借助该规范轻易改变行业。 1.价格和成本问题。 如果按照IWGAV的规范对抗体进行全面验证,验证成本恐怕会超过抗体生产成本。抗体验证的高成本最终还是会转嫁到用户身上。Abcam官网目前通过KO验证的500多种抗体均价超过400英镑/100ul。请问有多少科研用户可以负担的起如此高昂的价格? 2.批次问题。 假设Thermo Fisher能够通过技术或者管理手段控制成本,让售价变的可以让人接受。那么,即使一批抗体通过了验证,当重新更换动物开始新批次生产后,之前的验证结果就全部作废了,新的一轮验证又要开始。面对如此巨大的产品种类和批次数量,恐怕这种超级巨头也担负不起。所以这无法从根本上解决抗体质量问题。 3.公正性问题。 无论验证多么严格,这始终是公司自己执行的,难免有”自卖自夸“的嫌疑。消费和也无法对这些验证数据的真实性进行监督。 4.用户的产品购买标准问题。 虽然高质量的抗体看似一直是广大科研用户的诉求,但是这些年Santa Cruz的业务快速增长和超12万份的文献数量已经足够说明问题(Santa Cruz目前的文献数量远高于CST和Abcam)。科研用户很清楚的用手中的科研经费投了票,在高质量高价格和低质量低价格面前,很多用户选择了购买低质量低价格的抗体来碰运气。所以实际上科研用户本身的产品选择标准也客观导致了低质量抗体产品大量充斥市场的情况。 抗体验证数据是保证抗体可靠性的最有效手段,然而这并不是一件轻松的事。 一家公司和部分用户的力量使有限的,在共享经济时代,只有依靠同行携手合作,用户积极参与,才有可能真正解决抗体质量的根本问题。 科研用户需要了解的行业现实状况: 1. 抗体厂商不会因为个别用户的投诉而轻易放弃整个批次的产品。 2. 用户只有积极参与到反馈数据分享,建立科研行业的“大众点评”,才能够以第三方监督的机制促进行业改革。 3. 抗体质量和成本之间的客观矛盾其实也是客户科研经费预算有限和价格敏感所带来的问题。 抗体供应商需要了解的行业未来走向: 1. 随着互联网的发展和渗透,行业内的信息不对称问题终将被技术解决。 2. 近年来,越来越多的生物科技公司增加了对自家抗体质量把关的力度,那些疏于质量把控的公司很快会被淘汰。 3. 第三方抗体验证平台能够有效帮助抗体公司提高品牌信誉度以及可靠度。独立的第三方抗体验证报告会在未来成为抗体产品除了文献以外最重要的质量参考标准。 如何利用低成本来进行抗体验证?又如何最公正客观的呈现这些验证数据?ScienceLondon找到了一个解决方案-联合广大用户的力量,建立抗体行业的”大众点评“,以最低的成本,最大的数据量,为消费者提供抗体购买的参考。 抗体究竟好不好用?看看其他人怎么说! 这些参考资料会比文献更有时效性、信息更丰富,比广告更真实、更可靠。 每周ScienceLondon未止科技将在微信公众号和网站上推送第三方 抗体验证报告 (即来自抗体用户的使用反馈)。 原始数据经过了ScienceLondon的严格审核,最大程度上确保了它们的真实性,以及高质量。这些反馈数据将以直观,便捷的方式展示在广大用户面前:利用空闲时间,只需动动手指,不到一分钟便可以了解一种抗体产品的实际使用效果。这将直接为抗体用户省去网上查阅资料、咨询他人的时间。 提升行业标准,需要大家的共同努力。ScienceLondon未止科技欢迎广大抗体用户以及抗体供应商、经销商共同参与到“大众点评”的活动中来。 (这里不再探讨过多,如想进一步了解, 请点击这里 )
6915 次阅读|1 个评论
文献阅读笔记(10)-利用信息熵进行网页去噪的方法
FangliXie 2014-6-30 15:29
利用信息熵进行网页去噪的方法 Yi L,Liu B.Web Page Cleaningfor Web Mining through Feature Weighting Proc of the 18th Int Joint Conf onArtificial Intelligence(IJCAI-03).SanFrancisco:MorganKaufmann,2003:43-50 本文的方法 先将 DOM 树转化为 CST 树 (Compressed Structure Tree, 压缩结构树 ), 然后计算 CST 树中节点的信息熵及叶子节点 ( 即页面中的各个块 ) 中的特征的权重 , 继而得到页面的特征向量 (feature vector). ( 疑问:根据特征权重怎么去判断网页噪声呢? ) 几个定义 Global noise( 全局噪声 ) : It refers to redundantobjects with large granularities, which are no smaller than individual pages.Global noise includes mirror sites, duplicated Web pages and old versioned Webpages to be deleted, etc. Local (intra-page) noise( 局部噪声 ): It refers to irrelevant items within a Webpage. Local noise is usually incoherent withthe main content of the page. Such noise includes banner ads, navigationalguides, decoration pictures, etc. 呈现样式 (presentation style) : DOM 树中节点 T 的呈现样式用 S T : r1,r2,…,rn 表示 . 其中 ri 由 Tag,Attr 构成 , 表示节点 T 中的第 i 个孩子节点的标签和属性 . 当两个节点的样式满足下面条件时可以说这两个节点的样式相同: 1) 孩子节点树相同 2) 两个节点的第 i 个孩子节点的 Tag 和 Attr 都分别相同 . 元素节点 (element node ) : 元素节点 E 表示 CST 树中的节点 , 用 Tag, Attr, TAGs, STYLEs,CHILDs 表示 , 其中 Tag 是 E 的标签名称 ,Attr 是 E 的属性 ,TAGs 是 E 的孩子节点的标签序列 ,STYLEs 是 E 所覆盖的 DOM 树中的所有节点 ( 标签 ) 的样式集 ,CHILDs 指向 E 孩子节点的指针 . 下图是 CST 树的一个例子 . CST 树的构造过程 1. 将所有 DOM 树的根节点合并成 CST 树的第一个元素节点 (root). TAGs 是 DOM 树根节点的标签集合 . 2. 计算元素节点的 STYLEs. 即原来 DOM 树中的所有节点的样式 , 相同的呈现样式会被合并 . 3. 进一步合并孩子节点 . 由于 E1,E2 的 Tag 和 Attr 都分别相同 , 接下来比较 E1,E2 的文本内容 . 如果两个节点的文本特征 ( 用 Ii 表示单词出现的频次 , 当 Ii=γ 时则认为是文本特征 ) 满足 |I1∩I2|/|I1 ∪ I2| ≥ λ , 那么就进行合并 . 本文取 γ,λ 为 0.85. 4. 如果没有孩子节点可以合并 , 那么就结束 . 否则取出孩子节点 , 进入第 2 步 . 权重策略 1) CST 树的内部节点 E 的重要度用下式计算 . 其中 ,l=| E.STYLEs|, m=E.TAGs. pi 表示 E.TAGs 中的标签使用第 i 种样式的概率 . 2) CST 树的叶子节点 E 的重要度用特征的 平均重要度 来计算 . ai 表示节点 E 的内容特征 .H E (ai) 表示特征的信息熵 . 由于 NodeImp(E) 只是反映了 E 的局部重要性 , 为了计算叶子节点的权重 , 还需要考虑从根节点到叶子节点的路径的重要度 . 最后权重的计算公式为: 其中 f ij 为特征 ai 在标签 Tj 下出现的频率 . 在实际操作中 , 并没有采用真实的 CST 树的叶子节点来计算 , 而是用叶子节点的祖父母节点来计算 , 因为真实的叶子节点粒度很小 . 3) 页面中块的权重计算出来之后 , 就把具有相同特征的块赋予权重 , 所有的这些特征权重构成页面的特征向量 , 用作聚类和分类的输入量 . 实验分析 1) 数据集 . 2) 衡量指标 . 用 FScore 来评价该方法在分类 (k-means) 和聚类 (SVM) 中的表现 . Lin S H,Ho J M.Discoveringinformative content blocksfrom Web documents Proc of the 8th ACM SIGKDDInt Conf on Knowledge Discovery and DataMining.NewYork:ACM,2002:588-593. 本文的方法 本文认为 TABLE 是 HTML 分块的依据 , 并且认为一个网站的网页同属一个页面群 (page cluster, 即共用相同的网页模板 ). 方法步骤如下: 基于 TABLE 标签从 HTML 中抽取出内容块 然后再从每个内容块中抽取特征 ( 与关键字相关的文本或术语 ) 根据特征在页面群中出现的频率计算特征熵 通过加和得到内容块的信息熵 ( 用 H(CB) 表示 ) 若 H(CB) 值大于阈值或越接近于 1 那么判为冗余块 , 反之则认为该内容块是信息块 . 其中 , 阈值由贪婪法来确定 , 从 0.1 到 0.9 进行实验 , 依次增加 0.1. 实验分析 1) 数据集 . 选取 13 个新闻网站 ( 都用 TABLE 来布局 ), 每个网站选取 10 个页面 2) 衡量指标 . 查准率 (Precision), 召回率 (Recall). 论文点评 由于是较早的一篇文献 , 文中所提出的方法依赖很强的假设前提 , 比如 1) 认为大多数网站利用 TABLE 来布局 2) 认为网站的所有页面属于同一个页面群 3) 认为 dot-com 类的网站都是 ” 上下左右 ” 四个块的布局样式 4) 基于信息熵来判定冗余块的标准跟后续的相关研究有出入 , 即后续研究认为 H(CB) 值大于阈值或越接近于 1 那么判为信息块 , 反之则认为该内容块是冗余块 . 除此之外 , 本文在内容块的抽取 , 信息熵的计算等关键环节描述得很模糊 , 使得读者难以细入研究 .
个人分类: 科研笔记|2859 次阅读|0 个评论
电磁波前沿问题仿真工具解析
热度 4 COMSOLFEM 2010-4-6 10:14
计算机水平的迅猛发展,为我们开拓了许多前沿研究的方法。进行前沿研究时,特别是像高频电磁学(包含微波、光学等范围)这种物理机理较为复杂的情形,传统只依靠实验来进行研究的方法,已经力不从心了。于是近十几年来,兴起了一种流行的研究方法,计算机辅助工程(CAE),用以辅助和验证我们的理论和实验模型,并形成了一个电磁学的分支计算电磁学。 然而,大多数运用计算机仿真手段进行研究的人员,本质的工作还在于我们所研究的物理现象本身,除了少数人能够精通编程(或者说有时间专门研究计算电磁学)之外,大部分研究人员还是选择使用现有的仿真工具来进行研究。主流的工具包括OptiFDTD、Rsoft Photonics Suite、Lumerical FDTD Solutions、XFDTD、COMSOL Multiphysics、ANSOFT(HFSS)、CST等。这些主流软件使用的算法,可以归结为以下几种:时域有限差分法(FDTD)、有限元法(FEM)以及混合法(也就是各类数值计算方法的组合)。下面就来大概介绍和对比一下这些软件的一些功能和特点。 OptiFDTD、Rsoft Photonics Suite、Lumerical FDTD Solutions、XFDTD这几个软件,从名字上可以一眼看出,他们都是使用FDTD算法的。FDTD的思想是将求解域划分成许多网格,把随时间变化的Maxwell微分方程转化为每个网格结点的有限差分方程,每个结点的电(磁)场仅与其相邻网格上的磁(电)场以及上一时间步长的场量有关。选取合适的边界周期条件和初始条件,求解四维数值解,这四维是指空间的三维加上时间维度。从算法的原理可以看到,这一类的软件,最大的特点就是能够一次计算完成扫频。FDTD计算的是时域波形的演变,而一个有一定波形的时域信号,它在频域上一定不是单频的,而是会有一定的谱宽。这样的最大好处便是一次可以计算复杂时域的波形。用来计算电磁波的传输时非常的方便。 另一方面,由于FDTD算法是基于时域的,也就是说,计算时需要求解电磁波传输一段距离,这就可能带来一些困扰。比如,在进行光纤的模场分析时,选取光纤的一个截面进行分析。这个时候不需要关心电磁波在光纤传输方向的传输状态,但FDTD需要计算电磁波在这个方向上传播一段距离才能得出在截面上稳定的状态(往往要计算到较长距离才能达到这种状态),这无形中增加了不少的计算量。另一个重要的一点,在涉及到多尺度的问题时(微纳光学器件里经常会遇到),电磁波通过小尺度的求解域时,需要对时间进行细致的划分,这将会导致在大尺度求解域的划分,也必须按照这个标准(不均匀度不能超过一定限度)来进行,最终导致网格数太大而使得计算不可行。在做仿真时也需要考虑到这点。 COMSOL Multiphysics这款软件是一个纯有限元的软件。最早听说这个软件和看这个软件的介绍时,觉得只是一个做多场耦合的通用软件,未必能够解决前沿电磁波的问题。但深入使用之后才发现这款软件的强大。 COMSOL在求解电磁波问题时,是基于频域来求解的,采用的是一种谐波近似的方法。很多时候我们想计算电磁波的传输,但是其实我们并不关心这个电磁波的时域波形有多复杂,这种情况下,我们就可以用谐波近似,把电磁波近似正弦波。正弦波在频域上就是一个单频,因此COMSOL做这种计算很快。另外还有一种计算,就是模场分析。COMSOL直接在频域求解亥姆霍兹方程(波动方程的频域形式)即可。 COMSOL最早是MATLAB的一个求解偏微分方程(PDEs)的工具箱,因此传承了MATLAB平台性、开放性的特征,能够对绝大多数的物理问题,使用数学符号来描述。而其本质,也就是求解各种形式的偏微分方程。比如,某种非线性很强的材料,介电常数与电场强度的平方成正比,在COMSOL里,可以直接将这个材料的介电常数直接写成电场的平方的表达式就可以了,求解时,会将这个表达式代入基本方程中介电常数的项,软件直接求解最后这个形式的方程。这对于求解非线性的问题是一个很大的亮点。在这个求解与解有关的材料系数问题里,COMSOL直接避免了一个时间先后的问题:是解先影响了材料,还是材料先影响了解? 关于材料问题,目前研究得比较热门的是电磁波与金属的相互作用问题。金属介质的模型不准,或者当遇到金属介质的时候,收敛缓慢。金属的材料特性与普通介电介质太不一样。这种材料的不连续当然使得电磁场在界面上变化很陡峭。FDTD在计算时需要进行时间推演,场变得快则时间步就得更小,计算量大,收敛比较慢。在COMSOL没有这个问题,快变没有太大的影响,一个正弦波,变得再快,频率再高,也只是求解单频而已。 前面讲到的多尺度问题,也是COMSOL的强项。得益于有限元的算法,COMSOL处理复杂结构模型时,能够将网格的不均匀度控制到一个很大的范围。也就是在细微处能够划得很密而在需要粗略处理的地方划得很粗。这样整个求解域的网格数就能控制到一个很有效的水平,从而节省计算量。 最后再说说Ansoft和CST,这两个软件是也是在电磁场计算中非常有名的软件。Ansoft使用的是有限元和矩量法相结合的方法;CST是一个专门求解电磁问题的软件包,有FDTD、矩量法、传输线法等方法(没有有限元法FEM)。这两个软件,更多的是面向于理论比较成熟的工程应用,模块比较固化,对实际的问题只需对号入座便可,能够方便地提高学习效率和操作性。对于前沿理论的研究来说,灵活性和开放性就稍显不足,用户发挥的余地较小。 以上就是我对目前一些主流计算电磁学软件应用于前沿电磁学研究的一些粗浅看法,限于学识和经验,不能理解和表达透彻,希望各位能够及时提点和修正。
个人分类: 反应器|18632 次阅读|3 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-20 05:45

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部