科学网

 找回密码
  注册

tag 标签: Markov

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

可逆共聚反应中存在的因子化关系
richor 2018-7-10 11:05
【发展历史】 20 世纪上半叶随着人工合成高分子的发展 , 人们开始对共聚反应进行研究。在 20 世纪 40 年代 , 人们就研究了共聚高分子 链中各构成组分间的比例 和各组分单独聚合反应速率的关系。早期的研究有两个局限性 , 一个是只考虑了一阶近邻效应 , 另一个是没有考虑逆向的解聚反应。对于不考虑解聚的反应,二元共聚有 Mayo-Lewis 模型,三元可以用 Alfrey-Goldfinger 模型来解决。 可逆共聚问题在 20 世纪 60 年代开始被关注 , 当时是从热力学上考虑的 , 即所有 的反应路径在热力学上都是可逆的 , 而且理论上可以推测如果升高温度 , 可逆效应将会变得显著。后来 , 人们在一些共聚反应过程中发现 , 逆向解聚反应的影响比较显著 , 理论上解决该问题的需求变得更加迫切。 但是在之前的共聚反应框架中引入可逆 , 会导致动力学方程的不封闭性 , 难以解析求解。直到 1987 年 Kruger 等人才给出了一种处理该困难的方法。他们假设共聚 高分子链末端的序列可以被一阶马尔科夫链描述 , 进而把原始的不封闭的方程组约化为一组封闭的定态方程。 如何将他们的方法推广到任意高阶由我们给出。 考虑一阶模型: 我们可以写出该随机过程的 Master 方程 :( 主方程方法研究K离子通道 ,我也可以考虑做一篇paper.) 对于二体项,依赖三体项: 我们数值证明如下因子化关系成立: 进而可以求解出各概率变量对反应速率的依赖关系。 从我们的解中,可以得到如下条件概率关系式: 而此,正是 Gaspard 2014 文章中的出发点。 Gaspard 2016 年的 PRL 指出随机链中的局域速度的分布随浓度增加会从连续变成分形结构,即会出现一些不可能的区域。这么奇怪? 2016 年两篇 PRE ,讲的分别是 exonuclease-deficient 和 with exonuclease proofreading 。可以学习里面的公式字符使用,这么复杂的公式都能写的这么漂亮,很难得。我的问题主要是 不应该在下标里用大写字母 。 2016 年的 Phil.Trans.R.Soc.A 文章,对这三篇文章进行了总结, PRE 算是 free copolymerization 吧, PRL 的是 template directed copolymerization 。 2018 年把研究成果写进书里了: https://onlinelibrary.wiley.com/doi/abs/10.1002/9783527806096.ch2 wiley 出版社。引用了我们 2015 年的文章。 【化工应用】 竞速率:在共聚反应中某单体的竞速率,为该单体的平均聚合速率。 常用单体的竞速率: https://wenku.baidu.com/view/015fdc19964bcf84b9d57b16.html?rec_flag=defaultsxts=1531136423712 一个例子: ABS 是一种非常常见的 plastic: invented during world war II. https://www.quora.com/Who-invented-the-manufacturing-of-ABS-material ABS 树脂是丙烯腈、 1 , 3- 丁二烯、苯乙烯的三元共聚物。 可以用作电视机外壳: https://zhidao.baidu.com/question/22693081.html 其中 丙烯腈 生产用的是丙烯氨氧化法: 以丙烯、氨、空气和水为原料,按其一定量配比进入沸腾床或固定床反应器,在以硅胶作载体的磷钼铋系或锑铁系催化剂作用下,在 400-500 ℃温度和常压下,生成丙烯腈。 而丙烯是三大合成材料(塑料、合成橡胶和合成纤维)的基本材料。可以通过对石油进行 催化裂化 得到。 催化裂化 是石油炼制过程之一,是在热和催化剂的作用下使重质油发生裂化反应,转变为裂化气、汽油和柴油等的过程。 石油,好东西。原油分类:轻质原油、中质原油、重质原油。一种黑褐色并带有绿色荧光,具有特殊气味的粘稠性油状液体。是烷烃、环烷烃、 芳香烃和烯烃等多种 液态烃 的混合物。
个人分类: DNA聚合酶|3 次阅读|0 个评论
马尔可夫链蒙特卡罗算法
热度 1 lijiankou 2013-10-16 15:30
抽样算法的主要任务是找到符合给定分布 的一系列样本。对于简单的分布,可以通过基本的抽样算法进行抽样。大多数分布都是不容易直接抽样的,马尔可夫链蒙特卡罗算法解决了不能通过简单抽样算法进行抽样的问题,是一种重要的实用性很强的抽样算法。 马尔可夫链蒙特卡罗算法(简写为MCMC)的核心思想是找到某个状态空间的马尔可夫链,使得该马尔可夫链的稳定分布就是我们的目标分布 。这样我们在该状态空间进行随机游走的时候,每个状态x的停留时间正比于目标概率 。在用MCMC进行抽样的时候,我们首先引进一个容易抽样的参考分布q(x),在每步抽样的过程中从q(x)里面得到一个候选样本y, 然后按照一定的原则决定是否接受该样本,该原则的确定就是要保证我们得到的原本恰好服从p(x)分布。 MCMC由梅特罗波利斯(Metropolis)于1949年基于马尔可夫链的基本性质提出,下面介绍一下与马尔可夫链相关的性质。 一、稳定分布 稳定分布是指当我们给定状态空间的一个初始分布 以后,按照转移矩阵进行跳转最终达到的稳定状态。 设转移矩阵为A,其中 , 为第t步的状态分布,那么第t+1步的状态分布可以写为 ,经过一系列跳转以后,最终 达到一个稳定分布,即 。 可以写为以下形式, 即每个状态的流出概率等于该状态注入的概率,该方程称为全局平衡方程。满足该方程的分布称为转移矩阵A的稳定分布。 二、细致平衡 对于一个稳定分布,我们可以给其一个更强的条件限制,使得任意一个状态 满足如下条件, 表示对于任意一对节点 ,i到j的概率等于j到i的概率,该等式称为细致平衡方程。我们有如下定理,如果一个分布满足细致平衡方程,那么它也满足全局平衡方程。 证明如下: 考虑 的任意元素i,我们有以下等式, 对于任意元素i,上面等式成立,因此我们有 。 下面我们介绍基本的梅特罗波利斯算法(Metropolis algorithm)。假设 是我们的目标分布函数,我们想得到一系列服从该分布的样本。我们考虑样本的产生过程构成一个马尔可夫链,并且让p(x)是该马尔可夫链的稳定分布,那么该样本序列就服从p(x)。现在p(x)是已知的,问题的关键在于如何构造这个产生过程,也即如何构造马尔可夫链。 首先我们引进一个参考分布 ,该参考分布是一个容易抽样的简单分布,例如高斯分布。用 表示状态变量, 表示第t步时的状态,每一步状态转移按如下过程进行: (1) 从 产生一个候选样本 产生概率为 ; (2) 计算接受概率 (3) 如果候选变量被接受,那么状态转移成功, , 否则,状态转移失败,下一步的状态仍然保留在上一个状态, ; 重复以上步骤可以得到一个样本序列,该序列每个中的每一个状态都依赖于上一个状态,因此它构成一个马尔可夫链。 下面我们证明p(x)在上面的产生过程中满足细致平衡方程,因此得到的样本序列服从分布 。 证明如下: 假设 是马尔可夫中的任意两个状态, 假设 (1) 并且不失一般性假设 (2) 那么我们有 (3) (4) 由公式(1),(3),(4)得, 因此 即目标概率p(x)满足细致平衡方程,即由状态 跳转到 的概率与由 跳转到 的概率相等,因此p(x)是转移概率的稳定分布。 最后,回顾一下梅特罗波利斯抽样的主要思想。首先构造一个马尔可夫链,接着证明p(x)满足其细致平衡方程,进而说明p(x)是该马尔可夫链的稳定分布。然后将抽样的过程看成是在马尔可夫链状态空间进行跳转的过程,跳转的候选状态由参考分布q(x)产生。最后 得到一个的跳转序列,该序列在每个状态x的停留时间与p(x)成比,即服从p(x)分布。 参考文献 1. pattern recognition and machine learning Christopher M.Bishop p537-542 2. machine learning a probabilistic perspective Kevin P.Murphy p596-600 3. bayesian reasoning and machine learning David Barber p531-533
个人分类: 机器学习|11613 次阅读|1 个评论
[转载]马尔可夫随机场(Markov random fields) 概率无向图模型
xjtuchy 2013-8-13 13:24
上面两篇博客, 解释了概率有向图(贝叶斯网) ,和 用其解释条件独立 。本篇将研究马尔可夫随机场( Markov random fields) ,也叫无向图模型,或称为马尔科夫网( Markov network) http://www.cnblogs.com/Dzhouqi/archive/2013/07/22/3207601.html
个人分类: 科研学习|12174 次阅读|0 个评论
Markov properties in MRF
justinzhao 2013-1-26 08:59
In Daphne Koller's book (probabilistic graphical model: principles and techniques), there are 3 kinds of Markov Properties: pairwise Markov Property, Local Markov Property and Global Markov Property. Obviously, global indicates local, and local indicates pairwise. However, the reverse is not necessary true. However, for a distribution p(y) 0, these three properties are equivalent.Proof can be found from Koller's book. One Problem: when can we make use of these three properties? Answer: during graph construction. In most computer vision applications, graph structure is not learnt from data, but constructed from specific applications. So there is no graph construction step in most CV problems. However, in data mining, the underlying graph structure of the big data is hidden from us, which is not easy to get. Then we have to learn structure from data. At this time, it's more convenient to check whether two nodes are independent than to check whether a bunch of nodes A are independent from another bunch of nodes B. If we further assume p(y) 0 for any y, then from pairwise independence, we get global independence easily with no need to probablistically checking.
个人分类: 读书日记|2815 次阅读|0 个评论
生物细胞中的单分子追踪(综述4)
grating 2012-7-15 10:19
生物细胞中的单分子追踪(综述4)
单分子阶梯事件分析 Single-molecule detection (SMD) and tracking in living cells is becoming a powerful method for the study of protein local environments, the time course of the enzymatic reaction, and the structure fluctuations of macromolecules, etc. Many single molecule studies have offered new insights into their localization, assembly and activation. Perhaps the dominant advantage of single-molecule fluorescence detection is that it can provide information on the spatial and temporal heterogeneity of molecule that underlies the ensemble average in conventional biochemical experiments. These spatial and temporal heterogeneities often appear as step events, for example, the discrete steps of photobleaching of single fluorescent molecules response to the number of subunits in membrane proteins. Hence , the step events analysis is becoming an important method of stochiometry study. However, SMD is also a difficult task. The most experiments of single-molecule fluorescence detection are approaching the limits of optical detection, and that the raw experimental data are inundated with all kinds of noise, especially, the Poisson distributed photon shot noise. These steps are so dim that it is very difficult to distinguish them. To leach out the useful information from these noisy raw data is still a challenging task. Perhaps the simplest and most commonly used method for the analysis of step events of single molecule inundated in these noisy data is the thresholding method. When a single-molecule trajectory has sufficient contrast between states, thresholds can be applied to distinguish the states of the molecule. These thresholds are typically chosen manually and introduce subjectivity into the analysis inevitablly. Before thresholding, binning of the data is also required, and this limits the temporal resolution of the measurement to be 1 or 2 orders of magnitude lower than the photon count rate to overcome the effects of shot noise. To mitigate the effects of shot noise, some investigators have applied filters to the data prior to applying a threshold. This can substantially improve the time resolution of the experiment by mitigating some of the effects of shot noise, but there is still the difficulty associated with choosing a threshold. Recently, many methods, such as hidden Markov models, applications of information theory, photon statistics in the context of two colors, maximum likelihood and Bayesian inferential estimation of change points using Poisson statistics, wavelet correlation, and wavelet shrinkage have been developed and applied to single molecule data as a means of extracting more accurate information about the system under observation. Although direct, model-independent information theoretical approaches may also work well, especially when a kinetic model is inapplicable. HMM, which uses all the information from the data prior and posterior, has enjoyed wide applicability and success. However, this method needs a long sequence to train the HMM for the parameter extraction. Many important experimental data sets are far too short to satisfy this requirement, so that the algorithm will converge to a local maximum depending on the initialization of the emission probability distribution. Another problem of HMMs is the necessary prior knowledge of the number of the states.
个人分类: 综述|2969 次阅读|0 个评论
Markov Random Fields(MRFs) 如何解决激光点云的分类提取
lanchong 2011-12-23 09:55
Markov Random Fields假设一个随机变量序列按时间先后关系依次排开的时候,第N+1时刻的分布特性,与N时刻以前的随机变量的取值无关,却只与N时刻的取值有关。 激光点云的分布是一个典型的随机场,但是否具有Markov性质呢?国外那么多专家用改进的Markov Random Fields自动提取点云,似乎取得了很好的效果。典型的有Carnegie Mellon University的AMN(Associative Markov Network)和Moscow State University的NON-AMN。
个人分类: 全景地图技术|3721 次阅读|0 个评论
[转载]图(graph) 谱(spectrum) 马尔可夫过程(markov process) 聚类结构
热度 3 justinzhao 2011-10-18 04:44
题目中所说到的四个词语,都是Machine Learning以及相关领域中热门的研究课题。表面看属于不同的topic,实际上则是看待同一个问题的不同角度。不少文章论述了它们之间的一些联系,让大家看到了这个世界的奇妙。 从图说起 这里面,最简单的一个概念就是“图”(Graph),它用于表示事物之间的相互联系。每个图有一批节点(Node),每个节点表示一个对象,通过一些边 (Edge)把这些点连在一起,表示它们之间的关系。就这么一个简单的概念,它对学术发展的意义可以说是无可估量的。几乎所有领域研究的东西,都是存在相互联系的,通过图,这些联系都具有了一个统一,灵活,而又强大的数学抽象。因此,很多领域的学者都对图有着深入探讨,而且某个领域关于图的研究成果,可以被其它领域借鉴。 矩阵表示:让代数进入图的世界 在数学上,一种被普遍使用的表达就是邻接矩阵(Adjacency Matrix)。一个有N个节点的图,可以用一个N x N的矩阵G表示,G(i, j)用一个值表示第i个节点和第j个节点的联系,通常来说这个值越大它们关系越密切,这个值为0表示它们不存在直接联系。这个表达,很直接,但是非常重要,因为它把数学上两个非常根本的概念联系在一起:“图”(Graph)和“矩阵”(Matrix)。矩阵是代数学中最重要的概念,给了图一个矩阵表达,就建立了用代数方法研究图的途径。数学家们几十年前开始就看到了这一点,并且开创了数学上一个重要的分支——代数图论(Algebraic Graph Theory)。 代数图论通过图的矩阵表达来研究图。熟悉线性代数的朋友知道,代数中一个很重要的概念叫做“谱”(Spectrum)。一个矩阵的很多特性和它的谱结构 ——就是它的特征值和特征向量是密切相关的。因此,当我们获得一个图的矩阵表达之后,就可以通过研究这个矩阵的谱结构来研究图的特性。通常,我们会分析一个图的邻接矩阵(Adjacency Matrix)或者拉普拉斯矩阵(Laplace Matrix)的谱——这里多说一句,这两种矩阵的谱结构刚好是对称的。 谱:“分而治之”的代数 谱,这个词汇似乎在不少地方出现过,比如我们可能更多听说的频谱,光谱,等等。究竟什么叫“谱”呢?它的概念其实并不神秘,简单地说,谱这个概念来自“分而治之”的策略。一个复杂的东西不好直接研究,就把它分解成简单的分量。如果我们把一个东西看成是一些分量叠加而成,那么这些分量以及它们各自所占的比例,就叫这个东西的谱。所谓频谱,就是把一个信号分解成多个频率单一的分量。 矩阵的谱,就是它的特征值和特征向量,普通的线性代数课本会告诉你定义:如果A v = c v,那么c 就是A的特征值,v就叫特征向量。这仅仅是数学家发明的一种数学游戏么?——也许有些人刚学这个的时候,并一定能深入理解这么个公式代表什么。其实,这里的谱,还是代表了一种分量结构,它为使用“分而治之”策略来研究矩阵的作用打开了一个重要途径。这里我们可以把矩阵理解为一个操作(operator),它的作用就是把一个向量变成另外一个向量:y = A x。对于某些向量,矩阵对它的作用很简单,A v = cv,相当于就把这个向量v 拉长了c倍。我们把这种和矩阵A能如此密切配合的向量v1, v2, ... 叫做特征向量,这个倍数c1, c2, ...叫特征值。那么来了一个新的向量x 的时候,我们就可以把x 分解为这些向量的组合,x = a1 v1 + a2 v2 + ...,那么A对x的作用就可以分解了:A x = A (a1 v1 + a2 v2 + ...) = a1 c1 v1 + a2 c2 v2 ... 所以,矩阵的谱就是用于分解一个矩阵的作用的。 这里再稍微延伸一点。一个向量可以看成一个关于整数的函数,就是输入i,它返回v( i )。它可以延伸为一个连续函数(一个长度无限不可数的向量,呵呵),相应的矩阵 A 变成一个二元连续函数(面积无限大的矩阵)。这时候矩阵乘法中的求和变成了积分。同样的,A的作用可以理解为把一个连续函数映射为另外一个连续函数,这时候A不叫矩阵,通常被称为算子。对于算子,上面的谱分析方法同样适用(从有限到无限,在数学上还需要处理一下,不多说了)——这个就是泛函分析中的一个重要部分——谱论(Spectral Theory)。 马尔可夫过程——从时间的角度理解图 回到“图”这个题目,那么图的谱是干什么的呢?按照上面的理解,似乎是拿来分解一个图的。这里谱的作用还是分治,但是,不是直观的理解为把图的大卸八块,而是把要把在图上运行的过程分解成简单的过程的叠加。如果一个图上每个节点都有一个值,那么在图上运行的过程就是对这些值进行更新的过程。一个简单,大家经常使用的过程,就是马尔可夫过程(Markov Process)。 学过随机过程的朋友都了解马尔可夫过程。概念很简单——“将来只由现在决定,和过去无关”。考虑一个图,图上每个点有一个值,会被不断更新。每个点通过一些边连接到其它一些点上,对于每个点,这些边的值都是正的,和为1。在图上每次更新一个点的值,就是对和它相连接的点的值加权平均。如果图是联通并且非周期(数学上叫各态历经性, ergodicity),那么这个过程最后会收敛到一个唯一稳定的状态(平衡状态)。 图上的马尔可夫更新过程,对于很多学科有着非常重要的意义。这种数学抽象,可以用在什么地方呢?(1) Google对搜索结果的评估(PageRank)原理上依赖于这个核心过程,(2) 统计中一种广泛运用的采样过程MCMC,其核心就是上述的转移过程,(3) 物理上广泛存在的扩散过程(比如热扩散,流体扩散)和上面的过程有很重要的类比,(4) 网络中的信息的某些归纳与交换过程和上述过程相同 (比如Random Gossiping),还有很多。非常多的实际过程通过某种程度的简化和近似,都可以归结为上述过程。因此,对上面这个核心过程的研究,对于很多现象的理解有重要的意义。各个领域的科学家从本领域的角度出发研究这个过程,得出了很多实质上一致的结论,并且很多都落在了图的谱结构的这个关键点上。 图和谱在此联姻 根据上面的定义,我们看到邻接矩阵A其实就是这个马尔可夫过程的转移概率矩阵。我们把各个节点的值放在一起可以得到一个向量v,那么我们就可以获得对这个过程的代数表示, v(t+1) = A v(t)。稳定的时候,v = A v。我们可以看到稳定状态就是A的一个特征向量,特征值就是1。这里谱的概念进来了。我们把A的特征向量都列出来v1, v2, ...,它们有 A vi = ci vi。vi其实就是一种很特殊,但是很简单的状态,对它每进行一轮更新,所有节点的值就变成原来的ci倍。如果0 ci 1,那么,相当于所有节点的值呈现指数衰减,直到大家都趋近于0。 一般情况下,我们开始于一个任意一个状态u,它的更新过程就没那么简单了。我们用谱的方法来分析,把u分解成 u = v1 + c2 v2 + c3 v3 + ... (在数学上可以严格证明,对于上述的转移概率矩阵,最大的特征值就是1,这里对应于平衡状态v1,其它的特征状态v2, v3, ..., 对应于特征值1 c2 c3 ... -1)。那么,我们可以看到,当更新进行了t 步之后,状态变成 u(t) = v1 + c2^t v2 + c3^t v3 + ...,我们看到,除了代表平衡状态的分量保持不变外,其它分量随着t 增长而指数衰减,最后,其它整个趋近于平衡状态。 从上面的分析看到,这个过程的收敛速度,其实是和衰减得最慢的那个非平衡分量是密切相关的,它的衰减速度取决于第二大特征值c2,c2的大小越接近于1,收敛越慢,越接近于0,收敛越快。这里,我们看到了谱的意义。第一,它帮助把一个图上运行的马尔可夫过程分解为多个简单的字过程的叠加,这里面包含一个平衡过程和多个指数衰减的非平衡过程。第二,它指出平衡状态是对应于最大特征值1的分量,而收敛速度主要取决于第二大特征值。 我们这里知道了第二大特征值c2对于描述这个过程是个至关重要的量,究竟是越大越好,还是越小越好呢?这要看具体解决的问题。如果你要设计一个采样过程或者更新过程,那么就要追求一个小的c2,它一方面提高过程的效率,另外一方面,使得图的结构改变的时候,能及时收敛,从而保证过程的稳定。而对于网络而言,小的c2有利于信息的迅速扩散和传播。 聚类结构——从空间的角度理解图 c2的大小往往取决于图上的聚类结构。如果图上的点分成几组,各自聚成一团,缺乏组与组之间的联系,那么这种结构是很不利于扩散的。在某些情况下,甚至需要O(exp(N))的时间才能收敛。这也符合我们的直观想象,好比两个大水缸,它们中间的只有一根很细的水管相连,那么就需要好长时间才能达到平衡。有兴趣的朋友可以就这个水缸问题推导一下,这个水缸系统的第二大特征值和水管流量与水缸的容积的比例直接相关,随比例增大而下降。 对于这个现象进行推广,数学上有一个重要的模型叫导率模型(Conductance)。具体的公式不说了,大体思想是,节点集之间的导通量和节点集大小的平均比例和第二大特征值之间存在一个单调的上下界关系。导率描述的是图上的节点连接的空间结合,这个模型把第二特征值c2和图的空间聚集结构联系在一起了。 图上的聚类结构越明显, c2越大;反过来说,c2越大,聚类的结构越明显,(c2 = 1)时,整个图就断裂成非连通的两块或者多块了。从这个意义上说,c2越大,越容易对这个图上的点进行聚类。机器学习中一个重要课题叫做聚类,近十年来,基于代数图论发展出来的一种新的聚类方法,就是利用了第二大特征值对应的谱结构,这种聚类方法叫做谱聚类(Spectral Clustering)。它在Computer Vision里面对应于一种著名的图像分割方法,叫做Normalized Cut。很多工作在使用这种方法。其实这种方法的成功,取决于c2的大小,也就是说取决于我们如何构造出一个利于聚类的图,另外c2的值本身也可以作为衡量聚类质量,或者可聚类性的标志。遗憾的是,在paper里面,使用此方法者众,深入探讨此方法的内在特点者少。 归纳起来 图是表达事物关系和传递扩散过程的重要数学抽象 图的矩阵表达提供了使用代数方法研究图的途径 谱,作为一种重要的代数方法,其意义在于对复杂对象和过程进行分解 图上的马尔可夫更新过程是很多实际过程的一个重要抽象 图的谱结构的重要意义在于通过它对马尔可夫更新过程进行分解分析 图的第一特征值对应于马尔可夫过程的平衡状态,第二特征值刻画了这个过程的收敛速度(采样的效率,扩散和传播速度,网络的稳定程度)。 图的第二特征分量与节点的聚类结构密切相关。可以通过谱结构来分析图的聚类结构。 马尔可夫过程代表了一种时间结构,聚类结构代表了一种空间结构,“谱”把它们联系在一起了,在数学刻画了这种时与空的深刻关系。
个人分类: 读书日记|5379 次阅读|3 个评论
review: Dynamic Workflow Composition using Markov Decision
jiangdm 2011-10-6 23:14
review:  Dynamic Workflow Composition using Markov Decision
《Dynamic Workflow Composition using Markov Decision Processes》, Prashant Doshi, Richard Goodwin and Rama Akkiraju IEEE International Conference on Web Services ( ICWS 04) Abstract The advent of Web services has made automated workflow composition relevant to web based applications. One technique, that has received some attention, for automatically composing workflows is AI-based classical planning . However, classical planning suffers from the paradox of first assuming deterministic behavior of Web services, then requiring the additional overhead of execution monitoring to recover from unexpected behavior of services. To address these concerns, we propose using Markov decision processes (MDPs), to model workflow composition. Our method models both, the inherent stochastic nature of Web services, and the dynamic nature of the environment. The resulting workflows are robust to non-deterministic behaviors of Web services and adaptive to a changing environment. Using an example scenario, we demonstrate our method and provide empirical results in its support. 1. Introduction business process integration and management (BPIM) AI-inspired planning techniques utilize Markov decision processes (MDPs) to model the problem of workflow composition t he structure of this paper: 1) Section 2briefly dwell on the workflow composition problem andsome related work 2) Section 3 introduce a motivating scenario. 3) Section 4introduce author's stochastic optimization framework and its application to workflow generation 4)Section 5 focuses onmodel learning approach. 5) Finally, Section 6 conclude this paper with a discussion 2. Dynamic Workflow Composition Definition: Optimal Workflow four distinct steps for composing workflows 1) identifying the required functionality; 2) semantic matching of Web services; 3) creating or updating the workflow; 4)executing and monitoring the workflow The problem of composing adaptive workflows 3. Motivating Scenario 4. Markov Decision Processes Definition Markov Decision Process (MDP) to find the optimal policy for the MDP 5. Model Learning a Bayesian learning algorithm Definition Kullbach-Leibler Divergence (KLD), that is, relative entropy two important conclusions: 1) First, the experiments validate our hypothesis that the Bayesian learning approach is effective for model learning. 2) Second, the results reveal an important observation that during learning, models of events less likely to be observed take more runs to converge. 6. Discussion primary focus:assembling the workflow at an abstract level, ignoring the implementation-level details. contributions: i) utilized a stochastic optimization framework, namely Markov decision processes ii) interleaved workflow generation and execution with model learning, 个人点评:   有新意,对比 博文 《review: Adaptive Service Composition Based on Reinforcement 》, 后者可以说是对此文照葫芦画瓢。 作者还有一篇相关 期刊文章 发表在 International Journal of Web Services Research   Author: Prashant Doshi  值得关注,  http://www.cs.uga.edu/~pdoshi/ Dynamic_Workflow_Composition_using_Markov_Decision_Processes.pdf 期刊 International Journal of Web Services Research 文章 《Dynamic Workflow Composition using Markov Decision Processes》对于ICWS上文章扩充
个人分类: web service|0 个评论
review: 马尔可夫逻辑网络研究
jiangdm 2011-9-24 22:51
马尔可夫逻辑网络研究 徐从富, 郝春亮, 苏保君, 楼俊杰 软件学报 , 2011 摘要: 马尔可夫逻辑网络是将马尔可夫网络与一阶逻辑相结合的一种统计关系学习模型,在自然语言处理、复 杂网络、信息抽取等领域都有重要的应用前景.较为全面、深入地总结了马尔可夫逻辑网络的理论模型、推理、权重和结构学习,最后指出了马尔可夫逻辑网络未来的主要研究方向. 关键词: Markov 逻辑网;统计关系学习;概率图模型;推理;权重学习;结构学习 the hard work of AI: 如何有效地处理复杂性和不确定性等问题? -- 统计关系学习(statistical relational learning, SRL) -- 概率图模型(probabilistic graphical model,PGM) 统计关系学习: 通过集成关系/逻辑表示、概率推理、不确定性处理、机器学习和数据挖掘等方法,以获取关系数据中的似然模型 概率图模型: 一种通用化的不确定性知识表示和处理方法 -- 贝叶斯网络(Bayesian networks) -- 隐马尔可夫模型(hidden Markov model) -- 马尔可夫决策过程(Markov decision process) -- 神经网络(neural network) idea: 统计关系学习(尤其是关系/逻辑表示) + 概率图模型 马尔可夫逻辑网络(Markov logic networks)= Markov网 + 一阶逻辑 Markov 网常用近似推理算法: 1 Markov 逻辑网 1.1 Markov网和一阶逻辑 Markov 网: Markov 随机场(Markov random field,MRF) 1.2 Markov逻辑网的定义和示例 定义: Markov 逻辑网 2 Markov 逻辑网的推理 -- 概率图模型推理的基本问题: 计算边缘概率、条件概率以及对于最大可能存在状态的推理 -- Markov 逻辑网推理: 生成的闭Markov 网 2.1 最大可能性问题 MaxWalkSAT 算法 LazySAT 算法 2.2 边缘概率和条件概率 概率图模型一重要推理形式: 计算边缘概率和条件概率,通常采用MCMC 算法、BP 算法等 3 Markov 逻辑网的学习 3.1 参数学习 3.1.1 伪最大似然估计 3.1.2 判别训练 训练Markov 逻辑网权重的高效算法: VP(voted perceptron)算法、CD(contrastive divergence)算法 3.2 结构学习 3.2.1 评价标准 结构学习两个难题: 一是如何搜索潜在的结构; 二是如何为搜索到的结构建立起一个评价标准,即如何筛选出最优结构. 3.2.2 自顶而下的结构学习 4 算法比较和分析 4.1 与基于Bayesian网的统计关系学习算法比较 基于 Bayesian 网的SRL 算法: 传统Bayesian 网的基础上进行扩展的SRL 方法 4.2 与基于随机文法的统计关系学习算法比较 4.3 与基于HMM的统计关系学习算法比较 5 Markov 逻辑网的应用 5.1 应用概况 5.2 应用举例 6 述评 Markov 逻辑网: 1) 将传统的一阶谓词逻辑与当前主流的统计学习方法有机地结合起来 2) 填补了AI 等领域中存在的高层与底层之间的巨大鸿沟. -- 一阶谓词逻辑更适用于高层知识的表示与推理 -- 基于概率统计的机器学习方法则擅长于对底层数据进行统计学习. Open problem: (1) 增强算法的学习能力,使其可以从缺值数据中学习; (2) 提高真值闭从句的计算速度,解决结构学习算法效率的瓶颈问题; (3) 从一阶逻辑和Markov 网这两个方面完善Markov 逻辑网的理论; (4) 增强Markov 逻辑网模型的实用性,从而更好地解决实际应用问题. 马尔可夫链蒙特卡洛(Markov chain Monte Carlo,简称MCMC)方法 信念传播算法 推理 学习 个人点评: 没看懂,可关注,问其与 Bayesian Network什么关系呢? 马尔可夫逻辑网络研究.pdf
个人分类: AI & ML|7284 次阅读|0 个评论
基于扩展UML 状态图和Markov 过程的系统性能分析
yfzhaoecnu 2009-8-20 13:12
基于扩展UML 状态图和Markov 过程的系统性能分析 作者:赵也非,杨宗源,谢瑾奎,刘强 摘要: 把概率模型检测应用于软件架构,可以在模型精化过程中,对基于Markov过程的实时模型,进行功能验证和性能分析,对软件开发设计具有指导作用。本文提出了从扩展UML状态图到概率Kripke结构语义之间的双向映射规则和精确定义,给出了总的形式语义生成算法;以一个异步并发组合的DTMC系统为例,用PCTL表示系统关键非功能属性,用模型检测器实现自动分析验证,给出了理论推导过程,并和实验结果进行了分析比较。本文提出的映射规则是双射的,既可应用于正向工程,又可应用于逆向工程。 关键字:UML 状态图;Markov 过程;PRISM;概率模型检测 发表期刊:科技论文在线(精品论文,五颗星) 网址: http://www.paper.edu.cn/paper.php?serial_number=200907-446 发表日期: 2009 年8月
个人分类: 未分类|5044 次阅读|0 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-6-2 17:39

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部