科学网

 找回密码
  注册

tag 标签: 冯向军一般化知觉模型

相关帖子

版块 作者 回复/查看 最后发表

没有相关内容

相关日志

《关于决定性事件的概率论》第四章冯向军一般化知觉模型
热度 1 冯向军 2017-9-7 13:41
关于决定性事件的概率论第四章 关于决定性事件的概率论第四章 前一章 后一章 最新篇章 第四章冯向军一般化知觉模型及其 对几乎所有的信息测度的统一 (2017年9月7日) §4.1 引言 本书第二章中的统计力学第二定律已指出,变量的变化所引起的概率的信息量变化是引起概率变化的直接原因。 概率及概率分布的各种信息量的测度或信息测度对 概率的变化及概率分布的形成有决定性作用。 2006年1月29日,本书著作者发表了冯向军知觉模型并用这个模型统一了多种流行的信息测度以及于宏义观控隶属度【4-1】,2017年又将 冯向军知觉模型发展成为 冯向军一般化知觉模型,统一了包括Tsallis广义熵在内的几乎所有的信息测度。 §4.2 冯向军一般化知觉模型 在【4-1】文给出的冯向军知觉模型基础上, 本书著作者 提出了如下所示的更一般的知觉模型: deltaS = a(deltaST)/ST + b(ST) q-2 deltaST (4-1) 这其中,ST是表达某种刺激的大小的物理量, deltaST是刺激量的绝对变化, (deltaST)/ST是刺激量的相对变化, 而deltaS则是感觉量或反应量S的变化。 a和b是待定常数。 当q = 2, (4-1)式就是【4-1】文中提出的冯向军知觉模型。 当待定常数b = 0, (4-1)式就是 表明心理量和物理量之间的关系的 韦伯-费希纳定律 【4-2】。 当待定常数a = 0, (4-1)式就是 表明心理量和物理量之间的幂律关系 斯蒂文斯定律 【4-3】。 §4.3 冯向军一般化知觉模型相对于原冯向军知觉模型的意义 冯向军一般化知觉模型相对于原冯向军知觉模型的意义在于它不仅能统一各类流行的信息测度以及于宏义观控隶属度,还能统一原冯向军知觉模型不能统一的Tsallis广义熵。 §4.4 冯向军 一般化 知觉模型的重要科学价值 冯向军一般化知觉模型几乎统一了所有的实验心理学定律 、 所有的信息测度以及观控测度,它给我们带来了一种全新的认识: 一切主观上的感觉量和客观上的信息量都是对客观刺激量及其变化的反应的测度。客观信息量之源和主观感觉量之源都是客观刺激量及其变化。客观信息量和主观感觉量与客观刺激量之间的关系服从同一个一般模型。这个一般模型就是本文提出的(4-1)式或冯向军一般化知觉模型。 §4.5 由 冯向军一般化知觉模型推导出Tsallis广义熵的数学表达式 【4-4】 在式(4-1)中,令 a = 0,b = -1,有: deltaS = -(ST) q-2 deltaST (4-2) S = -1/(q-1)* ST q-1 + C 因为刺激量ST为门槛刺激量STmin时,感觉量或反应量S 最小其绝对值 = 0,所以 C = +1/(q-1) * STmin q-1 S = -1/(q-1)* ST q-1 + 1/(q-1) * STmin q-1 命 STmin = max(p) = 1,刺激量ST = p,则有: S = 1/(q-1)(1 - p q-1 ) (4-3) 式(4-3)实际上就是具有概率p的单个事件所产生的Tsallis信息。对于概率分布p 1 ,p 2 ,...,p n ,可得Tsallis信息的统计平均值---著名的Tsallis广义熵: Tsallis广义熵 = 1/(q-1)(p 1 - p 1 q )+ 1/(q-1)(p 2 - p 2 q )+ ...+ 1/(q-1)(p n - p n q ) = 1/(q-1)( p 1 + p 2 +...+ p n - p 1 q - p 2 q -...-p n q ) Tsallis广义熵 = 1/(q-1)(1 - p 1 q - p 2 q -...-p n q ) (4-4) §4.6 由 冯向军一般化知觉模型所推导出各种基于刺激的相对变化的信息测度 在(4-1)式中,命 b = 0, deltaS = a(deltaST)/ST (4-5) S = alog(ST) + C,这其中 log是自然对数。 因为 刺激量ST为门槛刺激量STmin时,感觉量或反应量 S 最小其绝对值 = 0,所以 C = - alog(STmin) S = alog(ST/STmin) (4-6) 命 STmin = min(1/p) = 1, 刺激ST = 概率的倒数 = 1/p,又命a = 1,则有: S = -log(p) (4-7) 式(4-7)实际上就是具有概率p的单个事件所产生的詹尼斯信息。对于概率分布p 1 ,p 2 ,...,p n ,可得詹尼斯信息的统计平均值---著名的詹尼斯信息熵: 詹尼斯信息 熵 = -p1log(p1) -p2log(p2) -...-pnlog(pn) (4-8) 命W为玻尔兹曼热力学几率, STmin = min(W) = 1, 刺激 ST = W, 又命 a = 玻尔兹曼常数k,代入式(4-6)就有: S = klog(W) (4-9) 这就是著名的玻尔兹曼熵。 命 可能性的总数 = N,STmin = min(N) = 1,ST = N,又命a = 1, 代入式(4 -6)就 有: S = log(N) (4-10) 这就是HARTLEY信息。 对于概率分布p 1 ,p 2 ,...,p n ,令 门槛刺激量STmin = 1/n,ST j = pj,j = 1,2,...n。又令a = 1,则有: S j = log(n) + log(p j ) (4-11) 这实际上就是自然对数形式的单个事件所包含的于宏义约束信息【4-5】。 单个事件所包含的于宏义约束信息的统计平均值就是 自然对数形式的 于宏义统计平均约束信息eBI。 e BI = p 1 log(n)+ p 1 log(p 1 )+ p 2 log(n) + p 2 log(p 2 )+...+ p n log(n) + p n log(p n ) eBI = log(n) -(- p 1 log(p 1 ) - p 2 log(p 2 ) -...-p n log(p n )) (4-12) 假设p1,p2...,pn 和q1,q2,...,qn 为两个概率分布。以qj为门槛刺激量而以pj为刺激量( j = 1,2,...,n), 又命 a = 1,则有: Sj = log(p j /q j ) (4-13) 这实际上就是单个事件所包含的Kullback-Leibler相对信息【4-1】。 单个事件所包含的Kul l back-Leibler相对 信息 的 统计平均值就是著名的 Kul l back-Leibler相对 信息熵。 Kul l back-Leibler相对 信息熵 = p 1 log(p 1 /q 1 ) + p 2 log(p 2 /q 2 ) + ...+ p n log(p n /q n ) §4.7 由 冯向军一般化知觉模型推导作为信息测度的发生概率P 在(4-1)式中,命 a = 0, b = 1,有: deltaS = deltaST (4-14) S = ST + C 命 STmin = min(p) = 0, 刺激ST = 概率p,则有: S = p (4-15) 对概率分布p1,p2,...,pn求单个事件的概率p这种刺激所引发的反应量S求几何平均值Gavg,有: Gavg = (p1*p2*...*pn) 1/n (4-16) 于是可得发生概率P的表达式: P = Gavg n = p1*p2*...pn (4-17) §4.8 由 冯向军一般化知觉模型推导作为信息测度的平均概率Pavg 在(4-1)式中,命 a = 0, b = 1,有: deltaS = deltaST S = ST + C 命 STmin = min(p) = 0, 刺激ST = 概率p,则有: S = p 对概率分布p1,p2,...,pn求单个事件的概率p这种刺激所引发的反应量S的算术统计平均值Pavg,则可称 Pavg为平均概率【4-6】。有 : Pavg = p1*p1 + p2*p2 + ...+ pn*pn (4-18) 由式(4-18)可知 平均概率 Pavg等于概率分布中各概率的平方和。 于是可得 平均概率 Pavg的 表达式: Pavg = p1 2 + p2 2 + ...+ pn 2 (4-19) 以上就最著名的或者比较特殊的信息测度说明了 冯向军一般化知觉模型是几乎所有信息测度的统一模型。其他例子就不一一列举了。万一你觉得还有 冯向军一般化知觉模型所统一不了的信息测度,欢迎与本书著作者联系。 综上所述可得出如下重要结论。 §4.9 结论 (1) 冯向军一般化知觉模型相对于原冯向军知觉模型的意义在于它不仅能统一各类流行的信息测度以及于宏义观控隶属度,还能统一原冯向军知觉模型不能统一的Tsallis广义熵。 (2) 冯向军 一般化 知觉模型几乎统一了所有的实验心理学定律、所有的信息测度以及观控测度,它给我们带来了一种全新的认识: 一切主观上的感觉量和客观上的信息量都是对客观刺激量及其变化的反应的测度。客观信息量之源和主观感觉量之源都是客观刺激量及其变化。客观信息量和主观感觉量与客观刺激量之间的关系服从同一个一般模型。这个一般模型就是本文提出的(4-1)式或冯向军一般化知觉模型。 (待续) 参考文献 【4-1】冯向军, 用冯向军知觉模型实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一,豆丁网, 2006年1月29日。 http://www.docin.com/p-48077162.html 【4-2】韦伯-费希纳定律,360百科。 https://baike.so.com/doc/3137757-3307017.html 【4-3】斯蒂文斯定律,心理学科知识。 http://www.xinli110.com/xueke/jczs/shiyanxinli/201203/286086.html 【4-4】 Tsallis entropy, Wikipedia, https://en.wikipedia.org/wiki/Tsallis_entropy 【4-5】冯向军, 基于概率的于宏义观控测度,科学网,2017年6月17日。 http://blog.sciencenet.cn/blog-1968-1061285.html 【4-6】 冯向军, 关于平均概率的系统性研究,科学网,2017年6月12日。 http://blog.sciencenet.cn/blog-1968-1060381.html
个人分类: 决定性概率论|3224 次阅读|2 个评论
冯向军一般化知觉模型及其对几乎所有的信息测度的统一
冯向军 2017-6-30 19:37
冯向军一般化知觉模型及其对几乎所有的信息测度的统一 美国归侨冯向军博士,2017年6月30日写于美丽家乡 【引言】 2006年1月29日,我发表了冯向军知觉模型并用这个模型统一了各类流行的信息测度以及于宏义观控隶属度【1】。现在在清净心中反观旧作,觉得有科学价值。因此决定专门写这篇博文,把这项重要科学研究成果彻底向国人讲清楚,并在此基础上作进一步发展。 【更一般的冯向军知觉模型】 在【1】文给出的冯向军知觉模型基础上,我进一步提出了如下所示的更一般的知觉模型: deltaS = a(deltaST)/ST + b(ST) q-2 deltaST (1-1) 这其中,ST是表达某种刺激的大小的物理量, deltaST是刺激量的绝对变化, (deltaST)/ST是刺激量的相对变化, 而deltaS则是感觉量S的变化。 a和b是待定常数。 当q = 2, (1-1)式就是【1】文中提出的冯向军知觉模型。 当待定常数b = 0, (1-1)式就是韦伯-费希纳定律【2】。 当待定常数a = 0, (1-1)式就是斯蒂文斯定律【3】。 【更一般的冯向军知觉模型相对于原冯向军知觉模型的意义】 更一般的冯向军知觉模型相对于原冯向军知觉模型的意义在于它不仅能统一各类流行的信息测度以及于宏义观控隶属度,还能统一原冯向军知觉模型不能统一的Tsallis广义熵。 【更一般的冯向军知觉模型的重要科学价值】 更一般的冯向军知觉模型几乎统一了所有的实验心理学定律 、 所有的信息测度以及观控测度,它给我们带来了一种全新的认识: 一切主观上的感觉量和客观上的信息量都是对客观刺激量及其变化的反应的测度。客观信息量之源和主观感觉量之源都是客观刺激量及其变化。客观信息量和主观感觉量与客观刺激量之间的关系服从同一个一般模型。这个一般模型就是本文提出的(1-1)式或更一般的冯向军知觉模型。 【由 更一般的冯向军知觉模型推导出Tsallis广义熵的数学表达式】 【4】 在式(1-1)中,令 a = 0,b = -1,有: deltaS = -(ST) q-2 deltaST (1-2) S = -1/(q-1)* ST q-1 + C 因为 刺激量ST为门槛刺激量STmin时,感觉量或反应量 S 最小其绝对值 = 0,所以 C = +1/(q-1) * STmin q-1 S = -1/(q-1)* ST q-1 + 1/(q-1) * STmin q-1 命 STmin = max(p) = 1,刺激量ST = p,则有: S = 1/(q-1)(1 - p q-1 ) (1-3) 式(1-3)实际上就是具有概率p的单个事件所产生的Tsallis信息。对于概率分布p 1 ,p 2 ,...,p n ,可得Tsallis信息的统计平均值---著名的Tsallis广义熵: Tsallis广义熵 = 1/(q-1)(p 1 - p 1 q )+ 1/(q-1)(p 2 - p 2 q )+ ...+ 1/(q-1)(p n - p n q ) = 1/(q-1)( p 1 + p 2 +...+ p n - p 1 q - p 2 q -...-p n q ) Tsallis广义熵 = 1/(q-1)(1 - p 1 q - p 2 q -...-p n q ) (1-4) 【由 更一般的冯向军知觉模型所推导出各种基于刺激的相对变化的信息测度】 在(1-1)式中,命 b = 0, deltaS = a(deltaST)/ST (1-5) S = alog(ST) + C,这其中 log是自然对数。 因为 刺激量ST为门槛刺激量STmin时,感觉量或反应量 S 最小其绝对值 = 0,所以 C = - alog(STmin) S = alog(ST/STmin) (1-6) 命 STmin = min(1/p) = 1, 刺激ST = 概率的倒数 = 1/p,又命a = 1,则有: S = -log(p) (1-7) 式(1-7)实际上就是具有概率p的单个事件所产生的詹尼斯信息。对于概率分布p 1 ,p 2 ,...,p n ,可得詹尼斯信息的统计平均值---著名的詹尼斯信息熵: 詹尼斯信息 熵 = -p1log(p1) -p2log(p2) -...-pnlog(pn) (1-8) 命W为玻尔兹曼热力学几率, STmin = min(W) = 1, 刺激 ST = W, 又命 a = 玻尔兹曼常数k,代入式(1-6)就有: S = klog(W) (1-9) 这就是著名的玻尔兹曼熵。 命 可能性的总数 = N,STmin = min(N) = 1,ST = N,又命a = 1,有: S = log(N) (1-10) 这就是HARTLEY信息。 对于概率分布p 1 ,p 2 ,...,p n ,令 门槛刺激量STmin = 1/n,ST j = pj,j = 1,2,...n。又令a = 1,则有: S j = log(n) + log(p j ) (1-11) 这实际上就是自然对数形式的单个事件所包含的于宏义约束信息【5】。 单个事件所包含的于宏义约束信息的统计平均值就是 自然对数形式的 于宏义统计平均约束信息eBI。 e BI = p 1 log(n)+ p 1 log(p 1 )+ p 2 log(n) + p 2 log(p 2 )+...+ p n log(n) + p n log(p n ) eBI = log(n) + p 1 log(p 1 ) + p 2 log(p 2 ) +...+p n log(p n ) (1-12) 假设p1,p2...,pn 和q1,q2,...,qn 为两个概率分布。以qj为门槛刺激量而以pj为刺激量( j = 1,2,...,n), 又命 a = 1,则有: Sj = log(p j /q j ) (1-12) 这实际上就是单个事件所包含的Kullback-Leibler相对信息【1】。 单个事件所包含的Kul l back-Leibler相对 信息 的 统计平均值就是著名的 Kul l back-Leibler相对 信息熵。 Kul l back-Leibler相对 信息熵 = p 1 log(p 1 /q 1 ) + p 2 log(p 2 /q 2 ) + ...+ p n log(p n /q n ) 以上就最著名的或者比较特殊的信息测度说明了 更一般的冯向军知觉模型是几乎所有信息测度的统一模型。其他例子就不一一列举了。万一你觉得还有 更一般的冯向军知觉模型所统一不了的信息测度,欢迎与我联系。 综上所述可得出如下重要结论。 【结论】 (1) 更一般的冯向军知觉模型相对于原冯向军知觉模型的意义在于它不仅能统一各类流行的信息测度以及于宏义观控隶属度,还能统一原冯向军知觉模型不能统一的Tsallis广义熵。 (2) 更一般的冯向军知觉模型几乎统一了所有的实验心理学定律、所有的信息测度以及观控测度,它给我们带来了一种全新的认识: 一切主观上的感觉量和客观上的信息量都是对客观刺激量及其变化的反应的测度。客观信息量之源和主观感觉量之源都是客观刺激量及其变化。客观信息量和主观感觉量与客观刺激量之间的关系服从同一个一般模型。这个一般模型就是本文提出的(1-1)式或更一般的冯向军知觉模型。 参考文献 【1】冯向军, 用冯向军知觉模型实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一,豆丁网, 2006年1月29日。 http://www.docin.com/p-48077162.html 【2】韦伯-费希纳定律,360百科。 https://baike.so.com/doc/3137757-3307017.html 【3】斯蒂文斯定律,心理学科知识。 http://www.xinli110.com/xueke/jczs/shiyanxinli/201203/286086.html 【4】 Tsallis entropy, Wikipedia, https://en.wikipedia.org/wiki/Tsallis_entropy 【5】冯向军, 基于概率的于宏义观控测度,科学网,2017年6月17日。 http://blog.sciencenet.cn/blog-1968-1061285.html
个人分类: 决定性概率论|2881 次阅读|0 个评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-6-16 16:55

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部