我的语义信息公示和floridi的语义信息公式比较

上传人:mg****85 文档编号:34588909 上传时间:2018-02-26 格式:DOC 页数:9 大小:934.50KB
返回 下载 相关 举报
我的语义信息公示和floridi的语义信息公式比较_第1页
第1页 / 共9页
我的语义信息公示和floridi的语义信息公式比较_第2页
第2页 / 共9页
我的语义信息公示和floridi的语义信息公式比较_第3页
第3页 / 共9页
我的语义信息公示和floridi的语义信息公式比较_第4页
第4页 / 共9页
我的语义信息公示和floridi的语义信息公式比较_第5页
第5页 / 共9页
点击查看更多>>
资源描述

《我的语义信息公示和floridi的语义信息公式比较》由会员分享,可在线阅读,更多相关《我的语义信息公示和floridi的语义信息公式比较(9页珍藏版)》请在金锄头文库上搜索。

1、The Comparison of My Information Formula and Floridis Information FormulaAbstract: Floridi considered the matters of truth-False and always-true-propositions in setting up his semantic information formula, but the matter how the size of logical probability of a proposition affects information amount

2、 as Popper pointed out. Floridis information formula is also not compatible with Shannons information formula. This paper compares my information formula with Floridis information formula to explain that my information formula is more reasonable.Key word: semantic information, formula, Popper, Shann

3、on鲁晨光和 Floridi 的语义信息公式比较鲁晨光摘要:Floridi 的建立语义信息公式时考虑了对错问题和永真命题问题, 但是没有考虑Popper 指出的命题逻辑概率大小对信息量的贡献, 也不和 Shannon 信息公式兼容。 本文将我的信息公式和 Floridi 的信息公式做了比较, 试图说明我的信息公式更加合理。关键词:语义信息,公式,Popper, Shannon1. 引言度量语义信息必须考虑事实检验。 就检验来说, Floridi 的思路(参看附录, 摘自1 )和我的思路是一样的。我认为, 语义信息量公式要能保证:1)对错问题;说对了信息就多, 说错了信息就少。比如你说“明天下雨

4、“, 实际上第二天没有雨, 信息就少(我说是负的) 。如果第二天有雨, 信息就是正的;2)永真命题不含有信息, 永真命题比如: “明天有雨也可能无雨” , “一加一等于二” 。3)把偶然事件或特殊事件预测准了,信息量更大。比如你说“明天有特大暴雨” (偶然事件) , “明天股市上涨 1.9%, 误差不超过 0.1%”(特殊事件) 。如果说对了,信息量就更大。用 Popper 的话来说就是:预测经得起更严峻的检验 2, 则信息内容更丰富。4)和 Shannon 信息公式3 兼容。Floridi 建立信息公式的时候,充份考虑了前两个问题。没有考虑后两个问题。下面我们通过分析比较,看 Floridi

5、 的信息公式存在的问题。2. Floridi 的语义信息量公式他举例说:事实=晚上有三个客人来用晚餐;三个预测:(T)今晚可能有, 也可能没有客人来用晚餐;(V)会有一些人来用晚餐;(P)有三个客人来用晚餐。其中, 第一个(T)是永真命题, 不含有信息; 第二个(V )有些信息; 第三个(P)信息量最大。Floridi 用 w 表示事实, 表示预测值, 表示事实 w 对 的支持度。用() = 1 () 2(1)表示信息度(degree of informativeness,参看附录 Figure 5)。信息度还不是信息量,它对支持度 积分才是信息量。预测 提供的信息是多少呢?Floridi 说

6、它等于() = log( )(2)其中 是最大可能信息,等于 2/3, 即抛物线右边部分(Figure 6 中阴影部分)面积。其中 是 V 提供的信息,等于 0.24479(很像我后面说的先验逻辑概率)上面信息量公式(2)有什么问题呢?1)它能保证序言中说的 1)和 2), 但是不能反映 Popper 的严厉检验, 那就是给予更偶然, 更特殊的命题以更高的评价。 比如,考虑预测: P1“晚上有客人两老头和一女孩来用晚餐”, 如果说对了,信息量应该更大。 Floridi 的公式不能得到这个结论,因为 ()上限有限, 等于 1.2)为什么事实 w 对 P 的支持度 是 0? 为什么不是 1? 显然

7、,如果 w 对 P 的支持度1, 就得不到结论P 的信息量最大。 Floridi 可能想说明 P 的先验逻辑概率是 0 或很小。但是它的公式不能反映先验和后验问题。3)假如事实是 10 个客人,P(说有 3 个客人, 说错了)的信息量是多少?这时候公式如何处理令人费解。4)和 Shannon 信息量公式相差太远,难于理解。我以为问题的根源是 Floridi 没有考虑命题的先验真假和后后验真假的区别。命题 T之所以不提供信息, 是因为无论是先验还是后验,它都是真的; 而 P 只有后验是真的, 先验为真的可能性很小。3. 我的语义信息量公式我用股市指数预测来说明我的信息量公式, 因为指数预测比客人

8、数量预测更具有一般性。经典信息论用到的概率可谓统计概率,而反映命题真假的概率是逻辑概率。两者区别参看图 1。图 1 统计概率和逻辑概率比较我们可以统计某个股市多年来日升跌幅的频率, 当天数大到一定程度后,相对频率(在 0 和 1 之间)就趋向某个确定值,这个值就是概率或统计概率。命题的逻辑概率是事实 xi 一定时,命题 yj 或 yj(xi)被不同的人判断为真的概率。比如命题 yj=“指数升幅接近 10”在指数实际升幅 X=10%时被判定为真的逻辑概率是 1;随着误差增大,逻辑概率渐渐变小;误差超过 5%时逻辑概率接近 0。从数学的角度看,两种概率的区别是:对于 P(xi), 一定有概率之和等

9、于 1, 即1ii(3)而逻辑概率 Q(yj 为真|x i)的最大值是 1,求和之后一般大于 1。假设使 yj 为真的所有 X 构成模糊集合 Aj,逻辑概率 Q(yj 为真|x i)就是 xi 在 Aj 上的隶属度,那么我们也可以用 Q(Aj|xi)表示 xi 在 Aj 上的隶属度和命题 yj(xi)的逻辑概率。命题 yj 对于不同 X 的平均逻辑概率(也就是谓词 yj(X)的逻辑概率)是:)|()(ijiijP(4)我们定义语义信息公式 )(|log);(jiji AQxyxI(5)其含义是: 的 先 验 逻 辑 概 率发 生 后 的 逻 辑 概 率在发 生 时 提 供 的 信 息 为 真

10、在命 题 jiij yxxylog(6)由图 2 可见,事实和预测完全一致时,即 xi=xj,,信息量达最大;随着误差增大, 信息量渐渐变小; 误差大到一定程度信息就是负的。这是符合常理的。图 2 语义信息公式图解用这个公式可以保证:1)永真命题(比如“股市每天可能涨也可能不涨” )信息量是 0, 因为先验和后验逻辑概率都是 1.2)错的命题信息量是负的;3)越是能把偶然的涨幅(比如涨幅 10%比涨幅 1%更偶然)预测准了, 或者越是预测得精确(比如预测“股市明天涨幅大约是 5%”比“股市明天会涨” )并且正确,信息量越大。 因为对偶然事件的预测和更精确的预测,逻辑概率更小(由图 1 和公式4

11、 可见) 。这一公式同样可以度量测量信息(比如温度表信息) ,一般预言信息, 感觉信息3。自然也可以度量客人数量预测信息。4. 用我的信息公式度量客人数量预测信息我们用这个公式来度量 Floridi 例子中 T, V, P 三个预测的信息看看。这时候 xi就是 w, 三个预测的后验逻辑概率都是 1, 但是先验逻辑概率不同。首先看 T。 因为先验后验逻辑也是 1, 所以信息(量)等于 0.再看 V。先验逻辑概率小点,假设是 1/4(即 3/4 的情况下没有客人来), 则信息等于log(1/4)=2 比特。再看 P。先验逻辑概率更小,假设是 1/16, 则信息等于 log(1/16)=4 比特。假

12、设 P 变成 P1“晚上有三个客人两个老头和一个女孩来用晚餐”,则先验逻辑概率更小,信息量更大。如果我们用精确的方式理解语言 P, 则不是三个人来都算错,信息量是负无穷大。但是日常生活中,我们总是用模糊的方式理解语言,2 个或 4 个人来也算大致正确, 所以 P的逻辑概率函数应该大致如下:图 3 模糊命题(或清晰命题模糊理解时)的逻辑概率函数这时候,预测不同人数语句提供的信息是正还是负, 取决于后验逻辑概率是否大于先验逻辑概率。大于则信息是正的, 等于信息是 0, 小于消息是负的。这符合常理。模糊逻辑概率也可以来自统计, 参看我的网上文章借助罩鱼模型从 Hartley 信息公式推导出广义信息公

13、式 1。从这篇文章也可以看出:我的上述语义信息公式也可以通过经典信息量公式 I=logP(xi|yj)/P(xi)推导出来。关于我的语义信息研究,更多讨论见文献4.5,6。参考文献1 Floridi, L., Semantic Conceptions of Information, in Stanford Encyclopedia of Philosophy, see http:/plato.stanford.edu/entries/information-semantic/2 波 普 尔 , 猜 想 和 反 驳 科 学 知 识 的 增 长 M, 上 海 : 上 海 译 文 出 版 社 , 1

14、986.3 Shannon, C. E. A mathematical theory of communicationJ, Bell System Technical Journal, 1948, (27), 379-429, 623-6564 鲁 晨 光 , 广 义 信 息 论 M, 中 国 科 学 技 术 大 学 出 版 社 , 1993.5Chenguang, Lu (鲁晨光), A generalization of Shannons information theoryJ , Int. J. of General Systems, 1999, 28(6),453-4906 鲁晨光,

15、广义熵和广义互信息的编码意义J, 通信学报, 1994, 5(6), 37-44.1 网页:http:/ 信息公式说明(参看网页:http:/plato.stanford.edu/entries/info rmation-semantic/ )Suppose there will be exactly three guests for dinner tonight. This is our situation w. Imagine we are told that(T) there may or may not be some guests for dinner tonight; or(V)

16、there will be some guests tonight; or(P) there will be three guests tonight.The degree of informativeness of (T) is zero because, as a tautology, (T) applies both to w and to w. (V) performs better, and (P) has the maximum degree of informativeness because, as a fully accurate, precise and contingent truth,

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 生活休闲 > 科普知识

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号