资讯查看源代码讨论查看历史
“information”的各地常用译名 | |
---|---|
中国大陆 | 信息 |
台湾 | 资讯 |
港澳 | 资讯、信息 |
日本 | 情報 |
韩国 | 情報 |
越南 | 通信、通𠒷 |
“message”的各地常用译名 | |
---|---|
中国大陆 | 消息、信息 |
台湾 | 讯息 |
港澳 | 讯息 |
信息(英语:Information),又称情报,是一个严谨的科学术语,其定义不统一,是由它的极端复杂性决定的,获取信息的主要方法为六何法。信息的表现形式多不胜数:声音、图片、温度、体积、颜色……信息的类别也不计其数:电子信息、财经信息、天气信息、生物信息……。
信息可以减少不确定性。事件的不确定性是以其发生机率来量测,发生机率越高,不确定性越低,事件的不确定性越高,越需要额外的信息减少其不确定性。位元是典型的信息单位 ,但也可以使用像纳特之类的单位,例如投掷一个公正的硬币,其信息为log2(2/1) = 1 bit,投掷两个公正的硬币,其信息为log2(4/1) = 2 bits。
目录
词源
在古希腊文中信息单词为μορφή[[Category:含有Template:ISO 639 name el的条目]]或εἶδος,后者是著名哲学家柏拉图的经常用词(以及后来的亚里士多德),以表示理想的身份或事物的本质。在英文单词中则源于拉丁文宾格形式(informationem[[Category:含有Template:ISO 639 name la的条目]])的主格(informatio[[Category:含有Template:ISO 639 name la的条目]]):这个名词是由动词反过来又衍生出“informare[[Category:含有Template:ISO 639 name la的条目]]”(告知)在“to give form to the mind”,“to discipline”,“instruct”,“teach”:“这么聪明的男人应该去通知他们的国王。”
狭义定义
美国数学家,信息论的奠基人克劳德·艾尔伍德·香农(Claude Elwood Shannon)在他的著名论文《通信的数学理论》(1948)中提出计算信息量的公式,(一个信息由<math>n</math>个符号所构成,符号<math>k</math>出现的机率为<math>p_k</math>),则有[1]:
- <math>H = \sum_{k=1}^n p_k \log_2 p_k </math>
这个公式和热力学的熵的本质一样,故也称为熵。从公式可知,当各个符号出现的机率相等,即“不确定性”最高时,信息熵最大。故信息可以视为“不确定性”或“选择的自由度”的度量。
美国数学家、控制论的奠基人诺伯特·维纳在他的《控制论——动物和机器中的通讯与控制问题》中认为,信息是“我们在适应外部世界,控制外部世界的过程中同外部世界交换的内容的名称”。英国学者阿希贝(William Ross Ashby)认为,信息的本性在于事物本身具有变异度。意大利学者朗高在《信息论:新的趋势与未决问题》中认为,信息是反映事物的形成、关系和差别的东西,它包含于事物的差异之中,而不在事物本身。
另有以下两种定义:
- 凡是在一种情况下能减少不确定性的任何事物都叫信息。[2]
- 信息是物质存在的一种方式、形态或运动形态,也是事物的一种普遍属性,一般指数据、消息中所包含的意义,可以使消息中所描述事件中的不定性减少。[3]
哲学定义
信息是反映(映射)事件的内容。事件包括判断事件、动作事件等对所有运动的描述。对信息的定义了解将从根本上揭示智能形成的原因。 经典的哲学定义有北京邮电大学钟义信教授:“信息是事物运动的状态及其改变方式”。[4]
经典的属加种差定义
属加种差定义是一种严格的定义方式,A是满足C特质的B。这里A是被定义项(被定义的),B是A的属,即,这个概念是更一般于A的提前被定义的了,或已经知道的,和C并不代表这一概念,但对所有的陈述来说,A是如何不同于B的所有其他种(即所有别的概念的一般性更小于B)。
例如在“人是两条腿的无羽毛动物”中:
- A=“人”
- B=“两条腿动物”
- C=“无羽毛”
这是亚里士多德在他的演讲中对学生讲的如何进行概念定义的著名例子。它已经是如此的著名,以至于第二天这位学生将一只剔了羽毛的鸡带到了演讲会上。 在此基础上,Fred Dretske在《知识与信息流》一书中对信息定义到:粗略地说,信息是能够产生知识的商品,讯息或讯号所携带的正是我们需要知道的。
呈现及复杂性
认知科学家及应用数学家认为信息是一个泛及至少和两个相关实体的概念,目的是在提供量化的意义。假设有任意定义尺寸的物体集合S,以及其子集合R,在本质上,R是一种S的呈现方式,或者说R传递了有关S概念性的信息。Vigo定义R传递有关S的信息量为当将R中的物件从S移除时,S复杂度变化的速度。依照Vigo定义的信息,模式、不变性、复杂度、呈现方式以及信息可以整合在同一个数学架构下[5][6]。此架构试图要克服在表征及量测主观的信息时,香农-维纳信息定义下的限制。
感官输入
信息常被视为是一种对生物或系统的输入。输入可以分为两种:有些输入是对生物的某个机能很重要(例如食物),或是对系统本身很重要(例如能量)。Dusenbery在《感官生态》(Sensory Ecology)[7]书中称这些输入为必然输入(causal input)。其他的输入(信息)重要的原因是因为和必然输入有关,而且可以预测稍晚时间(也许不同地点)必然输入是否会出现。有些信息重要的原因可能只是和另一信息有关,但最后终究可以连结到必然输入。在实务上,信息可能只有微弱的刺激,必需用特定的感测系统来侦测,且经过能量的放大,才能会生物或是系统有用。例如光对植物是必然输入,但对动物而言却提供了一些信息,花朵反射的有色光非常弱,不足以进行光合作用,但蜜蜂的视觉系统可以侦测到,其神经系统用这种信息来导引蜜蜂找到花,采集花蜜或花粉,这些是营养系统的必然输入。
造成改变的影响
信息是任意形式,会影响其他模式形成或改变的模式[8][9]。以这个意义来说,不需要一个有意识的心灵来认知模式[来源请求]。以DNA为例,这个由核酸形成的序列,是一个会影响生物形成或改变的模式,即使生物体没有有意识的心灵也是如此。
系统理论有时会提到此种定义(定义中不需要有意识心灵)的信息,并且将系统中(因著反馈)而循环的模式称为信息。可能说此定义下的信息是某种潜在可能被感知的事物,虽然不一定是为了此目的创造或是呈现。格雷戈里·贝特森对信息的定义是“带来改变的改变”[10]。
物理的概念
在物理学中信息有明确的定义。在2003年雅各布·贝肯斯坦认为物理学中的一个在成长的趋势是将物理世界定义为由信息本身组成(也以此来定义信息)(参考数码物理学)。这个例子包括量子纠缠的现象,两个粒子会互相影响,影响的速度甚至高于光速。信息即使是以非直接的方式传播,信息的传播也不会比光速快。因此可能在物理上观测某一个和其他粒子纠缠的粒子,观测本身就会影响另一个粒子,其至二个粒子除了承载的资讯外,两者没有任何其他的连结。
另外一个范例是称为麦克斯韦妖的思想实验。在此实验中呈现了资讯和另一个物理性质熵的关系,其结论是无法在熵不增加(一般是会产生热)的情形来破坏资讯,另一个更哲学性的结论是资讯可以和能量互相转换[来源请求]。因此在逻辑闸的研究中,AND闸发热量的理论下限比NOT闸的发热量要低(因为资讯在AND闸中会被破坏,而在NOT闸中只会被转换)。在量子电脑的理论中物理信息的概念格外的重要。
科技媒介的信息
估计世界可储存信息的量从1986年的2.6EB(经最佳化压缩)-其信息量小于每个人有一片730-MBCD-ROM的信息量,成长为2007年的295 EB[11]-信息量约等于每个人有61片CD-ROM[12]。
2007年时,世界上借由单向广播可接受信息的技术能力,相当于每人每天174份报纸[11]。而借由双向电信可交换信息的技术能力,相当于每人每天6份报纸。
分类
信息依据载体的不同被分为4大类:文字、图形(图像)、声音、视频。
相关条目
参考文献
- ↑ 自然科学概论. 五南图书出版股份有限公司. 1996: 1– [2014-10-10]. ISBN 978-957-11-1185-8.
- ↑ 信息化的创始人香农和韦弗,1948年,《通信的数学理论》
- ↑ 中国国家标注GB 489885《情报与文献工作词汇基本术语》
- ↑ 钟义信,《信息和科学原理》
- ↑ Vigo, R. Representational information: a new general notion and measure of information. Information Sciences, 181 (2011),4847-4859. 2011.
- ↑ Vigo, R. (2013).Complexity over Uncertainty in Generalized Representational Information Theory (GRIT): A Structure-Sensitive General Theory of Information. Information, 4(1), 1-30; doi:10.3390/info4010001
- ↑ Dusenbery, David B. (1992). Sensory Ecology. W.H. Freeman., New York. ISBN 978-0-7167-2333-2.
- ↑ Shannon, Claude E. The Mathematical Theory of Communication. 1949.
- ↑ Casagrande, David. Information as verb: Re-conceptualizing information for cognitive and ecological models (PDF). Journal of Ecological Anthropology. 1999, 3 (1): 4–13.
- ↑ Bateson, Gregory. ^ Form, Substance, and Difference, in Steps to an Ecology of Mind. University of Chicago Press. 1972: 448–466.
- ↑ 11.0 11.1 "The World’s Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), Science (journal), 332(6025), 60-65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
- ↑ "video animation on The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010
外部连结
40x40px | 维基语录上的相关摘录: 资讯 |
- Semantic Conceptions of Information Review by Luciano Floridi for the Stanford Encyclopedia of Philosophy
- Principia Cybernetica entry on negentropy
- Fisher Information, a New Paradigm for Science: Introduction, Uncertainty principles, Wave equations, Ideas of Escher, Kant, Plato and Wheeler. This essay is continually revised in the light of ongoing research.
- How Much Information? 2003 an attempt to estimate how much new information is created each year (study was produced by faculty and students at the School of Information Management and Systems at the University of California at Berkeley)
- 资讯价值[失效链接]
- Informationsordbogen.dk The Danish Dictionary of Information Terms / Informationsordbogen
- 中国互联网络信息中心
- 《knowledge and information flow》Fred Dretske