資訊檢視原始碼討論檢視歷史
「information」的各地常用譯名 | |
---|---|
中國大陸 | 信息 |
臺灣 | 資訊 |
港澳 | 資訊、信息 |
日本 | 情報 |
韓國 | 情報 |
越南 | 通信、通𠒷 |
「message」的各地常用譯名 | |
---|---|
中國大陸 | 消息、信息 |
臺灣 | 訊息 |
港澳 | 訊息 |
信息(英語:Information),又稱情報,是一個嚴謹的科學術語,其定義不統一,是由它的極端複雜性決定的,獲取信息的主要方法為六何法。信息的表現形式多不勝數:聲音、圖片、溫度、體積、顏色……信息的類別也不計其數:電子信息、財經信息、天氣信息、生物信息……。
信息可以減少不確定性。事件的不確定性是以其發生機率來量測,發生機率越高,不確定性越低,事件的不確定性越高,越需要額外的信息減少其不確定性。位元是典型的信息單位 ,但也可以使用像納特之類的單位,例如投擲一個公正的硬幣,其信息為log2(2/1) = 1 bit,投擲兩個公正的硬幣,其信息為log2(4/1) = 2 bits。
目錄
詞源
在古希臘文中信息單詞為μορφή[[Category:含有Template:ISO 639 name el的條目]]或εἶδος,後者是著名哲學家柏拉圖的經常用詞(以及後來的亞里士多德),以表示理想的身份或事物的本質。在英文單詞中則源於拉丁文賓格形式(informationem[[Category:含有Template:ISO 639 name la的條目]])的主格(informatio[[Category:含有Template:ISO 639 name la的條目]]):這個名詞是由動詞反過來又衍生出「informare[[Category:含有Template:ISO 639 name la的條目]]」(告知)在「to give form to the mind」,「to discipline」,「instruct」,「teach」:「這麼聰明的男人應該去通知他們的國王。」
狹義定義
美國數學家,信息論的奠基人克勞德·艾爾伍德·香農(Claude Elwood Shannon)在他的著名論文《通信的數學理論》(1948)中提出計算信息量的公式,(一個信息由<math>n</math>個符號所構成,符號<math>k</math>出現的機率為<math>p_k</math>),則有[1]:
- <math>H = \sum_{k=1}^n p_k \log_2 p_k </math>
這個公式和熱力學的熵的本質一樣,故也稱為熵。從公式可知,當各個符號出現的機率相等,即「不確定性」最高時,信息熵最大。故信息可以視為「不確定性」或「選擇的自由度」的度量。
美國數學家、控制論的奠基人諾伯特·維納在他的《控制論——動物和機器中的通訊與控制問題》中認為,信息是「我們在適應外部世界,控制外部世界的過程中同外部世界交換的內容的名稱」。英國學者阿希貝(William Ross Ashby)認為,信息的本性在於事物本身具有變異度。意大利學者朗高在《信息論:新的趨勢與未決問題》中認為,信息是反映事物的形成、關係和差別的東西,它包含於事物的差異之中,而不在事物本身。
另有以下兩種定義:
- 凡是在一種情況下能減少不確定性的任何事物都叫信息。[2]
- 信息是物質存在的一種方式、形態或運動形態,也是事物的一種普遍屬性,一般指數據、消息中所包含的意義,可以使消息中所描述事件中的不定性減少。[3]
哲學定義
信息是反映(映射)事件的內容。事件包括判斷事件、動作事件等對所有運動的描述。對信息的定義了解將從根本上揭示智能形成的原因。 經典的哲學定義有北京郵電大學鍾義信教授:「信息是事物運動的狀態及其改變方式」。[4]
經典的屬加種差定義
屬加種差定義是一種嚴格的定義方式,A是滿足C特質的B。這裡A是被定義項(被定義的),B是A的屬,即,這個概念是更一般於A的提前被定義的了,或已經知道的,和C並不代表這一概念,但對所有的陳述來說,A是如何不同於B的所有其他種(即所有別的概念的一般性更小於B)。
例如在「人是兩條腿的無羽毛動物」中:
- A=「人」
- B=「兩條腿動物」
- C=「無羽毛」
這是亞里士多德在他的演講中對學生講的如何進行概念定義的著名例子。它已經是如此的著名,以至於第二天這位學生將一隻剔了羽毛的雞帶到了演講會上。 在此基礎上,Fred Dretske在《知識與信息流》一書中對信息定義到:粗略地說,信息是能夠產生知識的商品,訊息或訊號所攜帶的正是我們需要知道的。
呈現及複雜性
認知科學家及應用數學家認為信息是一個泛及至少和兩個相關實體的概念,目的是在提供量化的意義。假設有任意定義尺寸的物體集合S,以及其子集合R,在本質上,R是一種S的呈現方式,或者說R傳遞了有關S概念性的信息。Vigo定義R傳遞有關S的信息量為當將R中的物件從S移除時,S複雜度變化的速度。依照Vigo定義的信息,模式、不變性、複雜度、呈現方式以及信息可以整合在同一個數學架構下[5][6]。此架構試圖要克服在表徵及量測主觀的信息時,香農-維納信息定義下的限制。
感官輸入
信息常被視為是一種對生物或系統的輸入。輸入可以分為兩種:有些輸入是對生物的某個機能很重要(例如食物),或是對系統本身很重要(例如能量)。Dusenbery在《感官生態》(Sensory Ecology)[7]書中稱這些輸入為必然輸入(causal input)。其他的輸入(信息)重要的原因是因為和必然輸入有關,而且可以預測稍晚時間(也許不同地點)必然輸入是否會出現。有些信息重要的原因可能只是和另一信息有關,但最後終究可以連結到必然輸入。在實務上,信息可能只有微弱的刺激,必需用特定的感測系統來偵測,且經過能量的放大,才能會生物或是系統有用。例如光對植物是必然輸入,但對動物而言卻提供了一些信息,花朵反射的有色光非常弱,不足以進行光合作用,但蜜蜂的視覺系統可以偵測到,其神經系統用這種信息來導引蜜蜂找到花,採集花蜜或花粉,這些是營養系統的必然輸入。
造成改變的影響
信息是任意形式,會影響其他模式形成或改變的模式[8][9]。以這個意義來說,不需要一個有意識的心靈來認知模式[來源請求]。以DNA為例,這個由核酸形成的序列,是一個會影響生物形成或改變的模式,即使生物體沒有有意識的心靈也是如此。
系統理論有時會提到此種定義(定義中不需要有意識心靈)的信息,並且將系統中(因著反饋)而循環的模式稱為信息。可能說此定義下的信息是某種潛在可能被感知的事物,雖然不一定是為了此目的創造或是呈現。格雷戈里·貝特森對信息的定義是「帶來改變的改變」[10]。
物理的概念
在物理學中信息有明確的定義。在2003年雅各布·貝肯斯坦認為物理學中的一個在成長的趨勢是將物理世界定義為由信息本身組成(也以此來定義信息)(參考數碼物理學)。這個例子包括量子糾纏的現象,兩個粒子會互相影響,影響的速度甚至高於光速。信息即使是以非直接的方式傳播,信息的傳播也不會比光速快。因此可能在物理上觀測某一個和其他粒子糾纏的粒子,觀測本身就會影響另一個粒子,其至二個粒子除了承載的資訊外,兩者沒有任何其他的連結。
另外一個範例是稱為麥克斯韋妖的思想實驗。在此實驗中呈現了資訊和另一個物理性質熵的關係,其結論是無法在熵不增加(一般是會產生熱)的情形來破壞資訊,另一個更哲學性的結論是資訊可以和能量互相轉換[來源請求]。因此在邏輯閘的研究中,AND閘發熱量的理論下限比NOT閘的發熱量要低(因為資訊在AND閘中會被破壞,而在NOT閘中只會被轉換)。在量子電腦的理論中物理信息的概念格外的重要。
科技媒介的信息
估計世界可儲存信息的量從1986年的2.6EB(經最佳化壓縮)-其信息量小於每個人有一片730-MBCD-ROM的信息量,成長為2007年的295 EB[11]-信息量約等於每個人有61片CD-ROM[12]。
2007年時,世界上藉由單向廣播可接受信息的技術能力,相當於每人每天174份報紙[11]。而藉由雙向電信可交換信息的技術能力,相當於每人每天6份報紙。
分類
信息依據載體的不同被分為4大類:文字、圖形(圖像)、聲音、視頻。
相關條目
參考文獻
- ↑ 自然科學概論. 五南圖書出版股份有限公司. 1996: 1– [2014-10-10]. ISBN 978-957-11-1185-8.
- ↑ 信息化的創始人香農和韋弗,1948年,《通信的數學理論》
- ↑ 中國國家標註GB 489885《情報與文獻工作詞彙基本術語》
- ↑ 鍾義信,《信息和科學原理》
- ↑ Vigo, R. Representational information: a new general notion and measure of information. Information Sciences, 181 (2011),4847-4859. 2011.
- ↑ Vigo, R. (2013).Complexity over Uncertainty in Generalized Representational Information Theory (GRIT): A Structure-Sensitive General Theory of Information. Information, 4(1), 1-30; doi:10.3390/info4010001
- ↑ Dusenbery, David B. (1992). Sensory Ecology. W.H. Freeman., New York. ISBN 978-0-7167-2333-2.
- ↑ Shannon, Claude E. The Mathematical Theory of Communication. 1949.
- ↑ Casagrande, David. Information as verb: Re-conceptualizing information for cognitive and ecological models (PDF). Journal of Ecological Anthropology. 1999, 3 (1): 4–13.
- ↑ Bateson, Gregory. ^ Form, Substance, and Difference, in Steps to an Ecology of Mind. University of Chicago Press. 1972: 448–466.
- ↑ 11.0 11.1 "The World’s Technological Capacity to Store, Communicate, and Compute Information", Martin Hilbert and Priscila López (2011), Science (journal), 332(6025), 60-65; free access to the article through here: martinhilbert.net/WorldInfoCapacity.html
- ↑ "video animation on The World’s Technological Capacity to Store, Communicate, and Compute Information from 1986 to 2010
外部連結
40x40px | 維基語錄上的相關摘錄: 資訊 |
- Semantic Conceptions of Information Review by Luciano Floridi for the Stanford Encyclopedia of Philosophy
- Principia Cybernetica entry on negentropy
- Fisher Information, a New Paradigm for Science: Introduction, Uncertainty principles, Wave equations, Ideas of Escher, Kant, Plato and Wheeler. This essay is continually revised in the light of ongoing research.
- How Much Information? 2003 an attempt to estimate how much new information is created each year (study was produced by faculty and students at the School of Information Management and Systems at the University of California at Berkeley)
- 資訊價值[失效連結]
- Informationsordbogen.dk The Danish Dictionary of Information Terms / Informationsordbogen
- 中國互聯網絡信息中心
- 《knowledge and information flow》Fred Dretske