信息(英语:information,新加坡作资讯/信息,香港、澳门、马来西亚、台湾作资讯),为一科学术语,其定义不统一,是由它的极端复杂性决定的,获取信息的主要方法为六何法。信息的表现形式多不胜数:声音、图片、温度、体积、颜色……信息的类别也不计其数:电子信息、财经信息、天气信息、生物信息……。
此条目可能包含原创研究。 |
信息可以减少不确定性。事件的不确定性是以其发生几率来量测,发生几率越高,不确定性越低,事件的不确定性越高,越需要额外的信息减少其不确定性。比特是典型的信息单位,但也可以使用像纳特之类的单位,例如抛出一个公正的硬币,其信息为log2(2/1) = 1 bit,抛出两个公正的硬币,其信息为log2(4/1) = 2 bits。
词源
在古希腊文中信息单词为μορφή或εἶδος,后者是著名哲学家柏拉图的经常用词(以及后来的亚里士多德),以表示理想的身份或事物的本质。在英文单词中则源于拉丁文宾格形式(informationem)的主格(informatio):这个名词是由动词反过来又派生出“informare”(告知)在“to give form to the mind”,“to discipline”,“instruct”,“teach”:“这么聪明的男人应该去通知他们的国王。”
狭义定义
美国数学家,信息论的奠基人克劳德·艾尔伍德·香农(Claude Elwood Shannon)在他的著名论文《通信的数学理论》(1948)中提出计算信息量的公式,(一个信息由个符号所构成,符号出现的几率为),则有[1]:
这个公式和热力学的熵的本质一样,故也称为熵。从公式可知,当各个符号出现的几率相等,即“不确定性”最高时,信息熵最大。故信息熵可以视为“不确定性”或“选择的自由度”的度量。
美国数学家、控制论的奠基人诺伯特·维纳在他的《控制论——动物和机器中的通讯与控制问题》中认为,信息是“我们在适应外部世界,控制外部世界的过程中同外部世界交换的内容的名称”。英国学者阿希贝(William Ross Ashby)认为,信息的本性在于事物本身具有变异度。意大利学者朗高在《信息论:新的趋势与未决问题》中认为,信息是反映事物的形成、关系和差别的东西,它包含于事物的差异之中,而不在事物本身。
另有以下两种定义:
- 凡是在一种情况下能减少不确定性的任何事物都叫信息。[6]
- 信息是物质存在的一种方式、形态或运动形态,也是事物的一种普遍属性,一般指数据、消息中所包含的意义,可以使消息中所描述事件中的不定性减少。[7]
传播学观点[8]:
- 信息是传播的材料。
- 凡是能减少情况不确定性的东西都叫信息。
- 信息是减少熵的工具。
- 人们在大多数传播活动中寻求的信息就是传播活动的内容,其功能是有助于他们构造或组织环境,即与传播活动有关的环境。
- 信息使决策容易进行。
哲学定义
信息是反映(映射)事件的内容。事件包括判断事件、动作事件等对所有运动的描述。对信息的定义了解将从根本上揭示智能形成的原因。 经典的哲学定义有北京邮电大学钟义信教授:“信息是事物运动的状态及其改变方式”。[9]
属加种差定义是一种严格的定义方式,A是满足C特质的B。这里A是被定义项(被定义的),B是A的属,即,这个概念是更一般于A的提前被定义的了,或已经知道的,和C并不代表这一概念,但对所有的陈述来说,A是如何不同于B的所有其他种(即所有别的概念的一般性更小于B)。
例如在“人是两条腿的无羽毛动物”中:
- A=“人”
- B=“两条腿动物”
- C=“无羽毛”
这是亚里士多德在他的演讲中对学生讲的如何进行概念定义的著名例子。它已经是如此的著名,以至于第二天这位学生将一只剔了羽毛的鸡带到了演讲会上。 在此基础上,Fred Dretske在《知识与信息流》一书中对信息定义到:粗略地说,信息是能够产生知识的商品,消息或信号所携带的正是我们需要知道的。
呈现及复杂性
认知科学家及应用数学家认为信息是一个泛及至少和两个相关实体的概念,目的是在提供量化的意义。假设有任意定义尺寸的物体集合S,以及其子集合R,在本质上,R是一种S的呈现方式,或者说R传递了有关S概念性的信息。Vigo定义R传递有关S的信息量为当将R中的对象从S移除时,S复杂度变化的速度。依照Vigo定义的信息,模式、不变性、复杂度、呈现方式以及信息可以集成在同一个数学架构下[10][11]。此架构试图要克服在表征及量测主观的信息时,香农-维纳信息定义下的限制。
感官输入
信息常被视为是一种对生物或系统的输入。输入可以分为两种:有些输入是对生物的某个机能很重要(例如食物),或是对系统本身很重要(例如能量)。Dusenbery在《感官生态》(Sensory Ecology)[12]书中称这些输入为必然输入(causal input)。其他的输入(信息)重要的原因是因为和必然输入有关,而且可以预测稍晚时间(也许不同地点)必然输入是否会出现。有些信息重要的原因可能只是和另一信息有关,但最后终究可以链接到必然输入。在实务上,信息可能只有微弱的刺激,必需用特定的感测系统来侦测,且经过能量的放大,才能对生物或是系统有用。例如光对植物是必然输入,但对动物而言却提供了一些信息,花朵反射的有色光非常弱,不足以进行光合作用,但蜜蜂的视觉系统可以侦测到,其神经系统用这种信息来导引蜜蜂找到花,采集花蜜或花粉,这些是营养系统的必然输入。
造成改变的影响
信息是任意形式,会影响其他模式形成或改变的模式[13][14]。以这个意义来说,不需要一个有意识的心灵来认知模式[来源请求]。以DNA为例,这个由核酸形成的序列,是一个会影响生物形成或改变的模式,即使生物体没有有意识的心灵也是如此。
系统理论有时会提到此种定义(定义中不需要有意识心灵)的信息,并且将系统中(因着反馈)而循环的模式称为信息。可能说此定义下的信息是某种潜在可能被感知的事物,虽然不一定是为了此目的创造或是呈现。格雷戈里·贝特森对信息的定义是“带来改变的改变”[15]。
物理的概念
在物理学中信息有明确的定义。在2003年雅各布·贝肯斯坦认为物理学中的一个在成长的趋势是将物理世界定义为由信息本身组成(也以此来定义信息)(参考数字物理学)。这个例子包括量子纠缠的现象,两个粒子会互相影响,影响的速度甚至高于光速。信息即使是以非直接的方式传播,信息的传播也不会比光速快。因此可能在物理上观测某一个和其他粒子纠缠的粒子,观测本身就会影响另一个粒子,其至二个粒子除了承载的信息外,两者没有任何其他的链接。
另外一个示例是称为麦克斯韦妖的思想实验。在此实验中呈现了信息和另一个物理性质熵的关系,其结论是无法在熵不增加(一般是会产生热)的情形来破坏信息,另一个更哲学性的结论是信息可以和能量互相转换[来源请求]。因此在逻辑门的研究中,AND闸发热量的理论下限比NOT闸的发热量要低(因为信息在AND闸中会被破坏,而在NOT闸中只会被转换)。在量子电脑的理论中物理信息的概念格外的重要。细胞自动机等概念也有关。例如,康拉德·楚泽表明, 信息处理可以解释物理现象。
科技介质的信息
估计世界可存储信息的量从1986年的2.6EB(经优化压缩)-其信息量小于每个人有一片730-MBCD-ROM的信息量,成长为2007年的295 EB[16]-信息量约等于每个人有61片CD-ROM[17]。
2007年时,世界上借由单向广播可接受信息的技术能力,相当于每人每天174份报纸[16]。而借由双向电信可交换信息的技术能力,相当于每人每天6份报纸。
分类
信息依据载体的不同被分为4大类:文字、图形(图像)、声音、视频。
相关条目
脚注
参考文献
外部链接
Wikiwand in your browser!
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.