蓝沢润torrent:信息的定义

来源:百度文库 编辑:九乡新闻网 时间:2024/04/30 01:04:39

狭义上,信息就是符号的排列的顺序。但作为一个概念信息有着多种多样的含义。一般来说,与信息这一概念密切相关的概念包括约束(constraint)、沟通(communication)、控制数据形式指令知识含义精神刺激模式感知以及表达

目录

[隐藏]
  • 1 词源及含义
    • 1.1 狭义定义
  • 2 信息的特征
  • 3 感官输入
  • 4 参考资料
  • 5 扩展阅读

词源及含义

在中文域“信息”一词有着很悠久的历史,早在两千多年前的西汉,即有“信”字的出现。“信”常可作消息来理解。作为日常用语,“信息”经常是指“音讯、消息”的意思,但至今信息还没有一个公认的定义。在古希腊文中信息单词为μορφ?或ε?δος,后者是著名哲学家柏拉图的经常用词(以及后来的亚里士多德),以表示理想的身份或事物的本质。在英文单词中则源于拉丁文宾格形式(informationem) 的主格 (informatio):这个名词是由动词反过来又衍生出“informare”(告知)在“to give form to the mind” ,“to discipline”,“instruct”,“teach”:“这么聪明的男人应该去通知他们的国王。” 作为一个严谨的科学术语,信息的定义却不存在一个统一的观点,这是由它的极端复杂性决定的。信息的表现形式数不胜数:声音图片温度体积颜色……信息的分类也不计其数:电子信息、财经信息、天气信息、生物信息……要对信息作一个严密而又具有普适性的定义,就必须从本质上来把握信息。现在学术界主要有以下几种观点:

狭义定义

克劳德·艾尔伍德·香农

美国数学家信息论的奠基人克劳德·艾尔伍德·香农(Claude Elwood Shannon)在他的著名论文《通信的数学理论》(1948)中提出计算信息量的公式,(一个信息由n 个符号所构成,符号k出现的机率为pk),则有:

这个公式和热力学的熵的计算方式一样,故也称为信息熵。从公式可知,当各个符号出现的机率相等,即“不确定性”最高时,信息熵最大。故信息可以视为“不确定性”或“选择的自由度”的度量。

美国数学家控制论的奠基人诺伯特·维纳在他的《控制论——动物和机器中的通讯与控制问题》中认为,信息是“我们在适应外部世界,控制外部世界的过程中同外部世界交换的内容的名称”。英国学者阿希贝认为,信息的本性在于事物本身具有变异度。意大利学者朗高在《信息论:新的趋势与未决问题》中认为,信息是反映事物的形成、关系和差别的东西,它包含于事物的差异之中,而不在事物本身。

信息的特征

尽管从不同的角度出发对信息存在不同的定义,但是信息的一些基本性质还是得到了共识。

  • 普遍性:只要有事物的地方,就必然的存在信息。信息在自然界和人类社会活动中广泛存在。
  • 客观性:信息是客观现实的反映,不随人的主观意志而改变。如果人为地篡改信息,那么信息就会失去它的价值,甚至不能称之为“信息”了。
  • 动态性:事务是在不断变化发展的,信息也必然的随之运动发展,其内容,形式,容量都会随时间而改变。
  • 时效性:由于信息的动态性,那么一个固定的信息的使用价值必然会随着时间的流逝而衰减。
  • 可识别性:人类可以通过感觉器官和科学仪器等方式来获取,整理,认知信息。这是人类利用信息的前提。
  • 可传递性:信息是可以通过各种媒介在人-人,人-物,物-物等之间传递。
  • 可共享性:信息与物质能量显著不同的是。信息在传递过程中并不是“此消彼长”,同一信息可以在同一时间被多个主体共有,而且还能够无限的复制、传递。

感官输入

通常被看作是信息的输入类型为一有机体或设计的设备