狭义上,信息就是符号的排列的顺序。但作为一个概念,信息有着多种多样的含义。一般来说,与信息这一概念密切相关的概念包括约束(constraint)、沟通(communication)、控制、数据、形式、指令、知识、含义、精神刺激、模式、感知以及表达。
目录[隐藏] |
在中文域“信息”一词有着很悠久的历史,早在两千多年前的西汉,即有“信”字的出现。“信”常可作消息来理解。作为日常用语,“信息”经常是指“音讯、消息”的意思,但至今信息还没有一个公认的定义。在古希腊文中信息单词为μορφ?或ε?δος,后者是著名哲学家柏拉图的经常用词(以及后来的亚里士多德),以表示理想的身份或事物的本质。在英文单词中则源于拉丁文宾格形式(informationem) 的主格 (informatio):这个名词是由动词反过来又衍生出“informare”(告知)在“to give form to the mind” ,“to discipline”,“instruct”,“teach”:“这么聪明的男人应该去通知他们的国王。” 作为一个严谨的科学术语,信息的定义却不存在一个统一的观点,这是由它的极端复杂性决定的。信息的表现形式数不胜数:声音、图片、温度、体积、颜色……信息的分类也不计其数:电子信息、财经信息、天气信息、生物信息……要对信息作一个严密而又具有普适性的定义,就必须从本质上来把握信息。现在学术界主要有以下几种观点:
美国数学家,信息论的奠基人克劳德·艾尔伍德·香农(Claude Elwood Shannon)在他的著名论文《通信的数学理论》(1948)中提出计算信息量的公式,(一个信息由n 个符号所构成,符号k出现的机率为pk),则有:
这个公式和热力学的熵的计算方式一样,故也称为信息熵。从公式可知,当各个符号出现的机率相等,即“不确定性”最高时,信息熵最大。故信息可以视为“不确定性”或“选择的自由度”的度量。
美国数学家、控制论的奠基人诺伯特·维纳在他的《控制论——动物和机器中的通讯与控制问题》中认为,信息是“我们在适应外部世界,控制外部世界的过程中同外部世界交换的内容的名称”。英国学者阿希贝认为,信息的本性在于事物本身具有变异度。意大利学者朗高在《信息论:新的趋势与未决问题》中认为,信息是反映事物的形成、关系和差别的东西,它包含于事物的差异之中,而不在事物本身。
尽管从不同的角度出发对信息存在不同的定义,但是信息的一些基本性质还是得到了共识。
通常被看作是信息的输入类型为一有机体或设计的设备
联系客服