什么是信息 信息的特点
信息指音讯、消息、通讯系统传输和处理的对象,泛指人类社会传播的一切内容。那么你对信息了解多少呢?以下是由小编整理关于什么是信息的内容,希望大家喜欢!
信息的释义
“信息”一词在英文、法文、德文、西班牙文中均是“information”,日文中为“情报”,我国台湾称之为“资讯”,我国古代用的是“消息”。作为科学术语最早出现在哈特莱(R、V、Hartley)于1928年撰写的《信息传输》一文中。20世纪40年代,信息的奠基人香农(C、E、Shannon)给出了信息的明确定义,此后许多研究者从各自的研究领域出发,给出了不同的定义。具有代表意义的表述如下:
信息奠基人香农(Shannon)认为“信息是用来消除随机不确定性的东西”,这一定义被人们看作是经典性定义并加以引用。
控制论创始人维纳(Norbert Wiener)认为“信息是人们在适应外部世界,并使这种适应反作用于外部世界的过程中,同外部世界进行互相交换的内容和名称”,它也被作为经典性定义加以引用。
经济管理学家认为“信息是提供决策的有效数据”。
信息的传递
远古
口耳相传或借助器物
信息传递速度慢、不精确古代
靠驿差长途跋涉
信息传递速度慢、信息形式单一。
近代
依靠交通工具的邮政系统
信息传递速度相对快一些、距离远相对就慢、且费用高。
现代
电报、电话
速度快、信息单一文字。
当代
计算机网络
传递的信息量大、信息多样化,传递速度极快、不受地域阻碍。
功能
反应事物内部属性、状态、结构、相互联系以及与外部环境的互动关系,减少事物的不确定性。
信息的特点
信息虽然是不确定的,但还是有办法将它们进行量化的。人们根据信息的概念,可以归纳出信息是有以下的几个特点的:
1、 消息x发生的概率P(x)越大,信息量越小;反之,发生的概率越小,信息量就越大。可见,信息量(我们用I来表示)和消息发生的概率是相反的关系。
2、 当概率为1时,百分百发生的事,地球人都知道,所以信息量为0。
3、 当一个消息是由多个独立的小消息组成时,那么这个消息所含信息量应等于各小消息所含信息量的和。
根据这几个特点,如果用数学上对数函数来表示,就正好可以表示信息量和消息发生的概率之间的关系式:I=-loga(P(x))。这样,信息不就可以被量化了吗?既然信息可以被量化,那么总得给它一个单位吧?人的体重是以公斤来计量的,人的身高是以米来计量的,那么信息量该以什么单位来计量呢?通常是以比特(bit)为单位来计量信息量的,这样比较方便,因为一个二进制波形的信息量恰好等于1bit。