“人工智能致人灭绝”或非危言耸听
2015-05-15 15:28:55 来源:汉网

据联合早报网报道,人类在下个世纪可能面临人工智能机器人的大规模崛起,这些机器人的智力甚至可能超过人类。英国史蒂芬·霍金教授称,与其担心谁来控制人工智能的问题,人类更应该担心的是,人工智能到底愿不愿意受人类控制。(5月14日 人民网)

第一次听人工智能这个词,还是在我读初中的时候。后来才慢慢明白,人工智能不仅仅是指智能机器人,从人行道红绿灯到自动电梯,从搜索引擎、社交网络、用户终端到航空、航海、航天的控制系统,人工智能的影子在我们的生产生活中如影随形,无处不在。

现在,人工智能技术正愈加得到全世界互联网巨头的青睐,成为衡量科技创新能力的重要标志。尽管人类大脑将生物秘密隐藏得还很深,但是“得人工智能者得天下”已成为不争的事实。在今年“两会”的政府工作报告中,以人工智能技术为重要支撑的“互联网+”正式被纳入顶层设计,成为国家经济社会发展的重要战略。

人工智能技术之前的发展,对人类的生产成活确实带来了极大的帮助,人们为之欢呼雀跃,为之美好前景充满期待。但包括人工智能在内的科学技术,本身就是一把双刃剑,物极必反,一旦过度开发,或许预示着将会给人类带来灾难。

据外媒报道,著名物理学家史蒂芬·霍金日前在参加一场活动时表示,当你为人工智能的飞速发展而欢呼雀跃时,这或许对人类历史并不是什么好事。人类更应该担心的是,在人类无休止地开发人工智能技术的同时,发展到一定程度,其是否还能受到人类控制。人工智能可能可能是人类历史上最重大的事件,但不幸的是,也可能是最后一件,它会导致人类的灭亡。

不仅仅是史蒂芬·霍金,包括微软创始人比尔.盖茨、特斯拉创始人埃隆.马斯克等许多名人,都表达过类似于霍金对人工智能技术发展前景的担忧。如果你还觉得不太明白,可以回头看一下原子弹的发展历史,或许我们能够受到一些启发。

在二战中期,为了威慑法西斯国家,为了早日结束战争、维护和平,人们研究发明了原子弹。作为推动美国原子弹研究的第一人,当爱因斯坦得知日本广岛遭原子弹轰炸的消息时,感到极度震惊。直到去世之前,爱因斯坦都在利用一切机会呼吁美国不要把科学的发现变成杀人武器,并号召全世界科学家团结起来反对核战争。包括爱因斯坦在内的、那些曾经参与或关注过原子弹研究和制造的科学家们,都对此表示一种深深的忏悔和自责。

人工智能与原子弹的不同之处在于,原子弹本身就是一种武器,人们研发原子弹是不得以而为之;而人工智能出诞生之日开始就被人寄予美好的希望,人们至今为止都一直是在积极主动、乐此不疲地推动其往前发展。原子弹充其量只是人类的武器,可以安全接受人类思维的控制;人工智能的实质则是人的思维能力机器化。若有一天,机器人真的无节制发展到拥有自我思维能力的高级阶段,其后果很可能是人类种群的整体灭绝,其灾难性后果远远非原子弹所能比拟。(霍计武)
 

  • 为你推荐
  • 公益播报
  • 公益汇
  • 进社区

热点推荐

即时新闻

武汉