科学家预言电脑将毁灭人类

Author: 朱石林摘自《信息日报》 Date: 2000年 第13期

  科幻小说及电影中常描述的情景:科技太发达,机械人及电脑先进至某种程度,“背叛”并灭绝人类……看似虚幻,但当由美国知名科学家、太阳微系统公司(SunMicrosystemsInc.)创办人乔伊(BillJoy)口中道来,却不得不令人感到既真实又可怕。
  乔伊在一篇刊登于四月号《有线》杂志的文章中,描绘出他对科技过分进步的恐惧,并呼吁科学家考虑不断推动科技发展的同时,是否要想想道德的问题。
  在该篇名为《为何未来不需要我们》的文章中,乔伊集中描述他对科技发展的三大恐惧,第一是在机械人方面,当能“思想”的电脑在大约三十年后出现时,它的功能会比现时的电脑强大一百万倍,这正是机械人能自我复制及进化的关键。当电脑进展到能自我复制,接管世界便不是异想天开之事。
  其次,基因研究亦令人忧虑。随着改变生物基因结构的研究取得突破,由人类自制,能毁灭整个自然世界的新型“瘟疫”,也正等待着人类。
  第三,是由微型科技制成的超微小机器(可细小至一粒原子大小),也有可能成为能自我复制、具毁灭性兼无法制止的机械“瘟疫”。据乔伊认为,以上三种科技跟以往的危险科技发明(例如原子弹)不同,因为它们有可能自我复制,他们对自然界造成的影响就像电脑病毒在电脑里肆虐那样恐怖。只要这些机器能发展出“生命”形式,便不能制止。乔伊写道:“它们将激烈地(跟人类)进行竞争,使人类无法得到维持生命的必需品,到时人类将会绝种。”
  在文章中,乔伊指出,他明白已入狱的著名“邮包炸弹”凶徒卡软斯基的某些看法,他们不谋而合地担心未来“人类的命运会任凭机器摆布”。卡软斯基因为到处寄邮包炸弹宣扬他的“现代科技社会邪恶”概念,被判谋杀罪名成立,判处终身监禁。
  不过,乔伊也不全是悲观,他认为,人类仍有希望,例如努力管制生化及核武器,就证明人类仍拥有物种自我保护的本能。他又认为世人应该广泛讨论新科技发展的影响。