互联网的糟糕天性

话题专栏

人们在和互联网的发展速度赛跑,希望能够在互联网崩溃之前将危机化解,就像我们过去多次成功做到的一样。

从互联网诞生之日起,这张大网就以一种异乎寻常的自由和随性迅速发展。没有整体规划,没有节制,这个世界上最大的人工网络像一棵藤蔓植物一样四处蔓延。就像是一颗种子最后繁衍出一片庞大的热带雨林一样,互联网上的危险也开始随之增加,最终无处不在。钓鱼网站、偷偷安装的木马、危险的病毒,还有这张巨网的“天性”——这可能会是影响互联网发展的最主要的障碍之一。

20世纪60年代,大概在互联网刚刚开始出现雏形的同一时期,心理学家斯坦利·米尔格伦提出了关于人际关系网络的“六度分隔”理论。这个理论内容很简单,但是看起来似乎有些不可思议:平均来说,只要通过6个中间人,你就可以结识世界上的任何一个人。现在流行的许多社群类网站,都是以这一理论作为出发点的。Facebook和开心网的巨大成功都是来源于此。

1998年,从事社会学研究的邓肯·瓦特和数学家斯蒂文·斯托加茨合作,发表了一篇论文。这篇名为《“小世界”网络的群体动力学》的论文,对“六度分隔”理论进行了进一步阐释。随后的研究发现,世界上诸多网络都与人际关系网络类似,由很少的关键网络节点连接大量的其他节点。

不幸的是,我们的互联网也是这样的一个复杂网络系统。这个覆盖了全球一半以上人口的巨大网络并不平衡,如果把所有互联网上的数据交换节点的连接数画成一幅图的话,我们会发现一条典型的长尾曲线——从一个高昂的头部开始,曲线迅速下降,然后进入平缓的却是无穷无尽的尾部当中。极少数的节点拥有极大量的连接,而绝大多数节点的连接数只是寥寥几个。那些连接数量大的极少数节点,就是互联网的枢纽。

《马太福音》第25章29节:“因为凡有的,还要加给他,叫他有余;没有的,连他所有的也要夺过来。”富者愈富,赢者通吃,互联网的天性也是如此。但是这也暗示了另外一个问题,即实质上整个互联网的性能,只依赖于这极少数的节点。对这样的复杂网络进行一下仿真,就可以很容易地看出,当互联网中的节点被随机破坏时,网络的性能是稳步缓慢下降的,因为我们总会找到一条新的路径将数据从一个节点送到另一个节点;但是哪怕只有少数关键节点遭到破坏,网络的性能立刻就会大幅下滑——就像十字路口堵车总是比单行道堵车要严重得多。如果有人能够做到同时攻击这些关键节点的话,互联网将会瞬间崩溃,断裂成一个一个的信息孤岛。

更糟的情况是,如果传染性超过某个程度的计算机病毒侵入了这些关键节点,那么情况往往可能会变得无法收拾。人们发现在互联网这种规模庞大的复杂网络中,只需要几个关键节点受到传染,病毒就可以永远地停留在网络当中。除非所有计算机同时断开网络并且杀毒——这明显是不可能的,否则它将会一直在互联网上流传下去。

这看起来有点像是对未来悲观的科幻小说,但是却是不幸的事实。虽然这些关键节点都受到最好的保护,但是最近的一系列广泛攻击还是让人们有些疑惑。前几天,来源不明的大量攻击让网络世界人心惶惶,而这些攻击的对象并不是传统计算机犯罪的对象,而是世界上访问量最大的一些网站,包括Google和Yahoo这样的每天访问量超过数亿次的站点。这种行为并不会让那些发起攻击的黑客得到明显的收益,但是却让人们不得不多留几个心眼。

虽然世界上最好的计算机技术人员一直在为改善互联网的性质而努力,在这一方面的技术变革也层出不穷,然而未来终究不可知。人们在和互联网的发展速度赛跑,希望能够在互联网崩溃之前将危机化解,就像我们过去多次成功做到的一样。

只是希望我们不会太迟。