12月12日国际报道 Google 一位工程师已经警告说,如果现在的电脑每瓦特的性能无法提高的话,那么运行这些电脑的电费成本最终将远远超过购买这些硬件的费用。
Google可无法容忍这种现象发生,因为这家公司的业务依赖于成千上万台服务器。
Google的工程师Luiz Andre Barroso说:“如果每瓦特的性能未来几年停滞不前的话,那么耗电成本将很容易超过硬件成本。”
上周二,Sun 推出了它的Sun Fire T2000服务器,它使用了72瓦的UltraSparc T1 “Niagara ”处理器,这种处理器每瓦特的性能优于对手的性能。
Barroso 认为,为了节电,Niagara 采用了多线程的工作模式,它可以在同一时间执行多个指令。目前,一般的服务器芯片通常能够同时执行1 到4 条线程,而Niagara 的8 颗内核可以同时执行32条线程。
耗电也成为Intel和AMD 这对宿敌竞争的内容之一。AMD 的Opteron 服务器处理器最大的耗电为95瓦,而Intel的Xeon处理器的耗电在110 至165 瓦之间。虽然服务器的其它部件也要消耗电力,但Barroso 观察到,在低端的服务器市场,处理器的耗电占到了整个耗电量的50% 到60%.
耗电和散热问题首次成为公众注意的焦点是在1999年左右,当时,全美达(Transmeta)横空出世。Intel等公司很快就重视起这一问题起来。但是,虽然处理器的耗电有稍许的减少,但整个耗电的需求仍然在增长。结果,那些专门从事电脑降温的公司蓬勃发展起来了。
Sun 大声的鼓吹自己Niagara 处理器相对低的耗电量,但它不是唯一一家对此上心的公司。在它8 月开幕的Intel开发者论坛会议上,Intel公布了重新设计处理器的计划,目的就是要降低耗电。
Barroso 透露,Google过去经历了三代的电脑架构,其性能几乎翻番。但是,由于,每瓦特的性能几乎未有变化,因此,他们的耗电量也几乎增长了两倍。
如果一台服务器的耗电每年以20% 的速度增长,那么这台机器4 年的总耗电成本就超过了其3 千美元的硬件购买费用(配备x86 处理器的低端服务器)。Google的数据中心主要使用了Sun 的机器。但是,如果耗电量每年以50% 的速度增长,那么,10年以后,电费成本就超过了购买这些Sun 服务器的成本。
为此,Barroso 建议使用多线程的处理器。他认为,计算机行业已经准备在桌面电脑及服务器市场拥抱多线程处理器了,但他承认,这一领域还存在很多的发展障碍。
比如,多线程的处理器需要完全不同的编程方式,它需要将任务分解成为几块,然后同步运行。
另外一个障碍出现在针对个人电脑的多线程处理器上,事实上,个人电脑和服务器不同,它们不太需要多线程技术。
Barroso 认为,多线程的处理器只是暂时的解决方案。
他说:“光靠多线程的处理器还不足以解决耗电问题,但是,这种方案可以支持未来2 到3 代的中央处理器的发展。为了根本解决处理器的耗电问题,对电路和架构进行根本上的革新才是正道。”