search 2013 adfgs
作者:Sky.Jian | 可以任意转载, 但转载时务必以超链接形式标明文章原始出处 和 作者信息 及 版权声明
链接:http://isky000.com/database/do-not-superstition-minicomputer | del.icio.us | Twitter it

在 IT 行业很多工程师(尤其是很多 DBA)的心目中,都把小型机视为解决性能问题的终极武器,认为小型机的处理能力要远大于 PC Server。在几年前,可能也确实是这样。但随着近几年 X86 架构芯片技术的飞速发展,PC Server 的处理能力已经越来越强悍,不断的给我们带来惊喜。

最近几年的小型机市场,基本上被 IBM 吃掉了大部分。虽然可能并不完全是因为其 Power 芯片处理能力与其他厂商的芯片相比有优势,但其处理能力方面的优异表现确实是一个很重要的因素。所以最近几年我们一直关注着 IBM 小型机与其他主机的处理能力比较,当然比较是基于 Oracle 数据库所做的一些测试。

测试基本模型如下:

  • 在待测主机上安装好 Oracle 数据库,配置足够装载下所有数据的 SGA,将 Oracle 的 Redo 日志放在内存文件系统上。然后在我们技术能力范围内对 Oracle 进行相应的调优。
  • 使用我们真实的线上数据抽样(约10GB),Import 进入待测试主机上的 Oracle 数据库中。
  • 通过 PL/SQL 编写出模拟我们在线业务中最为典型的事务逻辑,然后使用C++编写多线程程序作为压力测试客户端。
  • 通过多台主机运行压力测试程序,平缓的给待测主机增加压力,待测主机的 CPU 利用率基本用完为止。

测试数据的收集主要通过恒定时间段的 Oracle 数据库自身性能数据采样(statspack),然后分析 statspak 中的每秒事务数。以往经验显示,基本上当客户端压力线程到达一定数量之后,处理量就比较稳定甚至下降。然后我们从中取出每秒事务数的最大值,做为该机器的处理能力分值。

这个测试模型主要消耗的资源是主机的 CPU + RAM 的能力,而且当初也得到了 IBM 实验室的人认可。

通过这几年对几种主机处理能力跟踪测试情况来看,IBM Power 芯片的优势已经越来越不明显了,甚至其 Power 5+ 芯片的处理能力已经不如某些型号的 Intel x86 芯片的处理能力了,部分主机处理能力对比数据如下:

近四五年来的测试数据:
Sun v880(4C):                             160
Hp rx4640(4C):                           180
Dell 6650(2C):                             88(2核 CPU)
Dell 6650(4C):                            155
IBM P550(4c,Power 5):                294
IBM P590(8C,Power 5):                656
去年下半年至今年的测试数据:
IBM P590(16C,Power 5+):           1200
Intel (4c, Xeon(TM)):                   1210  (于去年下半年发布的6核 CPU)
Intel (2c, Xeon(R)):                      1107  (将于本月底发布的4核 Nehalem CPU,X5560)

从上面的数据中大家应该可以基本的了解到目前使用 Intel x86 架构的 Xeon CPU 的 PC Server 的处理能力了吧。当然,有些人可能会说,IBM Power 6 的处理能力与 Power 5 和 Power 5+ 相比有了一个较大的提升,事实如何我目前还不太清楚。但即使是其处理能力翻一倍,那也才与现在的 Nehalem 处理能力相当。

至于 PC Server 和 小型机在成本方面,这里就不多说了,我想大家都很清楚二者完全不在一个数量级上,甚至是相差两个数量级 :D。

可能有些人又会说,小型机在 HA 方面比 PC Server 要强。确实,这一点我是承认的,小型机的可靠性在一定程度上要比 PC Server 是要好一些,大部分设备出现故障后都不用停机即可在线更换。但随着分布式架构的不断成熟,通过架构来解决整体可用性的成功案例已经越来越多。现在该是我们转换思路的时候了!


Update on 20090318:增加最新的 IBM Power6芯片测试结果,以及每单个核的能力平均值列表

2005年:
Sun : v880,4cpu :160,平均单核40
Hp: rx464, 4cpu :180,平均单核45
dell 6650 2cpu : 88,平均单核44
dell 6650 4cpu : 155,平均单核38.75
IBM P550 4cpu : 294,平均单核73.5
IBM P590 8CPU : 656,平均单核82

2008年:
ibm p590 16 cpu: 1200,平均单核75

2009年:
intel nehalem样机, 2 cpu(每cpu 4core,X5560, 2.80GHz ) : 1107,平均单核138

IBM P550 power6 3503 MHz 4cpu: 421事务/秒,平均单核105(比08年测试 P590 提升40%)

, , , , ,

已经有35个回复

  1. Eugene Says @ 09-03-10 10:09 pm

    我也支持PC Server代替小型机,:):)….

  2. 0537 Says @ 09-03-10 10:47 pm

    小型机太贵了

  3. 工业酒精 Says @ 09-03-11 10:41 pm

    挑个错~~

    开头:“在 IT 行业很多工程师(尤其是很多 DBA)的心目中,都把小型机视为解决性能问题的终极武器,认为小型机的处理能力要远大于 PS Server。”

    小型机的处理性能的确远大于PS Server,PS3性能好点~~ ^_^

  4. 朝阳 Says @ 09-03-11 11:36 pm

    @工业酒精
    不好意思,是我错了,“PS Server” -> “PC Server”,已经改正了,多谢这位仁兄指正。

  5. AIX Says @ 09-03-20 1:18 pm

    “所以最近几年我们一直关注着 IBM 小型机与其他主机的处理能力比较,当然比较是基于 Oracle 数据库所做的一些测试。”

    太狭隘了,没有做过大系统的经验吧。小型机的优势不是简简单单的CPU快,架构,操作系统,内存,存储。去developworks上看看pSeries和AIX的众多特性吧。

  6. solaris Says @ 09-03-20 2:06 pm

    web方面应用,和真正企业级应用追求的目标有所不同。

  7. hum998 Says @ 09-03-22 5:10 pm

    论计算能力,看看最近的top500排前面的除了cell运算密集特制的,其它都是x86的。3-5年前power,sparc为代表的RISC的cpu以落后于x86的cpu,浮点和整数运算都差一节。从cpu微架构分析x86的整数和浮点运算单元都是2-3个比power多,主要的运算指令也是1个每时钟周期,主频更高,能力是更强的。从cpu,cache,内存延迟和带宽分析,现在的x86也不比power架构差,甚至更好。如果小数据量<500GB,将主要的处理时间维持在cpu内存间,x86是有优势。

  8. BS Says @ 09-03-26 1:13 am

    看到老大这个话题被贴到某BBS上讨论得火热,呵呵

  9. 朝阳 Says @ 09-03-26 2:28 pm

    @BS
    哪里啊?
    能发个链接给我看看么?

  10. 朝阳 Says @ 09-03-26 2:31 pm

    @AIX
    或许我的这篇文章触及了某些人的商业利益,也比较尖锐。但有个问题我一直不明白,为啥人家IBM的小型机市场有超过一半的份额是在中国,难道是因为我们国人在这方面比别人更先进?
    其他我也不想多说啥了!

  11. BS Says @ 09-03-26 5:45 pm

    @BS
    哪里啊?
    能发个链接给我看看么?

    哈哈,CU啊,用标题在google搜一下也可以看到.

  12. 爱新觉罗·璜紫 Says @ 09-04-23 9:12 am

    hum998 Says @ 09-03-22 5:10 pm
    论计算能力,看看最近的top500排前面的除了cell运算密集特制的,其它都是x86的。3-5年前power,sparc为代表的RISC的cpu以落后于x86的cpu,浮点和整数运算都差一节。从cpu微架构分析x86的整数和浮点运算单元都是2-3个比power多,主要的运算指令也是1个每时钟周期,主频更高,能力是更强的。从cpu,cache,内存延迟和带宽分析,现在的x86也不比power架构差,甚至更好。如果小数据量<500GB,将主要的处理时间维持在cpu内存间,x86是有优势。
    ============================
    Top500上面的X86都是几千个CPU的HPCC,难道RISC就不可以做HPCC?你用几千个Power6做HPCC试试看,我就不信计算能力会差过你X86。
    Top500上用X86做HPCC更主要是基于成本考虑,而不是计算能力

  13. 爱新觉罗·璜紫 Says @ 09-04-23 9:15 am

    在我心目中,IBM的Z系列大型机才是DB的高性能解决方案,小型机和X86都太差

  14. 简鸣 Says @ 09-04-23 9:41 am

    哥们,不错啊,这是你们自己测的么?

  15. 简鸣 Says @ 09-04-23 9:43 am

    哥们,不错啊,能不能透露一下测试的平台?以及一些相关配置?

  16. 朝阳 Says @ 09-04-23 11:03 am

    @hum998 & @爱新觉罗·璜紫
    说实话,我个人对什么tpcc hpcc 测试出来的值并不是特别感兴趣,任何应用场景都有其自身的特点。

    “在我心目中,IBM的Z系列大型机才是DB的高性能解决方案,小型机和X86都太差”
    呵呵,Z系列的大型机我没用过,不做评论,就算他确实很NB好了。只不过,放在这句话中,给人的感觉就是:“DB的高性能解决方案只能依赖集中式高性能计算设备”
    拜托,这是多少年前的观念了吧,现在还有人认为高性能解决方案还得依靠集中式的高性能计算设备来进行。

    好不好,用了才知道,这里我们所做的所有测试都是基于实际的业务数据,实际的业务逻辑进行实际的操作而得出的结果。

    至于之前看到CU上面有人说什么数据量小测试不出来,呵呵,我只能说提出该理论的人完全不懂Oracle数据库,更没有仔细看过这篇文章,也没有理解这个测试的初衷。

  17. 朝阳 Says @ 09-04-23 11:09 am

    @简鸣
    都是自己测试的,几年积累数据的一个概览
    对测试结果影响很小的其他配置都忽略了,大部分机器都是使用的各个厂家的标准机型,配置可以自己查一下,不好意思 :)

  18. wanggsx Says @ 09-06-1 12:48 pm

    “DB的高性能解决方案只能依赖集中式高性能计算设备”
    换句话说,大系统在向分布式发展。

  19. wew Says @ 09-06-2 10:34 am

    听说google用的是PC服务器,什么性能就不用说了吧。牛啊

  20. gordon Says @ 09-06-11 9:55 am

    朝阳,希望你好好研究一下你的观点;实际上我们都知道应用程序的瓶颈在cpu和内存上;数据库的瓶颈在I/0上,所以现在应用程序使用pc server集群商业应用就足够了;你I/0瓶颈怎么解决,这是pc server现阶段无法解决的,这就是小型机值钱所在。

    共同学习,共同探讨

  21. 朝阳 Says @ 09-06-11 10:15 am

    @gordon

    非常高兴能一起探讨 :) 我说说我的看法,有问题还请多多指教:

    IO问题其实是存储设备的问题,并不是小型机来解决的。小型机可以连接高端的存储设备,PC Server 同样也可以连接。不论是NAS还是SAN,能使用小型机连接的基本上都可以通过 PC Server来连接。

    相反,通过合理的设计存储架构设计,影响IO能力的最主要因素还是在磁盘数量。而当使用PC Server的时候由于机器数量可以较多,每台机器都可以管理一定数量的本地磁盘,反而是小型机,完全只能依靠外接的存储来提供有效的IO能力。在这种情况下,只要架构合理,多台 PC Server 的架构不论是 CPU 资源还是存储资源,其实都要高于小型机的。而且整体成本还远低于使用小型机的成本。

    不知道你有没有感觉到,现在高端存储所使用的FC盘的能力甚至不如SAS盘了,而最新出来的SSD磁盘,一两块SSD盘就能顶上一个中等规模的高端存储的处理能力。

    个人浅见 :)

  22. gordon Says @ 09-06-13 6:13 pm

    系统调优目标或者说oracle的调优目标:

    响应时间
    吞吐量

    实现方法:

    1.尽可能减少oracle对磁盘的操作,

    oracle设计的时候已经考虑这个问题,(就是在内存里开一个比较大的内存区,所以说oracle比较吃内存)大部分操作都是在内存中进行的,

    2.提高cache命中率。(这里说的是内存中的cache)

    以上见《体系机构》、《调优》两门课的知识,也许我被oracle洗脑了,0(^_^)0 hihi !!!

  23. gordon Says @ 09-06-13 6:52 pm

    wew Says @ 09-06-2 10:34 am

    听说google用的是PC服务器,什么性能就不用说了吧。牛啊

    分布式数据库的实现,以Google为例,是加了一层数据库内存缓存系统以代替在主机中开一个大的内存区,但是请你注意Google的业务是搜索,安全的问题并不突出。

    如果你的客户是在线计费,或者说是数据挖掘,实际上数据挖掘是可以用集群来实现的,有一点错误对于海量数据来说可以忽略不计。

    但是也有一下弱点:

    分布式存储系统查询速度快、存放数据量大、支持高并发,非常适合通过主键进行查询,但不能进行复杂的条件查询。如果辅以Real- Time Search Engine(实时搜索引擎)进行复杂条件检索、全文检索,就可以替代并发性能较低的MySQL等关系型数据库,达到高并发、高性能,节省几十倍服务器数量的目的。以MemcacheDB、Tokyo Tyrant为代表的key-value分布式存储,在上万并发连接下,轻松地完成高速查询。而MySQL,在几百个并发连接下,就基本上崩溃了。

      虽然分布式存储具有极高的性能,但是只能做类似于MySQL的SELECT * FROM table WHERE id = 123;简单主键查询。

      “搜索索引引擎+分布式存储”能够实现高并发的复杂条件查询、全文检索与数据显示。但是,由于索引更新需要时间,目前还不能实现完全意义上的Real-Time Search(实时搜索),只能称之为Near Real-Time Search(准实时搜索)。“搜索索引引擎+key-value分布式存储”除了做全文检索外,还可以在允许的索引延迟范围内,取代MySQL进行复杂条件查询。

    google在2006年发表了一篇比较牛叉的论文《Bigtable:结构化数据的分布存储系统》

    实际上oracle的用户有两个特点:一个是实时性特别强,一个是数据量特别大;这个很难用mysql数据库集群加数据库内存缓存系统加以解决。

    实际上oracle配小型机是美国人设计的一贯特点,他在汽车设计时也是如此,可以参看《蓝血十杰》这本书;

    没办法美国人在这方面得天独厚,反面就是日本人的设计,尤其典型的就是二战期间日本坦克的设计,小豆坦克。

    可以搜索一下小豆坦克以博大家一笑。

  24. 朝阳 Says @ 09-06-13 10:36 pm

    @gordon
    不太明白你上面的这两个回复,一部分虽然说了不少 Oracle 相关的内容,不过说的比较… 其实我也是一名 Oracle DBA ,呵呵!
    另外,也实在看不出与小型机或者是PC Server 有太多关系啊?
    或者是我没有太明白你的意思,见笑了

  25. hehe Says @ 09-06-14 7:26 pm

    故意混淆核心和处理器的概念?16核心的P5-590性能比24核心的PC服务器已经要强了,你却故意说是16C VS 4C,可笑。

  26. 朝阳 Says @ 09-06-14 11:05 pm

    @hehe
    确实可笑,不知道这里“16C VS 4C”出自上文中的那一句?即使这样写了,那又怎样?确实就是16C对4C,再说了,“16核心的P5-590性能比24核心的PC服务器已经要强了”,不知道上文中的数据哪里看出来这句了?
    再声明一下,这篇文章纯粹的一篇拿我们自己的环境测试出的一些数据,没有对小型机有任何的贬低。可能这些数据威胁到某些人吃饭的吃饭的工作了,实在不好意思!

  27. gordon Says @ 09-06-14 11:11 pm

    其实也没有什么,主要观点有:

    70年代这个东西设计的时候就是这么设计的,当年设计的时候

    也没有预料到pc server发展这么迅猛。

    不论是小型机厂商或者是大型机转过来的厂商,例如IBM (IBM是OEM 法国布尔公司的小型机)

    因为有一定的技术积累和市场策略,所以改变需要花很大的成本,而且也不符合其市场策略。

    小型机厂商因为有了3、40年的技术积累,bug相对较少,就像一款软件一样,bug比较少了,

    再从头开始,代价太大。(IBM OEM 布尔公司的小型机,这也是其考虑的一个原因)

    调优没必要和设计者较劲,他怎么设计,你就怎么用。

    设备选型:除了在线计费外,都可以使用linux + pc server解决。

    实际上大家都是这么干的,例如电信,如果给市场营销部门做客户分析,数据挖掘,我可能会

    使用linux + pc server,如果是在线计费,我会使用sun的小型机。

    说点题外话,电信使用sun的机器,主要是sun 的机器在IBM HP SUN 三家当中是最便宜的。

    如果是银行系统,sun想打进去也很困难。

    从设计的观点看问题,很容易看到事物的本质。

    一个时代有一个时代的英雄,不用在这种问题上较劲。

    开放源代码运动给我们提供了一个很好的平台,应该把主要精力放在分布式存储上,

    研究如何设计,如何构建,例如我上面提到的这篇Google的论文。

  28. gordon Says @ 09-06-15 12:01 am

    今天有点兴奋,把这几家的市场策略说一说,

    sun 的硬件 现在主要是富士通代工,它自己做成本太大。

    hp已经主要转到intel平台上了,他和intel是战略伙伴关系。

    hp实际上是一家电子仪器厂商,所以对于hp来说,你们不管用什么CPU,生产CPU时,你们必须用我的测试仪器。

    这一块对hp影响并不大。可以到龙芯的官网看一下,龙芯也用的是hp的测试仪器。

    实际上RISC专用CPU这块,主要是IBM在硬顶,实际上IBM也无路可退,毕竟要打品牌,要做差异化战略。

    SGI由于美国军方关系,死来死去都死不了,(美国军方主要使的是sgi的机器,实际上就是克雷机;

    克雷当年就是死来死去都死不了,没办法让SGI收购了;实际上说起克雷机,大家都很熟悉,国防科大的银河就是仿的克雷2)

    这也是美国特色。

    暂时就说这么多,这些都是过气的英雄,没有什么可说的,只能当作茶余饭后的谈资,和阿Q一样说妈妈的,我们祖先是很阔的。

    数风流人物,还看今朝;还是研究一下现代有什么比较酷的应用,有什么好玩的东东;章文嵩博士的lvs就大涨了中国人的志气,

    祝愿简在不远的将来有这样的作品,能让大家先睹为快 0(^_^)0

  29. gordon Says @ 09-06-15 12:07 am

    所以你的实验数据拿给IBM看,不是找触霉头;它早先是不想惹你这个客户。

    哈,太罗嗦了,哈哈哈。

  30. gordon Says @ 09-06-15 7:13 pm

    我又回来了,现在讲讲小型机之王DEC 的alpha芯片的命运

    在1998年DEC公司被康柏收购的时候,业界普遍期待

    康柏继续alpha的开发,在此之前alpha的性能可是一

    直处于领跑的位置,在2001年,康柏公司却取消了

    EV8的研发,转而投奔IA-64,并准备把所有Alpha的知

    识产权(从设计电路到编译系统,甚至开发小组)都

    卖给intel。此计划未等实施,康柏就与HP合并了,

    据说当康柏收购DEC的时候,Alpha开发小组的许多

    工程师跳槽到AMD,使AMD得以抢先intel推出athlon

    处理器,在性能上给intel迎头一击。

    DEC的alpha处理器从许多方面都与ibm著名的power

    处理器采用截然相反的策略。Alpha依靠复杂性获得

    性能,从大量的晶体管、高速的主频取得计算力,当

    然,也因此必须消耗更高的功率,散发出更多的热

    量,因此很早以前DEC的alpha服务器就安装了巨大无

    比的散热风扇。

    intel的安腾

    当intel和hp准备联合开发能够兼容80×86和PA-RISC

    架构的cpu的时候引起了很多人争论。单纯在提高性

    能的同时保持对80×86指令集的兼容已经让intel自己煞费苦心,而同时还要支持PA-RISC?

    这绝对是在市场利益驱动下做出的疯狂举动。以前hp

    曾经自己搞过类似的设计,不过它发现这种设计太复

    杂了,而且难以实现4路以上CPU结构。

    作为hp的兄弟,为老大两肋插刀当仁不让。intel作为

    hp的合作伙伴,也在为hp设计PA-RISC的背板,这是

    当时芯片设计的普遍做法,目的是为了分担设计成

    本,同时提高芯片的“知名度”。

    经过漫长的市场等待,intel设计的安腾(IA-64)总于

    面市了,低于预期的主频,同时各种测试指标也让评

    论家大跌眼镜。

    尽管在硬件层面,安腾可以执行IA-32程序,但性能

    非常糟,为了面对AMD Opteron 的挑战,INTEL做出

    了一个软件仿真系统,它源于许久以前DEC开发的

    FX!32软件,可以让alpha模拟x86 CPU.

    Intel从康柏购买了这个原型技术,并应用于安腾模拟

    执行x86指令,它甚至比硬件实现还要快。通过这个

    软件,安腾2可以以奔腾4一半的速度运行IA-32程

    序,即便如此,还是比直接在硬件上跑IA-32程序

    快!!!不过毕竟intel在芯片行业也不是盖的,我知

    道的只是以上这些,以后的就不清楚了。

    感谢朝阳的测试数据,我说的这些只是行业中茶余饭

    后的谈资,而朝阳是真本事,不断学习中

    题外话:银行系统大多使用IBM机器,除了IBM对品质的追求、长达数十年的行业经验外,还有一点就是,IBM的定位,IBM给自己定位是一家管理咨询公司,所以一般IBM中标都是一个项目,提供了一套整体的解决方案,对于当今中国企业一碗面条式的管理,IBM的咨询方案能理顺这么多流程,客观上来说是不容易的,这并不是技术能解决的问题,所以对IBM要公平一点(它并不是一家主要从事半导体芯片制造的公司),而且IBM给予的解决方案给我们的帮助要远胜于技术,这也是他的价值所在。不要用纯技术的眼光去看待某些问题。
    sun主要的客户群是教育和电信用户,电信用户前面
    已经说过了,教育用户是因为一段时期,sun赠送教育界很大一批机器,Linux就是基于sun的手册做的自己的技术实现,linux的崛起给sun的冲击很大,祝sun一路走好。

  31. gordon Says @ 11-09-2 11:32 am

    补充资料:《计算机体系结构》这门课为什么难学?

    这是因为没有一个感性认识,因为计算机体系结构这门课在计算机发展的初期主要是讲大型机和小型机的。

    但是intel公司发明的第一枚通用芯片,把pdp-8小型机给集成了,这是当年该系列中体积最小和价格最便

    宜的一种计算机,结果由于intel和DEC的市场竞争,intel把pdp-8小型机给集成了,这就是著名的4004芯片。

    呵呵。

    其实一台pc计算机就是一台DEC 的PDP系列小型机,that’s all.

  32. gordon Says @ 11-09-2 11:40 am

    昨天——Unix系统初期

    在1969年的8月,Ken Thompson为DEC(Digital Equipment Corp.)公司的PDP-7小型机写第一个Unix版本的汇编语言,利用一周的时间在每个操作系统上完成Shell和汇编语言编写.

    对于Ritchie和Thompson来说,Unix系统的成功并不是一夜成名,在1971年他们将Unix封装在PDP-11小型机上面,相比PDP-7小型机来说具备更强劲的系统,增加了文本格式和文本编辑。

    1972 年,Ritchie先生编写了高级编程语言——C语言(基于Thompson早期的B语言),于是Thompson利用C语言重新编写Unix系统,这也意味着OS系统通过特定计算环境实现了可移植性。利用这种方式他们针对此系统起的第一个名字为Unics(Uniplexed Information and Computing Service),而随后为了便于拼写“Unix”正式诞生了。

    于是,1974年7月,Ritchie和Thompson在CACM上发表了名为“The UNIX Time-Sharing System”文章。

  33. gordon Says @ 11-09-2 11:53 am

    Intel允许发布4004芯片集的完整细节

    具有历史意义的Intel 4004处理器是世界上第一款微处理器,于1971年11月15日发布。为了纪念其诞生38周年,英特尔法律部门向Intel 4004逆向工程团队发送信函,允许他们公开4004和MCS-4家族的完整细节,包括4001 ROM、4002 RAM、4003 I/O Expander和4004微处理器的电路图纸和布线图,供学生、教师、历史学家和其他非商业性使用者使用。

Trackbacks & Pingbacks

  • Alibaba DBA Team » 不要过度迷信小型机

    [...] 原文链接:http://www.jianzhaoyang.com/database/do-not-superstition-minicomputer [...]

  • 冰山上的播客 » Blog Archive » 不要过度迷信小型机

    [...] 转载:http://www.jianzhaoyang.com/database/do-not-superstition-minicomputer 在 IT 行业很多工程师(尤其是很多 DBA)的心目中,都把小型机视为解决性能问题的终极武器,认为小型机的处理能力要远大于 PC Server。在几年前,可能也确实是这样。但随着近几年 X86 架构芯片技术的飞速发展,PC Server 的处理能力已经越来越强悍,不断的给我们带来惊喜。 [...]

看完了要说点啥么?