< 为AI加速而生 英特尔第五代至强CPU带来AI新表现_新闻中心_华体育app官网登录|华体会手机版
2023-12-28 新闻中心

  AI时代,亲民、易用的CPU如何能实现相比GPU更具性价比的加速方案?英特尔® 至强® 可扩展处理器给出答案:内置AI加速引擎,更好地承载AI应用工作负载。

  现在若是将不超过200亿参数的模型“投喂”给第五代至强®️ 可扩展处理器,那么时延将低到不超过100毫秒!

  而这也仅是英特尔在此次发布中的一隅,还包括打破自家“祖制”、被称为四十年来最重大架构转变的酷睿™️ Ultra。

  除此之外,具体到英特尔长期在各行各业扎根的AI实战应用,包括数据库、科学计算、生成式AI、机器学习、云服务等等,也随着第五代至强®️ 可扩展处理器的到来,在其内置的如英特尔®️ AMX、英特尔®️ SGX/TDX等其他内置加速器的帮助下,得到了更大的降本增效。

  • CPU核心数量增加到64个,单核性能更高,每个内核都具备AI加速功能

  • 与上一代产品相比,相同热设计功耗下平均性能提升21%;与第三代产品比,平均性能提升87%。

  • 与上一代产品相比,内存带宽提升高达16%,三级缓存容量提升至近3倍之多。

  不难看出,第五代至强®️ 可扩展处理器与“前任们”相比,在规格与性能上着实是有了不小的提升。

  但英特尔可不仅仅是披露,而是已经将第五代至强®️ 可扩展处理器用起来,并把实打实的使用效果展示了出来。

  例如在大模型的推理方面,京东云便在现场展示了搭载第五代至强®️ 可扩展处理器的新一代自研服务器所呈现的能力——

  而除了大模型之外,像涉及AI的各种细分领域,如整机算力、内存宽带、视频处理等等,也有同样的实测结果。

  这份结果则是来自采用了第五代英特尔® 至强® 可扩展处理器的火山引擎——

  其全新升级的第三代弹性计算实例,整机算力提升39%;应用性能最高提升43%。

  而且在性能提升的基础上,据火山引擎透露,通过其独有的潮汐资源并池能力,构建了百万核弹性资源池,能够用近似包月的成本提供按量使用体验,上云成本更低了!

  这是由于使用内置于第五代至强®️ 可扩展处理器中的加速器时,可将每瓦性能平均提升10倍;在能耗低至105W的同时,也有已针对工作负载优化的高能效SKU。

  在搭载第五代英特尔® 至强® 可扩展处理器及其内置的英特尔® AMX、英特尔® TDX加速引擎后,阿里云打造了“生成式AI模型及数据保护“的创新实践,使第8代ECS实例在安全性和AI性能上都获得了显著提升,且保持实例价格不变,普惠客户。

  包括推理性能提高25%、QAT加解密性能提升20%、数据库性能提升25%,以及音视频性能提升15%。

  值得一提的是,内置的英特尔®️ SGX/TDX还可以为企业分别提供更强也更易用的应用隔离能力和虚拟机 (VM) 层面的隔离和保密性,为现有应用提供了一条更简便的向可信执行环境迁移的路径。

  以及第五代英特尔® 至强® 可扩展处理器在软件和引脚上是与上一代兼容的,还可以大幅度减少测试和验证工作。

  总的来说,第五代至强® 可扩展处理器可谓“诚意满满”、表现很亮眼,而它背后所透露出来的,正是英特尔在AI领域一直都很看重落地的态度。

  事实上,作为服务器/工作端芯片,英特尔® 至强® 可扩展处理器从2017年第一代产品开始就利用英特尔®️ AVX-512技术的矢量运算能力对AI进行加速上的尝试;而2018年在第二代至强®️ 可扩展处理器中导入深度学习加速技术(DL Boost)更是让至强成为“CPU跑AI”的代名词;在之后第三代到第五代至强®️ 可扩展处理器的演进中,从BF16的增添再到英特尔®️ AMX的入驻,可以说英特尔一直在充分的利用CPU资源的道路上深耕,以求每一代处理器CPU都能支持各行各业推进AI实战。

  例如第二代至强®️ 就发力人机一体化智能系统,帮企业解决海量实时数据处理挑战,提升生产线系统效率,完成“肉眼可见”的产能扩展。

  在AlphaFold2掀起的蛋白质折叠预测热潮之中,第三代和第四代至强® 可扩展处理器连续接力,一直在优化端到端通量能力。实现比GPU更具性价比的加速方案,直接拉低AI for Science的入场门槛。

  这其中就有从第四代开始内置于CPU中,面向深度学习应用推出的创新AI加速引擎——英特尔® AMX的功劳。作为矩阵相关的加速器,它能显著加速基于CPU平台的深度学习推理和训练,提升AI整体性能,对INT8、BF16等低精度数据类型都有着良好的支持。

  与此同时,在大模型时代的OCR技术应用,也被第四代至强® 可扩展处理器赋予了新的“灵魂”,准确率飙升、响应延迟更低。

  同样,就在不久之前,借助第四代至强®️ 可扩展处理器在NLP上的优化,专攻医疗行业的大语言模型也成功以较低成本在医疗机构部署落地。

  在AI技术越来越深入各行各业的大趋势之下,至强® 可扩展处理器让我们正真看到,它所代表的CPU解法完全能有所作为、能够让不少AI应用在部署更广泛、获取更容易、应用门槛也更低的CPU平台上获得实实在在的落地开花。

  这一成绩的背后,确实是因为大家对“在CPU上跑AI”这件事上有需求,以及它本身也有极其深厚的价值和优势。

  先说需求,无论是传统企业推进智能化改造,还是AI for Science、生成式AI等新兴技术的蓬勃发展,都需要强大的算力来驱动。

  但大家面临的局势却是:专门的加速芯片供不应求,采购难不说,成本也十分高昂,因此还远远不足普及。

  就拿当下热门话题生成式AI来说,如果想在生产环境中普及这一能力,就得尽可能地控制成本。

  相比训练来说,AI的推理对算力资源需求没那么夸张,交给CPU完全能胜任——不仅延迟更低,能效也更高。

  此外,利用CPU直接进行部署还能让企业充分的利用既有IT基础设施,避免异构平台的部署难题。

  以上,我们也就能够理解:在传统架构中引入AI加速,就是CPU在这个时代的新宿命。

  实话说,如果和专门的GPU或AI加速芯片相比,它可能确实还不够炫,但主打亲民、易用(开箱即用,配套的软件和生态越发完善)。

  更值得我们注意的是,就算在有专用加速器的场合,CPU无论是从数据预处理,还是模型开发和优化,再到部署和使用,也能成为AI pipeline的一部分。

  无论是以GB还是TB计,甚至更大的数据集,基于至强® 可扩展处理器所打造的服务器,都能通过支持更大内存、减少I/O操作等优势,提供高效的处理和分析,节省AI开发中这一最琐碎耗时任务的时间。

  再加上它在GPU和专门的AI加速芯片上也有布局,“武器库”里的选择也更多了,火力覆盖的能力也更全面了。

CONTACT US
欢迎随时与我们联系