资讯|滚动| 上海| 社会| 国内| 国际| 经济| 证券| 产经| 消费| 互联| 家电| 硬件| 科学| 明星| 影视| 综艺| 游戏| 信息|生活|旅游

开放融合加速 AI、5G等新技术融入开放计算

2019-06-27 18:01 来源:互联网整理 责任编辑:WB001 字体:

  6月25日,OCP China Day(开放计算中国日)在北京举行,大会由OCP基金会和OCP铂金成员浪潮联合主办近千名工程师和数据中心从业者参加了此次大会。开放计算已经席卷了全球超大规模大规模数据中心,作为全球规模最大的开放计算社区,OCP正致力于构建下一代数据中心技术生态,以满足未来边缘计算、云和AI的应用需求。此次活动,来自Facebook、LinkedIn、Intel、微软、百度、腾讯、阿里、诺基亚、中国移动、浪潮等资深技术专家进行了主题演讲,分享了在下一代整机柜服务器、边缘计算、AI、开放网络等前沿领域的标准进展情况。

 

  OCP在2011年由Facebook发起成立,核心会员超过200家,包括Google、微软、Intel、IBM等,超过7000家企业参与了社区的活动,2018年,OCP非董事会成员采购额同比增长率超过120%,达到25.6亿美元,到2022年预计将超过107亿美元。

  AI、5G时代下的数据中心挑战

  5G时代是强互联时代,据估计到2023年全球将有超过350亿台终端接入网络。5G的应用将给数据中心带来新的发展契机,也会对现有技术带来挑战。一方面更大规模的连接以及海量数据将推动云数据中心规模和设备密度的进一步加剧,另一方面,AI、视频等新兴应用普及很快,数据中心负载越来越多样和复杂,硬件在提高密度的同时还需要具备更大的灵活性。同时,5G时代将开启边缘计算的时代,各类边缘数据中心将大量出现,与大规模云数据中心一起成为重要社会基础设施。

  下一代开放整机柜服务器标准Open Rack 3.0

  截止至2019年1月,全球超大规模数据中心的数量已经达到430个,可容纳的服务器总量相当于全球服务器3年的总销量,这些数据中心一直不断提高数据中心的设备部署密度和性能密度。

  此前,浪潮与Intel联合向OCP社区提交了一项2U4路服务器全球参考设计Crane Mountain(浪潮服务器NF8260M5),该方案相比传统的2路服务器能够减少跨节点通信,在单位空间内可以部署更多的虚拟机。

  OCP在鼓励社区成员产品创新的同时,也在开发新的数据中心标准。大会上OCP机架和电源项目组负责人Steve Mills系统的讲解最新的Open Rack 3.0整机柜服务器规范。Open Rack是OCP社区最具有影响力的标准项目,当前的Open Rack 2.0已经被众多的互联网企业和电信运营商企业所采用,但是Open Rack2.0在进一步提高性能密度时,在供电和散热方面遇到了难以克服的物理限制,因此OCP开发了Open Rack 3.0,相比上一个版本,新版本增加了液冷散热,整机柜功率提高到15-33KW,增加了48V直流供电,能效进一步提高,另外,高度从41OU增加到44OU,提高了空间利用率,并且调整了内部结构,为I/O、存储等单项功能的扩展预留了空间,目前该标准仍未正式发布,处于公开征询意见的阶段。

  让边缘计算开放在起点

  5G时代,运营商将在靠近用户的网络边缘侧构建业务平台,将部分关键业务应用下沉到网络边缘,以减少网络传输和多级转发带来的带宽与延时损耗。

  中国移动研究院电信云交付技术中心主任唐华斌说,传统的服务器就像温室里的花朵,难以直接部署在边缘数据中心,中国移动的多级边缘机房总数达到数百万个,包括地市机房、区县机房、汇聚机房、基站等,边缘服务器需要耐受更严酷的物理环境,同时也需要具备更好的并发承载能力。

  OCP社区在电信项目组设立了Open Edge技术小组,希望为边缘计算服务器等硬件设施开发一套公开标准,小组leader成员诺基亚已贡献了Open Edge Chassis Specification v1.2标准,在大会演讲中,诺基亚硬件架构部门负责人Tomi M nnikk 说,该标准以3U高度、19英寸宽度和430mm深度的机箱为基本部署单元,机箱可以支持高度为1U和2U的扩展节点,每个节点的宽度可以为半宽、1/4宽和全宽,机箱最大供电功率2000W,支持AC和DC两种供电模式,可以兼容边缘计算、远端边缘计算等各类部署环境。

  浪潮也展示了两款边缘计算服务器,两款产品为2U双路服务器,深度430mm,宽温宽湿,耐腐蚀,并且可以支持GPU、NVM-e等,针对电信应用进行了NUMA Balance优化。

  OAI,缩短异构加速计算技术到应用的时间

  AI的飞速发展推动了一系列面向深度学习、机器学习以及高性能计算等应用的异构加速方案的发展,加速器硬件系统的技术挑战和设计复杂性很大,将加速器集成到系统中通常需要大约6-12个月,较长的开发周期阻碍了新的AI加速器的快速采用。

  • 资讯
  • 财经
  • 科技
  • 娱乐
  • 游戏
  • 生活
  • 汽车
关于本站 | 广告服务 | 免责申明 | 招聘信息 | 联系我们
备案号:沪ICP备13031519号 上海网 版权所有,未经书面授权禁止使用