12年专业IC代理商 原厂优势渠道代理
服务热线 188 1853 8849
网站首页 代理品牌
如韵电子 瑞盟科技 拓尔微电子 华大半导体 芯力微电子
产品中心
芯力微电子 瑞盟科技 拓尔微电子 如韵电子 华大半导体
产品应用
航天军工 工业物联网 医疗设备 汽车电子 EMS/ODM 工业控制 智能安防 消费电子 扫地机
技术服务
新闻资讯
公司新闻 行业新闻 常见问题
关于我们
公司简介 荣誉资质 公司场景 联系我们
关闭
行业新闻 分类

Google发布TPU人工智能服务器芯片技术

日期:2020-07-23  
Google今天在一篇论文中公布了Tensor人工智能服务器处理芯片TPU的详细资料。TPU是一种专门为本地高效率处理人工智能计算任务设计的服务器芯片,Google公司从2015年就开始使用这种芯片,虽然2016年Google曾经曝光该芯片的存在,但是并未提供任何技术方面的细节信息。

6e2b4ef191bb0aeefb9a943cc2575de5.jpg


在今天的全国工程师学术会议上,TPU论文的75位联合作者之一,David Patterson就TPU的技术论文发表了演讲。


Patterson指出,Google依赖TPU来完成人工智能神经网络第二阶段的计算任务。首先,在第一阶段Google用大量数据训练神经网络,这个阶段的计算任务主要依靠服务器GPU来加速,然后,Google使用TPU来更有效率地推断新数据,Google宣称GPU在新数据推断方面的性能表现大大优于GPU或者x86处理器芯片。

“虽然一些应用的处理器使用率并不高,但是TPU的处理速度依然能够比当下的GPU或CPU快上15-30倍”,Google在论文中写道。Google所指的“当下的GPUS和CPU”,分别是Nvidia的TeslaK80和英特尔Haswell 架构Xeon E5-2699 v3这样的“当红炸子鸡”。


过去五年,AMD和Nvidia两大显卡厂商凭借人工智能热潮重新回到IT产业聚光灯下,而显卡GPU也成了深度学习的默认低成本基础设施技术,这其中Google也起到不小的推动作用。但是Google、微软等IT巨头从未放弃其他人工智能芯片技术领域的探索,这其中包括用来处理多种AI工作任务的FPGA芯片技术。而TPU则是Google的原创技术,已经应用于Google图像搜索、GoogleCloud Vision API等生产环境。


TPU处理器芯片的内存是K80这样的GPU芯片的3.5倍,而体积却更小,每瓦特功耗的处理性能则是GPU的30-80倍。


相比大多数IT互联网企业,Google是人工智能神经网络的先行者和践行者,早在2013年Google就宣称为了满足不断膨胀的人工智能计算需求,Google需要将当时的数据中心服务器计算力提高一倍,而如果基于通用芯片实现这一点,成本会高得难以承受,因此Google开始研发性能价格比10倍于GPU的人工智能专用芯片。


为了提高TPU的部署效率,Google的TPU没有选择于CPU集成,而是以协处理器的方式直接插入PCIe总线,可以像GPU一样在现有的服务器上“即插即用”。从设计架构的角度来看,TPU更接近FPU(浮点运算协处理器)而不是GPU。

  • 品牌齐全一站采购
  • 正品保障售后无忧
  • 极速物流在线跟踪
  • 运费全免省时省心