网站名称:AB模板网
电话:18888888888
QQ:9490489
邮箱:9490489@qq.com
网址:Www.AdminBuy.Cn
地址:福建省南平市顺昌国土资源局斜对面

  我们都认识高通,可能大部门人是通过骁龙挪动处置器。过去的高通是世界上最大的挪动处置器供给商,可是今天的高通想要让人们从头认识它。

  2019年4月9日,在旧金山举行的高通 AI Day 上,这家芯片手艺巨头正式颁布发表进军云计较市场,并颁布发表了面向人工智能推理计较的第一枚公用 AI 加快器:Qualcomm Cloud AI 100。

  按照高通的定义,Cloud AI 100 是一枚面向特定用处的公用 AI 加快器 (purpose-built AI Accelerator)。目前公开的的手艺详情并不多,已知消息和合理猜测告诉硅星人,这是一套高通设想的 ASIC(特地集成电路)。

  现场演示视频提到,Cloud AI 100 是一枚特地面向“人工智能推理”的 AI 加快器。这是一个范畴内的术语,翻译过来就是:Cloud AI 100 能够用来运转事后锻炼好的深度进修算法和神经收集。

  若是你还不睬解这到底是个什么工具——传闻过 TPU 吧?这是 Google 比来几年最令人冲动的硬件之一,在公司内部代替了前几年普遍采用的 GPU 集群,成为了 AI 计较范畴的标杆式硬件——Cloud AI 100 就是“高通版 TPU”,3d必出2码的准确方法可是目前聚焦在机械进修的推理,而非锻炼上。

  Cloud AI 100 采用7纳米制程,高通传播鼓吹单片的计较机能达到350TOPS(每秒万亿次计较,≠TFLOPS)。

  横向简单比力分歧 AI 加快器的计较能力的意义不大,不外这里便利读者理解就把数值放出来:Cloud AI 100 能够达到350TOPS;Google TPU 一代在250W下的测试成果是92TOPS;TPU 二代的浮点计较机能是45TFLOPS;三代是二代的大约两倍。

  高通传播鼓吹,和其他 AI 推理硬件处理方案(GPU、CPU 和 FPGA)比拟,Cloud AI 100 在机能功耗上可以或许达到10倍的提拔,和高通骁龙处置器的片上 AI 计较能力比拟则有50倍的提拔。

  目前阶段,高通拒绝透露特定功耗下 TFLOPS 等更多参数,不外高通手艺公司产物办理高级副总裁 Keith Kressin 暗示,他们曾经将手艺细节奉告了中国、美国的多家云办事供给商,“他们告诉我们,3d技巧准确率最新方发若是能达到这个参数(TFLOPS 或 TOPS),Cloud AI 100 无疑将是最好的方案。”

  毫无疑问,Cloud AI 100 不是行业里独一的基于 ASICs 的云端 AI 加快器:TPU 曾经被 Google 商用化跨越两年,并且在锻炼和推理双修 (training & inferencing) 英特尔收购的 Nirvana 等公司都在这一块营业上有不错的进展——此刻高通也参与到合作傍边,意义和带来的价值在哪里?

  这个问题的谜底大概能够从高通的汗青找到。颠末多年,骁龙 SoC 曾经成为智妙手机处置器行业的尺度,而骁龙产物线(除了某几年)的劣势恰是在不竭降低功耗和发烧的根本上带来不竭提高的机能。

  因而,高通认为低功耗、少发烧就是本人在芯片组设想上的焦点劣势,而这个劣势不只能够被手机终端消费者所享受,它对于规模不竭增大,曾经在制造温室气体的办事器、数据核心,以及数据核心背后的科技公司来说,也有很大的用途。

  降低用电、削减发烧是数据核心都想要实现的。而实现它能够有多种分歧的角度切入。内存解

作者:admin    更新时间:2019-04-12 20:28
Copyright © 2002-2017 DEDECMS. 织梦科技 版权所有