该来的终于还是来了,Google蓄力的Edge TPU终于正式对外公布了,不仅如此,此次Google还带来了基于Edge TPU的AIY Edge TPU开发板以及AIY Edge TPU加速器,全面帮助工程师将机器学习部署到AI产品开发中去。
可以想见,未来谷歌Edge TPU在物联网以及智能终端设备中的巨大使用空间,以及对物联网芯片市场的冲击。
今天谷歌宣布推出两款旨在帮助客户大规模开发和部署智能连接设备的新产品:Edge TPU,一款新的硬件芯片,以及Cloud IoT Edge,一款将Google Cloud强大的AI功能扩展到网关和连接设备的软件栈。用户可以在云上构建和训练ML模型,然后通过Edge TPU硬件加速器在Cloud IoT Edge设备上运行这些模型。
Edge TPU是谷歌的专用ASIC芯片,专为在边缘运行TensorFlow Lite ML模型而设计。在设计Edge TPU时,我们非常注重在很小的占用空间内优化“每瓦性能”和“每美元性能”。
Edge TPU的设计旨在补充谷歌云TPU,因此,你可以在云中加速ML的训练,然后在边缘进行快速的ML推理。你的传感器不仅仅是数据采集——它们还能够做出本地的、实时的、智能的决策。
Edge TPU芯片的尺寸,与一美元硬币对比
根据谷歌博客的介绍,Edge TPU 的特点如下:
边缘上的AI
如今,从消费者到企业应用程序,AI无处不在。随着连接设备的爆炸式增长,再加上对隐私/机密性、低延迟和带宽限制的需求,在云中训练的AI模型越来越需要在边缘上运行。Edge TPU是谷歌为在边缘运行AI而设计的专用ASIC。它在很小的物理占用和很低功耗的限制下提供高性能,使得在边缘部署高精度的AI成为可能。
端到端的AI基础设施
Edge TPU是Cloud TPU和Google Cloud服务的补充,提供end-to-end、cloud-to-edge、硬件+软件的基础设施,以便于基于AI的解决方案的部署。
很小的物理占用和低功耗下实现高性能
由于其高性能、物理占用面积小、功耗低,Edge TPU可以在边缘广泛部署高质量的AI。
AI硬件、软件和算法的协同设计
Edge TPU不仅仅是一个硬件解决方案,它结合了定制硬件、开放软件和最先进的AI算法,为边缘提供高质量、易于部署的AI解决方案。
广泛的应用
Edge TPU有非常多的工业用例,例如预测性维护、异常检测、机器视觉、机器人、语音识别等等。在制造业、内部部署、医疗、零售、智能空间、交通等领域有广泛应用。
Edge TPU支持在边缘部署高质量的ML推理。它增强了谷歌的Cloud TPU和Cloud IoT,以提供端到端(云到端、硬件+软件)的基础设施,以促进客户基于AI的解决方案的部署。除了开放源码的TensorFlow Lite编程环境之外,Edge TPU最初将部署多个Google AI模型,并结合谷歌在AI和硬件方面的专业知识。
Edge TPU补充了CPU、GPU和其他ASIC解决方案,用于在Edge上运行AI,这将由Cloud IoT Edge支持。
Edge TPU 和 Cloud TPU的对比
Edge TPU可用于ML推理,不适用于训练;Cloud TPU可用于ML训练和推理
软件和服务方面,Edge TPU适用于Cloud IoT Edge和Android Things;Cloud TPU的可用软件包括Cloud ML Engine,Kubernetes Engine,Google Compute Engine,以及Cloud IoT Core
ML框架:Edge TPU可使用TensorFlow Lite, NN API;Cloud TPU可使用TensorFlow, scikit-learn, XGBoost, Keras
硬件加速器:Edge TPU包括Edge TPU, GPU, CPU;Cloud TPU包括Cloud TPU, GPU 和CPU
Edge TPU的特性
Edge TPU使用户能够以高效的方式,在高分辨率视频上以每秒30帧的速度,在每帧上同时执行多个最先进的AI模型。
Cloud IoT Edge是将Google Cloud强大的数据处理和机器学习功能扩展到网关、摄像头和终端设备的软件,使物联网应用更智能、更安全、更可靠。它允许你在Edge TPU或基于GPU和CPU的加速器上执行在Google Cloud中训练了的ML模型。
Cloud IoT Edge可以在Android Things或基于Linux OS的设备上运行,其关键组件包括:
网关类设备runtime(至少有一个CPU),用于边缘数据的本地存储、转换和处理,以及从数据中获取智能,同时与云IoT平台的其余部分无缝互操作。
Edge IoT Core runtime,能更安全地将边缘设备连接到云,支持软件和固件更新,并通过Cloud IoT Core管理数据交换。
基于TensorFlow Lite的Edge ML runtime,使用预先训练过的模型执行本地ML推理,显著减少延迟并增加边缘设备的多功能性。由于Edge ML运行时与TensorFlow Lite接口,因此它可以在网关类设备中的CPU,GPU或Edge TPU上执行ML推理,或者在终端设备(如摄像头)中执行ML推理。
为了使用Edge TPU快速启动开发和测试,我们构建了一个开发套件(Edge TPU development kit)。这个套件包括一个模块化系统(SOM),集合了谷歌的Edge TPU,一个NXP的CPU, Wi-Fi,和Microchip的安全元件。开发套件将在今年10月对开发者开放,也可以注册申请提前访问。
Edge TPU开发套件:SOM(上)和底板(下)
AIY Edge TPU开发板规格:
◇ Edge TPU模块(SOM)规格
• CPU:NXP i.MX 8M SOC(四核Cortex-A53,Cortex-M4F)
• GPU:GC7000 Lite图形处理器
• ML加速器:Google Edge TPU
• RAM:1GB LPDDR4
• Flash:8GB eMMC
• 无线:Wi-Fi 2x2 MIMO(802.11b/g/n/ac 2.4/5GHz);蓝牙4.1
• 外形尺寸:40mm*48mm
◇ 底板规格
• 闪存:MicroSD
• USB:Type-C OTG、Type-C电源、Type-A 3.0 • Host、MicroUSB串口
• LAN:千兆以太网端口
• 音频:3.5mm音频插孔、数字PDM麦克风(x2);2.54mm 4针端子,用于立体声扬声器
• 视频:HDMI 2.0a(全尺寸)、MIPI-DSI-39针FFC连接器(4-lane)、MIPI-CSI2-24针FFC连接器(4-lane)
• GPIO:40pin扩展接口
• 功率:5V DC(USB Type-C)
• 外形尺寸:85mm*56mm
◇ 支持操作系统:Debian Linux,Android Things
◇ 支持深度学习框架:TensorFlow Lite
轻轻一扫 欢迎关注~
如果觉得好,请
转发
转发
转发