从广义上讲只要能够运行人工智能算法的芯片都叫作 AI 芯片。
但是通常意义上的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片
现阶段,这些人工智能算法一般以深度学习算法为主,也可以包括其它机器学习算法。
AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。
从 AI芯片 应用位置 来看,AI芯片应用可在服务器和移动端
那么上面跑的系统 绝大多数的选择 就是 linux
AI芯片有 AI相关的IP ,大多也有用于控制的cpu
linux 与 AI 芯片(IP) 如何交互
1. linux运行在哪里
cpu核心
2. linux 与 AI硬件如何交互
linux驱动与AI交互
AI芯片示例:
rk3399
cpu:2*cortex-A72+4*cortex-A53
AI :gpu+npu
勘智K210
cpu :2*RISC-V core
AI :KPU+APU
全志R329
cpu :2*cortex-A53
AI : Arm Zhouyi 0.256T AIPU
昇腾910
cpu : 多个CPU,应该是ARMv8
AI : 单Die内建 32 颗达芬奇核心
不同于传统的支持通用计算的CPU和GPU,也不同于专用于某种特定算法的专用芯片ASIC
达芬奇架构本质上是为了适应某个特定领域中的常见的应用和算法,通常称之为“特定域架构(Domain Specific Architecture,DSA)”芯片。
https://blog.csdn.net/evolone/article/details/100061616