相比**代TPU仅能针对逻辑推演作加速,Google此次宣布推出的**代TPU不但大幅提升运算效能,更增加对应深度学习应用加速设计,配合越来越多人使用的TensorFlow学习框架,将使TPU应用领域变得更加多元,甚至直接挑战NVIDIA以GPU加速的深度学习应用模式。
不过,在Google I/O 2017期间进一步向Google询问,确认**代TPU设计依然是以针对开放学习框架TensorFlow加速为主,本身并不像NVIDIA Tesla V100等藉由GPU加速模式可额外支持Caffe、Cognitive Toolkit等学习框架,因此在实际布署应用弹性可能相对受限。 只是从TPU大幅去除非必要组件,仅针对深度学习、逻辑推演加速功能优化,预期仍将使NVIDIA面临不少竞争压力。
但从NVIDIA为使加速学习效率提升,在新款加速卡Tesla V100架构设计额外加上对应TensorFlow学习框架的Tensor核心,藉此让深度学习效率可进一步提升,显然也是呼应越来越多藉由TensorFlow学习框架产生的深度学习应用需求,同时更有向Google说明GPU加速仍有较广泛应用的叫阵意味。
而对于***需求部分,Google方面则认为无论是什么样的加速学习模式都有其优点,例如聚焦在TensorFlow学习框架的深度学习,或许**代TPU能带来更好加速学习效率,但若是针对TensorFlow以外学习框架应用,NVIDIA的Tesla V100显然就有较高使用弹性,因此主要还是看本身设计内容挑选较合适的学习模式。 同时在越来越多的选择之下,对于***所能使用资源、带动市场发展动能都能带来好处。