谷歌在IO大会上公布了他们用了一年多的TPU,但是没说这个是什么,也没有开源的意思。
那么我有几个问题要问
- TPU 是一种FPGA(可能是)
- TPU 需要驱动 (应该需要)
- TPU 类似的技术,对于现在的人工智能有什么帮助?
更新 2016-5-26
整理现在比较确定的信息。
2014年,也就是两年前的时候,谷歌内部就发现了,gpu做线上业务不太合适(具体什么原因?),但是同时也发现GPU很适合做模型的训练,所以他们自己开发了TPU,来支持线上业务。
也就是说TPU不是用来做模型训练的,而是作为一种支持线上业务的芯片。(低功耗的芯片)
用GPU做线上业务的问题
- 能耗问题
- 散热
- 体积
更新 2016-5-30
今天看到google brain团队发了一篇paper 《tensorflow: a system for large-scale machine learning》
在文中, 很明确的告诉我们,谷歌内部在使用gpu做模型训练,用TPU来部署训练好的模型。
网友评论