谷歌的TPU是什么?

作者: cptn3m0 | 来源:发表于2016-05-19 19:34 被阅读638次

    谷歌在IO大会上公布了他们用了一年多的TPU,但是没说这个是什么,也没有开源的意思。

    那么我有几个问题要问

    1. TPU 是一种FPGA(可能是)
    2. TPU 需要驱动 (应该需要)
    3. TPU 类似的技术,对于现在的人工智能有什么帮助?

    更新 2016-5-26

    整理现在比较确定的信息。

    2014年,也就是两年前的时候,谷歌内部就发现了,gpu做线上业务不太合适(具体什么原因?),但是同时也发现GPU很适合做模型的训练,所以他们自己开发了TPU,来支持线上业务。

    也就是说TPU不是用来做模型训练的,而是作为一种支持线上业务的芯片。(低功耗的芯片)


    用GPU做线上业务的问题

    1. 能耗问题
    2. 散热
    3. 体积

    更新 2016-5-30

    今天看到google brain团队发了一篇paper 《tensorflow: a system for large-scale machine learning》
    在文中, 很明确的告诉我们,谷歌内部在使用gpu做模型训练,用TPU来部署训练好的模型。


    相关文章

      网友评论

        本文标题:谷歌的TPU是什么?

        本文链接:https://www.haomeiwen.com/subject/aasgrttx.html