美文网首页
AI智能驾驶芯片的那些事儿(下)

AI智能驾驶芯片的那些事儿(下)

作者: 荻确如此 | 来源:发表于2022-06-21 23:19 被阅读0次

    我们之前提到了深度学习和智能驾驶AI芯片门当户对,他的目的是获得一个鲁棒性好、泛化能力强的深度学习模型。而这个深度学习模型是一个充满参数的数学模型,这些参数决定了模型的高矮胖瘦。

    在没有学习之前,这个模型犹如不识字的孩童,只知道哭,但是当我们把一个巨大的数据集喂给模型时,模型的参数就开始基于这些数据集开始进化,直到找到最优的那组参数。这个时候的模型就是象牙塔毕业的有为青年。

    基于训练好的模型结合实时获得的传感器数据,准确的,快速的输出感知,识别,预测结果被称为推理。伴随决策也在AI化,博弈网络的引入,推理所需的算力自然也要高。训练一般在云端或本地端,推理在车端。这样一来,谁的硬件资源可以更好地匹配深度学习算法在训练,推理过程的基本运算,谁就有座金龟婿的潜质。

    GPU就是将一些深度学习用的基本运算进行硬件化,比如MAC,通过大量硬件逻辑电路完成计算,因此可以大幅提升计算速度。但是对于智能驾驶领域,各种深度学习算法在进化,每天都有可能产生新的更高效的深度学习模型,二不同模型在训练,推理过程对基本运算的依赖程度不同。整形,混合精度都可以排列组合。同时还可以在推理的时候切换不同的模型。使用GPU,可以起到加速作用,但是无法发挥最大的潜质。

    FPGA

    FPGA具有极低的延迟,无需依赖OS,涉及到三大技术:(1)结构布局,内部布局细腻。(2)接口支持,决定了与外围设备兼容性。(3)EDA能力,EDA工具是FPGA可编程的关键。

    FPGA的编程灵活性,特别适合算法不断更新的领域,可以节省好几个月的流片时间,还能避免一次性工程费用。但是灵活性的代价就是牺牲了一定程度的处理效率,峰值和性能低于GPU。而且门槛也很高。

    ASIC

    ASIC(Application Specific Integrated Circuit,应用型专用集成电路),是针对某种特定功能需求,设计,开发d额专用类型芯片。这种针对估计算法的专用芯片,可以实现最佳计算能力,最优计算效率。

    DSP

    数字信号处理器,是一种采用程序存储器和数据存储器分开的哈佛架构微处理器。DSP从模数转换器获得数字信号,通过内部算法处理后输出给模数转换器生成模拟信号。通过硬件上专门的乘数累加器,基于单指令多数据流操作的特殊指令集,可以实现数字信号快速的并行处理。目前管用用于音视频压缩,编解码,语音识别和处理还有数字图像处理,雷达应用。

    以美国为代表的一些芯片公司如Nvidia, Intel, Qualcomm,AMD,总是可以在芯片上领先国内,但是我们也有很多企业家,学成归来,消化吸收国外的技术,自己去研发创业,最终希望取而代之。但是这是一条漫长的道路,路漫漫其修远兮,要打造完善的生态,契合客户的需求,真的不容易。

    如果算力是智能驾驶芯片企业冰面上的比拼参数,那么软件生态就是冰面下的竞争壁垒。华丽的参数,如果没有全栈易用的工具链,很容易将焦躁的开发团队拒之门外。而生态建设有需要产业链上下游沉住气,通力合作,不断打磨。

    最后,智能驾驶公司对算力的追逐也可能是内功不足的表现,前期测试,Demo可以在消费级桌面X86 CPU和显卡上。而真正落地切到以ARM CPU为主的SOC时,研发团队不知道系统可以优化多少,不知道我对运算能力的需求,保守的做法可能就只能选用市面上最强的SOC,预埋最强的硬件,毕竟智能驾驶还是一个没有完全断奶,需要持续喂养的娃娃!

    我们希望这个娃娃快快长大!

    相关文章

      网友评论

          本文标题:AI智能驾驶芯片的那些事儿(下)

          本文链接:https://www.haomeiwen.com/subject/mcqyvrtx.html