
不同算法架構對于芯片的需求差異較大。舉例而言,Transformer 從 2017年開始在自然語言領域大放異彩,2020年起在 CV領域開始得到廣泛應用,隨后特斯拉開始嘗試將 Transformer應用在自動駕駛中。Transformer優秀的長序列處理能力和更高的并行計算效率,2022年之后替代 CNN 成為國內智駕軟件的核心算法。但 2022 年之前國內智能駕駛軟件主要基于 CNN算法,當時芯片的設計思路也是圍繞針對 CNN的效率優化,因此對于 Transformer的部署存在一定的難點。具體來說:1)Transformer量化難度大,而彼時設計的部分芯片僅支持 Int8計算,而不支持浮點計算;2)Transformer 本身對算力要求高,低算力芯片難以部署;3)CNN 主要是計算密集型的算子,而 Transformer 有很多訪存密集型算子,對帶寬要求更高。