是个车企都要蹭DeepSeek 属实有点幽默了

2025年02月12日 00:13 次阅读 稿源:差评 条评论

DeepSeek 的热度,终究还是被车圈蹭上了。就在这几天,当我们还在跟 DeepSeek 互喷服务器繁忙的时候, N 个国内的车企就跟商量好了似的,先是岚图,后是极氪,紧接着就是智己、宝骏和昨天的比亚迪。

之后甚至人传人到了斑马智行和亿咖通这些做车机的企业,都一个接一个的表示,自家的产品已经和 DeepSeek 最新的 R1 模型合体了。


而就在脖子哥写稿的时候,这个名单还在变长。

不知道大伙咋想啊,反正我在看到这些消息的时候,脑子里就是一连串的问号:

把 DeepSeek 用在车上有啥意义?他们说的深度融合到底是个啥形式?车载版本的 DeepSeek 和网页版又有啥区别?

当然最重要的灵魂拷问是,这些车企们,到底是不是只是为了营销的热度在硬蹭 DeepSeek ?

你别说,在狠狠研究了一番以后哥们已经有结论了。说人话就是, DeepSeek 的成功对汽车行业确实有用,但压根不是上头这些车企这么用的。

至于为啥,我们慢慢来看。

首先第一个问题,车企们是怎么把 DeepSeek 放到车上的?

可以肯定的是,大家都没有选择在车机里装 app 这种最直给的方式。因为从各路新闻稿里可以看到,大家都提到了 DeepSeek-R1 模型和自有模型在底层算法上的融合,部份品牌还提到了模型蒸馏的技术。



再加上一家名叫思必驰的云端大模型服务公司,前一阵也官宣了自己在云端模型里融合了 DeepSeek 模型,给像是长城、比亚迪这样的车企提供云端 AI 助手的支持。



基本可以确定目前上车的 DeepSeek-R1 ,大概率会是以下两种形式之一:

一是通过 DeepSeek 的 MIT 开源协议,在自家的服务器上布置满血版或是蒸馏后的 R1 模型,然后通过微调融合,和自家原有的模型变成一整个大模型。车主呢,则是通过车机联网来使用这个大模型的交流功能。

第二种则是通过蒸馏的方式,把 R1 压缩成一个体积非常小的小模型然后更新到车端,让车主就算不联网,也能用上 DeepSeek 的一部分功能。


这两种方式说到底,就是给这些车上原本的 AI 模型上了一个 DeepSeek 的 buff ,让它拥有一部分 R1 的能力。

那这些模型是用来干啥的呢?其实……就是能让语音助手说起话来更有人味而已。

是不是觉得有点无聊,是的,因为类似的功能已经在很多新势力车型上实现了。

比如之前很火理想 MindGPT 和蔚来的 NomiGPT ,对话沟通啥的不仅比传统的语音助手更流畅,一些比较抽象的问题,比如 “ 凿壁偷光需要判几年 ” 这种弱智吧问题,能答上来的概率也能相对高点。

但要我说啊,这种用法压根就没发挥出 DeepSeek-R1 模型的能力,改善用车体验啥的就更别指望了。

你问为啥?

要知道, DeepSeek 的 R1 模型之所以产生了这么大的轰动,开源是一方面,最重要的还是它在训练的时候,很 big 胆的使用了强化学习 + 奖励模型的方式,最终涌现出了超强的推理能力,非常适合解决困难的逻辑问题。

打个比方啊,高中班里有俩同学 A 和 B ,面对同一道数学题, A 的做法是循规蹈矩的用各种公式,一步步按部就班的解题。而 B 则是管你公式这那的,自己靠着之前做过的超多题目,自己摸索出一个解法

而这个解法,很有可能就会比硬套公式来的高效的多。就跟咱们学了高等数学再回去做高中的题似的,直接就秒了。


久而久之,相比死记公式的 A , B 同学就更能理解问题和答案之间的逻辑关系,在面对没见过的复杂问题,比如巨难的数学和编程问题的时候,也能更快、更准确的推理出正确的答案。

而这个 B 对应的,其实就是 DeepSeek-R1 的纯强化学习的训练模式。

不需要像以往的监管学习一样一直用规则来微调和修正,只靠着做对了就奖励,让 AI 自己领悟推导过程


这时候再回到车上的语音助手,问题就来了,因为咱们压根不会问它什么太复杂的问题,顶多就是问问天气放放歌啥的。

这些功能就算不是 DeepSeek 这种级别的大语言模型,其实也都能解决的七七八八。只要你不是开车开一半突然就问语音助手:


那在体验上大概率就不会和现有的车载大模型有太大的差别。

再加上经过蒸馏和融合之后的小模型,能力对比满血版有着不小的阉割,对于自己本来就有自己的大模型的车企来说,再加一个 DeepSeek 着实没啥必要。

所以啊,那些着急喊出 DeepSeek 口号的车企们,我的评价是热点么肯定是想蹭的, DeepSeek 上车的实际效果,肯定也远没有宣传里那么邪乎,大伙可以坐下了。


当然,如果车企本来在座舱 AI 上有短板,能靠着开源的 DeepSeek-R1 做做查缺补漏,让自家的模型追上一线新势力的水平,确实也不是什么坏事。

可就像我开头说的,DeepSeek 如果只是拿来做语音助手的话,那属实是有点浪费了。毕竟它更大的潜力,其实是在智能驾驶上。

就这么说吧,甭管是很火的端到端还是规则算法,如果能更多的用上 DeepSeek 的强化学习模式,或许就能让能力往上提高一大截

真不是我吹啊,大伙还记得前头做题的同学 A 和 B 么,其实类似的道理在智能驾驶上也同样成立。

现在几乎所有的主流智能驾驶其实就是那个循规蹈矩的同学 A ,在训练模型的时候都是模仿学习为主。模仿嘛,顾名思义就是让智驾算法能跟专家的行为示范对应,也就是模仿人类开车。


比如特斯拉、比亚迪和华为,就都会从驾驶评分比较高的车主那收集驾驶数据,比如摄像头拍的视频喂给算法,研究车主们怎么从 A 点开到 B 点,再进行一个模仿。

很明显,这种思路到头来训练出的就是跟人类开车水平持平的智驾。但强化学习则完全不同,因为它学习的不是驾驶的过程,而是通过不断的试错,领悟出从 A 点开到 B 点最高效的路线。

而这个领悟的上限,可不就只是能让智驾开得像人了。

要知道智驾系统对于环境的感知能力,其实比我们人类司机强很多。当我们过路口的时候还在东张西望看前后左右有没有障碍物的时候,智驾通过车上各种的摄像头和雷达只要一瞬间就能看个大概

当我们只能单线程的先观察、后打灯、再变道的时候,智驾也能在同一时间用一个操作搞定。


理论上,只要学习和领悟到位,智驾就能推理、总结出许多比人类司机效率更高、更能利用好各种车辆性能的驾驶方式。很多咱们觉得很难、用模仿学习咋学都学不会的小众场景,强化学习可能分分钟就能搞定。

都说现在的智驾是刚拿驾照司机的水平,用上强化学习之后,指不定真就会变成有了十几年驾龄的超绝老司机

当然了,理论终究是理论,想要在智驾训练里大规模的用上强化学习,依旧有不少难点和瓶颈。

就比如,强化学习的试错过程需要巨大的算力资源,对于国内很多需要租算力做智驾的企业来说其实不太能搞得定。

再比如强化学习很容易出现的幻觉问题,咱们有时候在用满血 DeepSeek 的时候会经常发现它搁那胡言乱语,本质上就是因为强化学习学的有些魔怔了,开始涌现出一些不符合事实的内容。

智驾算法也是如此,如果奖励和微调的机制没有设计到位,就很有可能幻想出 “ 需要开到天上 ” 的开法。


就算不出现幻觉,也可能出现急加速、猛刹车这种赛道开法。效率是高了,但谁的脖子和腰顶得住啊?这就需要车企花费很多精力设计奖励模型,并且通过一些微调措施来限制 AI 的发挥,这就非常考验主机厂的算法能力了。

即使是贼早开始做智驾的特斯拉,也只有在非常少的公开资料里表示自己有在部分模块里有限的使用了强化学习。

可见难度是实打实的,而且还不小。


但我觉得啊,想要真正让智驾的能力再上一层楼,多用强化学习肯定是各家未来的大方向。把强化学习的成果做到大规模的落地,未来可能也是继把智驾做到白菜价之外,各家车企和供应商们 battle 的下一个战场。

这不比做语音助手啥的有意思多了嘛。

对文章打分

是个车企都要蹭DeepSeek 属实有点幽默了

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan