VLA(Large Vision - Language Model)

搜索文档
VLA搞到现在,可能还是情绪价值的内容偏多一些......
自动驾驶之心· 2025-09-21 00:03
摩尔定律不仅体现在芯片算力上,也体现在整个计算机行业。一旦数据集固定下来,以现在的AI技术和庞大算 力,其测试指标的收敛速度也会越来越快。 这两天和星球大佬聊了下关于端到端和VLA的看法,感受颇深,分享给大家: 关于端到端的讨论 学术界的端到端现在是遍地开花的状态,什么流派都有,毕竟【端到端】只是一个范式,你只要实现用一个模型 把传感器输入和轨迹规划的输出串起来,这就是端到端。 所以做什么的都有。 但是,AI进入大模型时代后,相信大家都有一个共识,那就是数据集的迭代速度一定不能比技术迭代慢太多, 技术日新月异的时候,如果数据集反反复复还是那几个,那么毫无疑问数据集一定会阻碍技术的迭代。 所以才有一些研究团队在发论文的同时发布一个数据集,这样可以保持很长一段时间的高impact输出。 学术界的端到端现在处在方法远比问题多的状态。 工业界的端到端更加务实,车上的算力限制就能把相当一部分热门模型拒之门外。但是, 工业界最得天独厚的 优势就是有海量的数据,这给模型研发提供了无限可能。 要知道,chatgpt的成功很大程度上归功于互联网给了我们收集海量数据的机会。为什么超大规模transformer模型 率先在NLP领 ...