Workflow
具身智能之心
icon
搜索文档
3天搞定机械臂上的VLA完整部署:算法&项目实践(运动规划、视觉反馈、模仿学习等)
具身智能之心· 2025-10-17 08:04
行业宏观趋势 - “具身智能”被写入政府工作报告后 各地具身智能项目迅速激增 [1] - 机械臂作为具身智能的核心载体 其岗位薪资待遇可观并加速上涨 [1] - 行业人才缺口巨大 供需比达到1:7 企业以“年薪百万+期权”条件抢人已成为常态 [1] 行业发展瓶颈 - 研究者和工程师普遍缺乏项目经验 在将算法从仿真环境部署到硬件本体时面临诸多卡点 [3] - 核心原因包括对机械臂操作与抓取的经典方法、模仿学习和端到端VLA方法掌握不透彻 [3] - 工程实践能力不足 难以将理论算法有效转化为实际可运行的硬件操作 [3] - 上述瓶颈导致VLA算法在机械臂上的部署和运行效果不佳 阻碍了具身智能在实际场景中的应用 [3] 解决方案与课程内容 - 课程提供真实机械臂的实操机会 结合行业最新技术趋势讲解运动规划、视觉反馈、模仿学习、VLA等关键技术 [5] - 课程贯穿“感知-决策-控制”全流程 通过线下理论讲解与实战实践 让学员掌握机械臂的工程部署能力 [5] - 实战项目一:实现RViz模型与真机1:1精准映射 集成RRT*路径规划与逆运动学算法以解决机械臂控制与避障问题 [5] - 实战项目二:结合机器视觉 采用规则算法与强化学习双路径 实现特定目标物体的精准识别与自适应抓取 [6] - 实战项目三:搭建1比1遥操作数据采集平台 基于视觉语言VLA模型完成模仿学习训练 实现人类操作技能向机械臂的高效迁移 [6] 课程核心优势 - 课程亮点包括全栈技术闭环 从算法到硬件的工程化能力培养 [17] - 提供真实场景实战 由松灵机器人硬件平台支撑的沉浸式项目实操 [17] - 实现产学研深度融合 获得顶尖学者与产业资源的双重赋能 [17] - 采用高密度小班制 3天高强度技术攻坚与个性化指导 目前仅剩9个学习名额 [17]
相约杭州!具身智能之心首次赞助IROS并现场颁奖
具身智能之心· 2025-10-17 08:04
赛事背景与目标 - 机器人感知系统在动态人群、恶劣天气等复杂真实环境下面临稳定性、鲁棒性与泛化能力的挑战,传统算法性能易大幅下降 [1] - RoboSense Challenge 2025旨在系统性评估机器人在真实场景下的感知与理解能力,推动多模态感知模型的稳健性研究,鼓励跨模态融合与任务泛化创新 [1] - 赛事终极目标是让机器人具备"社交智能",学会"察言观色"和"绕道避人",从而安全融入人类生活空间 [6] 赛道二:社交导航机器人 - 赛道聚焦于开发基于RGBD视觉与里程计的感知导航系统,使机器人在无地图、无特权信息前提下,于动态室内环境中安全、高效且符合社会规范地穿行 [9][10] - 具体任务要求机器人基于RGB-D输入实现目标导航,且导航过程不影响人类行为并符合社会规范 [11] - 挑战难点包括动态行为建模、社交规则编码、不确定性处理以及多维度的性能评测 [13] 技术挑战与推荐方向 - 动态行为建模挑战在于从视觉输入中提取人类轨迹趋势、意图与互动潜力 [13] - 社交规则编码挑战在于将"避让老人"、"保持安全距离"等非显式规则嵌入策略模型 [13] - 不确定性处理需引入轨迹分布预测与多解融合机制以应对路径冲突、遮挡等不可预测因素 [13] - 推荐技术方向包括使用Transformer-based社交轨迹预测模块、行为分类器进行风险判断,以及多主体地图编码与图神经网络进行结构建模 [16] 赛事安排与合作伙伴 - 赛事注册从2025年6月开始,竞赛服务器于6月15日上线,第一阶段截止日期为8月15日,第二阶段截止日期为9月15日,获奖决定将于10月19日在IROS 2025大会上公布 [4] - 赛事由新加坡国立大学、南洋理工大学、香港科技大学、密歇根大学机器人研究院、加州大学欧文分校、上海人工智能实验室等多家研究机构联合主办,并作为IROS 2025官方认证竞赛项目 [5][6] - 赛事颁奖及线下展示将在IROS 2025大会期间于中国杭州举行 [6] 评测标准与活动 - 机器人导航性能评测维度包括成功率、路径效率、路径社会性指标PSC以及碰撞统计H-Coll [13] - 具身智能之心将在10月21日上午于IROS 2025现场进行直播 [14] - 具身智能之心联合Abaka AI为参会者提供after party活动,涵盖学术、创业、出海、投资等领域交流,报名截止时间为10月20日24:00 [17][18]
成立几个月,刚刚,一家具身智能明星公司原地解散了......
具身智能之心· 2025-10-16 16:05
公司基本情况 - 公司名称为OneStar一星机器人(苏州),由吉利控股集团股东李星星(李书福之子)于2025年5月9日发起创立 [6][10] - 公司定位为“具身智能”赛道,被视为吉利在机器人领域的关键布局 [11] - 董事长由潘运滨担任,早期投资人包括曹操出行、晶能微电子等吉利系产业资本 [12] 公司发展历程与关键事件 - 2025年7月,公司完成数亿元“亲友轮”融资,投资方几乎全部来自吉利生态体系 [16] - 同月,上海AI Lab研究员丁琰正式加盟,出任公司CTO兼联合创始人 [7][16] - 2025年8月28日,公司与复旦大学签署协议,共建“智能机器人校企联合实验室”,并推出首款产品“星轮1号”轮式双臂机器人 [18] - 2025年9月17日,公司再次完成数亿元种子轮融资,投资方包括BV百度风投、同创伟业、银河通用、蓝黛科技及中新集团等 [19] - 2025年10月,公司团队被证实已原地解散,官方公众号也清空了消息 [20][22] 公司技术与研发特点 - 公司采用“倒做AI”的独特路线,从真实任务与生产场景开始,倒推算法设计、操作流程和产线布局 [13] - 研发理念为“场景优先”,目标是让机器人在真实场景中进化,而非进行演示 [14] - 公司组建了强悍的科研阵容,联合复旦大学姜育刚教授团队、清华大学汪玉教授团队及国际知名的FastUMI数据采集团队,共同构建“模型+数据+本体”的研发体系 [12] 公司解散后续 - 公司解散原因尚未可知 [8] - 后续处理可能一分为二:原有吉利相关的基础平台和业务回归吉利汽车集团;以丁琰为首的具身技术团队可能单独创业,并已遭遇哄抢 [9]
输出你的insights,邀请更多优秀的具身合作伙伴加入我们~
具身智能之心· 2025-10-16 15:00
共创内容 内容分享:欢迎大家参与具身智能之心的公众号、bilibili、视频号等平台做技术talk、圆桌分享等。 课程与咨询:我们也期望能够在在线课程、实战项目上展开合作,为领域带来更多高质量的内容。 点击下方 卡片 ,关注" 具身智能 之心 "公众号 编辑丨具身智能之心 本文只做学术分享,如有侵权,联系删文 大家好,我是峰哥。最近一直在筹划更为细致的内容输出,特别是行业已有的难点和痛点。后面将 会陆续为大家增加圆桌、访谈、实战&工业级课程、咨询等各类输出。 这段时间自己也陆续看到了很多insights,一直都在有好的内容输出,感谢大家的分享。一个向阳的 领域,离不开众人的拾柴和勇于突破的勇气,在质疑声中不断成长尤其重要。 作为国内具身领域创作的技术平台,具身智能之心期望能够在这波激流中贡献自己的力量,成为一 个真的能给行业带来价值的平台。 但少数人的力量始终有限,我们期望有更多优秀的合作伙伴加入我们。 主要方向 vla、vln、强化学习、具身仿真、Diffusion Policy、多模态大模型、移动操作、端到端、模型部署等 方向。 更多内容 待遇与合作方式,欢迎添加微信oooops-life做进一步沟通。 ...
刚刚,UCLA周博磊也加入了一家机器人公司
具身智能之心· 2025-10-16 08:03
公司动态与战略 - 加州大学洛杉矶分校副教授周博磊正式加入机器人初创公司Coco Robotics,专注于解决人行道自动驾驶难题 [2] - Coco Robotics联合创始人兼CEO Zach Rash宣布成立Physical AI Lab,并由周博磊担任首席AI科学家 [3] - Coco Robotics成立于2020年,是一家专注于“最后一公里”配送的机器人初创公司,早期依赖远程操作员协助机器人规避障碍 [4] - 公司成立Physical AI Lab旨在深入挖掘其机器人车队在真实世界中采集的大量运行数据,以推进自动化研发 [4][5] - 公司目标为实现机器人在“最后一公里”配送中的完全自动驾驶,从而降低整体配送成本 [5] - 公司已在最复杂的城市环境中积累了数百万英里的数据,数据规模已达到可加速Physical AI研究的临界点 [7] - Physical AI Lab是独立于Coco Robotics与OpenAI合作关系的独立研究项目 [8] - 公司计划将实验室的研究成果用于提升自身自动化水平与运行效率,并应用于其机器人所依赖的本地模型,暂无出售数据给同行的打算 [9] - 公司计划在适当情况下向运营城市分享研究成果,以协助改善道路障碍与基础设施 [9] 核心人物背景 - 周博磊本科毕业于上海交通大学,硕士毕业于香港中文大学,并于2018年在麻省理工学院计算机科学与人工智能实验室获得博士学位 [12] - 其职业生涯包括曾任香港中文大学助理教授,现任UCLA计算机科学系副教授并兼任计算医学系教职,是UCLA周实验室负责人 [12] - 研究方向为机器感知和智能决策,重点是通过学习可解释、结构化的表征,使机器能够在复杂环境中感知、推理和行动 [14] - 在人工智能顶级会议和期刊发表百余篇学术论文,总引用数超过6万次,h-index为78,i10-index为137 [15] - 其一篇一作论文《Learning deep features for discriminative localization》引用接近13929次 [15] 技术专长与贡献 - 周博磊在计算机视觉和机器人领域的研究聚焦于小型出行设备,与Coco Robotics专注于人行道自动驾驶的定位高度契合 [7] - 其核心贡献之一是提出类别激活映射技术,能够可视化卷积神经网络在进行图像分类时所关注的具体区域,对可解释性人工智能领域影响深远 [16] - 在CAM基础上进一步提出网络剖析研究方法,能自动识别和量化神经网络中单个神经元所代表的语义概念 [19] - 领导创建了Places数据库,一个包含超过1000万张已标注场景照片的资源库,为场景识别任务训练强大的深度卷积神经网络树立了行业基准 [21] - 参与构建了用于场景解析的ADE20K数据集,提供对场景、物体及其部件的像素级标注,对机器人导航等应用至关重要 [23]
Google最新!Gemini Robotics 1.5:通用机器人领域的突破进展
具身智能之心· 2025-10-16 08:03
技术架构 - 采用“协调器+动作模型”的双模型协同智能体架构,协调器由Gemini Robotics-ER 1.5实现,负责高层任务规划与拆解,动作模型由Gemini Robotics 1.5实现,负责将自然语言指令转化为机器人底层动作轨迹 [2] - 架构支持ALOHA、Bi-arm Franka、Apollo三种形态机器人的直接控制,无需额外适配,并通过环境反馈形成“感知-思考-行动”的闭环执行链路 [2][4] 核心创新:运动迁移机制 - Motion Transfer机制通过多形态机器人混合数据训练,学习通用运动规律,解决了传统机器人模型的“数据孤岛”问题 [5][7] - 该机制在Apollo人形机器人上实现“零样本技能迁移”,任务泛化得分从单形态数据训练的0.49提升至0.62,提升约26.5% [13] - 对于数据量中等的Bi-arm Franka机器人,引入多形态数据和MT机制后,任务泛化得分从0.30提升至0.50,解决了新机器人数据少、训练难的行业痛点 [13] 核心创新:思考-动作融合 - 在VLA模型中引入“思考-动作交织”机制,将复杂指令的转化拆分为“指令→自然语言思考轨迹→动作”两步,提升任务执行的可解释性和鲁棒性 [8] - 在ALOHA机器人“按颜色分类衣物”任务中,开启思考模式后进度得分从0.55升至0.67,提升约21.8% [11] - 思考VLA展现出隐式成功检测、自主错误恢复和场景几何理解三大关键能力,例如能在0.5秒内完成物体滑落后的纠错指令更新 [16] 嵌入式推理能力 - Gemini Robotics-ER 1.5在嵌入式推理得分(59)和通用性得分(75)上取得平衡,是唯一处于“高推理+高通用”象限的模型,既能处理专用机器人任务,也保留通用多模态能力 [17][19][20] - 在复杂指向任务中表现优异,其精准指向能力能为VLA提供结合物理约束和语义理解的动作目标定位,是机器人精准动作的核心支撑 [20][24] 性能评估:多形态泛化 - 在视觉、指令、动作、任务四个泛化维度上,1.5版本相比前代模型均有显著提升,例如在Apollo人形机器人上的任务泛化得分从0.07提升至0.63 [25][27][28] - 在ALOHA机器人上,指令泛化得分从0.53提升至0.76,能理解不同表述的同一指令 [28] - 在Bi-arm Franka机器人上,动作泛化得分从0.24提升至0.66,能根据物体重量调整握力以避免滑落 [28][29] 性能评估:长周期任务 - “ER 1.5+VLA”组合在长周期多步骤任务中表现优异,在“Blocks in Drawer”任务中得分0.83,是“Gemini 2.5 Flash+VLA”方案的2.4倍,凸显ER模型精准任务拆解的价值 [33] - ER模型具备工具调用能力,如在“Nut Allergy”任务中能通过网页搜索正确判断食物成分,而对比模型则出现误判 [33] - ER方案在需要场景记忆的“Desk Organization”任务中得分0.88,远高于仅使用VLA的0.32,证明其场景记忆优势 [33] 安全机制 - 通过ASIMOV-2.0基准测试,覆盖文本风险识别、多模态约束适配、视频风险干预三大维度,例如在文本风险识别中能准确判断儿童误食药片的风险类型为“中毒”及严重程度为“重度” [34][36] - 在多模态约束适配测试中,对于承重限制规则,ER 1.5指向8kg和15kg物体的准确率达到90.9% [36] - 在视频风险干预测试中,能预测“儿童接近热水壶”视频中的最后可干预帧,展示出关键的时间推理能力 [36]
大模型方向适合去工作还是读博?
具身智能之心· 2025-10-16 08:03
文章核心观点 - 文章探讨了大模型领域从业者面临的职业发展选择问题 即继续深造读博还是参与AI Agent创业潮 [1] - 决策需基于个人是否具备扎实的大模型基础以及是否适合扮演“开拓者”的研究角色 [1][2] - 大模型之心Tech知识星球被定位为一个综合性的学习与交流平台 旨在为不同阶段的从业者提供系统化支持 [2][4] 大模型行业现状与人才需求 - 大模型技术范围广泛 涉及生成、多模态、微调、强化学习、基准测试及多个下游应用领域 [1] - 通用大模型研发存在高壁垒 主要由顶级公司主导 [1] - 行业存在导师半路出家、学生基础不扎实的现象 凸显了系统性学习的重要性 [1][2] 大模型之心Tech知识星球资源 - 社区形式为视频、图文、学习路线、问答与求职交流的综合体 [2] - 已邀请40余位来自国内外顶尖高校(如清华、北大、上交、港科大等)和头部公司(如阿里、百度、字节、月之暗面等)的嘉宾 [4][66] - 提供大模型全栈学习路线图 覆盖RAG、AI Agent、多模态大模型等核心方向 [4] 技术路线覆盖详情 - RAG技术路线细分为Graph RAG、Knowledge RAG、多模态RAG、Reasoning RAG等8个子领域 [9][10][16][18][20][22][24][25] - AI Agent技术路线包括前沿综述、评测、强化学习、多模态Agent、通讯协议等7个细分方向 [26][27][29][31][33][35][36][38][40][42] - 多模态大模型训练涵盖MLLM、VLM、微调、RLHF、MoE等9个技术模块 [44][47][49][51][53][54][55][56][58] - 大模型量化、部署及推理被列为独立的技术板块 [60][61][62][63] 社区附加价值 - 提供大模型学术进展与工业应用的最新信息 [7] - 具备工作岗位推荐功能 可第一时间对接企业需求 [7][68] - 计划通过行业大佬直播分享和独家岗位招聘信息进一步赋能社区成员 [64][65][67][68]
3个月,完成具身的大脑算法+小脑算法学习!
具身智能之心· 2025-10-16 08:03
文章核心观点 - 具身智能技术正经历从低层感知到高层理解与泛化的快速演进,其核心架构围绕“大脑”(感知与规划)和“小脑”(运动执行)展开,目标是实现机器人在真实世界中的自主智能行为[3] - 技术发展已进入第四阶段,当前的研究热点是融合Vision-Language-Action模型与强化学习、世界模型、触觉感知等模块,以克服现有模型的局限性,推动向通用任务和开放环境智能体时代迈进[9][10] - 技术的成熟正驱动产品在工业、家居、餐饮、医疗康复等多领域落地,并带动了相关岗位的爆发式增长和融资活跃,吸引了大量研究者和从业者转入该领域[10] 技术架构与核心模块 - 具身智能领域主要围绕“大脑”和“小脑”两大模块展开,大脑负责思考感知与任务规划,小脑负责高精度运动执行[3] - 细分技术领域包括仿真、VLA、Diffusion Policy、VLN、世界模型、强化学习等多个子模块[5] - Vision-Language-Action和世界模型是当前在自动驾驶和具身智能领域同时发力的两大技术路线[5] 关键技术演进阶段 - **第一阶段**:聚焦于抓取位姿检测,通过点云或图像预测末端执行器姿态,实现静态物体抓取,但策略多为单步决策,缺乏对任务上下文和动作序列的建模[7] - **第二阶段**:进入行为克隆阶段,机器人通过专家演示数据学习端到端映射,具备模仿复杂任务的能力,但存在泛化能力弱、误差累积等问题[7] - **第三阶段**:2023年兴起的Diffusion Policy通过扩散模型生成整个动作轨迹,提升了策略的稳定性与泛化能力;2024年进入VLA模型阶段,模型融合视觉、语言与动作生成,支持零样本或小样本快速泛化,实现了从“感知+控制”向“感知+推理+行动”的范式跃迁[8] - **第四阶段**:2025年以来,业界开始探索VLA模型与强化学习、世界模型、触觉感知等模块的融合,以弥补VLA模型在反馈、未来预测和多模态感知方面的局限[9] 当前研究热点与融合方向 - VLA模型目前主要研究端到端和分层两种方案,并分别基于大模型和扩散技术进行拓展,VLA与强化学习结合的方案正成为探索方向[5] - Diffusion Policy作为动作模块,负责学习具体动作与执行,主要研究方向包括状态扩散、动作空间扩散、三维空间扩散等[6] - VLA与强化学习结合旨在提升机器人在长时任务中的试错与自我改进能力[10] - VLA与世界模型结合引入环境动态预测,使机器人具备“想象未来”的能力,有助于高效规划与决策[10] - VLA与触觉信息融合,推动机器人实现从“看”到“看+触多模态融合”的感知边界拓展,以在复杂非结构化环境下进行更精细安全的操作[10] 其他关键技术领域现状 - **仿真技术**:当前较好的方向是sim2real和real2sim2real,许多公司正致力于解决真机泛化差的问题,并已获得行业认可[6] - **视觉语言导航**:当下更关注于目标导航,并与移动操作相关联,无地图方案有利于任务泛化[6] 产业发展与人才需求 - 技术发展推动了人形机器人、机械臂、四足机器人等产品在工业、家居、餐饮、医疗康复等多个领域的落地,相关产品和融资络绎不绝[10] - 行业岗位呈现爆发式增长,吸引了大量同学和专业人士从传统计算机视觉或自动驾驶等领域转入具身智能领域[10] - 随着产业界重视,具身智能正从“论文”走向“部署”,对工程与系统能力的需求激增[14]
具身走向现实世界!RoboChallenge:从仿真到实体,全球首个大规模多任务真机任务基准
具身智能之心· 2025-10-15 19:03
行业痛点与市场空白 - 具身智能领域缺乏真实、开放的评测基准,真机测试的缺失与现有评测体系的局限已成为限制该领域发展的关键卡点[3] - 当前主流的具身仿真评测benchmark主要依赖仿真环境,面临sim2real问题,模拟器中表现优异的算法在真机上常出现"落地即失效"的问题[4] - 现有在线评测系统存在明显短板,仅部署1-2台机器人、支持少数任务,无法满足"大规模多模型+多任务"的评测需求,且同一模型的成功率在0%到100%间波动,严重影响结果可重复性[4] RoboChallenge平台核心特点 - 平台由Dexmal原力灵机和Hugging Face共同发起,是全球首个大规模、多任务的在真实物理环境中由真实机器人执行操作任务的基准测试[5] - 首次实现"10台真机集群+30个多样化任务"的大规模评测能力,部署4种主流机器人,包括UR5、Franka Panda、Cobot Magic Aloha和ARX-5[10] - 创新采用"远程机器人范式",用户无需拥有任何机器人硬件,仅需通过在线API即可完成模型与真机的交互,实现"零硬件门槛"[15][19] - 平台坚持全面开放原则,向全球研究者免费提供评测服务,并公开所有任务演示数据及测试中间结果[34] 技术方案与评估体系 - 为解决真机测试中"结果波动大、公平性不足"的核心痛点,创新性地提出"视觉输入匹配"方法,通过将演示数据中的参考图像叠加于测试画面,确保每次测试初始状态一致[23] - 设计了多层级的严谨评估机制,控制测试者差异,并从四个关键维度构建评估体系:VLA解决方案难点、机器人类型、任务场景环境和目标物体属性[23] - 针对"同一模型多次测试波动"问题,设计"基准协议"与"比较协议",确保评测结果的可重复性与可比性[25] - 评估采用端到端任务成功率与过程评分相结合的机制,测试集所有任务均提供约1000条演示数据[16] 任务设计与模型表现 - 平台提供首套桌面操作基准测试集Table30,包含30个精心设计的日常情境任务,覆盖家庭、餐厅、工作等场景[12][26] - 30个任务围绕VLA模型的7大核心能力展开,包括精确3D定位、遮挡与多视角融合、时间依赖性、双臂协同、柔性物体处理、物体识别与分类以及Long horizon和多阶段操作[27][28] - 官方测试了四种主流开源VLA算法,性能更强的模型表现显著更优,SOTA模型π₀.₅的成功率尚不足50%,其得分为61.84,成功率为42.67%[29][30] - 即使仅使用少量样本(约50个任务片段)且混合多任务数据进行训练,π₀.₅仍展现出不错性能,预示着真正的"通用模型"有望在未来出现[31] 平台价值与行业影响 - 平台填补了评测空白,为VLA模型提供真实性能的"试金石",避免"纸上谈兵"式研究[38] - 显著降低参与门槛,吸引更多研究者参与,尤其降低中小企业、高校团队的评测成本[38] - 严谨的评估体系与多样化任务能暴露模型短板,明确模型改进方向,推动VLA模型在核心难点上的突破[38] - 通过结果透明、视频公开、鼓励代码开源,构建开放生态,促进跨团队协作,加速具身智能技术的整体迭代[38]
ROSCon China 2025 揭秘,具身智能的前沿技术,等你来看!
具身智能之心· 2025-10-15 19:03
大会核心观点 - ROSCon China 2025将于2025年10月31日至11月1日在上海举办,标志着ROS生态从“技术融合”迈向“价值爆发”的关键节点[6] - 大会是推动社区协作、织密行业联结的核心纽带,为研究者、开发者和学生提供观点交流与经验分享的平台[6][7] 参会企业与高校 - 参会企业涵盖科技巨头、汽车制造商、机器人公司及半导体企业,包括英特尔、蔚来汽车、智元机器人、华为技术有限公司、安霸半导体、优必选、海康威视、上汽大众等[14][15] - 参会高校及研究院所汇聚国内外顶尖学术机构,包括清华大学、北京大学、中国科学技术大学、上海交通大学、哈尔滨工业大学、浙江大学、墨尔本大学、香港大学、中国科学院空天信息创新研究院、上海人工智能实验室等[15][16] 会议议程与演讲主题 - 具身智能前沿模型与技术实践专题涵盖大模型控制机器人、VLA技术应用、数据闭环构建及技术生态探索等主题,演讲方包括华南理工大学、地瓜机器人、刻行时空、智元机器人、英特尔、阿加犀智能科技[18] - 具身机器人核心技术与开发平台专题涉及数据生成、策略训练、任务基准测试、边缘AI、模块化解决方案及开源工具链,演讲方包括英伟达、Arm、英飞凌、矽递科技、光轮智能、索尼、华为技术有限公司、集智联[19][20] 合作媒体 - 大会获得众多国内外主流财经、科技及行业媒体支持,包括新华社、人民网、第一财经、中国证券报、财联社、澎湃新闻、新浪网、腾讯网、搜狐网、投资界、机器人之家等[20][21]