分组1:公司投资者关系活动基本信息 - 活动类型为特定对象调研和其他(券商策略会)[2] - 活动参与人员有长江证券路畅等及东吴证券策略会所邀请的投资者[2] - 活动时间为2024年3月15日下午14:00 - 15:00、15:30 - 16:30 [2] - 活动地点为公司会议室和东吴证券策略会会议现场[2] - 上市公司接待人员有公司董事邱俊祺、岩思类脑人工智能研究院首席科学家李孟博士、上海岩芯数智人工智能科技有限公司CEO刘凡平[2] 分组2:岩思类脑人工智能研究院情况 - 2023年8月成立,承继控股股东多年类脑人工智能领域研究成果[2] - 致力于大脑内部状态解析与调控等前沿领域研究,以脑电大数据与脑电大模型为核心技术底座开展科研和产品开发[2] - 研究工作由李孟博士领衔,其研究成果包括破解全球首例斑马鱼全脑十万量级神经元网络,相关论文发表于顶级学术期刊Nature [3] 分组3:RockAI(岩芯数智)业务情况 - 2023年6月布局AIGC领域,2024年1月成立上海岩芯数智人工智能科技有限公司,发布国内首个非Attention机制的通用大模型 —— "Yan 1.0模型" [3] - 2024年围绕Yan架构加强核心算法创新及迭代升级,构建融合多模态的Yan2.0大模型,预计下半年推出[3][7] 分组4:公司业务布局及技术问答 类脑人工智能和脑机接口布局 - 类脑人工智能目标是“认识脑、保护脑和模拟脑”,脑机接口技术是其细分领域[3] - 岩思类脑提前布局脑电大模型构建和研发,以适应多种方式获得的海量脑电神经网络数据,当前重点开展大脑内部状态解析与调控及脑电大模型研究[4] 脑电大数据特点及与语言大模型区别 - 与传统大数据相比,脑电大数据训练数据获取难度高、时空复杂度高、预处理难度大[4] - 与自然语言大模型类比,脑电大模型需实现更高自由度、更细颗粒度的解码效果以及极强泛化性能,目标是实现跨样本、跨物种模型泛化移植[4] 设计非Attention机制的Yan架构原因 - Transformer架构具有训练周期长、应用成本高、高机器幻觉表达等缺陷,公司旗下岩芯数智研发团队为满足不同行业需求,于2024年1月推出Yan 1.0模型[5] Yan架构与Attention机制模型区别 - 标准Attention机制计算复杂度为O(n^2d),复杂度随序列长度呈2次方增长;Yan架构通过自研记忆算子及特征关联函数,将计算复杂度降低为O(nd),提高了训练效率和收敛速度[6] 对照实验结果 - 训练效率:Yan 1.0模型损失值低于Transformer架构的LLaMA 2模型,收敛到相同loss(loss = 3.0)时,Yan 1.0模型仅需1.5小时,LLaMA 2模型需10.5小时[6][7] - 推理准确率:Yan 1.0模型比LLaMA 2模型在训练集上的预测准确率高出17%,在验证集上高出13% [7] - 显存占用:输出token长度超出2,600时,LLaMA 2模型显存不足无法推理,Yan 1.0模型显存稳定在14G左右可正常推理[7] - 记忆能力:用数十万条古诗数据续写训练,Yan 1.0比LLaMA 2能更快达到更好收敛和更高准确率[7] Yan模型部署情况 - 原生结构的Yan架构模型在零压缩、零裁剪情况下可流畅运行于主流消费级CPU设备,而70亿(7B)参数量的Transformer需量化后才能运行,且会带来推理精度损失[7] 文生视频技术布局 - 2024年1月发布的Yan1.0大模型以自然语言为主,尚不支持文生视频功能,正在研发的Yan2.0将融合多模态,预计下半年推出[7] Yan模型应用潜力及商业化构想 - 可适用于通用大模型商业化应用场景,现阶段重点为企业客户提供本地化应用和部署,未形成规模收益;未来希望在to B垂直领域打造专业生产力工具,解决低算力模型场景应用[8] 分组5:公司收购进展 - 公司拟增资并收购智能驾驶企业Nullmax(Cayman)Limited部分股权,正在向主管部门办理境外投资ODI审批手续,进展以公司公告为准[8]
岩山科技(002195) - 2024年3月15日投资者关系活动记录表