Workflow
LLM
icon
搜索文档
急招+快速面试|理想汽车AI应用高级产品经理
理想TOP2· 2025-09-16 23:04
公司AI产品战略方向 - 专注于LLM和AIGC技术在座舱、手机等多终端C端AI应用开发 负责交互方案规划与落地实施[3] - 要求产品经理具备海外AI市场研究能力 通过竞品分析和用户反馈实现创新性产品设计 追求行业领先体验[3] - 需主导AI应用从0到1再到N的全生命周期管理 包括需求分析、设计开发测试及上线全流程[2][3] 团队与资源支持 - 团队氛围开放坦诚 鼓励快速行动与创新 所有想法均可获得直接市场反馈验证[2] - 提供充分自主权 允许产品经理全程主导从构思到落地的完整产品实现过程[2] - 领导者具备10年AI行业经验 倾向建立产品技术深度交流与共同解决难题的伙伴关系[2] 人才能力要求 - 需具备3年以上AI产品应用经验 拥有万级DAU场景的C端大模型实战经验及闭环落地能力[4] - 要求优秀的数据分析和逻辑思维能力 对用户核心需求有敏感洞察和深刻理解[6] - 需具备主导复杂项目的推动能力 能全局性统筹协调复杂业务并系统性解决问题[5][7][8] 行业技术聚焦 - 明确要求熟悉主流AI对话产品 深入理解LLM和AIGC核心能力 并对AI行业发展有深度认知[3] - 强调需主动洞察行业前沿变化 具备协调资源跟进AI技术演进的能力和手段[7]
大模型,为何搞不定软件开发?根本原因就在…
程序员的那些事· 2025-09-08 08:57
文章核心观点 - 大语言模型在软件开发中存在根本性局限 无法维持清晰的思维模型 导致无法处理复杂软件开发任务[5][8][9][14] - 人类工程师通过构建和验证思维模型来迭代开发 而LLM缺乏这种能力 常陷入无限混乱或推倒重来[7][9][14] - 尽管LLM在代码生成和简单任务上表现良好 但在复杂项目中无法维持足够上下文来迭代可行方案[15][16] - 未来人机协作是趋势 但目前LLM只能作为辅助工具 主导权仍需人类工程师掌握[17] 软件开发中的人类优势 - 资深工程师通过四步循环开展工作:构建需求模型 编写实现代码 建立代码行为认知 找出差异并修正[7][10] - 人类能实时验证工作成果 测试失败时能对照思维模型决定修正方向或收集更多数据[9] - 人类具备上下文切换能力 既能纵览全局忽略细节 又能深入局部攻坚 且不会无限制扩展思维缓存区[12] - 人类开发者即使遗漏逻辑细节 也属于局部失误而非根本性误判 且能通过讨论理解需求痛点[22] LLM的技术局限 - LLM无法同时维护两个相似思维模型 无法识别差异 更无法判断该修改代码还是需求[14] - 存在三大硬伤:语境盲区(对缺失上下文束手无策) 近因偏见(过度关注最近信息) 幻觉频发(虚构不存在内容)[13][20] - 测试失败时往往暴露系统底层逻辑的根本性缺陷 但LLM只能通过"打补丁"方式让测试通过 抓不住关键点[22] - 缺乏对系统运作方式的完整认知 表面代码工整但未抓住需求精髓 光靠堆算力难以解决[22] 发展前景与应用价值 - LLM对工程师有价值 能快速生成代码 擅长梳理需求文档 对明确简单任务能一气呵成[15] - 进化速度惊人:2022年ChatGPT水平只有现在的十分之一 按此速度五年后可能搞定软件开发[21] - 体验糟糕却被持续使用的技术往往创造不可替代价值 骂声越响迭代越快[19][21] - 未来人机协作开发是大势所趋 但现阶段方向盘必须握在人类手中[17]
LLM 上线一天市值破千万美元,疑似创始人地址浮盈超 56 万美元
新浪财经· 2025-08-24 21:28
(来源:吴说) 来源:市场资讯 吴说获悉,据 GMGN 数据,被社区推测为 daos fun 创始人 baoskee 的 LLM 第一大地址: 7FWR2N… f1oKPu 持有 5,290 万枚 LLM,现浮盈超 56 万美元,回报率高达 50.5k%。该地址在 8 月 23 日 18:37- 20:37 UTC+8 花费 $1,215.19 以均价 $0.000019986 买入了 LLM 总量的 6.08%,并以 $0.000056655 均价 出售了一小部分,其余全部持有至今。LLM 在诞生一天内市值达到了 1,000 万美元。 ...
AI开始失控了吗?100名科学家联手发布全球首个AI安全共识
36氪· 2025-05-13 17:55
围绕人工智能(AI)的风险与危害展开的讨论,往往集中在政府能够或应该采取的行动。然而,AI研究人员自身所做出的选择也同样重要。 本周,在新加坡,100多名来自世界各地的科学家就研究人员应如何使AI更加"值得信赖、可靠和安全"提出了指导方针。 这些建议提出之际,诸如OpenAI和谷歌等生成式AI领域的巨头对其AI模型的信息披露越来越少,以至于公众对这些模型的工作原理了解得越来越少。 这些指导方针源于上个月在新加坡的学者们之间的交流,此次交流与AI领域最负盛名的会议之一——国际表征学习大会同期进行,这也是亚洲首次举办 大型AI会议。 一份名为《关于全球AI安全研究重点的新加坡共识》的文件发布在了新加坡AI会议的网站上。 在协助起草《新加坡共识》的优秀人士中,有加拿大AI研究院MILA的创始人Yoshua Bengio;加州大学伯克利分校的计算机科学教授、"以人为本"的AI领 域专家Stuart Russell;总部位于英国的智库"生命未来研究所"的负责人Max Tegmark;以及来自麻省理工学院、谷歌DeepMind部门、Microsoft、新加坡国 立大学、中国清华大学和美国国家科学院等的代表。 为了阐明研究 ...