Workflow
AI医生
icon
搜索文档
AI医生“转正”还有多少关要闯
科技日报· 2025-09-25 07:54
行业现状与市场增长 - 国内医疗大模型数量快速增长,截至2025年5月累计发布达288个,其中2024年新增133个 [1] - 医疗大模型市场规模预计在2025年接近20亿元,并以140%的年均增速增长,到2028年将突破百亿元 [3] - 行业呈现“百模大战”态势,技术突破降低了研发和应用门槛 [2] 政策支持与技术应用 - 多部门自2024年11月起密集出台支持政策,包括梳理84个AI应用场景、将AI辅助诊断纳入医疗服务价格立项指南、以及制定数智化转型实施方案 [2] - AI辅助诊断系统已大规模落地,例如“智医助理”系统已覆盖全国超7.5万家基层医疗机构,累计提供超10亿次辅诊建议 [3] - 应用成效显著,有AI助诊仪的鉴别诊断合理率达96%,在部分医院使用AI辅助预问诊后,医患有效沟通时长增加50% [3] 技术发展面临的挑战 - 模型技术存在不足,包括“黑箱”、“幻觉”(错误信息生成)及引用错误信息等问题,有企业虽将“幻觉”发生率控制在1%左右,但风险防控体系尚未成熟 [8] - 数据是主要桎梏,存在医疗数据“烟囱林立”、基层数据不规范、共享难以及罕见病领域数据不足导致诊断准确率低于60%的问题 [8][9] - 多模态数据处理是技术难关,需解决影像、病理、基因组、电子病历等多源数据的高效融合与安全共享 [9] - 模型后期运维成本高,需持续投入算力、人力、数据等资源进行设备维护和模型迭代 [8] 社会认知与伦理监管 - 患者和医生对AI诊疗的接受度存在障碍,原因包括对技术可靠性的担忧、偏好真实世界交流以及顾虑应用成本和对现有医疗体系的冲击 [10] - 监管和伦理框架亟待建立,有专家建议参考自动驾驶分级模式,依据AI能力划定诊疗权限,并动态调整开发者、使用者和监管方的责任边界 [14] - 提升认可度需通过客观方式,如诊疗效果对比、发表研究文章、建立评测榜等,同时模型的诊断结论需具备可解释性以获取医生信任 [14] 未来发展方向与探索 - 研发重点从辅助决策工具向具备条件式自主治疗能力的AI医生迈进,已有模型能自主追踪患者100多个动态指标并提示干预 [12] - 破解技术难题的路径多样,包括通过真实世界病例验证、要求模型引用最新权威文献、以及采用“自检+双医”的循证医学模式 [13] - 针对数据难题,探索建立跨机构数据联盟(“医疗数据中台”模式)实现数据“可用不可见”,并通过小样本深度分析结合真实病例验证提升模型精度 [13] - 政策层面建议简化院级AI产品注册备案流程,鼓励医企合作,推动AI服务纳入医保支付体系,并按照风险层次适当放宽以促进行业发展 [15]
大厂团战医疗大模型:蚂蚁建闭环,夸克造入口
36氪· 2025-08-04 19:47
行业背景与核心观点 - 医疗资源供给不足且分布不均导致"看病难"问题突出,AI被视为解决这一问题的关键路径[2] - 早期互联网医疗平台主要解决医患"信息差",但未触及优质医疗服务短缺的根本问题[2] - AI医疗大模型通过智能导诊、报告解读、影像判断等功能赋能医疗供给扩容[2] - 中国医疗大模型市场规模从2019年27亿元增长至2023年107亿元,预计2028年达976亿元[35] 主要厂商布局 - 腾讯2023年9月上线"腾讯医疗大模型"聚焦智能导诊和电子病历[3] - 京东健康2023年7月发布"京医千询"补全服务生态AI能力[3] - 平安好医生推出"平安医博通"探索"医疗+保险"协同模式[3] - 科大讯飞"星火医疗大模型"通过国家执业医师资格测试[3] - 蚂蚁集团推出独立App"蚂蚁AQ"累计服务超1亿用户[5] - 夸克健康大模型通过12门核心学科主任医师评测[5] 技术能力与验证 - DeepSeek R1在斯坦福评测中以66%胜率和0.75宏观平均分成为全球冠军[5] - 蚂蚁AQ具备"深度推理+多模态"能力,训练规模超万亿tokens[22] - 夸克引入400多位副主任医师及以上专家参与模型训练[23] - 蚂蚁AQ与上海仁济医院共建专科数据集,参与浙江"安诊儿"项目[22] 应用场景与商业模式 - 蚂蚁AQ构建"AI私人医生+健康助手"全流程服务闭环[26] - 夸克定位为"专业顾问"提供可信健康知识解答[29] - 蚂蚁AQ已覆盖342个城市,睡眠智能体服务用户超500万[22] - 夸克健康大模型主要应用于健康知识提供和辅助诊疗决策[23] 战略定位与行业趋势 - 蚂蚁将"普惠医疗健康"纳入五大主业,寻求与金融业务协同[32] - 夸克被阿里确立为"AI旗舰应用",目标成为AI时代超级入口[30] - 医疗大模型面临数据隐私、专科化模型开发和伦理规范三大挑战[40][41] - 中国医疗AI应用82%集中在影像诊断,而美国已覆盖诊疗全流程[44]
“AI医生”加速进化!两天完成三甲医院两三年诊断量,准确率超96%
第一财经· 2025-07-08 00:04
AI医院发展现状 - 清华大学AI医院可在2天内完成三甲医院2-3年诊断量 诊断准确率超96% [1] - 清华大学成立人工智能医院 初期依托北京清华长庚医院试运行 覆盖全科及眼科、放射诊断科等专科 [1] - AI医院构建虚拟医院环境 包含医生、护士、病人等智能体 模拟完整科室运作 [1] AI医生技术进展 - 清华"紫荆AI医生"系统基于闭环式医疗虚拟世界实现快速进化 进化速度可达真实世界上百至上千倍 [4] - AI智能体在患者问诊和病历撰写方面已显现优势 但独立看病仍需长期发展 [4] - 全球领先AI大模型在医疗咨询中存在生成虚假健康信息风险 开发者正完善防护机制 [4] 医疗AI应用挑战 - 通用大模型存在专业知识不足和"幻觉"问题 需开发专用医疗大模型并使用临床级验证数据 [5] - 未公开医疗数据是核心竞争力 但获取面临医院封闭系统的复杂挑战 [8] - 高质量数据决定模型准确性 需解决患者信任度、伦理合规及动态医学知识更新问题 [8] 行业实践案例 - 新华医院联合商汤发布"AI儿童全科医生" 支持家长提问和图像上传获取建议 [7] - 复旦大学中山医院开发心脏病专家数字分身 模拟真人医生互动场景 [7] - 中文医疗语料缺乏且分散 医院需加强数据治理构建基础数据库训练垂类模型 [8] 未来发展方向 - AI智能体暂不具备独立医疗决策能力 医生仍需承担最终责任 [9] - 需提升AI智能体对人类意图的理解和执行能力 最终实现创新研究功能 [9]
前百度AI大牛亲述:押注十年,踩坑无数后,签下200家三甲医院
创业邦· 2025-04-21 10:45
医疗科技行业现状 - 医疗领域因数据壁垒高、场景复杂、容错率低成为技术落地的难点,但蕴含巨大商业和社会价值[3] - 行业当前处于AI医生热潮,各企业采用不同技术路线"八仙过海"[23] - 医疗信息化市场内卷加剧,医院因收入下降对信息化投入更谨慎,部分厂商采取免费送软件策略[26] 左医科技公司概况 - 成立于2016年,由前百度NLP负责人张超创立,专注知识图谱与医疗大模型协同[3][5] - 客户覆盖全国200多家三甲医院,其中40%为top100医院,包括北京协和等顶尖机构[5] - 当前商业化重心从B端转向C端,B端聚焦高毛利标准化产品,C端探索会员订阅和健康产品推荐[26][30] 技术路线演进 - 2020年首次将Transformer用于医患对话开发AI Doctor,显著提升交互体验[9][13] - 尝试GPT-2微调遇成本瓶颈,后转向开源模型,最终选择通义千问作为基座模型[14] - 2023年发布医疗垂类大模型,落地四川省人民医院等百强医院[14] - 2024年推出端到端AI Agent,整合CoT推理/工具调用等能力,诊断效果提升15%[16][18] 核心产品与落地 - "重儿·小乙AI家庭医生"在重庆医科大学附属儿童医院落地,集成循证知识库/报告识别/挂号等服务[21] - 儿科循证知识库基于国内外指南/专家共识构建,专业团队核验,单篇论文仅提取10条高价值数据[21] - 与宁夏/北京等地卫健委合作推出"AI家医",通过B端带动C端积累流量[27] 数据壁垒构建 - 数据清洗需反复调整如"和面",关键know-how来自实操积累的"错题集"[20] - 数据来源包括互联网/真实医患对话/诊断生成数据,经专家筛选保留1%高价值信息[21] - 病历数据处理需删除病理解释部分防止模型"漏题"[20] 商业化战略调整 - B端保留预问诊/分导诊/语音转写等高标准化产品,目标90%以上毛利率[26] - C端采用会员订阅制,未来计划基于交互数据推荐健康产品[30] - 聚焦诊前诊中场景,因诊后慢病管理商业闭环难建立[31] 行业趋势判断 - 垂直模型价值在于专有数据壁垒,但通用模型迭代将压缩其生存空间[16] - 医疗AI落地三形态:提示词/工作流/端到端,后者能突破人类能力限制[18] - 医院需求更倾向低错误率、稳定供应的技术而非"满血"性能[36]
“AI医生”误诊险些要人命?真相来了
环球网资讯· 2025-04-12 22:06
AI医疗谣言现象 - 近期网络上出现多起关于"AI医生误诊"的虚假消息,内容涉及重症肺炎误诊、全国首例AI医疗误诊诉讼案等离奇情节,利用情感冲突吸引大量转发[1][2][3] - 典型谣言案例包括:上海某社区医院AI系统将重症肺炎误诊为普通感冒导致患者险丧命[2],以及北京某三甲医院AI系统误诊胸痛患者致心肌梗死死亡并引发诉讼[5][7] - 这些谣言普遍采用"AI替代医生→出现事故→天价赔偿"的固定套路,并伪造官方报道、权威数据和专家言论增加可信度[10] 谣言生成特征 - 部分谣言由AI辅助生成,具备完整新闻要素(时间/地点/人物/事件)和专业医学术语,细节充分但内容完全虚构[9] - 造谣者刻意制造医患矛盾,放大公众对AI医疗的焦虑,通过戏剧性情节推动传播以获取流量[10] - 清华大学专家指出,AI生成内容能在各专业领域使用深度术语,这种"专业性"更易迷惑普通受众[9] AI医疗监管现状 - 国家明确规定AI不得替代医师诊疗或自动生成处方,当前AI仅作为辅助工具应用于84种医疗场景[11] - 法律层面尚未界定AI诊疗责任归属(医师/医院/算法公司),故禁止AI拥有处方权[13] - 2023年11月国家卫健委发布《卫生健康行业人工智能应用场景参考指引》,严格限定AI在医疗服务管理、基层公卫等领域的辅助角色[11] 治理措施 - 国家网信办等多部门联合出台《人工智能生成合成内容标识办法》,要求AI生成内容必须添加显式/隐式标识[17] - 平台被要求承担主体责任,加强虚假信息识别和过滤,尤其保护谣言鉴别能力较弱的受众群体[16] - 法律专家强调,造谣者可能面临行政拘留、罚款等处罚,严重者需承担民事或刑事责任[19]