Workflow
AI医生
icon
搜索文档
“AI医生”加速进化!两天完成三甲医院两三年诊断量,准确率超96%
第一财经· 2025-07-08 00:04
2025.07. 08 "AI医生"加速进化 本文字数:2393,阅读时长大约4分钟 作者 | 第一财经 钱童心 清华大学智能产业研究院院长张亚勤近日在接受第一财经的电视节目采访时表示,AI医院用2天时间便可完 成三甲医院2-3年的诊断量,而且目前来看诊断的准确率很高,超过了96%。 今年4月,清华大学宣布成立人工智能医院(Tsinghua AI Agent Hospital)。按照规划,初期将建设AI医院 系统,依托北京清华长庚医院及北京清华长庚互联网医院试运行,以全科医学科和眼科、放射诊断科、呼 吸科等专科为试点。 张亚勤在最新的采访中表示:"我们构建了全世界第一个AI医院,完全使用智能体,构建一个虚拟的医院, 里面有些智能体是医生,有些智能体是护士,有些智能体是病人,模拟整个医院各个科室。" 去年11月,清华团队研发的"紫荆AI医生"内测系统上线,基于"闭环式"医疗虚拟世界实现"AI医生"加速进化, 为人工智能医院建设奠定了智能医疗领域智能体研究及应用基础。 "这些智能体的好处是可以在虚拟的空间里实现互动,就像下围棋,左右手可以互搏,它的进化速度很快, 可以是真实世界的上百倍,甚至上千倍。"张亚勤表示。 ...
前百度AI大牛亲述:押注十年,踩坑无数后,签下200家三甲医院
创业邦· 2025-04-21 10:45
医疗科技行业现状 - 医疗领域因数据壁垒高、场景复杂、容错率低成为技术落地的难点,但蕴含巨大商业和社会价值[3] - 行业当前处于AI医生热潮,各企业采用不同技术路线"八仙过海"[23] - 医疗信息化市场内卷加剧,医院因收入下降对信息化投入更谨慎,部分厂商采取免费送软件策略[26] 左医科技公司概况 - 成立于2016年,由前百度NLP负责人张超创立,专注知识图谱与医疗大模型协同[3][5] - 客户覆盖全国200多家三甲医院,其中40%为top100医院,包括北京协和等顶尖机构[5] - 当前商业化重心从B端转向C端,B端聚焦高毛利标准化产品,C端探索会员订阅和健康产品推荐[26][30] 技术路线演进 - 2020年首次将Transformer用于医患对话开发AI Doctor,显著提升交互体验[9][13] - 尝试GPT-2微调遇成本瓶颈,后转向开源模型,最终选择通义千问作为基座模型[14] - 2023年发布医疗垂类大模型,落地四川省人民医院等百强医院[14] - 2024年推出端到端AI Agent,整合CoT推理/工具调用等能力,诊断效果提升15%[16][18] 核心产品与落地 - "重儿·小乙AI家庭医生"在重庆医科大学附属儿童医院落地,集成循证知识库/报告识别/挂号等服务[21] - 儿科循证知识库基于国内外指南/专家共识构建,专业团队核验,单篇论文仅提取10条高价值数据[21] - 与宁夏/北京等地卫健委合作推出"AI家医",通过B端带动C端积累流量[27] 数据壁垒构建 - 数据清洗需反复调整如"和面",关键know-how来自实操积累的"错题集"[20] - 数据来源包括互联网/真实医患对话/诊断生成数据,经专家筛选保留1%高价值信息[21] - 病历数据处理需删除病理解释部分防止模型"漏题"[20] 商业化战略调整 - B端保留预问诊/分导诊/语音转写等高标准化产品,目标90%以上毛利率[26] - C端采用会员订阅制,未来计划基于交互数据推荐健康产品[30] - 聚焦诊前诊中场景,因诊后慢病管理商业闭环难建立[31] 行业趋势判断 - 垂直模型价值在于专有数据壁垒,但通用模型迭代将压缩其生存空间[16] - 医疗AI落地三形态:提示词/工作流/端到端,后者能突破人类能力限制[18] - 医院需求更倾向低错误率、稳定供应的技术而非"满血"性能[36]
“AI医生”误诊险些要人命?真相来了
环球网资讯· 2025-04-12 22:06
AI医疗谣言现象 - 近期网络上出现多起关于"AI医生误诊"的虚假消息,内容涉及重症肺炎误诊、全国首例AI医疗误诊诉讼案等离奇情节,利用情感冲突吸引大量转发[1][2][3] - 典型谣言案例包括:上海某社区医院AI系统将重症肺炎误诊为普通感冒导致患者险丧命[2],以及北京某三甲医院AI系统误诊胸痛患者致心肌梗死死亡并引发诉讼[5][7] - 这些谣言普遍采用"AI替代医生→出现事故→天价赔偿"的固定套路,并伪造官方报道、权威数据和专家言论增加可信度[10] 谣言生成特征 - 部分谣言由AI辅助生成,具备完整新闻要素(时间/地点/人物/事件)和专业医学术语,细节充分但内容完全虚构[9] - 造谣者刻意制造医患矛盾,放大公众对AI医疗的焦虑,通过戏剧性情节推动传播以获取流量[10] - 清华大学专家指出,AI生成内容能在各专业领域使用深度术语,这种"专业性"更易迷惑普通受众[9] AI医疗监管现状 - 国家明确规定AI不得替代医师诊疗或自动生成处方,当前AI仅作为辅助工具应用于84种医疗场景[11] - 法律层面尚未界定AI诊疗责任归属(医师/医院/算法公司),故禁止AI拥有处方权[13] - 2023年11月国家卫健委发布《卫生健康行业人工智能应用场景参考指引》,严格限定AI在医疗服务管理、基层公卫等领域的辅助角色[11] 治理措施 - 国家网信办等多部门联合出台《人工智能生成合成内容标识办法》,要求AI生成内容必须添加显式/隐式标识[17] - 平台被要求承担主体责任,加强虚假信息识别和过滤,尤其保护谣言鉴别能力较弱的受众群体[16] - 法律专家强调,造谣者可能面临行政拘留、罚款等处罚,严重者需承担民事或刑事责任[19]