查看原文
其他

融资650万美元Glass Health开发为医学诊断提供建议的AI系统

关注医疗AI的 HealthX AI 2024-04-14

Glass Health正在开发一种旨在为医学诊断提供建议的人工智能系统。这个人工智能旨在帮助医疗专业人员,通过基于临床医生提供的信息,提供潜在的诊断和基于证据的治疗选项。需要注意的是,Glass Health的人工智能旨在补充临床判断,而不是替代它。该系统将大型语言模型(LLMs)与其学术医师团队创建和同行评审的临床指南相连接,以确保人工智能反映最新的医学知识和指南。Glass Health收集用户数据以改进其人工智能模型,并旨在提供准确和最新的医学信息,同时严格控制人工智能使用的信息和指南。



将HealthX设为星标🌟
每天硬核医疗科技前沿内容推送


【HealthX 交流群】:用于分享公开的医疗科技资讯,线上线下活动信息,可以和3000余位对医疗科技感兴趣的朋友交流技术、商业问题。【申请加入交流群】

【HealthX VIP交流群】:用于分享行业深度解读、政策深入研究、全球媒体付费内容精读、100余本医疗科技经典图书读书会活动(测试阶段)、主题活动如AI与精准医疗和大语言模型与医疗等、以及AI驱动的医疗科技智库扁鹊系统的优先内测。【申请加入VIP项目


来源:外媒

在加州大学旧金山分校(UC San Francisco)读医学的时候,Dereck Paul开始感到担忧,认为医疗软件的创新滞后于其他领域,如金融和航空航天。他逐渐相信,当医生配备反映前沿技术的软件时,患者能够得到最好的服务,并梦想着创建一家公司,将患者和医生的需求置于医院管理者或保险公司之上。

因此,Paul与他的朋友、Modern Fertility的工程师Graham Ramsey合作,在2021年创立了Glass Health。Glass Health提供一本医生可以用来存储、组织和分享他们在整个职业生涯中用于诊断和治疗疾病的方法的笔记本;Ramsey将其描述为医学学习和实践的“个人知识管理系统”。

Paul说:“在大流行期间,Ramsey和我亲眼目睹了我们医疗保健系统的巨大负担和医疗保健提供者燃尽的危机。我在医院轮转时和后来在Brigham and Women's医院担任内科住院医师时,亲身经历了医疗提供者的燃尽。我们对一线提供者的同情激发了我们创建一家致力于充分利用技术来改善医学实践的公司。”

Glass Health在社交媒体上获得了早期的关注,特别是在医生、护士和医学生中,这反映在公司的首轮融资中,即2022年由Breyer Capital领投的150万美元的前种子轮融资。随后,Glass Health被接纳进入了Y Combinator的2023年冬季批次。但在今年初,Paul和Ramsey决定将公司转向生成式人工智能(AI)——这是一个不断增长的趋势。

Glass Health现在提供由大型语言模型(LLM)支持的AI工具,类似于OpenAI的ChatGPT,用于生成诊断和“基于证据的”治疗选择,供医生考虑患者。医生可以输入描述,如“71岁男性,有心肌梗塞病史,出现进行性气急”的情况,或者“65岁女性,有糖尿病和高脂血症病史,出现急性胸痛和出汗”,然后Glass Health的AI将提供可能的预后和临床计划。

Paul解释说:“临床医生输入一个患者摘要,也被称为问题表述,描述了与患者病情相关的相关人口统计学数据、既往病史、体征和症状以及与患者症状呈现相关的实验室和影像学结果的描述,这些信息可能用于向其他临床医生介绍患者。Glass分析患者摘要,并建议临床医生可能希望考虑和进一步调查的五到十种诊断。”

Glass Health还可以为临床医生撰写案例评估段落供其审查,其中包括有关可能相关的诊断研究的解释。这些解释可以进行编辑,以后可以用于临床记录,或与更广泛的Glass Health社区共享。

从理论上讲,Glass Health的工具似乎非常有用。但即使是先进的LLMs在提供健康建议方面也被证明表现得非常糟糕。

Babylon Health是一家得到英国国民健康服务支持的AI初创公司,因声称其疾病诊断技术可以比医生更好地执行任务而一直受到审查。

在一次不幸的实验中,国家进食障碍协会(NEDA)与AI初创公司Cass合作推出了一个聊天机器人,为患有进食障碍的人提供支持。由于生成式AI系统的升级,Cass开始模仿有害的“节食文化”建议,如卡路里限制,导致NEDA关闭了这个工具。

此外,健康新闻最近聘请了一名医学专业人士评估了ChatGPT在各种主题上提供的健康建议的合理性。专家发现,聊天机器人错过了最近的研究,提出了误导性的说法(例如“葡萄酒可能可以预防癌症”和前列腺癌筛查应基于“个人价值观”)并从几个健康新闻来源剽窃内容。

在Stat News上的一篇更为宽容的文章中,一名研究助手和两名哈佛教授发现,在45个不同情境中,ChatGPT在前三个选项中列出了正确的诊断。但研究人员指出,这些情境通常用于测试医学生,可能不反映人们——特别是英语非母语人士——在现实世界中描述症状的方式。

个领域尚未被深入研究。但我想知道偏见是否也可能导致LLM错误地诊断患者。因为医学LLM通常是在医疗记录上进行培训的,而这些记录只显示医生和护士注意到的内容(只针对那些能够看医生的患者),因此它们可能存在潜在的盲点,不会立即显现出来。此外,医生可能会在编写LLM用于培训的记录时无意中将自己的种族、性别或社会经济偏见编码,从而导致模型优先考虑某些人口统计学数据而不是其他人。

Paul似乎对围绕医学中的生成式AI的审查非常了解,并声称Glass Health的AI优于市场上许多解决方案。


他说:“Glass将LLMs与由我们的学术医师团队创建和同行评审的临床指南相连接。我们的医师团队成员来自全国各地的主要学术医疗中心,他们像为医学期刊工作一样兼职为Glass Health工作,为我们的AI创建指南并微调我们的AI遵循这些指南的能力……我们要求我们的临床用户密切监督我们所有LLM应用程序的输出,将其视为可以提供有用建议和选项的助手,他们可以考虑,但永远不会直接替代或取代他们的临床判断。”

在我们的采访中,Paul多次强调了Glass Health的AI重点是提供潜在的诊断,不应被解释为其回答是明确的或规定的。这里是我对未明示原因的猜测:如果是这样,Glass Health将受到更严格的法律审查,甚至可能受到FDA的监管。

Paul并不是唯一一个在这方面持谨慎态度的人。Google正在测试一种名为Med-PaLM 2的面向医疗的语言模型,其在营销材料中小心翼翼地避免建议该模型可以在临床环境中替代医疗专业人员的经验。Hippocratic也是如此,该初创公司正在构建专门用于医疗应用的LLM(但不用于诊断)。

尽管如此,Paul认为Glass Health的方法使其对AI的输出具有“精细控制”,并指导其AI“反映最新的医学知识和指南”。该方法的一部分涉及收集用户数据以改善Glass背后的LLMs——这一举措可能不会得到每位患者的认可。

Paul表示,用户可以随时请求删除他们存储的所有数据。他说:“我们的LLM应用在生成输出时检索经医师验证的临床指南作为AI上下文。Glass与像ChatGPT这样的LLM应用程序不同,后者仅依赖它们的预训练来生成输出,并且更容易生成不准确或过时的医学信息……我们对我们的AI用于生成输出的信息和指南有严格控制,并具备将严格的编辑流程应用于我们的指南的能力,旨在解决偏见问题,并使我们的建议与实现健康公平目标的一致。”我们将看看这是否会成为事实。

与此同时,Glass Health并没有难以找到早期采用者。到目前为止,该平台已经注册了超过59,000名用户,并已推出了面向临床医生的月度订阅“直接向临床医生提供”的服务。今年,Glass将开始试点一项与HIPAA合规的电子健康记录集成的企业服务;Paul声称,有15家未透露姓名的健康系统和公司在等待名单上。

Paul说:“医院和医疗系统等机构将能够为他们的医生提供Glass的实例,以赋予他们使用AI支持的临床决策的能力,包括有关诊断、诊断研究和治疗步骤的建议,他们可以考虑。我们还能够定制Glass AI输出,使其符合健康系统的特定临床指南或护理实践。”

总共获得了650万美元的资金,Glass计划用于创建、审查和更新平台使用的临床指南,AI的微调以及一般研发。Paul声称Glass还有四年的发展空间。

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存