来感受一下“人工智能+”,三甲医院是这样用大模型的

AIGC动态9个月前更新 QbitAI
1,056 0 0

模型信息


【模型公司】 Anthropic
【模型名称】 claude-3-opus-20240229
【摘要评分】 ★★★★★

来感受一下“人工智能+”,三甲医院是这样用大模型的

文章摘要


【关 键 词】 医疗AI大模型落地CPU方案卫宁实践行业洞悉

第一段:介绍了周汉民全国政协委员的观点,他认为对于最前沿的技术,如ChatGPT和Sora,我们需要尽快体验和使用,否则会处于劣势。他强调技术需要被用起来,要尽快做到落地

第二段:作者指出,自ChatGPT引爆AIGC大热潮以来,有一个大趋势,即从大模型的训练逐渐向推理过渡,从底层的模型层逐渐向顶层的应用,甚至是更进一步的行业或消费者应用发展。由此引出一个问题:大语言模型(LLM)现在用得怎么样了?

第三段:以医疗行业为例,说明AI技术在医疗领域的应用前景。AI的融入能提高医疗服务效率和质量、应对医疗资源短缺的挑战、以及推动个性化医疗的发展等。电子病历是一个典型的应用场景,LLM可以用来做病历的归纳、纠错和重要信息的提炼

第四段:介绍卫宁健康的WiNEX Copilot解决方案,它在医疗领域发挥AI助手的作用。病历文书助手可以让医生更专注于诊断和治疗,8小时内可处理近6000份病历,相当于12名医生一天的工作量。

第五段:WiNEX Copilot还有其他应用场景,如影像报告助手可以帮助医生提升诊断质量,降低误诊率;药品知识助手可以为医护人员提供药品知识库。目前WiNEX Copilot已经集成在卫宁健康WiNEX全系列产品中,覆盖100多个临床应用场景。而且它的硬件成本合理,性价比高,实际部署和应用也非常高效。

第六段:卫宁健康作为国内医疗信息化领域龙头企业,拥有丰富的医疗行业经验、高质量训练数据和研发能力。在此基础上,他们推出了面向医疗垂直领域的大模型WiNGPT,它是WiNEX Copilot的底层AI引擎。WiNGPT可针对医疗场景优化和定制,并能高效交付、部署和应用。

第七段:卫宁健康选择与英特尔合作,通过软硬适配、优化模型算法等手段,把在CPU上部署的生成效率搞到接近GPU的水平。这主要基于以下考虑:高端CPU的AI加速技术性能已经能够满足需求;CPU在医疗行业已有广泛使用基础;CPU积累了充足的技术人才储备,更易于优化和使用

第八段:在卫宁健康和英特尔共同优化后,基于第五代英特尔至强可扩展处理器的方案相比第三代的方案,性能提升多达3倍CPU方案还具有可以更轻松扩展推理实例数量的优势,并且可以在各种平台上适配进行推理。这使得每家使用卫宁新一代产品WiNEX系统的医院,都有机会拥有WiNGPT支持的全套WiNEX Copilot医护智能助手。

第九段:作者总结认为,目前的大模型已经进入到了拼谁可以”快好省”地用起来的阶段。卫宁的例子表明,要把LLM用好,需要有深厚的行业积累和洞悉,方可精准切入。在部署时盲目堆GPU可能会出现算力浪费、落地效率低、成本高等问题。卫宁选择英特尔最新一代至强CPU,是从性能、行业、人才、成本等因素深入考量后做出的较优解,CPU正在实实在在地助力LLM在医疗领域大展拳脚。CPU成了大模型落地的另一种解法。

原文信息


【原文链接】 阅读原文
【阅读预估】 3369 / 14分钟
【原文作者】 量子位
【作者简介】 追踪人工智能新趋势,关注科技行业新突破

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...