Truveta 發表在《放射學進展》上的研究引入了新的人工智能模型,可根據胸部 X 光照片估計身體成分
發佈時間 1 週前
Oct 29, 2025 at 2:00 PM
Neutral
Auto
華盛頓州貝爾維尤,2025 年 10 月 29 日(環球通訊社)--Truveta 自豪地宣佈在《放射學進展》雜誌上發表最新的同行評審研究:“XComposition:使用胸部 X 線照片和臨床數據測量身體成分的多模式深度學習模型。”這項開創性的研究展示了人工智能通過簡單的胸部X光片結合常用臨床數據來估計關鍵身體成分指標(例如內臟和皮下脂肪體積)的能力。該深度學習模型可作為 Python 庫供其他人在 Truveta 的 GitHub 上進行實驗。 主要發現研究團隊開發了一種多模式深度學習模型,該模型將胸部 X 光片 (CXR) 與四個基本臨床變量(年齡、出生性別、身高和體重)相結合,以估計通常通過 CT 掃描測量的身體成分。該研究分析了來自美國 Truveta 成員健康系統子集的 1,100 多名患者的數據。 多模式模型準確估計了皮下脂肪體積(Pearson’s R:0.85)和內臟脂肪體積(Pearson’s R:0.76)。後期融合策略(在決策層面結合影像和臨床數據)產生了最佳結果(皮下脂肪 p < 0.04)體積)。多模式模型在所有關鍵身體成分指標上均優於僅成像和僅臨床方法(皮下脂肪體積 p < 0.001)。 為什麼重要身體成分是心血管疾病、糖尿病和癌症預後的重要預測因子。測量這些指標的傳統方法(例如 MRI 或 CT)價格昂貴、資源密集,而且患者並不總是能夠使用。這項研究表明,胸部 X 光檢查是最常見、最廣泛使用的成像測試之一,與人工智能相結合,可以作為一種低成本、可擴展的工具來估計身體成分。 “我們的工作表明,我們可以從胸部 X 光檢查中獲得具有臨床意義的見解,這項檢查每年有數百萬人接受,”Truveta 機器學習博士後研究員、該研究的主要作者 Ehsan Alipour 醫學博士說。 “通過將成像與一些簡單的臨床變量相結合,我們創建了一種強大且易於使用的方法來估計身體成分,這有助於改善篩查、研究和最終的患者護理。”關於該研究這項研究利用了 Truveta Data,這是美國最完整、最及時、最具代表性的去識別化電子健康記錄 (EHR) 數據集,由領先的衛生系統集體提供。成像數據與整個衛生系統的臨床變量相關聯,從而能夠開發和驗證這種多模式 AI 模型。 完整論文可在《放射學進展》中找到。 關於 TruvetaTruveta 是一家現實世界的情報公司,利用前所未有的數據和預測性 AI 來改變醫學科學。我們推動突破性發現,加速監管級證據,並從由美國衛生系統獨特構建和擁有的數據集中解鎖實時見解,以用數據拯救生命為使命。 Truveta 會員包括 Providence、Advocate Health、Trinity Health、Tenet Healthcare、Northwell Health、AdventHealth、Baptist Health of Northeast Florida、Baylor Scott & White Health、Bon Secours Mercy Health、CommonSpirit Health、Hawaii Pacific Health、 HealthPartners、Henry Ford Health System、HonorHealth、Inova、Lehigh Valley Health Network、MedStar Health、Memorial Hermann Health System、MetroHealth、Novant Health、Ochsner Health、Premier Health、Saint Luke’s Health System、Sanford Health、Sentara Healthcare、Texas Health Resources、TriHealth、UnityPoint Health、Virtua Health 和 WellSpan Health。 附件Truveta 科學家使用胸部開發並驗證了多模式深度學習模型來自 Truveta Data 的 X 光照片和去識別化的電子健康記錄。多模式 AI 的性能優於單源模型。後期融合多模態模型在幾乎所有身體成分測量中都取得了最佳性能,顯著優於僅成像和僅臨床方法。