日前微軟研究人員展示了 LLaVA-Med 模型,該模型主要用于生物醫(yī)學方面的研究,可根據(jù)CT、X 光圖片等推測出患者的病理狀況。微軟使用GPT-4,基于Vision Transformer和Vicuna語言模型,在八個英偉達 A100 GPU 上對LLaVA-Med進行訓練,其中包含“每個圖像的所有預分析信息”,用于生成有關圖像的問答,以滿足“可自然語言回答有關生物醫(yī)學圖像問題”的助手愿景。據(jù)微軟稱,該模型最終具有“出色的多模式對話能力”、“在用于回答視覺問題的三個標準生物醫(yī)學數(shù)據(jù)集上,LLaVA-Med 在部分指標上領先于業(yè)界其他先進模型”。