設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

消息稱前微軟亞研院視覺專家胡瀚加入騰訊,負責混元多模態(tài)大模型

2025/1/8 15:29:52 來源:IT之家 作者:沛霖(實習) 責編:沛霖

IT之家 1 月 8 日消息,據(jù) AI 科技評論消息,前微軟亞洲研究院視覺計算組首席研究員胡瀚,不久前加入騰訊,接替已離職的前騰訊混元大模型技術(shù)負責人之一的劉威,負責多模態(tài)大模型的研發(fā)工作。

去年 11 月,有消息稱騰訊杰出科學家、騰訊混元大模型技術(shù)負責人之一劉威已從騰訊離職。

胡瀚于 2008 年獲得清華大學本科學位,2014 年獲得清華大學博士學位。2016 年 12 月,胡瀚加入微軟亞洲研究院視覺計算組。

報道稱胡瀚是計算機視覺領(lǐng)域的重要研究者,他曾以核心作者身份參與論文《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》的創(chuàng)作。

Swin Transformer 性能優(yōu)于 DeiT、ViT 和 EfficientNet 等主干網(wǎng)絡(luò),已經(jīng)替代經(jīng)典的 CNN 架構(gòu),成為了計算機視覺領(lǐng)域通用的 backbone(IT之家注:backbone 是指一種在神經(jīng)網(wǎng)絡(luò)或機器學習模型中常用的基本結(jié)構(gòu)或骨架)。

去年 9 月,騰訊正式發(fā)布新一代大模型 —— 騰訊混元 Turbo。據(jù)騰訊官方介紹,該模型采用 MoE 架構(gòu),比上一代產(chǎn)品推理效率提升 100%,推理成本降低 50%。

去年 12 月,騰訊宣布混元大模型上線并開源文生視頻能力,參數(shù)量 130 億,支持中英文雙語輸入。

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:胡瀚,微軟騰訊,混元

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應(yīng)用 魔方 最會買 要知