設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

消息稱前微軟亞研院視覺專家胡瀚加入騰訊,負(fù)責(zé)混元多模態(tài)大模型

2025/1/8 15:29:52 來源:IT之家 作者:沛霖(實(shí)習(xí)) 責(zé)編:沛霖

IT之家 1 月 8 日消息,據(jù) AI 科技評(píng)論消息,前微軟亞洲研究院視覺計(jì)算組首席研究員胡瀚,不久前加入騰訊,接替已離職的前騰訊混元大模型技術(shù)負(fù)責(zé)人之一的劉威,負(fù)責(zé)多模態(tài)大模型的研發(fā)工作

去年 11 月,有消息稱騰訊杰出科學(xué)家、騰訊混元大模型技術(shù)負(fù)責(zé)人之一劉威已從騰訊離職。

胡瀚于 2008 年獲得清華大學(xué)本科學(xué)位,2014 年獲得清華大學(xué)博士學(xué)位。2016 年 12 月,胡瀚加入微軟亞洲研究院視覺計(jì)算組。

報(bào)道稱胡瀚是計(jì)算機(jī)視覺領(lǐng)域的重要研究者,他曾以核心作者身份參與論文《Swin Transformer: Hierarchical Vision Transformer using Shifted Windows》的創(chuàng)作。

Swin Transformer 性能優(yōu)于 DeiT、ViT 和 EfficientNet 等主干網(wǎng)絡(luò),已經(jīng)替代經(jīng)典的 CNN 架構(gòu),成為了計(jì)算機(jī)視覺領(lǐng)域通用的 backbone(IT之家注:backbone 是指一種在神經(jīng)網(wǎng)絡(luò)或機(jī)器學(xué)習(xí)模型中常用的基本結(jié)構(gòu)或骨架)。

去年 9 月,騰訊正式發(fā)布新一代大模型 —— 騰訊混元 Turbo。據(jù)騰訊官方介紹,該模型采用 MoE 架構(gòu),比上一代產(chǎn)品推理效率提升 100%,推理成本降低 50%。

去年 12 月,騰訊宣布混元大模型上線并開源文生視頻能力,參數(shù)量 130 億,支持中英文雙語輸入。

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:胡瀚,微軟,騰訊,混元

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知