今天的你,是否還在幾個聊天大模型之間“反復(fù)橫跳”?
畢竟各家訓(xùn)練數(shù)據(jù)和方法不盡相同,擅長和不擅長的東西也都不一樣。
現(xiàn)在,不用這么麻煩了。
有人開發(fā)了一個名叫“ChatALL”的應(yīng)用,可以將你的提問同時(shí)發(fā)送給 10 多個市面上常見的聊天機(jī)器人,比如 ChatGPT、GPT4、Bing、Bard、Claude、文心一言、訊飛星火等等,并一一展現(xiàn)出來。
由此一來,你就可以輕松比對出答得最好的那一個,然后采用。
簡直太方便了有沒有?
這不,項(xiàng)目非常受歡迎,已登上 GitHub 今日熱榜第一名,攬獲 1.6k + 標(biāo)星。
一起來瞧瞧。
一次可同 10 + 聊天機(jī)器人“齊叨叨”的“ChatALL”
“ChatALL”的中文名字叫“齊叨”。
它是一個應(yīng)用程序,支持中英德三種語言。
只需下載安裝包即可使用,Mac、Windows 和 Linux 都支持。
其功能包括:
快問模式:不需要等待前面的請求完成,就可以發(fā)下一條指令
對話歷史保存在本地,保護(hù)你的隱私
高亮喜歡的答案,刪除不需要的答案
自動保持 ChatGPT 不掉線
隨時(shí)啟用 / 禁用任何機(jī)器人
在一列、兩列或三列視圖之間切換
……
未來還能夠推薦最佳答案。
目前支持的 AI 聊天機(jī)器人列表如下:
其中,特別包括一個本地 Gradio,它可以對接你自己部署的模型。
而在應(yīng)用程序界面中,一共顯示了 17 個圖標(biāo),證明目前最多已可支持 17 種聊天機(jī)器人。
需要注意的是,這只是一個集中了所有聊天 AI 的程序,不是代理,所以每個都需要你登錄自己的賬號,當(dāng)然,API token 也可以。
登錄之后,想一次詢問哪些機(jī)器人就點(diǎn)亮對應(yīng)的圖標(biāo),就可以開始玩耍了。
量子位簡單試了一下:
總體反應(yīng)還算快,不過最后一個機(jī)器人 ChatGLM 需要稍微等待前面的 ChatGPT 和 Claude 出來后才開始回答。
而排版確實(shí)讓我們能夠清晰地對比出各回答之間細(xì)微的差異,并很快選出最佳答案,很適合做模型評測工具。
(對于這個問題,ChatGPT 最佳,原因包括只有它提到了另外倆都沒有提到的點(diǎn):“本書涉及一些較為復(fù)雜的概念和理論,因此讀者最好具備一定的閱讀和理解科學(xué)著作的能力”,這是一條非常實(shí)用的建議。)
大部分代碼由 GPT-4 貢獻(xiàn)
ChatALL 的主要作者名叫孫志崗,他是開課吧合伙人,哈工大計(jì)算機(jī)專業(yè)畢業(yè),曾是該校計(jì)算機(jī)學(xué)院副教授。
根據(jù)他本人介紹:
ChatALL 的大部分代碼其實(shí)都是用 GPT-4 生成的。
早期提交記錄,凡是“by GPT-4”的,就是本次提交代碼都由 GPT-4 寫成;凡是“with GPT-4”的,就是 GPT-4 寫了核心,我做了一些加工修改。
除了代碼,logo 和主色也是 AI 幫忙設(shè)計(jì)的。
在整個開發(fā)過程中,ChatGPT、Bing 和 Google 也都幫了他不少忙(排名分先后)。
另外,關(guān)于開發(fā)動機(jī),他表示,由于:
(1)大模型輸出基于概率,同樣的問題問兩遍結(jié)果就不同
(2)大模型有盲區(qū),生在舊金山的 GPT-4,就不如長在五道口的 ChatGLM 更懂“清華大學(xué)附近有哪些好吃的”
(3)以及大模型容易犯事實(shí)性錯誤
導(dǎo)致他一般遇到問題,常常會同時(shí)問多個模型,以確保找到最靠譜的答案。
所以這才有了 ChatALL。
不過,ChatALL 是受 ChatHub 啟發(fā)而完成的。
對于后者,或許一些人并不陌生,它是谷歌和 Edge 瀏覽器的插件,也是主打所有聊天機(jī)器人“all in”一個入口。
只不過相比起來,還是 ChatALL 支持的模型更多一些。
那么,各種友情鏈接就放在下面了,感興趣的朋友自取~
ChatALL 傳送門:
https://github.com/sunner/ChatALL
安裝包下載地址:
https://github.com/sunner/ChatALL/releases
ChatHub 傳送門:
https://chathub.gg/
本文來自微信公眾號:量子位 (ID:QbitAI),作者:豐色
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。