IT之家 8 月 27 日消息,科技媒體 Techcrunch 昨日(8 月 26 日)報(bào)道,Anthropic 公司公開了 Claude AI 模型的“系統(tǒng)提示詞”(system prompts)。
系統(tǒng)提示詞(System prompt)
為了讓 AI 模型更好地理解人類指令,提示詞(Prompt)工程實(shí)際上包含 2 層核心內(nèi)容,用戶提示詞(User prompt)和系統(tǒng)提示詞(System prompt):
用戶提示詞:用戶輸入的提示詞,然后 AI 模型基于用戶提示詞生成答案。
系統(tǒng)提示詞:這是由系統(tǒng)生成的提示,通常用于設(shè)定對(duì)話的背景、提供指導(dǎo)或規(guī)定規(guī)則。
IT之家注:通常情況下,系統(tǒng)提示詞會(huì)讓模型了解自己的基本素質(zhì),以及應(yīng)該做什么、不應(yīng)該做什么。
業(yè)內(nèi)常規(guī)做法
從 OpenAI 到 Anthropic,每一家生成式人工智能廠商都會(huì)使用系統(tǒng)提示來防止(或至少試圖防止)模型出現(xiàn)不良行為,并引導(dǎo)模型回復(fù)的總體語氣和情緒。
例如,系統(tǒng)提示詞可能會(huì)告訴模型,它應(yīng)該禮貌但絕不能道歉,或者坦誠(chéng)地承認(rèn)它不可能知道所有事情。
但廠商可能是出于競(jìng)爭(zhēng)等方面原因,以及避免不良用戶在了解這些信息后繞過安全防護(hù),通常保密這些系統(tǒng)提示詞。
Anthropic 選擇公開系統(tǒng)提示詞
不過,Anthropic 一直在努力將自己描繪成一家更道德、更透明的人工智能供應(yīng)商,它已在 Claude iOS 和 Android 應(yīng)用程序以及網(wǎng)絡(luò)上公布了其最新模型(Claude 3.5 Opus、Sonnet 和 Haiku)的系統(tǒng)提示。
Anthropic 開發(fā)者關(guān)系負(fù)責(zé)人亞歷克斯?艾伯特(Alex Albert)在 X 上發(fā)表的一篇文章中說,Anthropic 計(jì)劃在更新和微調(diào)系統(tǒng)提示的過程中,定期公布此類信息。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。