視界
VIEWS
多種技能。
更短的功能發(fā)布時(shí)間:
為一項(xiàng)新技能建立一個(gè)新管道所需的時(shí)間通常
比對(duì) LLM 進(jìn)行 p 調(diào)諧所需要的時(shí)間更長(zhǎng)(稍后將對(duì)
此進(jìn)行詳細(xì)介紹)。這意味著 TTM 要長(zhǎng)得多。
數(shù)據(jù)采集和質(zhì)量維護(hù):
任何專(zhuān)門(mén)構(gòu)建的集合都需要大量的特定病例數(shù)
據(jù),而這些數(shù)據(jù)并不總是可用的。必須在每個(gè)模型的
基礎(chǔ)上收集這些數(shù)據(jù)。換句話(huà)說(shuō),除了來(lái)自集成的 I /
O 之外,還需要用于集成中使用的每個(gè)單獨(dú)模型的
數(shù)據(jù)集。此外,所有模型都會(huì)隨著時(shí)間的推移而漂
移,在使用多個(gè)模型時(shí),用于微調(diào)的維護(hù)成本會(huì)迅速
增加。
這些考慮因素顯示了在多個(gè)系綜上使用 LLM
的價(jià)值。
聊天機(jī)器人通常是由一組 BERT 模型和一個(gè)
對(duì)話(huà)框管理器構(gòu)建的。這種方法具有一些優(yōu)點(diǎn),例如
更小的模型,這可以降低延遲和計(jì)算需求。這反過(guò)來(lái)
又更具成本效益。那么,為什么不使用合奏而不是
LLM 呢?
就其設(shè)計(jì)而言,合奏團(tuán)不如 LLM 靈活。這種靈
活性來(lái)自生成能力,以及所述模型是在需要各種任
務(wù)的大型數(shù)據(jù)語(yǔ)料庫(kù)上訓(xùn)練的。
在許多情況下,獲得足夠的數(shù)據(jù)來(lái)應(yīng)對(duì)挑戰(zhàn)是
不可行的。
每個(gè)集合都有自己的 MLOps 管道。維護(hù)和更
新大量復(fù)雜的合奏是困難的,因?yàn)槊總€(gè)合奏中的每
個(gè)模型都必須定 期進(jìn)行微調(diào)。
雖然像 BERT 這樣的語(yǔ)言模型已經(jīng)被有效地用
于處理文本分類(lèi)等許多下游任務(wù),但已經(jīng)觀(guān)察到,隨
著這些模型規(guī)模的增加,某些額外的能力也會(huì)出現(xiàn)。
這種規(guī)模的增加通常伴隨著以下三個(gè)維度的相
應(yīng)增加:參數(shù)的數(shù)量、訓(xùn)練數(shù)據(jù)和訓(xùn)練模型所需的
計(jì) 算 資 源。有 關(guān) 詳 細(xì) 信 息,請(qǐng) 參 閱 Emergent
Abilities of Large Language Models。
LLM 是一種深度學(xué)習(xí)模型,可以使用大型數(shù)據(jù)
集識(shí)別、總結(jié)、翻譯、預(yù)測(cè)和生成內(nèi)容。 LLM 沒(méi)有一
個(gè)集合的界限,但為了本討論的目的,我們使用這個(gè)
術(shù)語(yǔ)來(lái)指代任何 GPT 規(guī)模的模型或具有 1B 或更多
參數(shù)的模。
這篇文章解釋了在使用較小語(yǔ)言模型構(gòu)建的一
組模型管道上使用 LLM 的好處。它還涵蓋了以下基
本內(nèi)容:
LLM 提示
快速工程
P- 調(diào)諧
為什么要使用大型語(yǔ)言模型? 提示被用作與 LLM 交互以完成任務(wù)的一種手
段。提示是用戶(hù)提供的輸入,模型要對(duì)其做出響應(yīng)。
提示可以包括說(shuō)明、問(wèn)題或任何其他類(lèi)型的輸入,具
體取決于模型的預(yù)期用途。例如,在穩(wěn)定擴(kuò)散模型的
情況下,提示是要生成的圖像的描述,提示也可以采
用圖像的形式。通過(guò)這種方法,生成的文本輸出描述
了圖像提示。這通常用于圖像字幕等任務(wù)。
對(duì)于 GPT-3 等模型,文本提示可以是一個(gè)簡(jiǎn)單
的問(wèn)題,比如“彩虹中有多少種顏色?”或者,提示可
以采取復(fù)雜問(wèn)題、數(shù)據(jù)或指令的形式,比如“寫(xiě)一首
勵(lì)志詩(shī),讓我快樂(lè)?!?/p>
提示還可以包括特定的約束或要求,如語(yǔ)氣、風(fēng)
格,甚至所需的響應(yīng)長(zhǎng)度。例如,給朋友寫(xiě)信的提示
可以指定語(yǔ)氣、字?jǐn)?shù)限制和要包含的特定主題。
LLM 生成的響應(yīng)的質(zhì)量和相關(guān)性在很大程度上
取決于提示的質(zhì)量。因此,提示在自定義 LLM 以確
保模型的響應(yīng)滿(mǎn)足自定義用例的要求方面發(fā)揮著關(guān)
鍵作用。
提示 LLM
術(shù)語(yǔ)快速工程是指仔細(xì)設(shè)計(jì)提示以生成特定輸
出的過(guò)程。提示在從模型中獲得最佳結(jié)果方面發(fā)揮
著關(guān)鍵作用,而如何編寫(xiě)提示可以對(duì)生成的輸出產(chǎn)
提示工程以獲得更好的提示
可以說(shuō),一組模型可以比 LLM 便宜。然而,僅考
慮推理成本,這一假設(shè)忽略了以下考慮因素:
節(jié)省工程時(shí)間和成本:
構(gòu)建、維護(hù)和擴(kuò)展集成是一項(xiàng)復(fù)雜的挑戰(zhàn)。每個(gè)
組件模型都必須進(jìn)行微調(diào)。用于模型推理和縮放以
適應(yīng)流量的人工智能基礎(chǔ)設(shè)施需要相當(dāng)多的時(shí)間來(lái)
構(gòu)建。這是針對(duì)一項(xiàng)技能。為了模仿 LLM ,必須建立
LLM 在多個(gè)系綜中的價(jià)值
圖 3 :DALL-E 2 文本提示(左)和生成的圖像(右) 圖 4 :圖像提示(左)和生成的文本(右)
48