亚洲精品一区二区国产精华液,亚洲欧美中文日韩v在线观看,亚洲综合人成网免费视频,亚洲精品色婷婷在线影院,一区二区三区在线 | 网站

首頁  >  案例  >  文章
2023-12-19 14:19

AI對話模型應(yīng)用案例丨掌握這六個ChatGPT提示詞撰寫方法,讓你工作效率秒殺所有同事

以下文章轉(zhuǎn)載自丨APPSO


我們總是期望ChatGPT能準(zhǔn)確理解我們的意圖,卻時常發(fā)現(xiàn)其回答或創(chuàng)作并非百分之百貼合我們的期待。

這種落差可能源于我們對于AI模型性能的過高期望,亦或者我們在使用時未能找到最有效的溝通途徑。

正如探險者需要時間適應(yīng)新的地形,我們與ChatGPT的互動也需要耐心和技巧。正好,現(xiàn)如今OpenAI官方對外發(fā)布了GPT-4的使用指南——“提示詞工程”(提示詞撰寫策略)。

立即Mark,掌握駕馭GPT-4的六大策略。相信有了它,未來你和ChatGPT的溝通將會更加順暢。

簡單匯整總結(jié)一下這六大策略:

?寫出清晰的指令

?提供參考文本

?將復(fù)雜的任務(wù)拆分為更簡單的子任務(wù)

?給模型時間「思考」

?使用外部工具

?系統(tǒng)性地測試變更

寫出清晰的指令

描述詳細(xì)的信息

ChatGPT無法判斷我們隱含的想法,所以我們應(yīng)該盡可能明確告知要求,如回復(fù)的長短、寫作的水平、輸出的格式等。

越少讓ChatGPT去猜測和推斷我們的意圖,輸出結(jié)果滿足我們要求的可能性越大。例如,當(dāng)我們讓他寫一篇心理學(xué)的論文,給出的提示詞應(yīng)該長這樣。?

請幫助我撰寫一篇有關(guān)「抑郁癥的成因及治療方法」的心理學(xué)論文。要求:需要查詢相關(guān)文獻(xiàn),不能抄襲或剽竊;需要遵循學(xué)術(shù)論文格式,包括摘要、引言、正文、結(jié)論等部分;字?jǐn)?shù)2000字以上。

圖片

讓模型扮演某個角色

術(shù)業(yè)有專攻,指定模型扮演專門的角色,它輸出的內(nèi)容會顯得更加專業(yè)。

例如:請你扮演一名警探小說家,用柯南式推理描述一起離奇命案。要求:需匿名處理,字?jǐn)?shù) 1000 字以上,劇情跌宕起伏。

圖片

使用分隔符清楚地劃分不同部分

三引號、XML標(biāo)簽、節(jié)標(biāo)題等分隔符可以幫助模型劃分需要區(qū)別對待的文本節(jié),幫助模型更好地消除歧義。

圖片

指定完成任務(wù)所需的步驟

將部分任務(wù)拆成一系列條理清晰的步驟,這樣更有利于模型執(zhí)行這些步驟。

圖片

提供示例

提供適用于所有示例的一般性說明通常比通過示例演示更有效,但在某些情況下提供示例可能更容易。

舉個例子,如果我告訴模型要學(xué)會游泳,只需要踢腿和擺動手臂,這就是一個一般性的說明。而如果我給模型展示一個游泳的視頻,展示踢腿和擺動手臂的具體動作,那就是通過示例來說明。

指定輸出長度

我們可以告訴模型,希望它生成的輸出有多長,這個長度可以以單詞、句子、段落、要點等方式進(jìn)行計數(shù)。

受限于模型內(nèi)部機(jī)制和語言復(fù)雜性的影響,最好還是按照段落、要點來劃分,這樣效果才會比較好。

提供參考文本

讓模型使用參考文本回答

假如我們手頭上有更多參考信息,那我們可以「喂」給模型,并讓模型使用提供的信息來回答。

圖片

讓模型引用參考文本來回答

如果輸入中已經(jīng)包含了相關(guān)的知識文檔,用戶可以直接要求模型通過引用文檔中的段落來為其答案添加引用,盡可能減少模型胡說八道的可能性。

在這種情況下,輸出中的引用還可以通過編程方式驗證,即通過對所提供文檔中的字符串進(jìn)行匹配來確認(rèn)引用的準(zhǔn)確性。

圖片

將復(fù)雜的任務(wù)拆分為更簡單的子任務(wù)

意圖分類來識別與用戶查詢最相關(guān)的指令

處理那些需要很多不同操作的任務(wù)時,我們可以采用一個比較聰明的方法。首先,把問題分成不同的類型,看看每一種類型需要什么操作。這就好像我們在整理東西時,先把相似的東西放到一起。

接著,我們可以給每個類型定義一些標(biāo)準(zhǔn)的操作,就像給每類東西貼上標(biāo)簽一樣,這樣一來,就可以事先規(guī)定好一些常用的步驟,比如查找、比較、了解等。

而這個處理方法可以一層層地遞進(jìn),如果我們想提出更具體的問題,就可以根據(jù)之前的操作再進(jìn)一步細(xì)化。

這么做的好處是,每次回答用戶問題時,只需要執(zhí)行當(dāng)前步驟需要的操作,而不是一下子把整個任務(wù)都做了。這不僅可以減少出錯的可能性,還能更省事,因為一次性完成整個任務(wù)的代價可能比較大。

圖片

對于需要處理很長對話的應(yīng)用場景,總結(jié)或過濾之前的對話

模型在處理對話時,受制于固定的上下文長度,不能記住所有的對話歷史。

想要解決這個問題,其中一種方法是對之前的對話進(jìn)行總結(jié),當(dāng)輸入的對話長度達(dá)到一定的限制時,系統(tǒng)可以自動總結(jié)之前的聊天內(nèi)容,將一部分信息作為摘要顯示,或者,可以在對話進(jìn)行的同時,在后臺悄悄地總結(jié)之前的聊天內(nèi)容。

另一種解決方法是在處理當(dāng)前問題時,動態(tài)地選擇與當(dāng)前問題最相關(guān)的部分對話。這個方法涉及到一種叫做「使用基于嵌入的搜索來實現(xiàn)高效的知識檢索」的策略。

簡單來說,就是根據(jù)當(dāng)前問題的內(nèi)容,找到之前對話中與之相關(guān)的部分。這樣可以更有效地利用之前的信息,讓對話變得更有針對性。

分段總結(jié)長文檔并遞歸構(gòu)建完整摘要

由于模型只能記住有限的信息,所以不能直接用來總結(jié)很長的文本,為了總結(jié)長篇文檔,我們可以采用一種逐步總結(jié)的方法。

就像我們閱讀一本書時,可以通過一章又一章地提問來總結(jié)每個部分。每個部分的摘要可以串聯(lián)起來,形成對整個文檔的概括。這個過程可以一層一層地遞歸,一直到總結(jié)整個文檔為止。

如果需要理解后面的內(nèi)容,可能會用到前面的信息。在這種情況下,另一個有用的技巧是在閱讀到某一點之前,先看一下摘要,并了解這一點的內(nèi)容。

給模型時間「思考」

指示模型,在急于得出結(jié)論之前想出自己的解決方案

以往我們可能直接讓模型看學(xué)生的答案,然后問模型這個答案對不對,但是有時候?qū)W生的答案是錯的,如果直接讓模型判斷學(xué)生的答案,它可能判斷不準(zhǔn)確。

為了讓模型更準(zhǔn)確,我們可以先讓模型自己做一下這個數(shù)學(xué)題,先算出模型自己的答案來。然后再讓模型對比一下學(xué)生的答案和模型自己的答案。

先讓模型自己算一遍,它就更容易判斷出學(xué)生的答案對不對,如果學(xué)生的答案和模型自己的答案不一樣,它就知道學(xué)生答錯了。這樣讓模型從最基本的第一步開始思考,而不是直接判斷學(xué)生的答案,可以提高模型的判斷準(zhǔn)確度。

圖片

使用內(nèi)心獨白來隱藏模型的推理過程

有時候在回答特定問題時,模型詳細(xì)地推理問題是很重要的。但對于一些應(yīng)用場景,模型的推理過程可能不適合與用戶共享。

為了解決這個問題,有一種策略叫做「內(nèi)心獨白」。這個策略的思路是告訴模型把原本不想讓用戶看到的部分輸出整理成結(jié)構(gòu)化的形式,然后在呈現(xiàn)給用戶時,只顯示其中的一部分,而不是全部。

例如,假設(shè)我們在教某個學(xué)科,要回答學(xué)生的問題,如果直接把模型的所有推理思路都告訴學(xué)生,學(xué)生就不用自己琢磨了,

所以我們可以用「內(nèi)心獨白」這個策略:先讓模型自己完整地思考問題,把解決思路都想清楚,然后只選擇模型思路中的一小部分,用簡單的語言告訴學(xué)生。

或者我們可以設(shè)計一系列的問題:先只讓模型自己想整個解決方案,不讓學(xué)生回答,然后根據(jù)模型的思路,給學(xué)生出一個簡單的類似問題,學(xué)生回答后,讓模型評判學(xué)生的答案對不對。

最后模型用通俗易懂的語言,給學(xué)生解釋正確的解決思路,這樣就既訓(xùn)練了模型的推理能力,也讓學(xué)生自己思考,不會把所有答案直接告訴學(xué)生。

圖片

詢問模型在之前的過程中是否遺漏了任何內(nèi)容

假設(shè)我們讓模型從一個很大的文件里,找出跟某個問題相關(guān)的句子,模型會一個一個句子告訴我們。

但有時候模型判斷失誤,在本來應(yīng)該繼續(xù)找相關(guān)句子的時候就停下來了,導(dǎo)致后面還有相關(guān)的句子被漏掉沒有告訴我們。

這個時候,我們就可以提醒模型「還有其他相關(guān)的句子嗎」,接著它就會繼續(xù)查詢相關(guān)句子,這樣模型就能找到更完整的信息。

使用外部工具

使用基于嵌入的搜索實現(xiàn)高效的知識檢索

如果我們在模型的輸入中添加一些外部信息,模型就能更聰明地回答問題了。比如,如果用戶問有關(guān)某部電影的問題,我們可以把電影的一些重要信息(比如演員、導(dǎo)演等)輸入到模型里,這樣模型就能給出更聰明的回答。

文本嵌入是一種能夠度量文本之間關(guān)系的向量。相似或相關(guān)的文本向量更接近,而不相關(guān)的文本向量則相對較遠(yuǎn),這意味著我們可以利用嵌入來高效地進(jìn)行知識檢索。

具體來說,我們可以把文本語料庫切成塊,對每個塊進(jìn)行嵌入和存儲。然后,我們可以對給定的查詢進(jìn)行嵌入,并通過矢量搜索找到在語料庫中最相關(guān)的嵌入文本塊(即在嵌入空間中最接近查詢的文本塊)。

使用代碼執(zhí)行來進(jìn)行更準(zhǔn)確的計算或調(diào)用外部API

語言模型并不總是能夠準(zhǔn)確地執(zhí)行復(fù)雜的數(shù)學(xué)運算或需要很長時間的計算。在這種情況下,我們可以告訴模型寫一些代碼來完成任務(wù),而不是讓它自己去做計算。

具體做法是,我們可以指導(dǎo)模型把需要運行的代碼按照一定的格式寫下,比如用三重反引號包圍起來。當(dāng)代碼生成了結(jié)果后,我們可以提取出來并執(zhí)行。

最后,如果需要,可以把代碼執(zhí)行引擎(比如Python代碼解釋器)的輸出當(dāng)作模型下一個問題的輸入。這樣就能更有效地完成一些需要計算的任務(wù)。

圖片

另一個很好的使用代碼執(zhí)行的例子是使用外部API。如果我們告訴模型如何正確使用某個API,它就可以寫出能夠調(diào)用該API的代碼。

我們可以給模型提供一些展示如何使用API的文檔或者代碼示例,這樣就能引導(dǎo)模型學(xué)會如何利用這個API。簡單說,通過給模型提供一些關(guān)于API的指導(dǎo),它就能夠創(chuàng)建代碼,實現(xiàn)更多的功能。

圖片

警告:執(zhí)行由模型生成的代碼本質(zhì)上是不安全的,任何嘗試執(zhí)行此操作的應(yīng)用程序都應(yīng)該采取預(yù)防措施。特別是,需要使用沙盒代碼執(zhí)行環(huán)境來限制不受信任的代碼可能引起的潛在危害。

讓模型提供特定功能

我們可以通過 API 請求,向它傳遞一個描述功能的清單。這樣,模型就能夠根據(jù)提供的模式生成函數(shù)參數(shù)。生成的函數(shù)參數(shù)將以 JSON 格式返回,然后我們再利用它來執(zhí)行函數(shù)調(diào)用。然后,把函數(shù)調(diào)用的輸出反饋到下一個請求中的模型里,就可以實現(xiàn)一個循環(huán),這就是使用 OpenAI 模型調(diào)用外部函數(shù)的推薦方式。

系統(tǒng)性地測試變更

當(dāng)我們對一個系統(tǒng)做修改時,很難判斷這些修改是好是壞。因為例子太少,很難確定結(jié)果是真的改進(jìn)了還是運氣好。有時候一個修改在某些情況下是好的,在其他情況下是壞的。

那么我們?nèi)绾卧u價系統(tǒng)輸出的質(zhì)量呢?如果問題只有一個標(biāo)準(zhǔn)答案,計算機(jī)可以自動判斷對錯。如果沒有標(biāo)準(zhǔn)答案,可以用其他模型來判斷質(zhì)量。

此外,我們也可以讓人工來評價主觀的質(zhì)量,又或者計算機(jī)和人工結(jié)合評價當(dāng)問題的答案很長時,不同的答案質(zhì)量差別不大,這時就可以讓模型自己來評價質(zhì)量。

當(dāng)然,隨著模型變得更先進(jìn),可以自動評價的內(nèi)容會越來越多,需要人工評價的越來越少,評價系統(tǒng)的改進(jìn)非常難,結(jié)合計算機(jī)和人工是最好的方法。

圖片

參考黃金標(biāo)準(zhǔn)答案評估模型輸出

假設(shè)我們面對一個問題,需要給出答案。我們已經(jīng)知道這個問題的正確答案,是基于一些事實的。

比如問題是「為什么天空是藍(lán)色的?」

正確答案可能是「因為陽光通過大氣層的時候,藍(lán)色光波段的光比其他顏色通過得更好」。

這個答案就是基于以下事實:陽光包含不同顏色(光波段),藍(lán)色光波段通過大氣層時損耗較小

有了問題和正確答案后,我們可以用模型(比如機(jī)器學(xué)習(xí)模型)來判斷,答案中的每一部分事實對于答案正確的重要性。

比如通過模型判斷出,答案中「陽光包含不同顏色」這一事實對于答案的正確性非常重要。而「藍(lán)色光波段損耗較小」這一事實,對于答案也很重要。這樣我們就可以知道,這個問題的答案依賴于哪些關(guān)鍵的已知事實。

圖片

在和ChatGPT進(jìn)行人機(jī)交流的過程中,提示詞看似簡單,卻又是最為關(guān)鍵的存在。在數(shù)字時代,提示詞是拆分需求的起點,通過設(shè)計巧妙的提示詞,我們可以將整個任務(wù)拆分成一系列簡明的步驟。

這樣的分解不僅有助于模型更好地理解用戶的意圖,同時也為用戶提供了更為清晰的操作路徑,就好像給定了一個線索,引導(dǎo)我們一步步揭開問題的謎底。

你我的需求如同涌動的江河,而提示詞就像是調(diào)節(jié)水流方向的水閘,它扮演著樞紐的角色,連接著用戶的思維與機(jī)器的理解。毫不夸張地說,一個好的提示詞既是對用戶深度理解的洞察,也是一種人機(jī)溝通的默契。

當(dāng)然,要想真正掌握GPT的提示詞使用技巧,僅依靠“提示詞工程”還遠(yuǎn)遠(yuǎn)不夠,但OpenAI的使用指南為我們提供了寶貴的入門指引。

6

相關(guān)文章