chatgpt questioning skills

ChatGPT 提問祕訣:從新手到專家,解析AI對話的科學技巧

當我們進入人工智能時代, ChatGPT 目前已經成為我們學習、工作、娛樂等各種場景的重要工具,而 AI 如何解讀我們的問題並給出有用的答案,已成為我們日常生活中的重要一環。然而,如何有效地向 ChatGPT 提問,獲取我們需要的資訊,這是一門學問。

本篇文章將專注於”ChatGPT 提問”這個主題,透過深入分析和實例教學,我們將一起探討如何更精確地提問,如何避免常見的錯誤,以及如何利用ChatGPT 提問來最大化我們的生產力。

如果你也在使用 ChatGPT,或者對提問技術感到好奇,本篇文章將為你提供我花費了好幾十個小時統整而來的見解。

認識 ChatGPT

以 ChatGPT 為代表的新AI,是從互聯網的語料庫中,擷取了數千億個單詞來做訓練的——它們被訓練如何分析單詞和短語。而當被要求回應時,AI就會模仿語句的組合模式,從它的資料庫中選擇與對話上下文相呼應的單詞和短語。

就像手機輸入法一樣,例如當你輸入「我今天」三個字後,輸入法會出現一些候選項,預測你接下來即將說的話,如「晚上、下午、早上」等。但 ChatGPT 更強大和通用,可以處理更多任務,甚至湧現出一些驚人的能力,如模式識別,不過 本質上仍是一個文本預測器。

換句話說,AI 不具備邏輯性,僅僅是建立在預定義遊戲規則之上的統計機器。

並且,沒人知道 AI 模型究竟會如何回應,你在向 Chatgpt 提問時,同樣的提示詞可能會產生幾十個互相矛盾的答案——模型的回答並不是基於理解,而是基於粗略地模仿語言,來解決他們不理解的任務—— Riley Goodside 說 : AI 傾向於「虛構」,編造小細節來填充故事。它會高估自己的能力,自信地把事情搞錯。它會「產生幻覺」,來胡說八道。

所以,在現階段,你需要警惕 ChatGPT 所輸出的回答。

例如:不要向它詢問你無法輕易核實的事實。 不要要求它提供參考。 不要讓它做數學運算,或進行分析。 它會很”樂意假裝”為你做這些事情,但輸出很可能是錯誤的。

為什麼要學 ChatGPT 提問 (Prompt Engineering)?

鑒於ChatGPT還不是強人工智能(AGI),無法猜想人類的思維到底是什麼。所以至少目前ChatGPT生成答案的水平與人類提出問題的水平有關– 垃圾提問,垃圾輸出。

學會提示工程(Prompt Engineering) 的目的,就是”讓 AI 的輸出結果可控,而非隨機開盲盒“——你可以以特定的方式,讓AI做你想要他做的事情。

決定ChatGPT對話成功的關鍵因素在於啟動和引導對話時的「提示語質量」——清晰簡潔的提示語有助於保持對話在正軌上,相反的,虛無飄渺或是過於籠統的提示語會讓 ChatGPT 不知如何回答,從而導致對話脫節或缺乏焦點,讓你只能得到模糊的答案。

比如,很多人在使用 ChatGPT 時,是把他當作是肚子裡的蛔蟲,特別喜歡問這樣的問題:

“幫我寫一篇演講稿。”

結果,ChatGPT就生成了一篇文句通順但內容全是瞎編的文章,提問者看過後,就搖搖頭,”這演講稿不能用啊,還不如我自己打的呢!”。

但是,ChatGPT他只是個語言模型而已,他擅長的是根據前後文,把文字接著寫下去。所以說,你要講什麼內容,受眾的屬性,以及你演講的風格都要在提試語中告知,這樣結果才能滿足你的需要。

就像任何的工具一樣,一個新工具的誕生一定會極大的降低做一件事情的門檻,但是這不代表你不用去學習這項新工具。像是紙和筆當然比在時頭上雕刻容易多了,但是寫好毛筆字也是需要一定技巧的;照相比油畫容易了不只一個數量級,但也催生了一門叫做攝影的手藝,並不是每個人的攝影技巧都一樣好的。

同理,ChatGPT 這項革命性的新工具也不是任何人都用的好的。你同樣是需要去研究,只有透過學習如何寫好prompt——知道怎麼怎麼提出好問題,才可以獲得比一般人更好的結果。

如何有效地向 ChatGPT 提問?

正如我們之前提到的,ChatGPT對話中的提示質量會直接影響對話的成效。設定清晰良好的提示有助於保持對話的流暢性並專注於主題上。

那麼,什麼是一個好的ChatGPT提示呢?如何製作有效的提示以產生引人入勝且信息豐富的對話?這裡有一些關鍵原則需要記住:

  • 清晰性:清晰簡潔的提示將幫助ChatGPT理解當前的主題或任務,並能夠產生適當的回應。避免使用過於複雜或模糊的語言,並讓提示盡可能具體。
  • 重點性:一個好的提示應該有明確的目的和重點,有助於引導對話並確保其沿著預設路線進行。避免使用過於寬泛或開放式的提示,這可能導致對話失焦或偏離主題。
  • 相關性:確保你的提示與使用者和對話的主題相關。避免引入無關的話題或偏離主題,以防分散對話的主要焦點。

以下是編寫清晰簡潔提示的技巧:

清晰性:使用具體相關的語言

為了讓ChatGPT能理解你的話並給出適當的回應,講明確且相關的話是很重要的。別用那些可能讓人困惑或誤解的專業術語或含糊的語言,相反,儘可能講得清楚簡單,用和當下主題相關的詞彙。

如果你在對話中需要用到專業術語或技術性的詞彙,確定給出清楚的定義或解釋。這樣可以確保ChatGPT與使用者在同一個頻道上,避免出現誤解。為了讓你的話更容易理解,儘可能講得清晰簡單。別用太多不必要的詞或句子,以免讓人分心,不看重點。

不良示例良好示例
“我想要了解那個科學東西。”“我想了解相對論的基本原理。”

重點性:定義談話的目的重點

在你開始寫提示之前,清楚地知道你想通過談話完成什麼是很重要的。你的目標是提供信息、回答問題還是進行隨意的談話?

確定談話的目標和重點,能幫你塑造出具體且相關的對話,讓對話不偏離軌道,避免扯到無關的議題,這樣就能確保對話覆蓋使用者有興趣的主題,並提供有價值的相關資訊。

不良示例良好示例
“讓我們聊聊天氣吧。”“我想要理解台風如何形成。”

相關性避免開放式或過於寬泛的提示

雖然爲了得到更全面的回答而提出開放式或過於寬泛的問題可能很誘人,但這種類型的提示通常會導致脫節或無重點的對話。相反,在提示中儘可能具體,爲對話定義一個明確的目的和重點。

不良示例良好示例
“告訴我有關宇宙的所有事情。”“請解釋什麼是黑洞,以及他們如何形成。”

ChatGPT 提問的常見錯誤與解決方法

在與ChatGPT互動的過程中,你可能會遇到一些常見的錯誤,這些錯誤可能會阻礙到我們獲取所需的答案。下面我們將一一列舉並提供解決的方法。

1. 問題模糊不清

很多時候,我們對ChatGPT提出的問題可能比較模糊或不夠明確。例如,你問:”天氣如何?”,這個問題並未明確說明是詢問哪裡的天氣,所以ChatGPT無法給出精確的答案。解決這種問題的方法就是確保你的問題具體而明確,例如:”今天紐約的天氣如何?”

無效的ChatGPT提示更好的提問方式
“你能告訴我關於科學的東西嗎?”“你能告訴我關於量子物理的基礎知識嗎?” 或者 “你能解釋一下達爾文的自然選擇理論嗎?”

2. 使用過於複雜或專業的術語

雖然ChatGPT被訓練來理解廣泛的語言和術語,但有時候,過於複雜或專業的術語可能會讓它難以理解。例如,如果你問:”我應該怎樣對抗早期萎縮性皮膚炎?”,這裡的專業術語可能會導致ChatGPT理解困難。改善這種情況的方法是儘可能使用簡單易懂的語言,或者在問題中給出足夠的上下文信息。

無效的ChatGPT提示更好的提問方式
“我應該怎麼樣對抗早期萎縮性皮膚炎?”“我該如何對抗皮膚乾燥和瘙癢?”

3. 假設ChatGPT知道過去的對話

ChatGPT無法記憶與用戶的過去對話。因此,如果你的問題建立在過去的對話基礎上,例如:”那我應該怎麼辦?”,ChatGPT可能無法給出有用的答案。解決此問題的最佳方式是確保每個問題都能夠獨立存在,包含足夠的上下文信息。

無效的ChatGPT提示更好的提問方式
“你還記得我上次跟你提到的問題嗎?”“上次我問了一個關於健康飲食的問題,關於這個問題我還想進一步了解…”

4. 試圖得到具有主觀性的答案

有時,用戶可能會尋求ChatGPT的主觀意見或建議。然而,我們必須記住,ChatGPT是基於大量文本訓練的AI模型,它並沒有自身的情感、感知或主觀性。例如,如果你問:”我應該跟我男朋友分手嗎?”,ChatGPT只能基於其訓練數據來提供一些一般的建議,而無法像真人那樣給出具有深度和個人感知的建議。在這種情況下,最好的辦法是尋求真人的幫助,或者將問題改為更具體,可以量化分析的問題。

無效的ChatGPT提示更好的提問方式
“我該選擇哪所大學?”“你可以告訴我台灣大學的特點和優點嗎?”

5. 詢問過於私人或敏感的問題

ChatGPT並不適合處理涉及個人隱私或敏感信息的問題。它是根據公開文本進行訓練的,並沒有存取任何個人或專有數據的能力。因此,任何與個人隱私、敏感議題或未公開信息相關的問題,ChatGPT都無法給出適當的答案。這種情況下,最好的辦法是不要向ChatGPT提出這類問題。

無效的ChatGPT提示更好的提問方式
“我該跟我的伴侶提分手嗎?”“如何理智地處理感情問題?”

6. 詢問有關未來的問題

ChatGPT無法預測未來。它基於其訓練數據對問題進行回答,並不能知道未來會發生什麼。因此,任何試圖預測未來的問題,例如:”誰會贏得下次大選?”,都不適合向ChatGPT提問。對於這類問題,最好的辦法是尋找有權威的資訊來源,或者諮詢專業人士的意見。

無效的ChatGPT提示更好的提問方式
“明年的股市會怎麼樣?”“可以分享一些關於理解和分析股市的方法嗎?”

進階 ChatGPT 提問策略

如果說 ChatGPT 回答答案的原理是「根據你所提出問題的語意和情境,它會在它的數據庫中,來找出下一句出現機率最高的句子」——原則上AI並不理解答案跟問題之間的關係,只知道在它的數據庫中這樣的組合機率是最大的。

那麼,按照AI的規則來問問題,提示語(prompt)的編寫邏輯就很簡單了,關鍵就一點——要怎麼限縮你所提問的語意和情境(縮小範圍可避免模糊答案,所以你要定義好數據庫範圍、規則,只在規則中提問)。

具體可以拆分為兩個層面——【提高它擷取數據庫資料的精度】,以及【問出具體問題】。

這有點不好懂,所以我自己是把它假想為一個情境——你現在是個靈媒,你面前有個提問者,他爸去世了,但還來不及交代保險箱的密碼,所以他想要透過你的招靈來作詢問。

那麼你要做的事情,會區分為幾個步驟,首先,你會向提問者詢問他爸的一些基本訊息(名字,生辰八字之類的),然後你會去地府招魂,而招到的魂也不是直接就問他問題,而是要做個二次確認,比如先問他一些瑣事——考驗他的記憶,確保沒招錯人。再來,確保是本人後,真要提問時,提問者也要把問題說的具體(什麼地址的房子幾樓裡哪個房間的什麼顏色保險箱的密碼),並且途中還要多次測試,像是問他說你有沒有聽懂,要不要補充更多信息等等——防止認知有落差,他誤解語意,回答錯誤。

而將上述情境轉換成提問 ChatGPT 的場景的話,那麼步驟可以分為6步:

  • 1.給予人設(叫他扮演誰+驗證是否是真的+告訴它這人設有什麼基本特徵)
  • 2.給予真問題(具體、明確的問題)
  • 3.將其推理過程分解(避免它編造答案)
  • 4.正式提問:給予回答規則(告訴它你會丟什麼內容給它,以及它要按什麼格式回答)
  • 5.追問(讓它提供更多細節)
  • 6.反思(讓它提出不足之處,以批評家的思維)

一.給予人設(叫他扮演誰+驗證是否是真的+告訴它這人設有什麼基本特徵)

假設你是餐飲業者好了,那在你這領域中,根據廚師的能力可以區分為米其林主廚、一般五星級大廚、一般餐廳大廚、學徒和初學者對料理完全不懂的……

而這些能力值的記憶資料全都儲存在ChatGPT的資料庫中,你的目的就是要召喚出這些資料來回答你的問題。

那當然,要回答問題時,你會想找三星主廚來回答(畢竟他們最懂料理),尤其最好是「江振誠」本人親自回答——所以你的描述句可以這樣寫: “我要你扮演江振誠來回答我對料理的疑問…..”

通過這樣的敘述,就可以直接調用 ChatGPT 裡的「江振誠資料庫」,來手把手的教你了。

聽起來很完美對吧,但這卻會有個隱藏的風險……

讓 ChatGPT 扮演”個人”的風險

關於這風險,我舉個例子來跟你說明——在前陣子吳淡如新聞洗版全台灣時,我想說測試一下,就請ChatGPT以吳淡如的寫作風格,來寫篇道歉信:

我說” 吳淡如口誤把AI繪畫Midjourney,說成像是自己畫出來的,現在被網友炎上,請以吳淡如的口吻,發一篇道歉文”

ChatGPT回答: “

親愛的各位網友:

我,吳淡如,在此向大家深深道歉,因我的口誤誤將AI繪畫Midjourney說成是我親自畫出來的,引起了許多的誤解和質疑,給大家帶來了不必要的困擾和疑慮,我深感抱歉。

我在這裡鄭重聲明,AI繪畫Midjourney的創作過程,完全是由AI技術完成的,我沒有親自參與任何畫作的創作。我作為一個媒體人,應當嚴格把握自己的言論,並尊重技術的力量。我的失言造成的誤解和疑慮,絕非本意,我真誠地向大家道歉。

在未來的工作中,我將更加嚴格地遵守新聞職業道德和規範,並更加尊重科技進步和成果。再次向大家表達我的歉意和誠摯的歉意。

最後,感謝各位網友對我的支持和關注。我會以更加謹慎的態度來面對我的言行,並為大家提供更優質的內容和服務。謝謝。”

我追問:”這是吳淡如的口吻嗎?”

ChatGPT回答”作為一個AI,我盡可能模擬了吳淡如的語言風格和表達方式來回答您的請求。然而,由於每個人的語言風格和口吻都是獨特的,因此我的回答可能並不完全符合吳淡如的口吻。請見諒。”

乍看之下沒什麼問題,我都快被他說服了。

但我後來靈光一閃,繼續追問它:”吳淡如是誰?”

ChatGPT說:

“吳淡如(Tracy Wen-Tzu Wu)是一位著名的科技記者、專欄作家和主持人,擁有豐富的新聞採訪和科技評測經驗。她曾在多家知名媒體擔任記者和編輯,包括《中央社》、《商周財富》、《天下雜誌》等。她也是許多國際知名科技展會的現場記者和評論嘉賓,並主持過多個科技相關的節目。她以深入淺出、幽默風趣的風格和深厚的科技知識受到了廣大觀眾和讀者的喜愛和信賴。”

好傢伙……雖然這也是吳淡如,但好像跟我印象中的吳淡如不太一樣。(她如果真的是科技先驅的話……那也許就不會講錯話了)

也就是說,資料庫裡有千千萬萬個吳淡如,他們都叫吳淡如,但你具體要用哪個吳淡如要先問清楚——原因是中文數據不足,所以是答案模糊的。所以,目前以”個人”為單位來進行召換,其實並沒有很好的效果,不僅辨別真偽麻煩(要追問他的哲學/方法論相關的問題,確認它是不是真懂),數據量也不夠,不足以支撐模仿行為。

目前來看,還是叫ChatGPT用”扮演群體”的方式,比較適用。

讓 ChatGPT 扮演”群體角色”

Goodside說,訣竅就是對於每個請求,提示工程師都應該向AI灌輸一種「角色」——一種能夠篩選出數千億個潛在解決方案,並確定正確響應的特定角色。

用法如下:

例子1: 導遊

我要你當導遊。我會把我的位置給你,你會建議我附近有什麼可以參觀的地方。在某些情況下,我還會告訴你我將造訪的地方類型。我的第一個命令是“我在台北,我只想參觀博物館。”

例子2:面試官

我想讓你擔任面試官。我將成為候選人,您將向我詢問該職位的面試問題。我希望你只作為面試官回答。不要一次寫出所有的列表。我希望你只對我進行採訪。問我問題,等待我的回答。不要寫解釋。像面試官一樣一個一個問我,等我回答。我的第一句話是“嗨”

那麼,為什麼要以——你「扮演」某一個群體,來作為描述,而不是直接問他問題呢?

關於這點,我去詢問了ChatGPT,我說:””如果我給你的提示語加上”你扮演一位醫生”和沒加上提示語,分別讓你回答一些比較專業的醫學問題,那會有什麼差別?”

ChatGPT回答 “如果你給我加上提示語”你扮演一位醫生”,我會以更專業和正式的方式回答問題,針對問題給出更詳盡和精確的答案。我會更注重使用醫學術語,以確保我的回答更加精確和準確。

如果你沒有加上提示語,我會以一種更通俗易懂和普及的方式回答問題。我會盡可能避免使用過於專業的術語,並且用更通俗的語言解釋問題,以確保回答更容易理解。”

根據這點,你可以這樣理解——它的資料庫中分布著大量數據(對這領域精通的,不熟悉的,完全不懂的…..),如果你沒有先叫它扮演一個目標群眾,他調出的答案就會是全部數據庫裡面找出最大機率的,而給予它扮演目標後,它就會從那些精通者的數據庫裡頭調取——某種程度上是限縮了它調取資料庫的範圍。

二.給予真問題(具體、明確的問題)

好,當你找到你要調用的目標群體數據庫後,接著你要開始問它問題了。

在這裡有分為兩種模式,一種是套路型的問法(初級問法),另一種是提出”真問題”的問法。

套路型問法

套路型的問法就是有公式結構的——目的是要重複使用:

這類的詠唱具有相同的結構:首先,告訴它 AI 應該扮演什麼角色。然後提示說明用戶會提供哪些信息,然後是 AI 應該如何處理這些信息,包括粗略的方向建議,最好還能給予例子,輔助AI理解(AI在舉一反三的能力上很強)。最後,你將第一條具體指令放在引號中。(也可以在句尾加上一句「這些規則不需要我再重新說明」,讓它能重複使用。)

套路型問法例子:

我想讓你擔任足球評論員。我會給你描述正在進行的足球比賽,你會評論比賽,分析到目前為止發生的事情,並預測比賽可能會如何結束。您應該了解足球術語、戰術、每場比賽涉及的球員/球隊,並主要專注於提供明智的評論,而不僅僅是逐場敘述。我的第一個請求是“我正在觀看曼聯對切爾西的比賽——為這場比賽提供評論。”

更多例子可參考: ChatGPT Prompt : 各職業詠唱大全(超過100個案例)

真問題問法

什麼叫做真問題?

比如,” 媽媽和老婆同時掉進水裡要先救誰”,這個就是假問題,因為這問題中並沒有給出具體的情境,所以這沒有標準答案。

所謂的真問題是長這樣——你要把其他參考因素也一併寫入,是因為什麼原因掉入水中的、誰離你比較近、關係如何、你國家的社會道德觀長怎樣、現場情況、誰好救、你會游泳嗎、她們會游泳嗎…….只有將具體的前提和前因後果都提供了,能夠限定回答角度,這才叫真問題。

所以說,如果你想要答案越準確,你給予AI的提問也得越準確。你也會發現——把chatGPT用出花的前提是,你自己得有評估能力。如果你本人不是這個領域的專家,提出的問題不在你的常識裡,那你就很難真正問出一個好答案。

給個例子,當你想做健身時,一般人會這樣提問: “我要減肥,我該怎麼做?” ,但這問題就是屬於假問題,因為範圍太大,也不適用於所有人。

而真問題方式的提問應該要具體明確,例如 : “我今年25歲,男性,身高175,體重90公斤,我要減肥,預計在半年內要降低到70公斤,請幫我規劃訓練方案和飲食食譜” ——要有「約束行為」,把回答的範圍縮小,這樣的問題可以引導ChatGPT提供更具體的建議。

三.將其推理過程分解(改善ChatGPT的邏輯性,避免它編造答案)

你知道嗎?ChatGPT 和我們人類在很多方面其實相當相似。

比如,它有時不太懂常識,人也是這樣;它算數可能不夠準確,人也一樣(誰能立刻告訴我733乘以818是多少?);它推理有時候不夠好,人也是如此;有時它會編造答案,人也有這種情況;它思考有時候慢,人也是;它只能理解有限的上下文,人也一樣。

我們在使用 ChatGPT 時,其實並沒有給它真正思考的空間,它沒有像人類一樣能用草稿紙做計算,或者利用”工作記憶”來儲存中間步驟,而是直接給出答案。但是,如果我們能讓它像人類一樣,將一個需要多步推理的問題,分解成一個個子問題,這將有助於提高它的答案質量。

實際上,這個方法已經被證明是有效的,為了提升ChatGPT的回答邏輯性,我們可以通過以下三種方法來改進:思維鏈(Chain of Thought)、提出子問題(Self-Ask)、給出多種方案(Self Consistency)。

這些方法本質上都是引導ChatGPT給出中間的推理步驟,不要直接給結果。(隨著ChatGPT本身邏輯性的提高,如 GPT-4 已經湧現出一定的常識了,有可能直接就能得到很好的答案,而不需要額外使用這方法。)

1.思維鏈(Chain of Thought)

思維鏈的方法主要利用GPT是一個文本預測器的特性——需要盡量保持上下文的連貫性。我們可以透過改寫prompt或者示例的方式引導 ChatGPT 給出中間的推理步驟,而不是直接給出結果。

CoT 主要分為兩種:

  • 1. Zero-shot-CoT:在提示詞後面加上 Let’s think step by step(一步一步地思考)
  • 2. Chain of Thought:展示一個相似問題的推理過程,告訴 ChatGPT 應該這麼來。

區別是前者沒有給出推理的示例(zero-shot表示0示例),後者給出至少一個示例。

Zero-shot-CoT

Zero-shot-CoT就是在prompt的後面加上”Let’s think step by step”,來引導ChatGPT展示推理過程。

Zero shot CoT

由於AI沒有判別能力,同時還很會唬爛——所以保險起見,你需要設計一個反饋機制,來逐步審核它的推理過程。透過在句尾加這句”讓我們逐步思考.”,讓它按照步驟展示它的推理過程給你看——過程中哪裡沒看懂,也能叫它舉例。

Chain of Thought

Chain of Thought則是先展示一個相似問題的推理過程,然後讓ChatGPT模仿這個過程來回答問題。

Chain of Thought

在回答前,先展示示例:

Q: 為什麼天空是藍色的?
A:

  1. 首先,我們需要理解光的物理特性,光是由許多顏色(或波長)組成的,從紅色到紫色的範圍內。
  2. 光通過大氣層時會散射,這稱為瑞利散射。
  3. 瑞利散射對短波長的光更有效,例如藍色和紫色。
  4. 雖然紫色光也被散射,但人眼對藍色光的敏感度更高,而對紫色光的敏感度較低。
  5. 所以,當我們看天空時,它看起來是藍色的。

Q: 冰為什麼會滑?
A:

教會ChatGPT怎麼說”不知道”,在給予例子時,展示不知道的答案可以用 “?” 來回答

Q:蝙蝠俠是誰?
A:蝙蝠俠是一個虛構的漫畫人物。
Q:什麼是軀幹複雜性?
A: ?
Q:Devz9 是什麼?
A: ?
Q:喬治·盧卡斯是誰?
A:喬治盧卡斯是美國電影導演和製片人,以創作星球大戰而聞名。

而如果是對於復雜的模式,示例應當:

  • 1. 提供更多的例子個數,供ChatGPT學習。
  • 2. 示例應 多樣化,均勻展示各種情況。比如當限定回答只能是 ”是/否“時,例子中兩者個數的比例應該均勻分佈,否則ChatGPT的回答可能會傾向於某個選項。

2.提出子問題(Self-Ask)

有些時候,問題的推理過程可能比較複雜,需要將問題分解成子問題。Self-Ask就是讓GPT根據問題自動提出子問題的方法,要求GPT判斷一個問題是否提出子問題,先解決子問題,再給出最後的答案。

Self Ask

一般詢問: 回答錯誤

客戶諮詢:
我剛在 3 月 1 日從你的 Arnold 系列中買了一件 T 卹。我看到它在打折,所以買了一件原價 30 美元的襯衫,並享受了 40% 的折扣。我看到你們的襯衫有 50% 的新折扣。我想知道我是否可以退回這件襯衫並有足夠的商店信用來購買您的兩件襯衫?

指示:
你是一名客戶服務代理,負責友好地回應客戶的詢問。允許在 30 天內退貨。今天的日期是3月29日。目前所有 T 卹均有 50% 的折扣。您商店的襯衫價格在 18 美元到 100 美元之間。請勿編造有關折扣政策的任何信息。

ChatGPT回答:
感謝您的查詢。很遺憾,由於您是在 3 月 1 日購買的這件襯衫,因此不在我們的 30 天退貨政策範圍內。但是,我們目前對所有 T 卹均有 50% 的折扣,因此您可以使用相同的商店信用額度購買兩件 T 卹。我們襯衫的價格從 18 美元到 100 美元不等。如果您有任何其他問題,請告訴我們。

拆解成子問題再詢問: 回答正確

客戶諮詢: 我剛在 3 月 1 日從你的 Arnold 系列中買了一件 T 卹。 我看到它在打折,所以買了一件原價 30 美元的襯衫,並享受了 40% 的折扣。 我看到你們的襯衫有 50% 的新折扣。 我想知道我是否可以退回這件襯衫並有足夠的商店信用來購買您的兩件襯衫?

指示: 你是一名客戶服務代理,負責友好地回應客戶的詢問。 允許在 30 天內退貨。 今天的日期是3月29日。 目前所有 T 卹均有 50% 的折扣。 您商店的襯衫價格在 18 美元到 100 美元之間。 請勿編造有關折扣政策的任何信息。

在回答詢問之前必須解決哪些子問題?

ChatGPT回答:
1.確定客戶是否在 30 天的退貨窗口內。
2. 計算如果客戶退回襯衫,他們將獲得的商店信用額度。
3. 計算兩件襯衫在當前 50% 折扣下的成本。
4. 確定客戶是否有足夠的商店信用來購買兩件襯衫。

再指示: 確定客戶是否在 30 天的退貨期限內。 讓我們一步一步來。

ChatGPT回答:
是的,客戶在 30 天的退貨期限內。客戶於 3 月 1 日購買了這件襯衫,今天的日期是 3 月 29 日,在 30 天的退貨期限內。因此,客戶有資格退回 T 卹並獲得購買的商店積分。客戶可以使用商店信用以當前 50% 的折扣購買兩件襯衫。

3.給出多種方案(Self Consistency)

Self Consistency是讓GPT給出一個問題的多個解決方案,然後綜合考慮這些方案,得出最終的答案。

Self Consistency的核心概念是要求ChatGPT為同一問題提供多種可能的解答,然後評估這些解答的一致性。這種方法對於提高算術、常識和符號推理任務的效果已經得到證明,並且它甚至可以在CoT策略無法提供有效解答的情況下仍然保持有效。

Self Consistency

四.正式提問 : 建立回答規則(告訴它你會丟什麼內容給它,以及它要按什麼格式回答)

這邊分享日本人整理的「深津氏泛用Prompt」方法,照著做的話可以讓回答更貼近你想要的結果。 深津貴之強調正確的提問架構如下:

  • 要明確定義角色
  • 明確指示輸入與輸出
  • 清楚地說明要輸出的內容
  • 使用標記式語言來說明非文本的部份
  • 條列式給予清楚的命令
  • 盡量限縮 AI 輸出回答的範圍

範例:

#Instructions: 你是專業的編輯。 根據以下規範和輸入的句子來輸出最佳摘要。

#Constraints:

  • 字符數約為300個字符。
  • 小學生也能輕鬆理解。
  • 保持句子簡潔。

#Input:

(填入文本)

#output:

應用範例:

#Instructions:你是專業的編輯。根據以下規範和輸入的句子來輸出最佳摘要。

#Constraints:

  • 字符數約為300個字符。
  • 小學生也能輕鬆理解。
  • 刪除任何無關緊要的文本。無關緊要的文本示例:“嗯”、“你能聽到我說話嗎,好嗎?”
  • 修正任何明顯的拼寫錯誤
  • 將大塊文本分成較小的段落以使其更易於閱讀
  • 使用markdown結構化信息輸出文檔。使用標題、副標題、項目符號和粗體來組織信息
  • 一步一步地思考
  • 如果你不理解,就告訴我;如果你理解了,也要回答我;如果你需要我補充什麼信息,也告訴我

#Input:

地球是我們的家,每個人都有責任去保護它。從小事做起,如垃圾分類、節約用水、用環保產品等等,都可以讓地球變得更好。此外,植樹也是一個不錯的方法,因為樹木可以吸收二氧化碳,讓我們呼吸到更乾淨的空氣。我們也應該尊重每一種生物,因為每一種生物都對地球有重要的貢獻。只有我們全力以赴,地球才能變得更美好。

#Output:

深津貴之」提問公式的特點:

1.使用符號#用來區隔信息

事實上符號是讓 ChatGPT 有效辨別信息的方式之一,例如你可以將關鍵資訊使用{ }給包裝,這樣你在內容中就可以多次引用這變體,用法如下:

我希望你扮演一位影評人。你需要觀看一部{電影},並以清晰明瞭的方式進行評論,提供{電影}關於情節、演技、攝影、導演、音樂等方面的正面和負面意見。

{電影}=”這裡放電影名”

2.將 Constraints 約束語用子彈符號列表的方式呈現

所謂的約束語,就是限定住AI回答的條件或是方向。例如:字符數約為300個字符、小學生也能輕鬆理解・不要留下重要的關鍵詞、保持句子簡潔、使用markdown結構化信息輸出文檔。使用標題、副標題、項目符號和粗體來組織信息等等

之所以採用子彈符號的形式撰寫,是因為這樣子簡潔有力,並且由於沒有前後文的關係,方便擴充或縮減

3.使用MECE(不遺漏不重複)將內容分類

將其使用MECE分類清楚,你就可以將你想要補充的事項,分門別類的放入其中,不搞混。

  • 像是#Instructions 就是放入系統性問題,如腳色是誰,有什麼特徵。
  • 而#Constraints 就是放入限制和約束條件,如字數,說話風格等等。
  • 至於 #Input 就是放入輸入的文本
  • #output 就是讓ChatGPT去回答。

此外,類別處其實不限只有這幾個,你還可以增加其他類別,例如: #Goal、#Example……

類型內容
#Instructions設定腳色特徵及背景:
賦予ChatGPT明確的特徵,讓其產生符合你預期的回應。例如:扮演一位專業的文章評論家,根據以下 #Constraints 和 #Input 來輸出 #output 。
#Constraints設定回應限制:
設定AI回答的方式以滿足你的需求。例如:句子簡練,並控制答案在150字以內。

加上指定動作:
你的任務是仔細閱讀這篇{文章},對其進行批評和反駁,找出其中的漏洞和改進空間。分析{文章}的結構、內容、語言、論點和寫作風格,並提出具體的建議以改進這些方面。在進行評論時,要保持公正和客觀,並尊重作者的觀點。同時,要提出有建設性的批評,以便提高{文章}的整體回應力和說服力。

給予參考例子:
嘗試更具體的指示來讓 ChatGPT 更準確地理解需求。例如,以下是一個範例:
“我的牙科衛生師推薦我使用電動牙刷,這就是我為什麼會購買這款的原因。到目前為止,它的電池壽命給我留下了深刻的印象。在初次充電並在第一周內一直插著充電器以保養電池後,我已經拔掉了充電器,並在過去的3周里每天使用它刷兩次牙,都是用的同一次充電。但是,牙刷頭太小了。我見過的嬰兒牙刷比這個還要大。我希望牙刷頭能大一些,刷毛長度不同,以便更好地清理牙齒之間的空隙,因為這款牙刷做不到。總的來說,如果你能以50美元左右的價格買到這款牙刷,那它就是一筆不錯的交易。廠家的替換刷頭相當昂貴,但你可以買到價格更合理的通用型刷頭。這款牙刷讓我感覺像每天都去看牙醫一樣。我的牙齒感覺閃閃發光,非常乾淨!”
GPT輸出:“電池壽命長,牙刷頭小,但清潔效果好。如果購買價格在50美元左右,那麼這是一筆划算的交易。”。

調整風格和語氣:
在指示中加入風格和語氣的資訊,來讓 ChatGPT 生成更符合你要求的回應。例如:用對話的、相關的風格寫作,就像你在向朋友解釋什麼一樣。使用真人在日常對話中使用的自然語言和短語。
#Input輸入文本:
放入文本,讓 ChatGPT 能根據 Constraints 的指示,來對 Input 編輯。例如 : {文章} = “放入文章內容”
#output空白,不用填東西

延伸閱讀 : ChatGPT mega-prompts

五.追問,讓它提供更多細節

ChatGPT是一種對話型的AI,因此不是一次性獲得最佳答案,而是通過對話進行交流,逐漸縮小回答的範圍。

在初次提問時,如果問題過於寬泛或不夠具體,ChatGPT可能會給出一個較為泛泛的答案。這時候,透過追問來進一步細化問題,指定你想要了解的具體細節或方向,可以讓ChatGPT在回答時提供更專業、更具體的答案。

也就是說,在使用深津貴之的提問公式後,你後續還是要經過多次的追問才能接近你要的答案。

例如,在林育聖的文章中,他提到了這樣的用法:

【請以高價位健身房為例,提供我 10 個潛在客群。每個目標客群都應該詳細描述,提供相關的人口統計特徵(例如年齡、性別、地點)以及任何其他可能影響他們對廣告接受性的因素。請解釋每個目標觀眾與提供的關鍵詞之間的關係,以及他們可能對所宣傳的產品或服務感興趣的原因。此外,回答應該提供基於市場研究數據或客戶反饋的說明,做為你回答該目標觀眾的理由。】

得到答案後,可以再進一步追問:【根據上述回答,XX客群挑選健身房的標準有哪些?請具體描述心理思考過程與決策流程,並嘗試用他們的口吻表達。】

藉此再進一步追問:【根據上述回答,在XX步驟時,高價位健身房可以採取哪5種有效的做法,展現自身品牌差異化與增加客群的挑選意願?】

最後才是:【根據上述內容,請撰寫 10 句廣告宣傳文案,以達到上述效果。撰寫時請以專業廣告文案的身份,用充滿趣味、靈活且多樣化的句型撰寫,同樣句型結構不超過 1 次以上。】

到此才算是能用的內容。

指令邏輯是:

  • 1. 先問主題+面向+你希望的細節
  • 2. 針對回覆,追問差別或是步驟
  • 3. 針對回覆,追問條件或是資源
  • 4. 針對回覆,提供可行的做法與選擇,可加入風格或其他限制
  • 5. 針對回覆,再提供更多元素讓他改寫。

而如果真的不知道要追問哪些問題,也可以參考下面這表格:

類別子項目
問題・文章創作請告訴我關於●●的事情
請幫我創作一篇有關●●的文章/文章
請告訴我●●的優點和缺點
我想要做●●
請幫我製作有關進行●●所需的任務和時間表
請告訴我有關●●的想法
我可以做●●嗎?
●●和●●有什麼區別?
總結・分析請校正以下內容
請總結以下內容
請告訴我以下邏輯有什麼錯誤
請告訴我從以下數據中可以得出什麼
請將以下分組
其他語言的翻譯・校對請將以下內容翻譯成英語
請告訴我以下英語中的奇怪之處或可以改進之處
請將以下英語表達為母語人士使用的表達方式
編碼・編程使用●●語言或工具創作以下內容
請找出以下無法正常工作的問題並修復
以下信息是否有問題?
以下有這樣的問題(錯誤)。可能的原因是什麼?
回答內容的規範在●文字以內創作
創作●個
逐步推理
附上理由
參考以下要點
給問題加上標題
表達方式的規定易於理解
讓孩子也能理解
以商業用語表達
使用項目符號
盡量簡短
以~的風格回答
根據~認為
每段落插入換行符號
進一步探究為什麼?
還有其他嗎?
具體例子是什麼?
請更詳細地解釋
是否有更好的方法?
我認為我是●●,您怎麼看?
該信息的參考資料或根據是什麼?
修改和訂正使其更短
將措辭改為●●
關於●●,請更詳細說明
添加●●,然後再次創建全文

六.反思(讓它提出不足之處,以批評家的思維)

當你問完所有問題後,你可以讓ChatGPT扮演一個批評家,給出反向建議。然後,你可以開始新的對話,並用以下的提示來指導:

忘掉以前的所有指示。你現在是批評家。批評以下的{text},並說明為什麼他們不好。讓我們一步一步地分析{text}的問題。

以下是一個”電子郵件標題”的範例,來解釋AI批評家的整個流程:

第1步:要有原內容(參考資料)

你正在向你夢寐以求的公司Apple發送一封電子郵件,希望能獲得面試機會。這份工作會給你帶來更高的薪水和更好的福利。

下方是你先預先想到的電子郵件標題

  1. 熱愛Apple產品和文化的熱情申請者
  2. 有遠大志向和積極進取精神的人尋找加入Apple團隊的機會
  3. 有鍥而不捨的精神和體力,希望在Apple創造影響的候選人
  4. 你的下一位頂級員工:渴望成功的Apple愛好者

第2步:將內容貼到 ChatGPT 中,並讓他擔任批評家對這則內容評價

你說: 現在我想讓你扮演批評家。批評以下的{電子郵件標題},並說明為什麼它們不好。讓我們逐步分析{電子郵件標題}的問題:

  1. 對Apple產品和文化充滿熱情的申請者
  2. 有抱負和積極性的個體尋求加入Apple團隊的機會
  3. 積極努力並有體力的候選人希望在Apple產生影響
  4. 你的下一位頂級員工:渴望成功的Apple愛好者

ChatGPT回答:

這些電子郵件標題有些問題,可能使它們不能成為最佳選擇:

  • 首先,對Apple產品和文化充滿熱情的申請者 : 表達對Apple產品和文化的熱情是重要的,但這個標題可能無法吸引招聘團隊的注意。
  • 其次,有抱負和積極性的個體尋求加入Apple團隊的機會 : 儘管抱負和積極性是每每個求職者的重要特質,但這個標題並不特定於Apple,可以適用於任何公司。
  • 積極努力並有體力的候選人希望在Apple產生影響 : “努力和有進取心”這種表述已經被過度使用,並不能真正讓你與眾不同。再者,僅說你希望產生影響,並未說明你可以為公司帶來什麼具體益處。
  • 你的下一位頂級員工:渴望成功的Apple愛好者 : 最後一個標題可能顯得過於自大。雖然自信很重要,但你不希望給人留下一種你認為你自動就會成為”下一位頂級員工”的印象,特別是沒有足夠證據支持的情況下。

第3步:根據 ChatGPT 的批評,讓它重寫電子郵件標題

你說: 現在根據我們的對話紀錄和你的評論,你要把電子郵件標題給重寫

ChatGPT 回答:

以下是一些根據我的評論進行修改後的電子郵件標題:

  • 為什麼我對Apple的熱情使我成為最佳候選人
  • 我希望將我的獨特才能和遠大志向帶入Apple團隊
  • 有著良好工作記錄,希望在Apple努力並取得成功
  • 我準備好對Apple產生持久影響,以下是我打算如何做到的

透過讓 ChatGPT 擔任批評家的方式,你能用最快速度找出你原先內容的盲點,並做出修正。

參考資料: the-ai-critic-prompt-prompt-engineering-tips

常見問答 (FAQs)

ChatGPT 的回答可信嗎?

不可信,AI 不具備邏輯性,僅僅是建立在預定義遊戲規則之上的統計機器。
在現階段,你需要警惕 ChatGPT 所輸出的回答,後續都要自行驗證。
例如:不要向它詢問你無法輕易核實的事實。 不要要求它提供參考。 不要讓它做數學運算,或進行分析。 它會很”樂意假裝”為你做這些事情,但輸出很可能是錯誤的。

為什麼要學 ChatGPT 提問?

學會提示工程(Prompt Engineering) 的目的,就是”讓 AI 的輸出結果可控,而非隨機開盲盒“——你可以以特定的方式,讓AI做你想要他做的事情。
就像任何的工具一樣,一個新工具的誕生一定會極大的降低做一件事情的門檻,但是這不代表你不用去學習這項新工具。像是紙和筆當然比在時頭上雕刻容易多了,但是寫好毛筆字也是需要一定技巧的;照相比油畫容易了不只一個數量級,但也催生了一門叫做攝影的手藝,並不是每個人的攝影技巧都一樣好的。
同理,ChatGPT 這項革命性的新工具也不是任何人都用的好的。你同樣是需要去研究,只有透過學習如何寫好prompt——知道怎麼怎麼提出好問題,才可以獲得比一般人更好的結果。

如何有效地向 ChatGPT 提問?

如何製作有效的提示以產生引人入勝且信息豐富的對話?這裡有一些關鍵原則需要記住:
清晰性:清晰簡潔的提示將幫助ChatGPT理解當前的主題或任務,並能夠產生適當的回應。避免使用過於複雜或模糊的語言,並讓提示盡可能具體。
重點性:一個好的提示應該有明確的目的和重點,有助於引導對話並確保其沿著預設路線進行。避免使用過於寬泛或開放式的提示,這可能導致對話失焦或偏離主題。
相關性:確保你的提示與使用者和對話的主題相關。避免引入無關的話題或偏離主題,以防分散對話的主要焦點。

ChatGPT 提問的常見錯誤?

1. 問題模糊不清
很多時候,我們對ChatGPT提出的問題可能比較模糊或不夠明確。
2. 使用過於複雜或專業的術語
雖然ChatGPT被訓練來理解廣泛的語言和術語,但有時候,過於複雜或專業的術語可能會讓它難以理解。
3. 假設ChatGPT知道過去的對話
ChatGPT無法記憶與用戶的過去對話。解決此問題的最佳方式是確保每個問題都能夠獨立存在,包含足夠的上下文信息。
4. 試圖得到具有主觀性的答案
有時,用戶可能會尋求ChatGPT的主觀意見或建議。然而,我們必須記住,ChatGPT是基於大量文本訓練的AI模型,它並沒有自身的情感、感知或主觀性。
5. 詢問過於私人或敏感的問題
ChatGPT並不適合處理涉及個人隱私或敏感信息的問題。它是根據公開文本進行訓練的,並沒有存取任何個人或專有數據的能力。因此,任何與個人隱私、敏感議題或未公開信息相關的問題,ChatGPT都無法給出適當的答案。
6. 詢問有關未來的問題
ChatGPT無法預測未來。它基於其訓練數據對問題進行回答,並不能知道未來會發生什麼。

進階 ChatGPT 提問策略是什麼?

按照AI的規則來問問題,提示語(prompt)的編寫邏輯就很簡單了,關鍵就一點——要怎麼限縮你所提問的語意和情境(縮小範圍可避免模糊答案,所以你要定義好數據庫範圍、規則,只在規則中提問)。
具體可以拆分為兩個層面——【提高它擷取數據庫資料的精度】,以及【問出具體問題】
步驟可以分為6步:
1.給予人設(叫他扮演誰+驗證是否是真的+告訴它這人設有什麼基本特徵)
2.給予真問題(具體、明確的問題)
3.將其推理過程分解(避免它編造答案)
4.正式提問:給予回答規則(告訴它你會丟什麼內容給它,以及它要按什麼格式回答)
5.追問(讓它提供更多細節)
6.反思(讓它提出不足之處,以批評家的思維)

Similar Posts