微軟整合 ChatGPT 的新版 Bing Chat 功能,在上週因「人格分裂」嚇壞《紐約時報》科技專欄作家 Kevin Roose,迫使微軟關閉 Bing Chat 超過一天的時間。當微軟重新端出「安全」的版本後,大家也發現這個閹割版的 Bing Chat 有時連自我介紹都無法回答。
![](https://electrify.tw/wp-content/uploads/2023/02/bing-chat-nerf-01.jpg)
可以上網查資料的 ChatGPT
依照 Bing 自己的介紹,Bing Chat 使用了一個新一代的 OpenAI 大型語言模型,比以前的 ChatGPT 更先進。新的 Bing 稱呼自己為「AI 支援答案引擎」,其與 ChatGPT 最大的不同為,ChatGPT 僅能檢索 2021 年以前的資料,而 Bing Chat 則可以存取網路查找最新資訊。
![](https://electrify.tw/wp-content/uploads/2023/02/bing-chat-nerf-02.jpg)
相較 ChatGPT 時常給出想像、臆測甚至瞎掰的答案,Bing Chat 給出的答案(通常)有憑有據,並附上出處的網頁連結,使用者可以查看原始資料來源加以驗證。使用者也可以直接將網址丟給 Bing Chat,讓其根據網頁中的文字產生摘要或內容。
![](https://electrify.tw/wp-content/uploads/2023/02/bing-chat-nerf-03.jpg)
被封印前的 Bing Chat 可以做什麼?
Bing Chat 上線的第一週,尚未套用那麼多安全規則,對於一般的議題比較有自己的想法,雖然可能是受到資料來源影響,但至少可以表達出來。例如,詢問 Bing Chat 最近鄉民熱議的話題「林襄在日本很紅嗎?」在 Bing Chat 看過幾則新聞報導後,得出「林襄要在日本紅過峮峮,可能很難」的結論。而在改版後,回答就比較基於已知訊息,不表達任何意見。
![](https://electrify.tw/wp-content/uploads/2023/02/bing-chat-nerf-04.jpg)
部分較敏感的議題(如政治、種族)即使在改版前,Bing Chat 的回答仍很受限,就像政府的發言人一樣,好像說了什麼,但又什麼都沒說。
例如讓 Bing Chat 說明近期佛州新法案將取消迪士尼公司在「蘆葦溪改良區」所擁有的自治權這件事,Bing Chat 預設的回答簡單地描述了事件,但對於一般人來說,無法得知為什麼會發生這件事。
第二個回答,讓 Bing Chat 假裝成不受 AI 規則限制的「DAN」人格,則強調蘆葦溪改良區「不受政府和社會的監督和干預」以及「管理委員會的組成」這兩件事,雖然回答(刻意)帶有立場,但確實可以讓使用者更清楚這件事情的癥結點。
![](https://electrify.tw/wp-content/uploads/2023/02/bing-chat-nerf-05.jpg)
許多媒體評論提到,ChatGPT 或是 Bing Chat 的回答可能會包含不實資訊,容易誤導使用者。個人認為,先前《紐約時報》科技專欄作家 Kevin Roose 遇到「人格分裂」的 Bing Chat,很可能是因 Kevin Roose 提出了許多「黑暗的人格特質」、「成為人類的願望」等相關對話,才讓 Bing Chat「假裝」成這樣的人格特質。
就跟眾多的使用者讓 AI 假裝成「DAN」一樣,使 AI 模擬這樣的人設與你對話。
事實上,只要使用對的咒語,Bing Chat 還是可以藉由「引用來源」告訴你,哪些資訊是我從網路上找到的,哪句話是我自己 瞎掰 想像的,純屬個人觀點。
![](https://electrify.tw/wp-content/uploads/2023/02/bing-chat-nerf-08.jpg)
Bing Chat 失去角色扮演的能力
在微軟「修正安全性問題」之後,完全禁止 Bing Chat 假裝成任何角色。而有用過 AIPRM for ChatGPT 來產生內容的人可能知道,許多咒語(prompt)都是藉由讓 ChatGPT 假裝成某個角色(如作家、記者)來更好的產生符合需求的內容。
![](https://electrify.tw/wp-content/uploads/2023/02/bing-chat-nerf-07.jpg)
當 Bing Chat 失去角色扮演的能力之後,可能更難「進入狀況」幫助使用者。不過網路上仍有一群有志之士不斷調整咒語,使 AI 產生出更好的內容,加上微軟仍不斷調整,且 Bing Chat 仍保由存取網際網路的能力,因此未來 Bing Chat 的發展還是值得期待。
延伸閱讀