前往
大廳
主題

ChatGPT在實際應用中的限制:加航ChatBot事件的啟示

劍心san | 2024-02-18 12:55:17 | 巴幣 0 | 人氣 525




(圖片來源:Google Gemini Pro v1.0)


從加拿大航班飛機的ChatBot事件來看,顯示出LLMs + RAG技術在實際應用中的限制。

Jake Moffett於2022年的Remembrance Day因祖母過世,急欲訂購前往多倫多的班機。他使用加拿大航空(Air Canada)的網站並透過聊天機器人詢問有關喪親票價的資訊,得知若在90天內提出申請可能獲得退款。

然而,儘管Jake Moffett按照聊天機器人的建議訂購了約1600美元的機票,當他致電加航要求退款時,卻被告知政策不適用於追溯申請。這明顯反映了LLMs + RGA技術在提供連貫且符合實際情境之建議上的困難。

Jake Moffett因認為聊天機器人誤導他而在卑詩省小額訴訟法庭起訴加航。加航主張不應對聊天機器人的誤導負責,但仲裁委員不同意。委員表示加航應對其網站上承諾的內容負責,人們不應該需要在整個網站上確保不同部分的準確性。

最終,法庭判決賠償Jake Moffett 800美元,以彌補他實際支付與喪親票價相比的差額。這一案例凸顯了ChatGPT模型在實際應用中可能導致的問題,特別是當用戶依賴聊天機器人提供的訊息時。

結論:

這個案例突顯了ChatGPT模型在實際應用中可能引發的問題,特別是當使用者在重要決策中依賴聊天機器人提供的信息時。LLMs + RGA技術的限制,尤其是在多步推理和決策方面,可能導致模型的誤導性建議,進而影響用戶的判斷。因此,我們需要更深入地思考和改進模型的設計,以確保其在面對複雜決策和多步推理的情境中保持可靠性。同時,未來的發展應更注重在真實世界應用中提高準確性和可信度。

延伸閱讀:


送禮物贊助創作者 !
0
留言

創作回應

相關創作

更多創作