前往
大廳
主題

人工智慧模型的前因後果理解挑戰:以ChatGPT與律師需求為例

劍心san | 2024-02-20 08:19:44 | 巴幣 14 | 人氣 1054




前因後果之所以重要,並不只是因為它是解決現實問題的運作原理與要件之一,同時它也是許多眾多行業必須去遵守的運作規則與決策點。

例如說:「為什麼會說ChatGPT不能取代律師?」看到這裡,也許有人會說, ChatGPT考試超強,但原因就在這裡,考試歸考試,現實歸現實,因為律師所需要的不是一位很會考試作答的背多分,而是一位能理解分析前因後果的專業律師諮詢服務。

如果只是要拼背了多少法條內容就能拿高分、倒背如流,這個不要說ChatGPT,可能只要有資料庫的Ai模型,都能直接無痛上手、駕馭其中。

基於上述,一般人如果用ChatGPT來詢問法律問題,那這時候就會100%失靈了,甚至會給出不正確的答案內容出來,這也是律師會希望當事人來花錢預約詢問專業律師,而不要詢問ChatGPT的原因。

而專業律師使用ChatGPT反而沒問題,是因為律師本身就悉知前因後果的潛規則,所以ChatGPT就算給出不正確的內容,也仍不足以左右影響律師的經驗判斷與決策過程。

如果您覺得這只是要思考如何下指令的問題,那麼就錯了。因為這問題更多是出在原始的Ai模型架構底層上的限制。

這就像OpenAI 發表的文字生成影片 - Sora 一樣,無論指令怎麼下,仍無法改變它不理解前因後果的限制問題。




(畫面擷取自 Open AI 官網

那麼,要測試一個Ai模型架構「是否理解前因後果的條件」,最簡單的方式就是,要求在「生成一張迷宮圖 + 起點到終點之間畫一條紅線」,就是一個可以測試當前模型是否能100%正確理解前因後果的最佳測試項目。





如果Ai模型本身並不具有理解前因後果的特性,那麼該Ai模型就會理解成「生成一張沒有出入口可以相通的迷宮圖,到處畫紅線」的結果。而這也代表,該模型並不知道迷宮圖的出入口之間是具有前因後果的關聯性。




結論是,如果沒有「前因」當起點,那就不會有「決策過程」,自然也就沒有「後果」當終點。

而這背後也同時反映兩件事:

如果多數人認為ChatGPT-4在工作上很好用,那表示員工的工作複雜程度不如一張迷宮圖。
(這也同時意味著,這種Ai模型並不能用於更為複雜的情境。)

如果多數員工認為Google Gemini Pro不可能搶走工作,那表示員工手上的工作複雜程度可能比一張迷宮圖還複雜。(這也同時意味著,這種Ai模型只能處理較為複雜的情景。)


相關論文:

延伸閱讀:
送禮物贊助創作者 !
0
留言

創作回應

相關創作

更多創作