前往
大廳
主題

<<拙文:安地斯空難中的電車難題>>

| 2023-06-28 22:40:18 | 巴幣 0 | 人氣 180

這是個奇怪的主題,最近在寫小說時想到的。

在電影機械公敵(I, rodot)裡超級AI薇琪會跳出機器人三定律是簡單多數原則。
也就是為了多數人的永續生存必須犧牲少數人。

不過電車難題到底有甚麼問題?扣掉道德與一大堆外加因素等等。
單單以鐵軌上一邊躺著5個人、一邊站著1個人,選擇犧牲1個人拯救5個人究竟哪裡有問題?
這就要回到安地斯空難這個主題。

一群空難墜機者面臨一個難題,他們耗盡食物必須每天殺一個人來吃,好養活剩下的人。
從電車難題角度來說這決定沒有問題,現代社會大部分都會犧牲少數人的權益換取公眾權益。
問題在如果他們每天都殺一個人拯救剩下的人,最終可能出現倖存者比犧牲者還少。

這種現象可以用德國牧師Martin Niemöller的話來講。

起初,納粹抓共產黨人的時候,我沉默,因為我不是共產黨人
Als die Nazis die Kommunisten holten,habe ich geschwiegen; ich war ja kein Kommunist.
當他們抓社會民主主義者的時候,我沉默,因為我不是社會民主主義者。
Als sie die Sozialdemokraten einsperrten, habe ich geschwiegen; ich war ja kein Sozialdemokrat.
當他們抓工會成員的時候,我沉默,因為我不是工會成員。
Als sie die Gewerkschafter holten, habe ich nicht protestiert; ich war ja kein Gewerkschafter.
當他們抓猶太人的時候,我沉默,因為我不是猶太人。
Als sie die Juden holten, habe ich geschwiegen; ich war ja kein Jude.
最後當他們來抓我時,再也沒有人站起來為我說話了。
Als sie mich holten, gab es keinen mehr, der protestieren konnte.

要批判這種簡單多數選擇很簡單。
但如果不做簡單多數擇,更好的選擇是什麼?
空難議題如果都不吃人肉,倖存者可能會更少甚至沒有,但至少他們的倖存是沒有汙點的。

我不認為人類可以在這個議題上做出好的決定。
從歷史上看來我們跟納粹差不多都是亂抓一通,我認為人類還沒有找出解答。

創作回應

dvorak
呃,你的解釋太過牽強,無法看出兩者有任何關連。電車難題的變體與幸存者問題,你可以去找推薦的影片,宗旨
2023-06-30 01:02:57
dvorak
總之實務層面是用緊急條款,個人道德問題與法律相抵觸,就要看那時的環境怎麽解釋,過度強調私德某方面來說很不負責
2023-06-30 01:08:10
我們加了一堆條件只是為了讓這個問題看起來很有深度。
但我這裡只討論它的基礎邏輯。
.
電車難題不是一次性事件,生活中不會只做一次決定犧牲少部分人,現實世界是連續性的。
如果今天要寫一個程式去判斷該拯救5個人還是1個人就代表類似的事件會連續發生。
你要如何跟AI解釋這個判斷,而不是跟我解釋。
但我思考後發現,我們無法讓AI理解,因為人類自己也不了解問題出在哪裡。

目前深度學習就是梯度下降,減少損失率,所以對AI來說損失越少就是越有利的。
而人類給不出一個完整的模型,讓AI知道怎麼做才是對的。
2023-06-30 01:13:02
順帶一提安地斯空難案例無關倖存者的私德,我只是透過這個例子讓AI明白我想問的問題。
https://truth.bahamut.com.tw/s01/202306/a6e8d47aed4501ca8215039f1de1f9f2.JPG
2023-06-30 01:22:36
dvorak
AI很不幸現在還沒有實質上的突破,要等到技術進步或有其它需求。相關的話題那個頻道也有說,更甚有提出讓AI背法律責任的論點
2023-06-30 01:22:48
我的問題是如果人類所有的選項都是透過投票決定,以馬來西亞來說馬來人的人口大於其他民族。
如果馬來西亞的每個政策都經過投票,有沒有可能它最終形成的社會反而使大多數人做出犧牲。
而AI有沒有可能做出比人類更好的判斷。
因為人類目前看起來是沒救的,人類只會簡單多數擇。
2023-06-30 01:25:32
dvorak
Chatgpt現在還只是大數據統計學的東西,他的邏輯能力很差,但足夠替代寫散文維生的人
2023-06-30 01:25:37
這我問過了,就像你講的一樣它只會回答一些模凌兩可的話。
但它會寫程式,如果我們不透過投票而透過程式計算一個最佳解,這個最佳解可能會是什麼?
2023-06-30 01:27:19
dvorak
制定規則的人會讓結果偏向自己,但又不會讓百姓發覺,我認為投票就是程式算出來的最佳解
2023-06-30 01:37:44
其實我們還討論到一個有點奇怪的東西,我們可以讓每個人決定自己的法律。
假設每個人都是陣列上的一個元素,我們可以決定它的諸元。
.
例如有一個人他的法律禁止偷竊,這樣你偷他的東西就是犯法的,他偷東西也是犯法的。
如果一個人偷竊是不犯法的,他去偷一個偷竊犯法的人,那他仍然是犯法的,但別人偷他是不犯法的,這個讓人類來判斷會一頭霧水,但AI可以迅速判斷。

當人類處於這種社會時我們的一舉一動都被AI監控,他會彈出一個視窗警告你目前正在做違法行為。
2023-06-30 01:42:09

更多創作