• <sup id="ee8ee"><cite id="ee8ee"></cite></sup>
    <nav id="ee8ee"><code id="ee8ee"></code></nav>
  • <tr id="ee8ee"><blockquote id="ee8ee"></blockquote></tr>
  • <sup id="ee8ee"></sup>
    <tfoot id="ee8ee"><dd id="ee8ee"></dd></tfoot>
  • <nav id="ee8ee"></nav>
  • <sup id="ee8ee"><code id="ee8ee"></code></sup>
    <sup id="ee8ee"><code id="ee8ee"></code></sup>
    <nav id="ee8ee"><code id="ee8ee"></code></nav>

    国产三级片在线观看网站,国产99中出αV,国产成人精品福利一区二区,亚洲国产成人自精在线,中文字幕大香频蕉无码,亚洲全黄无码一级网站

    2024年10月25日 星期五

    自動駕駛的法律與倫理困境

    發(fā)布時間:2015-12-25 09:47:26  來源:36氪  作者:佚名  責(zé)任編輯:王庭

      谷歌2015年4月份宣布,它們的自動駕駛汽車已經(jīng)行駛超過100萬英里。據(jù)摩根斯坦利數(shù)據(jù)調(diào)研,自動駕駛汽車在2025年會進(jìn)入家家戶戶。這迫使我開始思考人生了,在這些自動駕駛汽車的背后,是否會有倫理和哲學(xué)問題呢?

    (來源:摩根斯坦利)

      機(jī)器人定律

      第一法則:機(jī)器人不得傷害人類,或坐視人類受到傷害。

      第二法則:除非違背第一法則,機(jī)器人必須服從人類的命令。

      第三法則在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。

      他后來又加了一個第零法則:

      機(jī)器人不得傷害人類整體,或坐視人類整體受到傷害。

      盡管這只是來源于科幻小說,卻給我們提供了一個非常好的哲學(xué)語境—AI(人工智能)應(yīng)該如何與人類共存。如果把自動駕駛汽車歸為這一話題下討論, 我們是否處于一個非常好的時代呢?(暫且不討論自動駕駛汽車會導(dǎo)致計程車和卡車司機(jī)的失業(yè)問題,否則的話某種程度下機(jī)器人第一法則和第零法則是失效的)。

      電車難題

      然而,在這背后,有著機(jī)器人定律不能解決的問題。

      電車難題是一個非常著名的哲學(xué)思想實驗,它的內(nèi)容是這樣的:

      一輛電車行駛在軌道上。在它的前方,有五個人被綁在軌道上而不能逃脫。電車?yán)^續(xù)行駛,就會碾壓到他們。而你可以拉一個拉桿,轉(zhuǎn)到另一個軌道上。但是在這個軌道上也綁了一個人。你有兩個選擇:

      1. 不拉桿,五人死于你手下

      2. 拉桿,一人死亡

      你會怎么做呢?

      一個由 “自動駕駛汽車” 引發(fā)的哲學(xué)問題

      我們很容易預(yù)見到自動駕駛汽車將來也會碰到類似的難題,而這個時候,它必須做出一個選擇。

      舉例來說,一個十字路口,一輛五口之家駕駛的汽車闖了紅燈。這時,自動駕駛汽車有兩個選擇:

      1. 繼續(xù)往前走,那么五口之家將會死于車禍。

      2. 向右拐,撞向一輛一人駕駛的汽車,一人死亡。

      汽車該怎么做?

      從實用主義(利益最大化)的角度來講,向右拐(拉桿)是最好的選擇,畢竟一人死亡怎么都比五人死亡好。

      順便一提,在一個哲學(xué)家的調(diào)查中,68.2%的人同意拉桿。所以這其實根本不是一個問題,答案很簡單,向著利益最大化就好了,遵循 “絕多人之絕大幸福”(出自 Jeremy Bentham)。

      但是,思維轉(zhuǎn)化一下,如果你就是那一個受生命威脅的人呢?

      那么我們考慮另外一個版本的電車難題,一個關(guān)于胖子的版本:

      故事還是像剛剛描述的那樣。而你站在一個天橋上,電車會從你腳下通過。一個胖子站在你旁邊,這時你發(fā)現(xiàn),如果把胖子推下去,他就能阻止電車的行進(jìn)。也就是說,犧牲這個胖子,而救活五個人。你會這么做嗎?

      大多數(shù)人面對這個問題都會選擇坐看慘劇發(fā)生(不推胖子)。然而這跟前面的問題并沒有什么太大區(qū)別,從利益最大化的角度來講,還是得推胖子。那為什么人們改變了想法呢?難道正確的答案應(yīng)該是 “不拉桿” 嗎?

      康德的絕對命令學(xué)說能從某方面解釋這個行為:

      僅僅依據(jù)那條你同時愿意它成為一條普遍法則的準(zhǔn)則來行動

      簡單來說,我們不應(yīng)該把人類只是當(dāng)作達(dá)成目的的一種手段。因此,把救人當(dāng)作殺人的唯一意圖是不對的,對于康德的絕對命令學(xué)說是禁忌。

      關(guān)于實用主義(利益最大化)的討論還有一個不完善的地方,至少我們在界定這個哲學(xué)假說時就已經(jīng)有漏洞了。這個世界很復(fù)雜,所以答案并不可能像我們 討論的那樣簡單。如果說,仍然是關(guān)于車的例子。坐著五人的車是剛剛搶劫完銀行的搶劫犯,而坐著一人的車是一個在癌癥治療上做出突出貢獻(xiàn)的科學(xué)家。你還會希 望無人駕駛汽車僅僅只是遵循 “利益最大化” 去救更多的人嗎?

      所以我們或許應(yīng)該給每個人安置一個價值指數(shù),這樣對于利益最大化的定義會更為完善(盡管也會更復(fù)雜)。所以在這種情況下,我們假定科學(xué)家的生命價值大于那五個搶劫犯,那五個搶劫犯就必須得死。

      但是,如果在一個由Google和Apple來評定我們生命價值的世界中。每時每刻,那些汽車都有可能為了拯救他人而撞向我們。你樂意嗎?

      所以,關(guān)于這個哲學(xué)假說,盡管回答可以很簡單。但它也讓問題變得復(fù)雜和有趣。當(dāng)無人駕駛汽車變?yōu)楝F(xiàn)實,這個問題一定會一次又一次被提起。Google,Apple,Uber 之類的科技公司,將來或許必須得想出一個答案。拉,還是不拉桿?

      最后,我想留下一個問題給讀者自己回答。你和無人駕駛汽車綁定了所有權(quán)。在一個雨天路滑的山崖邊上,你坐在無人駕駛汽車上,路上打滑。如果繼續(xù)前行,你就會把同樣載有一個人的無人駕駛汽車撞向懸崖外,而如果急轉(zhuǎn)彎,則你自己會掉下懸崖外。現(xiàn)在,兩輛車上各有一個人。汽車該怎么做呢?它應(yīng)該優(yōu)先保證自己的擁有者的生命嗎?

    • 股票名稱 最新價 漲跌幅
    国产三级片在线观看网站
  • <sup id="ee8ee"><cite id="ee8ee"></cite></sup>
    <nav id="ee8ee"><code id="ee8ee"></code></nav>
  • <tr id="ee8ee"><blockquote id="ee8ee"></blockquote></tr>
  • <sup id="ee8ee"></sup>
    <tfoot id="ee8ee"><dd id="ee8ee"></dd></tfoot>
  • <nav id="ee8ee"></nav>
  • <sup id="ee8ee"><code id="ee8ee"></code></sup>
    <sup id="ee8ee"><code id="ee8ee"></code></sup>
    <nav id="ee8ee"><code id="ee8ee"></code></nav>