1. 程式人生 > >建立人工智慧的道德規範將比想象中更難

建立人工智慧的道德規範將比想象中更難

簡評:一些法律學者認為,道德規範過於主觀,無法指導人工智慧的使用。

AI Now 2018 技術沙龍活動時間表

在過去的六年中,紐約市警察局編制了一個龐大的資料庫,包含了 17500 多個被認為參與了犯罪團伙者的名字和個人資訊,並使用面部識別技術與資料庫結合的手段來尋找罪犯。

這個行為一直被民權活動人士批評,他們認為這種做法非常不準確且具有明顯的歧視性。

專家學者們常常強調在人工智慧系統的設計和執行中需要設定道德規範,但他們忽略了一個問題:誰來定義這些道德,誰又來執行它們?過於主觀的道德規範往往很難指導人工智慧的使用。

Sherrilyn Ifill (NAACP Legal Defense Fund), Timnit Gebru (Google), and Nicole Ozer (ACLU) in conversation at the AI Now 2018 Symposium

實際上,技術往往突出了人們不同的道德標準。為了觀察人們的原則有多麼不同,MIT 的研究人員建立了一個「道德機器」的測試,用以觀察人們對自動駕駛應遵循的道德決策的觀點。然而結果顯示不同文化之間的答案存在巨大差異。

與此同時,建立道德標準也未必能改變行為。例如,今年年中 Google 制定了一套新的道德原則來指導其參與的 AI 專案,然而幾個月後,Google 的員工認為這些原則已經被公司擱置。

紐約大學法學院的國際法律學者 Philip Alston 提出瞭解決道德模糊的解決方案 —— reframing AI-driven consequences in terms of human rights.(重新定義人工智慧驅動的人權後果)他解釋道,如果人工智慧系統剝奪了人們的基本權利,那就不應該被接受了。