用AI防盜抓小偷?
高科技防盜軟體在帶來便利的同時,也引發道德爭議。圖片來源:cnn
歐洲負責數字經濟的最高官員瑪麗亞-加布里爾。圖片來源:new europe.
防盜軟體在全球日趨流行。
圖片來源:yellrobot.com
日本一家公司生產出一種人工智慧防盜軟體,用以監控購物者的肢體語言、服裝等等資訊,尋找小偷計劃行竊的跡象。但這種防盜技術也引發了道德爭議。
用軟體監控購物者表情動作
最近,一家日本初創公司格外引人注目。因為這家名為Vaak的公司表示,其人工智慧軟體Vaakeye可以解決商店的防盜問題。
這家初創公司Vaak位於日本東京,該公司創辦人Ryo Tanaka說,他們的人工智慧軟體Vaakeye與類似產品的不同之處,在於該產品的工作方式不僅與犯罪記錄掛鉤,而且還可以用來預測犯罪行為。
Tanaka披露,Vaakeye已經接受了10萬小時的錄影培訓,他的團隊向Vaakeye提供如此長時間的監控資料,就是訓練它監控購物者,以便發出防盜預警。
Vaakeye軟體使行竊損失下降77%
Vaakeye軟體是Vaak公司的第一款產品,於今年3月推出,它採用訂閱制方式收費,每個攝像頭價格為162美元(約合人民幣1100元),它可以持續監控檢測購物者的可疑行為,並立即通知商店員工。
自從推出以來,Vaakeye軟體頗受歡迎,已經在日本各地的50家商店發揮作用。
它的工作原理是,利用攝像頭監控店內購物者的行為,分析購物者的表情、動作、著裝,乃至商店所在地區的犯罪率或當下天氣條件等巨集觀資料,對100多種不同因素做研究判斷,實時監測任何可疑跡象並提醒商店員工,員工可以立即檢視監控,判斷是否出現盜竊行為。
Vaak公司聲稱,Vaakeye軟體在商店測試期間,其運作判斷的準確率高達81%,商店的行竊損失因此下降了77%,大大減少了商店因被盜而產生的零售成本。
入店行竊是全世界商家面對的一個大難題,僅在美國,零售商每年就要為此損失數十億美元。全球市場調查資料顯示,2017年全世界因入店盜竊而蒙受的損失高達340億美元。
目前,Vaak公司正在東京地區的幾十家商店進行測試,並計劃未來三年內在日本各地的10萬家商店安裝該軟體。
高科技防盜軟體引發道德爭議
但是,“針無兩頭利”,運用人工智慧來捕捉竊賊,也引發了各種各樣的道德倫理問題。
“雖然使用Vaakeye目的是為了防止盜竊,但這樣做是否合法,是否合乎道德?為了防止某人行竊,就應該讓這種防盜軟體進入商店?”歐洲商情市場調研公司Euromonitor的零售分析師Michelle Grant說。
Vaak公司的創辦人Ryo Tanaka表示,是否存在道德問題,不應該是軟體開發人員要解決的事情。他說:“我們只是提供可疑的、被檢測到的影象資訊。我們並不確定誰是罪犯,只有商店才有權確定誰是罪犯。”
但正是這一點引發人們的關注。在英國,一些熱心人士正發起一項運動,反對通過人工智慧系統甄別盜竊行為。因為無獨有偶,英國科技初創企業Third Eye也推出了類似的系統軟體。
Third Eye公司業務發展經理Vera Merkatz表示,全球大部分的零售商店都裝有監控攝像頭,早就有了監控盜竊軟體的存在環境。
但反對者漢娜·庫奇曼表示:“購物場所是私家公司所在地,在這些地方,不應該使用監控盜竊軟體,來發揮類似於警察的作用。”
運用人工智慧會助長歧視?
反對者還擔心人工智慧的運用會助長歧視現象。美國麻省理工學院和斯坦福大學2018年的一項研究發現,各種運用於商業機構的人臉識別系統,有可能會表現出種族主義和性別歧視傾向。例如,亞馬遜公司就因其基於人工智慧的面部識別系統存在偏見而受到立法者的抨擊。
對此說法,Vaak公司的創辦人Ryo Tanaka解釋說,由於Vaakeye軟體是基於顧客的行為而不是種族或性別做判斷,所以不應該有問題。即使有問題,也應該通過更好的技術手段來解決。
Tanaka說:“依靠演算法的技術——尤其是運用於人類行為方面的科技——歧視的可能性總是存在的……人類必須教演算法如何處理歧視問題。”
但庫奇曼對此說法仍然持懷疑態度。
資訊透明度問題與處理
此外,還有個人資訊透明度問題。庫奇曼說:“人們知道發生了什麼嗎?他們同意這樣做了嗎?資料究竟會發生什麼變化?應該如何保護個人資訊?個人資訊能被共享嗎?”
有人表示,消費者可能願意為了方便而犧牲一些個人隱私,比如使用人臉識別作為支付認證。但是,消費者有知情權,應該讓他們知道商店正在使用的技術,並且徵得他們同意,商店才可以使用這種監控盜竊軟體。
對此做法,Vaak公司的創辦人Ryo Tanaka沒有異議:“在顧客進入商店前,應發出通知,以便他們可以選擇退出。”
Tanaka說:“政府應該制定規則,讓商店披露相關資訊——在哪裡安裝監控軟體、分析什麼內容、如何使用這些軟體、使用多久,等等。”
英國著名的律師事務所Field Fisher有專門研究人工智慧相關法律的專家,克里斯托弗·伊斯特森(Christopher Eastham)就是其中之一。他表示,在人工智慧監管技術方面,相關的法律目前還沒有到位。
伊斯特森指出,從法律層面看,實施監控軟體需要有明確立法,也需要有監管機構的指導,由立法和監控機關確定在何種情況下可以使用這種技術,這是社會公共政策的一個重要方面。
個人資訊保密問題令人擔心
除了道德爭議,還有一個“道高一尺魔高一丈”的問題。就是說,儘管Vaak等公司已表示,未來還要將他們的技術用於不同場合,包括車站、機場、學校道路等,檢測市民是否具有可疑舉止或存在自殺的行為。但與此同時,被監測到的個人資訊資料是否安全,能否避免被黑客利用,也成為了人們擔心的問題。
因此,日本Vaak公司和英國Third Eye公司的客戶,都紛紛要求供貨方不要透露自己已使用了這種監控防盜軟體系統。
歐洲立法規避科技危機
目前,歐洲已陸續頒佈人工智慧規則,希望在人工智慧技術深入社會之前,把控人工智慧的發展,克服監管機構被迫追趕新興技術的被動模式,避免科技危機出現。
早在去年,歐盟就推出了一項具有里程碑意義的資料隱私法。今年4月8日,歐盟又公佈了正式版的人工智慧道德準則《可信賴A I的倫理準則》,提出了相應的法律框架。
歐盟制定了四項倫理準則、七項指導人工智慧發展的原則。四項倫理準則是:尊重人的自主性、預防傷害、公平性和可解釋性。
在七項原則中,透明度和反歧視是兩大主要原則。歐洲負責數字經濟的最高官員瑪麗亞-加布里爾表示,使用人工智慧系統的公司應該增強技術的透明度。
加布里爾說:“當公眾接觸的是一種演算法而不是某個人時,公眾需要被告知……演算法做出的任何決定都必須經過驗證和解釋。”
避免歧視也必不可少。加布里爾指出,科技公司需要確保他們的人工智慧系統是公平的。她舉例說,某公司在招聘過程中使用一種演算法,如果其資料來自一家只聘用男性的公司,那麼這種演算法可能會拒絕女性候選人。加布里爾說:“如果你的輸入資料有偏差,那就真的是個問題。”
雖然歐盟的上述準則不具約束力,但它們可以成為基礎,有利於今後幾年人們對人工智慧的發展採取進一步行動。