1. 程式人生 > >回顧2018年的AI技術發展,巨頭公司正面臨著越來越多的限制

回顧2018年的AI技術發展,巨頭公司正面臨著越來越多的限制

攻擊 語音助手 不同 的確 顯示 開始 人員 出現 功能

在過去的幾年中,來自全球的科技公司、各路資本和政府等在 AI 技術上的投入讓相關領域取得了飛速發展。

當這 AI 技術在不斷成熟並逐漸開始進入人們的生活中時,一些由新技術帶來的安全、平等問題開始更加被人們重視。

有意思的是,在 2018 年開始,除了繼續推動技術發展,各大科技公司紛紛開始對 AI 技術的應用進行不同程度的限制。

以谷歌為例,美國防部 2017 年宣布成立“Maven 計劃”(Project Maven),這一計劃也被視為是將 AI 技術引入戰場。2018 年 4 月,在得知谷歌也參與了這一計劃後,谷歌員工在內部掀起抗議浪潮,盡管谷歌一再強調公司所提供的技術"不具有攻擊性",但依然有 4500 名員工提出要求退出這一項目。

技術分享圖片

(圖片來源:麻省理工科技評論)

2018 年 6 月,谷歌終作出決定,承諾在完成已有合同之後,不會再續約。同時,谷歌還發布了一系列 AI 技術使用規範,包括包括不會提供用於武器和會導致人員傷亡的 AI 系統。

而除了與軍方相關的項目,一些看似"人畜無害"的項目也引起了不小爭議。

2018 年 5 月,谷歌 I/O 大會上,谷歌 CEO Sundar Pichai 演示了能打電話訂餐廳的語音助手 Duplex,高度智能和擬真的表現讓其被評價為今年 I/O 大會上最亮眼的一個新功能。

但谷歌在會後即遭到多方質疑,他們認為在未事先聲明的情況下,電話的另一端與 Duplex 對話的人並不能清楚意識到自己正在與一個軟件進行對話。隨後谷歌宣布程序進行更新,Duplex 會在對話開始前強調自己的身份,以消除這一問題。

除此之外,算法帶來的偏見和歧視問題已經由來已久,這一問題在 AI 算法上依然存在。據 2018 年 2 月 Wired 的一則報道,MIT 媒體實驗室研究員 Joy Buolamwini 和在微軟擔任研究員的 Timnit Gebru 曾進行過一個測試,他們找來上千張來自不同地區、膚色不同的人照片讓 IBM、微軟的視覺識別系統進行識別,結果顯示,系統在對男性面部進行識別時的準確率比女性高,同時,對膚色較淺的人的識別結果也比膚色較深的人更加準確。

隨後,微軟和 IBM 都表示將會對這一問題進行改進。但報道同時指出,由於這種技術已經被廣泛運用,因此這一系統帶來的偏見可能已經造成了廣泛的影響。

在歧視問題上,社交媒體巨頭 Facebook 則在公司內部成立團隊並開發了一個名為 Fairness Flow 的工具,旨在幫助工程師檢查其程序在面對不同的人、群體時的表現是否一致和公平。

圍繞 AI 的道德問題在今年不斷出現,一定程度上反映出了 AI 技術在過去一段時間裏取得了飛速的發展。

目前,AI 技術已經滲透到更多的領域中,包括視覺、語音識別、自動駕駛以及機器人等領域。AI 技術的加持的確能夠推動這些領域的發展和盡快實現落地應用,但是 AI 帶來的安全和道德爭議讓開發者在引入這項技術時也變得更加謹慎。

除了上文提到的谷歌和 Facebook 的例子,12 月初微軟總裁兼首席法務官 Brad Smith 呼籲各國政府規範其面部視覺技術的使用。不久之後,谷歌也表示不會向雲客戶提供通用的面部識別技術,這些都反應出科技公司在 AI 技術的使用上似乎比以往多了些許克制。

而除了開發者和科技公司,各地的監管機構也將可能逐漸地開始介入和制定 AI 技術的使用規範。

今年 5 月,歐洲通用數據保護條例(GDPR)正式實行,這一條例的實行有助於幫助用戶更好的使用和保護自己的數據信息,極度依賴數據驅動的 AI 技術當然也會受到這一法規的影響。

但同時需要註意的是,規範的制定不意味實在限制 AI 技術的未來發展空間。相反,新技術的出現常常會倒推相關法律和規範逐漸完善,這從側面也反應出 AI 技術正在逐步完善當中。

在 AI 技術逐漸滲入大眾生活的今天,對 AI 技術的謹慎態度將有助於相關技術更安全地為我們提供服務和更多便利。

回顧2018年的AI技術發展,巨頭公司正面臨著越來越多的限制