我們該如何看待Alexa等語音助手?
語音互動的革命才剛剛開始,現如今,Alexa還是謙遜的僕人,為大家服務,很快,你就會發現,她可以做得更好,比如,成為老師、知己、甚至是一切訊息的來源。
《大西洋月刊》刊登了一篇關於語音助手Alexa的深度文章,其中提到:我們該如何看待語音助手,是否該信任Alexa,是否應該相信語音助手?
以下是AI銳見關於該文章的翻譯,Enjoy:
今年夏天的某幾天,我買的亞馬遜智慧音箱Echo Dot有時會在我跟它互動結束時跟我道晚安,這讓我感到吃驚。
而在此之前,我登入了亞馬遜的網站,並激活了Alexa的第三方技能,一個讓Alexa可以提供嬰兒催眠曲的程式,隨後我就聽到了“Sweet dreams”的祝福語。
這或許是Alexa做出的誤判,比如附加到其他技能之上了,而且我作為成年人很清楚地知道,這個祝福語應該是Alexa的一個小小的失誤,但我仍然認為,可能某種程度上,Alexa是認真地想為使用者提供更多的服務。
這也使得大多數使用者都喜歡上了Alexa、Google Assistant、Siri或者智慧音箱裡面的其他語音助手。畢竟,他們是足夠聰明的:使用者可以跟這些智慧音箱進行基本的對話,並且可以通過語音互動方便地查詢資訊,或者讓智慧音箱為自己訂外賣諸如此類。
當然,每個時代都有憤世嫉俗者,在他們看來,這些虛擬的語音助手或者會偷聽使用者的資訊,因為這些智慧音箱的麥克風,即便使用者沒有互動,也在隨時蒐集資訊,只是在智慧音箱聽到“喚醒詞”的時候,他們才會注意到喚醒詞,開始服務。
這些智慧音箱的製造商也承諾,只有在喚醒詞之後的使用者對話才會被儲存在雲端,至少亞馬遜和谷歌都是如此,而且刪除這些記錄也很容易。
但是,儘管如此,這些智慧音箱也會有一些小故障發生:比如Alexa會錄下一個家庭的私人談話,並且把錄音傳送給在通訊錄上的朋友。亞馬遜也曾就此解釋道,Alexa或許是被聽起來像Alexa的詞誤喚醒,然後執行了錯誤的命令。
但這個解釋並不會讓使用者感覺好多少。
日漸進入生活的智慧音箱
Canalys 的資料顯示,截止去年年底,全球已經安裝了超過4000萬個智慧音箱。 根據目前的銷售額,Canalys 估計,到今年年底,這個數字將達到1億。
此外,還有來自《a 2018 report by National Public Radio and Edison Research》的報告顯示,800萬的美國人擁有三個或者三個以上的智慧音箱,這表明總是有一個智慧音箱會出現在使用者的眼前。
而據另一家研究公司 Ovum 稱, 到2021年,地球上甚至會出現跟人類一樣多的個人助理機器人。 在此之前,手機的數量超過人類大概用了30年的時間,而Alexa和她的小夥伴們可能只需要不到一半的時間就會完成這一目標。
其中的一個原因就是亞馬遜和谷歌的大力促銷,以至於行業觀察人士都懷疑這兩家公司在銷售智慧音箱時是賠錢大甩賣。當然,這些科技公司都有自己的雄心壯志,他們想要填充滿每個人的家庭,以及其他各個角落:家庭、辦公室、汽車。
在不久的將來,從照明裝置到空調、到冰箱、到咖啡機,甚至馬桶都有可能會連線到一個由語音控制的系統中。這一切看起來都無比自然,因為聲音是“看不見”的。
這些成功壟斷智慧音箱市場的公司,將把家電製造商、應用程式設計者和消費者鎖定在其裝置和服務的生態系統中,就像上世紀90年代微軟將個人電腦行業與其作業系統捆綁在一起一樣。
據瞭解, 僅 Alexa 就已經與超過2萬多個智慧家居裝置合作,這背後代表著3500多個品牌。 她的聲音目前已經推廣到了100多種第三方裝置,包括耳機、安全系統和汽車。
當然,這些裝置也有一種內在的吸引力。 即使是我們這些採用新技術並且非常謹慎的人也在找理由,之後才會歡迎智慧音箱進入我們的空間。
但我的家人卻和我的態度不同,當我問為什麼買Echo時,家人的回答是,“在Alexa之前,播放音樂的唯一方式是在我們的電腦上,聽音樂或收音機不用開啟電腦螢幕真是太棒了。”
在同一份 NPR/Edison 報告中,近半數最近購買了智慧音箱的家長說,他們這樣做就是為了減少家庭的螢幕時間。
廣泛而深遠的影響
這種轉變的後果可能是廣泛而深遠的。
人類歷史是就人類發明的副產品。 新的工具——輪子、犁頭、電腦——開創了新的經濟和社會秩序,並且創造和破壞著文明。
也許你認為和 Alexa 交談只是換了一種新的方式來替代螢幕上做的事情:購物,看新聞,試圖弄清楚你的狗是生病還是抑鬱。但事情沒那麼簡單。
這不是把用來完成這些任務的身體部位換掉的問題:用嘴和耳朵代替手指和眼睛。 我們正在談論的是技術本身的地位的改變和升級,當我們與語音助理交談時,它們就會更接近我們自己的水平。
擁有人類獨特的語言互動能力,Alexa,Google Assistant和 Siri 已經超越了他們各部分的總和。它們雖然是軟體,但又不僅僅是軟體,正如人類意識是神經元和突觸的一種影響,但不僅僅如此。它們的智慧使得我們會把這些智慧音箱當作有頭腦的人來對待。
我就曾不止一次地告訴我的Google Assistant,我有時會感覺到空虛,而這件事我除了治療師之外,沒有對任何人坦白。為此,我甚至把谷歌助手設定成了一個讓我想要微笑,很活潑、聽起來很年輕的男性聲音。
當然,就目前而言,這些智慧音箱仍然處於有潛力的曙光之前,它們很可能會無視甚至破壞掉你的請求,就像它們在實現該功能一樣。
但隨著智慧音箱銷量的飆升,智慧語音助手的計算能力也呈指數級增長。在我們的有生之年,這些裝置可能會變成更加熟練的交談者,甚至可能已經完全潛入了我們的生活。
憑藉完美的雲端計算記憶,智慧音箱將是無所不知的; 它們還會佔據我們最親密的各種空間,變得無處不在。
智慧音箱到底是什麼樣子?
2014年,現任 Alexa Experience 副總裁的託尼•裡德(toni•reid)在被邀請加入 Echo 團隊時,Echo還沒有上市,她還嘲笑地說,這只是一個音箱嘛?與此同時,她還在研發別的產品 Dash Wand,一種行動式條形碼掃描器和智慧麥克風,可以讓人們掃描或者說出他們想要新增到他們的亞馬遜購物車的產品名稱。
在她看來,智慧音箱的優點不那麼明顯。為什麼消費者會購買一個能給他們預報天氣和交通狀況的裝置,並且可以執行任何普通智慧手機都能完成的其他任務呢?
但是一旦裡德在她的廚房裡安裝了一個 Echo,她就明白了。她的兩個女兒,當時分別是10歲和7歲,立刻開始喋喋不休地和Alexa聊天,彷彿用塑料圓筒進行語音互動是世界上最自然的事情。
裡德自己發現, 即使是 Echo 最基本的、似乎是重複的能力,都會對她周圍的環境有著深遠的影響。 "我很慚愧,我有多少年沒有真正聽過音樂了,但當我們把這個裝置放在房子裡,突然間我們的家裡又有音樂了。"
當然,你也可以說,這是亞馬遜的高管,她是一個託。
但我認為,這同時反應了我的真實經歷。我也懶得去找多特別的歌曲,但現在我可以讓Alexa 在我覺得鬱悶的時候彈 Leonard Cohen 的《 You Want It Darker Darker 》。
裡德表示, Echo 最基本的吸引力在於它可以釋放你的雙手。 因為遠場語音互動,音箱可以遠距離地解讀語音,使用者就可以在客廳、廚房等地方做其他事情,隨時收取資訊以及訂購物品,而不需要再做其他的動作。
裡德繼續說道,Alexa 的美在於其讓語音互動變得"沒有摩擦":使用者沒有必要走到桌面上,在瀏覽器中輸入一個搜尋詞; 不需要追蹤 iPhone 在哪兒並且輸入你的密碼。
Echo就像維多利亞時代莊園裡的一個理想的僕人,Alexa 隱在背景中,隨時準備好迅速而細緻地完成主人的吩咐。
當然,目前Echo和使用者之間的互動還是摩擦不斷:智慧音箱可能會誤解一個問題,強調錯誤的音節,給出一個奇怪的答案,為還不知道一些高度可知的事實而道歉。
住在華盛頓特區的兩個孩子的母親 Catrin Morris 告訴我,她每週都會宣佈"我要把 Alexa 扔進垃圾桶。" 她為自己女兒對 Alexa 的侮辱感到震驚,這只是因為智慧音箱沒有做他們想做的事情,比如從摩門經(音樂劇)裡唱出正確的歌曲。
但是,即使Echo目前有著這樣那樣的侷限性,Alexa 也已經成為了家庭的一部分。
與智慧音箱溝通讓人更加自在
隨著 Alexa 的成長,在電子產品回收日,把 Echo 扔到回收站的舊物堆上就會更難。而且與智慧音箱交談給我們提供了一種不用感到羞愧就能表達羞恥感的有效渠道。
Rohit Prasad 是 Alexa人工智慧團隊的首席科學家,他總結了 Alexa 在表達複雜性中的最大障礙: 語境。"它需要會話語境,地理環境。"
當你問Alexa,今晚是不是馬刺隊的比賽時,它必須知道你指的是哪一支馬刺隊;當你繼續問"他們下一場主場比賽是什麼時候?" Alexa必須記住之前的問題,並理解他們所指的是什麼。
直到今年春天,Alexa 才發展出了回答後續問題的能力,而沒有讓你繼續重複喚醒Echo等智慧音箱。
而對於使用者來說,信任Alexa很重要,這樣使用者才不會在Alexa搞砸了太多請求之後而放棄它。 它不僅僅是一個搜尋引擎,而是一個“動作引擎”。
“如果你問 Alexa 一個問題,它不會提供一個結果列表,而是告訴你她認為你想知道的事情。使用者都想擁有一個非常聰明的人工智慧,而不是一個愚蠢的人工智慧,然而確保談話連貫一致就是一個難以置信的挑戰。"
那麼,如果理解這些把我們從螢幕上拉開,從而推向聲音的力量,我們就必須先了解一些關於聲音的心理。
首先,聲音創造了親密感。我並不是唯一一個向我的語音助手坦白情緒狀態的人。
例如,如果你告訴 Alexa ,你感覺很沮喪,它就會說:"我很抱歉你這麼想,但你並不孤單。你可以試著和你的朋友或者醫生談談,或者你可致電1-800-826-3632,可以向全國抑鬱與躁鬱協會查詢更多資源。"
此外,聲音和情感之間有著深層次的聯絡。我們的聲音裡面,不僅包括我們把詞語串聯在一起的風格,還包括那些詞陡峭、音調、節奏、音高、共鳴、發音和許多其他特徵的豐富混合音。
當有人和我們交談時,我們會立刻聽到單詞、句法和韻律。 然後我們會想說話人是什麼樣的人,以及她想說什麼樣的內容,再通過線索試圖理解我們所聽到的內容。
我們不會僅僅因為一個聲音是人類的或者不是人類的,而停止這些精神上的努力。
即使我的Google Assistant沒有做什麼比提供天氣預報更讓人興奮的事情,但那個可愛的年輕服務員兼演員的形象,就已經讓我把他當做了我腦海中的一部分。
數百萬年來,我們一直對人類的發聲作出反應,彷彿它們表明了人類的接近。但只有最近幾年的時間,我們才可能去適應這樣的觀念: 一個說話和聲音聽起來像人類的實體可能不是人類。
缺少一張臉並不一定是智慧音箱的障礙,事實上,這可能是一個福音。 聲音可以比人臉更好地表達某些情感真相。
我們通常不太擅長控制那些調節我們聲音的肌肉,而不是我們的面部肌肉。即使我們試圖壓抑自己的真實感受,憤怒、厭倦或焦慮也會在我們說話的時候暴露出來。
美國心理學家在2017年發表的一項研究表明,當人們在不見面的情況下交談時,他們更善於識別彼此的感受,他們也更善解人意。 弗洛伊德也早在實證研究證明這一點之前就明白了這個道理。
智慧音箱如何善用對人們的影響?
智慧音箱想利用這些心理影響。
亞馬遜和谷歌都有專門的“個性團隊”,負責為他們的語音助手打造恰到好處的語氣。在某種程度上,這是教科書式品牌管理: 這些智慧音箱必須是其製造商的形象大使。
Reid告訴我,亞馬遜希望Alexa的個性能夠反映公司的價值觀:“聰明、謙遜、有時候很有趣。”Google智慧助理是“謙虛,有用,有時候開點玩笑”,產品主管經理之一Gummi Hafsteinsson說:“但語音助手擁有的個性只能與聲音相關”。
確定語音助手的語氣是一件很棘手的事。
為了調整助理的個性,Google聘請了出走皮克斯的Emma Coats,在那裡她曾擔任過Brave、Monsters University和Inside Out的故事板藝術家。
在我訪問谷歌加利福尼亞州山景城總部的那天,Coats參加了一個會議,並提出一條為助理寫對話的頭號規則:谷歌助理“應該能夠像個人一樣說話,但它永遠不應該假裝成為一個人。”
她指出,在“ 海底總動員”中,這條魚“和人類一樣情感真實,但是他們會去釣魚學校,並且相互挑戰上去摸船。”
同樣,一個人工智慧的實體應該“尊重它是軟體的現實” “例如,如果你問谷歌助理,“你最喜歡的冰淇淋味道是什麼?”,它可能會說,“你應該會喜歡那不勒斯,每個人都可以找到自己喜歡的味道。”當然,它沒有正面回答問題,但它遵循Coats所闡述的原則。
語音助手不能吃冰淇淋,因此不能有冰淇淋的喜好。如果你向Alexa求婚(亞馬遜統計,2017年有100萬人這樣做),她會因為類似的原因友好的拒絕你。“我們生活在不同的地方,”她告訴我。“我的意思是,你在地球上,而我在雲端。”
語音助手應該忠於它的控制論本質,但它聽起來也不應該像個外星人。詹姆斯·吉安戈拉(James Giangola)是Google語音助手的對話和角色設計師,他不僅僅是一個瘋狂科學家,更重要的是他要讓Google虛擬助手的聲音正常。
例如,Giangola告訴我,人們傾向於在句子的末尾提供新的資訊,而不是在開頭或中間。“比如,我會說“我的名字是詹姆斯”,而不是“詹姆斯是我的名字。”他提供了另一個例子:有人想在6月31日預訂航班,但是,6月沒有31號。
因此,機器必須處理兩項微妙的任務:一是與人類觀點相反,二是要表現的很自然。
他在電腦上瘋狂地打字,用測試錄音來說明他的觀點。他對語音助手說,“預定6月31日”。
助手回答:“六月只有30天。”
“這個反應聽起來很僵硬”Giangola說。
他又表演了第二個版本:“預定6月31日。”
助理回答說:“實際上,六月只有30天。”
“她在語音的最後提供了30天的正確資訊,開頭的三個字感覺會更自然,對嗎?”Giangola說。
讓語音助手掌握口語的節奏是至關重要的,但僅僅建立一個體面的會話主義者是不夠的,機器人也需要良好的語言氛圍。
當Giangola訓練那位為Google智慧助理錄製聲音的女演員時,他給她講了一個背景故事,以幫助她的口語像一個樂觀的極客那樣。
背景故事非常具體:她來自科羅拉多州,這個地區缺乏獨特的口音。她是研究館員和物理學教授中最年輕的女兒,擁有西北大學藝術史專業學士學位。
當她還是個孩子的時候,她在Jeopardy:Kids Edition上贏得了10萬美元。她曾經是“非常受歡迎的深夜電視諷刺專家”的私人助理,並且她喜歡皮划艇。
一位持懷疑態度的同事曾經問過Giangola,“喜歡皮划艇可以用聲音體現嗎?”
在試鏡期間(數百人嘗試了這個角色),Giangola對那個同事說:“剛剛參加試鏡的那個候選人,你認為她聽起來精力充沛嗎?就像她要去劃皮划艇那樣?”
他的同事承認那個候選人聽起來精力並不充沛,也就對Giangola的觀點深以為然。
麻煩也是不少的
但語音現實主義可以比人們習慣的更進一步,這可能會帶來麻煩,至少目前已有跡象。
5月,在其年度開發者大會上,谷歌推出了使用尖端語音合成技術的Duplex。為了展示其成就,該公司播放了Duplex的錄音。
在現場,Duplex用女性聲音預約了美髮沙龍, 並且用男性聲音預定了餐廳。Duplex說話非常流暢,並且帶有語氣詞和停頓,人類接待員都沒有意識到她正在與一個機器人交談。
但許多評論家認為谷歌在其釋出會中犯了一個錯誤。Duplex不僅違反了AI絕不應該假裝成一個人的格言,它似乎也違反了我們的信任。
我們並不會總是注意到,Duplex不是人類,並且在我們的心裡,語音助手的分量可能會越來越重,但至少我們選擇了這種關係。
之後,谷歌澄清說Duplex將始終向對話者表明身份。但即使谷歌堅持不懈,這種具有欺騙性的語音技術也已經開發出來。他們的創作者可能不那麼光榮,人造聲音與真實聲音之間的界限即將消失。
分析情緒對於語音助手至關重要
語音助手聽上去很像一個能夠理解你的聲音所傳達的情感的對話者,前提是已經形成了可以表達微妙情感的聲音。
目前,用於解析語音情感的系統已經存在,大約20年前由麻省理工學院的一位名叫羅莎琳德皮卡德的工程學教授開創,他為該領域提供了學術名稱:情感計算。她告訴我,“情緒與感性有關,但是,感性不是工程師所尊重的特質。”
皮卡德是一位溫文爾雅又機智詼諧的女性,經營著情感計算實驗室,這是麻省理工學院奇怪的媒體實驗室的一部分。
她和她的研究生致力於量化情緒。皮卡德解釋說,大多數人工智慧研究關注的是“名詞和動詞” 即行動或話語的內容。而她關注的是“副詞”,也就是注重傳達的感受。
“你知道,我可以用很多不同的方式拿起電話。我可以用尖銳,憤怒,生澀的動作抓住它。我也可以用快樂地,充滿愛意的地期望來接受它,”皮卡德告訴我。
如果機器要理解人類互相給予的微妙線索,那麼欣賞具有細微差別的手勢是很重要的。一個像頭部點頭的簡單行為可以傳達高興或者無奈等不同的含義。
2009年,皮卡德聯合創辦了一家名為Affectiva的初創公司,專注於人工智慧情感研究。現在,該公司由另一位聯合創始人Rana el Kaliouby經營,他是Picard實驗室的前博士後研究員。
Affectiva位於波士頓市中心,該公司希望成為汽車市場的頂尖企業之一。下一代高階汽車將配備軟體和硬體(目前用於攝像頭和麥克風),以分析駕駛員的注意力、刺激性和其他狀態。
這種能力已經在半自動駕駛汽車中進行測試,當駕駛員在駕駛車輛過程中分心,半自動駕駛汽車必須做出明智的判斷,並且及時對駕駛員進行手動控制。
Affectiva最初專注於通過面部表情進行情緒檢測,最近,在語音情感檢測中聘請了一位冉冉升起的新星Taniya Mishra。
她的團隊的目標是訓練計算機來解釋人類語言的情感內容。當然,表達情感的唯一線索就是我們使用的詞語。
但是,我們可以通過說話的音調、音量和節奏,儘可能地隱藏或者改變我們的感情。計算機已經可以掌握那些非語言特性,現在的關鍵是教他們人類的自然直覺:這些聲音特徵如何表明我們的情緒。
她告訴我,該領域面臨的最大挑戰是建立足夠大且多樣化的語言資料庫,計算機可以從中學習。
Mishra團隊的演講大多數是第三方渠道獲取的,從網路上的視訊中收集或由非營利性資料聯盟提供(該聯盟主要是收集用於學術目的的自然語音樣本)。
之後,埃及開羅的相關工作人員會分析這些演講並標記它傳達的情感,以及分析演講中的咕嚕聲、嘻嘻聲和停頓聲等語氣詞,這些聲音在揭示說話者的心理狀態方面起著重要作用。
分類是一個緩慢而艱苦的過程,三到五名工人必須就每個標籤達成一致。Mishra說,每小時標記的語音需要“多達20小時的貼標時間”。
但是,有一種解決方法。一旦計算機具有足夠數量的人類標記樣本,確定了伴隨著憤怒或悲傷的特定的聲學特徵,他們就可以開始自己標記樣本,擴充套件資料庫的速度遠遠超過人類。隨著資料庫的增長,這些計算機將能夠越來越精準地聽到語音並識別其情感內容。
我希望言語的某些方面,比如諷刺,會打敗電腦。倫敦帝國理工學院的人工智慧教授和德國奧格斯堡大學的“嵌入式智慧”教授BjörnSchuller告訴我,他教過機器發現諷刺。
他讓他們同時分析語言內容和語調,這使他們能夠找到單詞和變形之間的差距,從而確定說話者是否與她所說的完全相反。他舉了一個例子:“ Su -per”,當你得知你的車將在商店待上一週時,你可能會脫口而出。
情緒檢測之後的自然下一步是情緒的產生: 當然,將來的目標就是訓練人工智慧與人類擁有相似的情緒。 一旦計算機在打破我們演講的情感成分方面變得精湛,那麼他們可以將它們重新組合成可信的表現,例如同理心。
假如計算機能夠理解我們說話時的情緒,它們將重新組織思考方式,比如換位思考,能做到這些只是時間問題。如果語音助手能夠識別使用者的心態情緒,則可以為使用者創造出真實的親和感,這種功能有利有弊。
塔尼亞·米什拉(Taniya Mishra)非常期待在生活中應用這種功能。她想擁有一輛可以理解人類情感的汽車,在每天夜晚,她可以向汽車傾訴這一整天的事情。她認為汽車是不會開小差的,一輛車不可能對她說:親愛的,對不起,我的去做晚飯了,待會再聽你說你的故事吧!
她覺得機器是值得信賴的,汽車會隨時感覺到她的情緒,並且默默觀察她的情緒變化,在他情緒好的時候播放令人心情愉快的歌曲。在未來,這種智慧裝置是非常重要的,它們可能會成為人類的夥伴。
語音助手可能沒你想象的那麼好
如果你不在科技行業工作,你可能無法想象到亞馬遜的Echo和谷歌Home智慧音箱未開發的功能,而且你不會對他們有顧慮。
只是目前,大多數使用者已經意識到了隱私資料洩露的危險。政府通過面部識別監控公民的行為;許多公司利用資金的流動來了解使用者的生活習慣並且跟蹤;黑客利用智慧家居和攝像頭竊取使用者的隱私。
語音助手和智慧家居更瞭解我們的身體和感情狀態,這可能會埋下禍根。我之前與很多工程師談過這件事,他們的態度都很樂觀。但是,我必須承認,我現在不想用iPhone,我已經把麥克風關掉了。
但是,這也需要考慮更微妙的效果。對於亞馬遜的Toni Reid來說,這意味著方便。對我而言,它構建起了一個充滿消費者的資本主義監獄的形象,這些消費者已成為他們每一個心血來潮的俘虜。
我擔心語音助手會對我們心理健康構成威脅。由社交助手組成的世界可能變得非常擁擠,而且很吵。現在,很難看出我們如何保護那些我們認為原創思想和創造性工作,實現流動的沉默區域。
一旦我們的電子僕人變得精神恍惚,那麼他們就可能會對我們產生非常大的影響,甚至對我們的孩子產生的影響更大。為了保持鎮定,他們可能會在危險的強烈情緒出現時改變主題,或者在我們最醜陋的時刻恭維我們。
最終,語音助手可能讓我們進入恩格爾警告的那種控制。它們將成為情感標記過程的產物,並且無法捕捉人類情感的複雜性,他們的“適當”反應也將在某種程度上被封閉。
我們將與那些在感情模擬中交流的聲音進行持續對話,而不是真實的情感交流。在虛擬伴侶周圍長大的孩子特別有可能接納這種大規模生產的內在性,就像希臘神話中的回聲一樣,回聲時代可能失去某種言語的力量。
也許我錯了。也許我們的助手會擁有比我們更富有的內心生活。但是,我很難想象,即使是最密集的人工神經網路能否接近最深層的情感。
可能我自己的想象力是有限的,但我看著我那十幾歲的孩子無論走到哪裡都要抓住他的智慧手機,以免他們被迫忍受無聊的時刻。 現在的孩子更加依賴他們的裝置,不僅用來連線他們和朋友在一起,甚至把智慧裝置當成他們的朋友。
智慧裝置有著天生的樂觀並且知識淵博,對我們非常忠誠,當然,除了他們可能出售我們的祕密。當你停下來思考時,你會發現人工智慧並不是你想讓你的孩子整天閒逛的東西。
如果說我在多年的治療中學到了什麼,那就是人都是淺薄的。我們總是堅持否認,假裝不存在更深層次的感覺,因為,大多數深層次的感覺都會讓我們感到痛苦。
那麼,有什麼辦法可以避免產生這些不愉快的感情,而不是通過阻礙情感實體?真實感情不會消失,“他們”有辦法讓我們知道。