1. 程式人生 > >訊飛語音開發之文字理解

訊飛語音開發之文字理解


在做語音機器人中,文字理解和語音理解一樣重要,而且可以互換。我前期用的是語音理解,感覺效果不是太好後面改成語音聽寫+文字理解。不過不管哪種理解前幾部分都是一樣的。

在你的工程應用裡面由我的應用中進入

進入已開通的開放語音部分:

進入建立我的語義


建立我的語義抽取

勾取你所涉及的場景,方便後臺語義分詞。

接下來提交下載對應sdk,(說明如若不夠去某一場景可能會出現理解效果不好甚至會出現沒有返回詞,當然如果場景裡面沒有你需要的可以自行設定問答庫在下一章會介紹)

將下載的sdk中的.so問價放置在libs下面(以你為我的工程放在git庫中切沒有push所以工程顯示有“?”這個不影響使用)

其餘設定可以參考訊飛語音開發的其他章節,在次不再贅述(如語音和成http://blog.csdn.net/sz0268/article/details/51695426)

關鍵程式碼:訊飛sdk'初始化

mTextUnderstander = TextUnderstander.createTextUnderstander(MainActivity.this, null);
文字理解初始化(其中類庫載入的時候會出現com.iflytek.cloud.TextUnderstanderListener;和com.iflytek.speech.TextUnderstanderListener;兩個包供選擇,我選擇的是前者)
mTextUnderstander = TextUnderstander.createTextUnderstander(MainActivity.this, null);

開始文字理解:

private void understanderText(String text){
		mTextUnderstander.understandText(text, mTextUnderstanderListener);
		
	}


文字理解監聽器;

private TextUnderstanderListener mTextUnderstanderListener = new TextUnderstanderListener(){

		@Override
		public void onError(SpeechError arg0) {
			// TODO Auto-generated method stub
			
		}

		@Override
		public void onResult(UnderstanderResult result) {
			String word = JsonParser.parseUnderstandResult(
					result.getResultString().toString());
			tv_understander.append(word);
			
			
		}};
	

到此,語義理解完成。程式碼我會把下載地址貼在評論中,可以到我百度文庫中下載,需要說明的是appid的裝機容量有限,所以我我把string.xml中的appid號隱藏了,測試的時候把你自己的appid號替換上去就行了

相關推薦

語音開發文字理解

在做語音機器人中,文字理解和語音理解一樣重要,而且可以互換。我前期用的是語音理解,感覺效果不是太好後面改成語音聽寫+文字理解。不過不管哪種理解前幾部分都是一樣的。 在你的工程應用裡面由我的應用中進入 進入已開通的開放語音部分: 進入建立我的語義

語音開發語音喚醒

只有前面講到的語音合成,語音理解,語義理解,語音識別確實可以實現人機交流。但是還不能實現完全智慧,不能狗做到實時問道,間歇式問答。要實現實時問答,切不用手動操作。這時候語音喚醒功能就大選伸手了。下面我們來看看語音喚醒功能的實現吧。 使用語音喚醒,首先你要在你的應用中開通語音

語音開發語音聽寫--不帶ui介面

前面一篇文章是帶有ui介面的語音識別,訊飛還提供了中不帶ui介面的語音識別介面,也是比較常用的一種語音識別介面,現在介紹如下: 準備如下: 1、載入訊飛jar包和.so檔案(jar包和.so檔案一定要與appid相一致) 2、設定appid到strings.xml

Android Studio 接入 語音合成(文字語音

1.下載相應的SDK(參考我上一篇文章:https://mp.csdn.net/postedit/83743563) 2.佈置資源 . 3.新增許可權 :在Application的根目錄下,為了可以訪問手機的一些功能 <!--連線網路許可權,用於執行雲端語音能力 -->

Android 科大語音整合,文字語音

前言: 記錄一下科大訊飛的文字轉語音功能的sdk的整合過程,希望能夠幫助到大家。 1. 登入官網,應用註冊。 訊飛開放平臺,進行簡單的開發者註冊。進入個人中心,註冊應用。 註冊完成後,我們可以看到自己的appid。選擇自己要開通的功能,然

android語音開發常遇到的問題 各種錯誤編碼說明

場景:android專案中共使用了3個語音元件:線上語音聽寫、離線語音合成、離線語音識別 11208:遇到這個錯誤,授權應用失敗,先檢查裝機量(3臺測試許可權),以及appid的申請時間(35天期限),我的沒問題,所以就定位在資原始檔的問題了。請注意:保證所有的資原始檔都是最新的(線上語音聽寫、離線語音合

Android開發通過藍芽耳機實現語音識別的功能

近階段在開發一款app,實現通過藍芽耳機進行訊飛語音識別,獲取識別結果之後再通過語音合成從藍芽耳機播報出識別結果。上網也查了很多資料,大多是說通過一下兩行程式碼:      mAudioManager.setBluetoothScoOn(true);           

Android開發聲網即時通訊與語音識別相結合

聲網是一家提供語音、視訊即時通訊服務的公司,他的服務大多基於WebRTC開源專案並進行一些優化和修改。而訊飛語音識別應該不用多說了,老羅在釋出會上介紹得已經夠詳細了。 那麼下面進入今天的主題,就是讓聲網和訊飛識別同時使用,之前可能有朋友沒遇到過這樣的需求,那先說一下讓兩者同

iOS 語音語音聽寫 錄音的實現

引入庫 第一步 獲取appid appid是第三方應用整合訊飛開放平臺SDK的身份標識,SDK靜態庫和appid是繫結的,每款應用必須保持唯一,否則會出現10407錯誤碼。appid在開放平臺申請應用時可以獲得,下載SDK後可從SDK中sample資料夾的Demo工程裡找到(例如: /sam

如何通過語音文字合成後的語音儲存到本地

轉自:http://www.krislq.com/2014/02/voicecloud_local/ 訊飛大家一定都非常的熟悉。最近需要把做個小功能來把文字轉換成語音,所以網上搜索了下,剛好訊飛在android端做了更新,可以儲存語音到本地啦。果斷下載來試了下。效果不錯喲。親。 如果下載訊飛的開發包就

利用語音識別技術開發離線語音控制系統(Windows平臺)

本專案做出的產品是一個Windows下的增強現實系統,系統很龐大,產品功能已經基本完善,考慮到給使用者帶來更好的體驗,故綜合評估後採用訊飛語音識別方案進行嫁接。 專案介紹: 1)開啟系統時啟動語音識別,檢測到使用者說出關鍵詞(如:上一步,下一步,結束等)時,系統自動進行相應

android+語音+一個簡單的文字語音相互轉換

<!--連線網路許可權,用於執行雲端語音能力 -->    <uses-permissionandroid:name="android.permission.INTERNET"/>    <!--獲取手機錄音機使用許可權,聽寫、識別、語義理解需要用到此許可權 -->  

第三方整合 語音識別 文字轉音

private void init() { //合成監聽器 SynthesizerListener mSynListener = new SynthesizerListener() { //會話結束回撥介面,沒有錯誤時,error為null public

科大語音文字JSON資料的

  報名參加了一個創青春大學生創業大賽,需要把人機互動完善一下,就做了一個簡單的語音互動介面。程式的大體思路是語音方面(包括文字轉語音,語音轉文字)呼叫科大訊飛的 SDK完成,智慧方面(包括智慧文字回覆) ,程式不難,但是在json資料的解析方面花的時間有點長。     j

android 語音識別 語音移植

轉載自:http://blog.csdn.net/chenshufei2/article/details/8496905 一、簡介     語音識別現在應用越來越廣泛了 比如語音寫簡訊、語音搜尋商品、語音搜尋關鍵字等等,這遍我們就簡單的談談國內比較流

語音整合(語音文字文字語音

語音聽寫SDK適配安卓6.0需要手動申請許可權 關於語音聽寫SDK的開發,參考科大訊飛開放平臺官網為準 在百度搜索訊飛科技開放平臺,自己註冊賬號 自己建立一個新應用 在控制檯介面建立完應用,然後選擇SDK下載 選擇需要的SDK進行下載(這裡我們選

使用語音實現語音識別,朗讀文字

一.走近訊飛(iFly) 語音技術實現了人機語音互動,使人與機器之間溝通變得像人與人溝通一樣簡單。語音技術主要包括語音合成和語音識別兩項關鍵技術。讓機器說話,用的是語音合成技術;讓機器聽懂人說話,用的是語音識別技術。此外,語音技術還包括語音編碼、音色轉換、口語評測、語音

語音文字

Button點選事件: public void but(View view) { //1.建立RecognizerDialog物件,第二引數就是一個初始化的監聽,我們用不上就設定為null RecognizerDialog mDialog = new Recogn

【從零單排二】科大語音包Mscdemo的使用

前幾天寫的從零單排系列我發現了一個嚴重的錯誤,就是科大訊飛下載的Mscdemo是可以使用的,只不過是我沒設定好環境而已才有那麼多錯誤,特此更正一下。 具體遇到的錯誤即解決辦法如下。 1.註釋是亂碼。右鍵單擊src包,選擇properties,找到Text code enco

整合語音合成開發sdk時SpeechSynthesizer物件初始化為空

訊飛開發平臺好像並沒有整合sdk的教程,只有一個demo將sdk整合到自己專案的時候發現SpeechSynthesizer物件用SpeechSynthesizer.createSynthesizer(C