- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我刚刚下载了用于 iOS 开发的 Dragon Mobile SDK,并尝试使用 SpeechKit 创建一个应用程序。我遵循了 Dragon Mobile SDK Reference,但我不断在日志中收到以下消息:
2014-12-11 23:24:52.834 TestApp[17554:1036858] [NMSP_DEBUG] nmsp_nmas_create_dictionary().
2014-12-11 23:24:52.835 TestApp[17554:1036858] [NMSP_DEBUG] nmsp_nmas_dictionary_add().
2014-12-11 23:24:52.835 TestApp[17554:1036858] [NMSP_DEBUG] nmsp_nmas_dictionary_key_exists
2014-12-11 23:24:52.835 TestApp[17554:1036858] [NMSP_DEBUG] nmsp_nmas_dictionary_add().
2014-12-11 23:24:52.836 TestApp[17554:1036858] [NMSP_DEBUG] nmsp_nmas_dictionary_key_exists
这是我的代码:
- (IBAction)startRecording:(id)sender {
self.vocalizer = [[SKVocalizer alloc] initWithLanguage:@"en_US"
delegate:self];
[self.vocalizer speakString:@"Hello world."];
}
代码运行时没有任何反应。我已经仔细检查并确保 key 是正确的,并且我已经下载了正确的框架,所以我不知道问题是什么。任何帮助将不胜感激!
最佳答案
刚刚弄清楚为什么会这样!我将以下函数放在 AppDelegate 中(根据 Ray Wenderlich 的教程)
- (void)setupSpeechKitConnection {
[SpeechKit setupWithID:INSERT_YOUR_APPLICATION_ID_HERE
host:INSERT_YOUR_HOST_ADDRESS_HERE
port:INSERT_YOUR_HOST_PORT_HERE
useSSL:NO
delegate:nil];
// Set earcons to play
SKEarcon* earconStart = [SKEarcon earconWithName:@"earcon_listening.wav"];
SKEarcon* earconStop = [SKEarcon earconWithName:@"earcon_done_listening.wav"];
SKEarcon* earconCancel = [SKEarcon earconWithName:@"earcon_cancel.wav"];
[SpeechKit setEarcon:earconStart forType:SKStartRecordingEarconType];
[SpeechKit setEarcon:earconStop forType:SKStopRecordingEarconType];
[SpeechKit setEarcon:earconCancel forType:SKCancelRecordingEarconType];
}
但它没有被调用。当我将它移动到 ViewController 中的 viewDidLoad 时,它开始工作了。
关于ios - DragonMobile SDK SpeechKit 不工作 [NMSP_DEBUG],我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27436919/
是否可以使用 Nuance 的 iOS 版 SpeechKit 将音频或视频文件用作源,而不是自动使用麦克风? 我在这里创建了一个项目: https://github.com/jeffreality/
我正在尝试在 iOS Swift 应用程序中实现语音识别。当用户点击“麦克风”按钮时,我尝试播放系统声音,然后使用 SpeechKit 进行语音识别。如果我注释掉 SpeechKit 代码,语音识别工
我在使用 Swift 的应用程序中使用 SpeechKit(免费帐户)进行语音到文本的转换。它工作得很好,但在我测试的所有设备上突然停止工作。我已经交叉检查,应用程序 key 和 ID 是正确的。这是
我有一个应用程序,我们需要根据语音命令打开某些屏幕,比如如果用户说“打开设置”,那么它应该打开设置屏幕,到目前为止我已经使用了 SpeechKit框架,但我无法检测到语音静音的结束。就像 Siri 的
我已经使用此 CocoaPod 实现了 Nuance SpeechKit https://cocoapods.org/pods/SpeechKit并执行 accepted S.O. answer 中的
我正在使用 Nuance 的 SpeechKit 在录制视频时转录视频中的文本。但是,当 SpeechKit 处于事件状态时,AVAudioSession 会生成以下错误: AVAudioSessio
我刚刚下载了用于 iOS 开发的 Dragon Mobile SDK,并尝试使用 SpeechKit 创建一个应用程序。我遵循了 Dragon Mobile SDK Reference,但我不断在日志
我们已经实现了用于听写的 SpeechKit。它工作正常,但有时会因某些用户而崩溃。当用户点击开始录制音频引擎时。 代码: if recognitionTask != nil {
我尝试为 watchOS 导入 SpeechKit 框架,但收到错误消息。有没有办法将它与 watch 一起使用?导入 Speechkit 框架时出现错误,提示“没有这样的语音模块” import W
我已将 Speechkit 大量集成到我的一个应用程序的 View Controller 中。 Speechkit 仅在 iOS 10 上可用,但我还需要我的应用程序在 iOS 9 设备上运行。 现在
在 pod 规范和当前 S.O. 上的内容之间我很难弄清楚如何使用 SpeechKit + CocoaPod + Swift 进行语音到文本的工作。终于让它工作了,所以我想我会帮助下一个寻求帮助的可怜
我正在使用 Nuance 的 Speechkit 2 和 swift、iOS 9.3。根据此文档,我需要检测 TTS 何时完成: https://developer.nuance.com/public
我正在尝试使用 Nuance Speechkit 并构建一个可以生成语音转录的语音识别应用程序。在 Nuance 中识别语音的方法给出错误:在调用方法时模棱两可地使用 recognize(withTy
我是一名优秀的程序员,十分优秀!