- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我正在使用来自 dragon dictation api 的演示应用程序。我没有对演示应用程序进行任何修改,因此我认为它没有任何问题。当我打开应用程序并在我的手机上运行它时,它会打开并运行。我单击录制按钮并与它交谈。然后它尝试连接到服务器,但它给我的错误是它无法连接到语音服务器。
输出显示:
2013-08-10 13:54:11.582 Recognizer[655:907] set session Active 0
2013-08-10 13:54:11.803 Recognizer[655:907] sample rate = 44100.000000
2013-08-10 13:54:11.823 Recognizer[655:907] audio input route(iOS5 or above): MicrophoneBuiltIn
2013-08-10 13:54:11.828 Recognizer[655:907] audiosource = MicrophoneBuiltIn
2013-08-10 13:54:11.889 Recognizer[655:907] [NMSP_ERROR] check status Error: 696e6974 init -> line: 485
2013-08-10 13:54:11.979 Recognizer[655:907] Application windows are expected to have a root view controller at the end of application launch
2013-08-10 13:54:13.513 Recognizer[655:907] Recognizing type:'websearch' Language Code: 'en_US' using end-of-speech detection:2.
2013-08-10 13:54:14.517 Recognizer[655:907] Recording started.
2013-08-10 13:54:16.490 Recognizer[655:907] Recording finished.
2013-08-10 13:54:26.903 Recognizer[655:4103] [NMSP_ERROR] Connection timed out!
2013-08-10 13:54:27.167 Recognizer[655:907] Got error.
2013-08-10 13:54:27.170 Recognizer[655:907] Session id [(null)].
我不知道这里发生了什么,非常感谢任何帮助。
最佳答案
如果当您尝试录制时它立即显示“已取消”并显示类似“录制器为空”或“[NMSP_ERROR] 检查状态错误:696e6974 init -> 行:485”之类的错误,这可能意味着有问题使用您的 SpeechKit key ,或者 SpeechKit 服务器已关闭。仔细检查您的 key ,和/或稍后重试。
引用:http://www.raywenderlich.com/60870/building-ios-app-like-siri
关于ios - Dragon Dictation API 连接服务器失败,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18166294/
在 Dragon NaturallySpeaking 的高级脚本中,是否有任何方法可以定义可用于所有语音命令的常量? 例如,我有两个语音命令: Sub Main originalClipboa
有没有办法将 Dragon NaturallySpeaking 合并到事件驱动程序中?如果我使用 DNS 记录用户语音输入而不将其写入屏幕并直接保存为 XML,我的老板会非常喜欢它。我已经研究了好几天
我有一个在 ColdFusion MVC 框架“Mach-II”中构建的应用程序,并托管在蓝龙 ColdFusion 服务器上。 它会导致缓存问题。当我添加一个包含一些内容的新页面并加载该页面时,它工
我最近购买了一个带有 atmega1280 的 Arduino。我没有让它使用 Arduino IDE,而只是作为一个方便的板与 AVR Studio 和我的 Dragon 一起使用。 我大约在同一时
我正在玩欧拉计划的 Problem 220 ,我对维基百科关于该主题的文章有点困惑,Dragon Curve .关于无需绘制整条曲线即可计算第 n 圈方向的主题,它说: First, express
我正在使用来自 dragon dictation api 的演示应用程序。我没有对演示应用程序进行任何修改,因此我认为它没有任何问题。当我打开应用程序并在我的手机上运行它时,它会打开并运行。我单击录制
有什么方法可以更改 Dragon NaturallySpeaking 中的默认识别模式吗? 我找到了这篇文章 - How to set default recognition Mode in Drag
我正在寻找一种方法,将有限词汇量的语音识别功能集成到我的 Android 应用程序中(因为 Google 语音搜索依赖于用户并不总是可以访问的互联网访问)。 我找到了一个 Nuance page诱使程
我敢肯定,有很多人在编写代码,但出于某种原因,他们暂时或永久无法使用键盘进行编写。 我正在尝试了解是否值得让 Dragon Dictate(或任何其他语音识别软件)在我的 ARM 处于石膏状态时继续编
关闭。这个问题是opinion-based .它目前不接受答案。 想改善这个问题吗?更新问题,以便可以通过 editing this post 用事实和引文回答问题. 5年前关闭。 Improve t
如何从 Dragon NaturallySpeaking 中的高级脚本语音命令调用 python 函数? 我不想使用第三方应用程序,例如 dragonfly或NatLink (paper)。 最佳答案
有没有人在 Mighty Moose/ContinuousTests 中遇到过 Here Be Dragons 警告? 这被放置在一个私有(private)方法旁边,可能是因为它是私有(private
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 6 年前。
Nuance 的 DragonMobile 组件显然在初始调用 SKRecognizer 的 initWithType:detection:language:delegate 和组件调用 recogn
有没有办法用Dragon NaturallySpeaking的高级脚本弹出光驱? 最佳答案 您可以使用 Windows Multimedia API (also known as WinMM) : '
我目前正在编写一个 AI 程序,它接收来自 Dragon NaturallySpeaking(使用 Natlink)的输入,对其进行处理,然后返回语音输出。我能够想出一个 Receiver Gramm
我在我的应用程序中使用 Dragon 的软件将语音转换为文本。基于语音命令,我想从我的脚本中执行特定的功能,我搜索了很多,但没有找到如何将 Dragon 的 API 与应用程序集成。我还查看了包含开发
我正在 XCode 中开发一个 iOS 应用程序,并尝试集成 Nuance 移动 SDK。我已经让他们的示例应用程序正常运行,现在正尝试将其添加到我现有的应用程序中。当我这样做时,我遇到了以下错误。我
我在运行时将我的应用程序与 naunce dragon Mobile 的 speechkit 集成,出现以下错误: Undefined symbols for architecture armv7:
这可能是一个远景,但 Nuance 支持已重定向到 Microsoft,所以我想我也可以在这里试试运气。 一点背景:我正尝试在我的 WPF 应用程序中使用 Dragon Naturally Speak
我是一名优秀的程序员,十分优秀!