- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
SFSpeechRecognizer
对于我的用例来说非常不准确。我尝试设置 contextual
字符串,因为我有一组要与之匹配的单词。但它仍然无法这样做。我需要任何其他配置吗?
我正在使用 Apple 提供的示例项目,仅进行了以下更改:
recognitionRequest.contextualStrings = @[@"iron man", @"metal", @"stark", @"superhero", @"boyfriend", @"pepper", @"arrogant", @"stylish"];
最佳答案
我的理解是 contextualStrings
仅用于向字典中添加可能不存在的单词。
例如: 罕见/奇怪
单词,如 “Expecto Patronum”
或 “Fuddle duddle”
查看更多信息 Apple Documentation
关于ios - SFSpeechRecognizer 没有正确处理上下文字符串,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40170211/
我正在构建一个支持语音识别并将语音转换为文本的搜索,所以我使用 SFSpeechRecognizer .但问题是我需要同时支持多种语言,例如(“en_US”、“fr”、vi、ar)。 主要思想是用户可
我正在尝试使用 SFSpeechRecognizer 在我的应用程序中转录语音命令。命令只有一个词。 SFSpeechAudioBufferRecognitionRequest(来自麦克风点击)可能需
SFSpeechRecognizer 是否像 Siri 一样工作,是在 Apple 服务器上完成处理还是在 iPhone 本地完成? 最佳答案 语音识别 API 的描述在此 link指出 " In t
SFSpeechRecognizer 对于我的用例来说非常不准确。我尝试设置 contextual 字符串,因为我有一组要与之匹配的单词。但它仍然无法这样做。我需要任何其他配置吗? 我正在使用 App
我有一个 SFSpeechRecognizer 从 Apple 的示例应用程序设置 https://developer.apple.com/library/content/samplecode/Spe
我正在使用 iOS 10 内置语音识别来破解一个小项目。我使用设备的麦克风得到了工作结果,我的语音被非常准确地识别。 我的问题是为每个可用的部分转录调用识别任务回调,我希望它检测停止说话的人并调用回调
我已经在以下位置下载了示例代码 SpeakToMe: https://developer.apple.com/library/prerelease/content/samplecode/SpeakTo
我正在尝试使用 SFSpeechRecognizer 但我没有办法测试我是否正确地实现了它,而且由于它是一个相对较新的类,我找不到示例代码(我不知道快)。我是否犯了任何不可原谅的错误/遗漏了什么? [
我正在尝试初始化 SFSpeechRecognizer 的实例,但出现以下错误 Cannot convert value of type 'Locale' to expected argument t
我正在使用 iOS SFSpeechRecognizer API 开发语音转文本应用程序。 找到一个很棒的tutorial here:并且效果很好。 我想在语音输入停止后立即处理文本并执行一些操作。所
我正在编写一个拼字比赛应用程序。我一直在使用 SFSpeechRecognizer,但它不能很好地处理单个字母,因为我猜它正在寻找口头短语。 我已经在谷歌上搜索 SFSpeechRecognizer
这是我第一次在 Swift 中使用 SFSpeechRecognizer,有一个功能无法正常工作。当我按下按钮 audioButtonPressed 时,它似乎开始识别正常,再次按下它会停止。当我尝试
我正在使用这个库 https://github.com/appcoda/SpeechToTextDemo将语音转录为文本 我想用这个库显示真实的语音幅度来显示语音图表 https://github.c
我在我的应用程序中使用 SFSpeechRecognizer,由于有一个专用按钮(开始语音识别),它可以很好地简化最终用户在 UITextView 中输入评论的过程。 但是如果用户首先手动输入一些文本
我正在使用 Swift 开发一个尝试转录对话的 iOS 应用程序。我成功地能够使用 AVAudioEngine() 和 SFSpeechRecognizer() 转录对话。 // MARK:
我正在制作一个文本转语音和语音转文本的应用程序。 我现在遇到的问题是文本转语音使用 AVSpeechSynthesizer 可以正常工作。但是在我使用 SFSpeechRecognizer 录制并进行
我正在尝试使用 Apple 的语音框架在 macOS 10.15.1 上进行语音识别。在 macOS 10.15 之前,语音识别仅在 iOS 上可用,但根据 the documentation和 th
我使用 SFSpeechRecognizer,基本上可以工作。 1.但有时会出现如下错误。 主要是在我没有执行 avStop() 之前。 [Utility] +[AFAggregator logDic
所以我构建了一个简单的应用程序,它使用 SFSpeechRecognizer 进行语音识别,并在屏幕上的 UITextView 中将转换后的语音显示为文本。现在我想让手机说出显示的文字。由于某种原
我正在尝试执行续。在 iOS 10 测试版上使用 AVCapture 进行语音识别。我设置了 captureOutput(...) 以持续获取 CMSampleBuffers。我将这些缓冲区直接放入我
我是一名优秀的程序员,十分优秀!