- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个使用 OpenEars API 读取文本的 iOS 应用程序。我使用的是最新版本 (1.2.5)。我无法弄清楚如何在阅读单词时改变音调(“即时”)。我创建了一个 slider 来控制音高。更改 slider 时会触发委托(delegate)。在委托(delegate)函数中,更改了 FliteController target_mean。目的是在 target_mean 值更改后立即更改音高。我的代码如下:
-(void)sayTheMessage:(NSString *)message {
// if there is nothing there, don't try to say anything
if (message == nil)
return;
[self.oeeo setDelegate:self];
// we are going to say what is in the label...
@try {
// set the pitch, etc...
self.flite.target_mean = pitchValue; // Change the pitch
self.flite.target_stddev = varienceValue; // Change the variance
self.flite.duration_stretch = speedValue; // Change the speed
// finally say it!
[self.flite say:message withVoice:self.slt];
}
@catch (NSException *exception) {
if ([delegate respondsToSelector:@selector(messageError)])
[delegate messageError];
}
@finally {
}
}
-(void)changePitch:(float)pitch {
if ((pitch >= 0) && (pitch <= 2)) {
// save the new pitch internally
pitchValue = pitch;
// change the pitch of the current speaking....
self.flite.target_mean = pitchValue;
}
}
有什么想法吗?
最佳答案
这里是 OpenEars 开发者。您无法使用 FliteController 即时更改音高,因为音高是在处理语音之前设置的。
关于ios - 动态更改 OpenEars 音调(即时),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16442992/
我在我的应用程序中使用 OpenEars 框架来检测语音识别。这个想法是听几个单词,然后根据所说的单词执行一些操作。嗯,识别有效并且单词被检测到,但问题是对于单词“SNAPPIE”我遇到了一些问题 -
我正在尝试将 OpenEars 包含在我正在制作的 theos 项目中,这是对越狱 iDevices 的调整,因为我的调整需要语音识别。通过将 OpenEars 框架与我的私有(private)框架放
As it currently stands, this question is not a good fit for our Q&A format. We expect answers to be
命令/Developer/Platforms/iPhoneOS.platform/Developer/usr/bin/clang 失败,退出代码为 1 警告:“体系结构“armv6”和变体“正常”的
我正在设计一个新的 iPhone/iPad 应用程序,我将使用 OpenEars 包含一些语音识别功能,而且我是 OpenEars 的新手。 应用程序应该从自定义动态词典中识别一些单词(命令),我的意
我制作了一个应用程序,它使用 Openears 框架来读出一些文本。但我没有使用任何 Openears 的 语音识别/语音合成功能,只使用了语音对话功能。我的应用程序被苹果拒绝,告诉我该应用程序要求获
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭 8 年前。 Improve this q
我是 Android 编程的新手,我想创建一个关于语音情感识别的应用程序。在研究过程中,我发现 openEAR - Introducing the Munich Open-Source Emotion
我正在对语音转文本和文本转语音进行一些开发,我发现了 OpenEars API 非常有用。 这个的原理cmu-slm基于 API 的一点是它使用语言模型来映射 iPhone 设备收听的语音。因此,我决
我在 iPhone 应用程序中工作,我已经使用 OpenEars Framework 在 iPhone 中开发语音到文本的转换。最后我运行应用程序,我得到了这样的错误: Duplicate sym
我在我的应用程序中使用了 OpenEars。只需识别字母表中的“a”到“z”。但它在识别字母方面的识别率低于单词。 那么,我如何使用我的声音模型来提高 OpenEars 的识别度。 以及如何使用 Op
我最近开始学习OpenEars语音识别,太棒了!但我还需要支持其他语言(如俄语、法语和德语)的语音识别和听写。我发现 here提供各种声学和语言模型。 但我真的无法理解 - 我需要在应用程序中集成额外
我能否将 OpenEars 的说话声音更改为另一种声音?我不太喜欢默认的。这是可能的还是我必须使用另一个 API。对不起,如果这是一个愚蠢的问题。 最佳答案 是的,你可以,但这是一个有点复杂的过程。
我有一个使用 OpenEars API 读取文本的 iOS 应用程序。我使用的是最新版本 (1.2.5)。我无法弄清楚如何在阅读单词时改变音调(“即时”)。我创建了一个 slider 来控制音高。更改
我正在尝试使用此插件将 OpenEars 插件包含到 phonegap/cordova 中 https://github.com/karljacuncha/OpenEarsPlugin 我按照自述文件
我正在尝试使用 OpenEars,但出现了一个恼人的错误。当我将语言模型文件添加到我的项目后尝试运行该应用程序时,该错误立即开始。这是错误: Lex /Users/ilizabetabibi/Desk
找了一个关键词识别api,我发现最有前途的是OpenEars + Rejecto plugin。我需要识别一个非常简单的字典,例如 Up、Down、Left、Right。按照此处的步骤运行示例项目。-
我正在开发一个用于“语音到文本”的应用程序,为此我正在使用 openears。我知道它的语言模型和 dic 文件。 但是创建整个词汇的语言模型是个好主意吗? (英文语言模型大小为125MB) 如何为多
我们正在构建一个执行基本语音识别功能的 iOS 应用程序。基本上,该应用程序会计算您在 iOS 设备中说出的单词数量。当对着 iPhone 内置的标准麦克风讲话时,该应用程序运行良好。但是,当连接无线
我在我的应用程序中使用 OpenEars 来识别一些单词和句子。我遵循了 offline speech recognition 的基本教程并在 Swift 中执行了移植。这是设置过程 self.ope
我是一名优秀的程序员,十分优秀!