- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我目前正在用 C# 开发一个实现文本转语音的小程序。但是,我发现可以使用两个命名空间:
我用谷歌搜索了差异并找到了 this关于语音识别的帖子。它并没有真正回答我的问题。我也在他们两个之间切换,没有区别。它适用于代码中的所有语言(如下)。
using System;
using System.Speech.Synthesis;
//using Microsoft.Speech.Synthesis;
namespace TTS_TEST
{
class Program
{
static void Main(string[] args)
{
SpeechSynthesizer synth = new SpeechSynthesizer();
int num;
string userChoice;
do
{
Console.WriteLine("1 - " + "Microsoft Server Speech Text to Speech Voice (en-US, ZiraPro)");
Console.WriteLine("2 - " + "Microsoft Server Speech Text to Speech Voice (en-GB, Hazel)");
Console.WriteLine("3 - " + "Microsoft Server Speech Text to Speech Voice (es-ES, Helena)");
Console.WriteLine("4 - " + "Microsoft Server Speech Text to Speech Voice (fr-FR, Hortense)");
Console.WriteLine("5 - " + "Exit");
Console.Write("Enter the number of your choice: "); //the user chooses a number
userChoice = Console.ReadLine();
if (!Int32.TryParse(userChoice, out num)) continue;
Console.WriteLine("Choice = " + userChoice);
if (userChoice == "1") //Option 1 will use the voice en-US, ZiraPro
{
synth.SelectVoice("Microsoft Server Speech Text to Speech Voice (en-US, ZiraPro)");
}
if (userChoice == "2") //Option 2 will use the voice en-GB, Hazel
{
synth.SelectVoice("Microsoft Server Speech Text to Speech Voice (en-GB, Hazel)");
}
if (userChoice == "3") //Option 3 will use the voice es-ES, Helena
{
synth.SelectVoice("Microsoft Server Speech Text to Speech Voice (es-ES, Helena)");
}
if (userChoice == "4") //Option 4 will use the voice fr-FR, Hortense
{
synth.SelectVoice("Microsoft Server Speech Text to Speech Voice (fr-FR, Hortense)");
}
if (userChoice == "5") //Option 5 will exit application
{
Environment.Exit(0);
}
synth.SetOutputToDefaultAudioDevice(); //set the default audio output
foreach (InstalledVoice voice in synth.GetInstalledVoices()) //list the installed voices details
{
VoiceInfo info = voice.VoiceInfo;
Console.WriteLine(" Name: " + info.Name);
synth.Speak("Name: " + info.Name);
Console.WriteLine(" Culture: " + info.Culture);
synth.Speak("Culture: " + info.Culture);
Console.WriteLine(" Age: " + info.Age);
synth.Speak("Age: " + info.Age);
Console.WriteLine(" Gender: " + info.Gender);
synth.Speak("Gender: " + info.Gender);
Console.WriteLine(" Description: " + info.Description);
Console.WriteLine(" ID: " + info.Id + "\n");
synth.Speak("ID: " + info.Id);
}
Console.ReadKey();
}
while (true);
}
}
}
有人能给我解释一下他们两者之间的区别吗?
最佳答案
差异实际上与链接答案中概述的差不多; System.Speech.SpeechSynthesis
使用桌面 TTS 引擎,而 Microsoft.Speech.SpeechSynthesis
使用服务器 TTS 引擎。从编程的角度来看,差异相对较小,但从许可的角度来看,差异很大;服务器 TTS 引擎是单独许可的。
但是,System.Speech.SpeechSynthesis
和Microsoft.Speech.SpeechSynthesis
都是废弃的API,新的开发应该基于Windows.Media.SpeechSynthesis
API。
关于c# - System.Speech.Synthesis 和 Microsoft.Speech.Synthesis 有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54554350/
我只是尝试使用 Microsoft.Speech.dll; 为文本转语音运行简单的 Microsoft 示例 using System; using Microsoft.Speech.Synthesi
微软似乎提供了不少语音识别产品,我想知道它们之间的区别。 有Microsoft Speech API ,或 SAPI。但不知何故Microsoft Cognitive Service Speech A
我希望编写一个应用程序,将语音到文本转换为仓库应用程序,反之亦然。主要用例是运算符(operator)将在仓库中佩戴耳机并将指令发送回服务器并从仓库软件接收指令以拣选和打包订单。我们将使用由 Wind
我正在探索 python 中的谷歌云语音 api。我正在关注这个 link .我也提到了这个 stackoverflow link .但是我对设置环境变量感到震惊。 我做过的事情: 1.安装gclou
在尝试让 Speech to Text(IBM 语音网关 IVR 应用程序)识别字母数字字符串时,我想知道我是否可以创建一个自定义语法或实体来限制 STT 仅识别单个字母和数字,不包括完全的话。例如,
是否可以将来自Web Speech API的合成语音用作Web Audio API音频上下文中的SourceNode? 最佳答案 实际上,我问过要在Web Speech邮件列表中添加此内容,并且基本上
使用 Microsoft Speech API 转录中/大型音频文件(每个文件约 6-10 分钟)的最佳方法是什么?像批处理音频文件转录这样的东西? 我使用了 https://docs.microso
我的 .wav 文件长度只有 4 秒。即使在多次重试并在云端运行后,我仍然不断收到以下错误 * upload completely sent off: 12 out of 12 bytes
我找到了一些描述如何使用 Google 语音 API 的文章 ( http://mikepultz.com/2011/03/accessing-google-speech-api-chrome-11/
我使用 google 语音转文本 API 从音频中获取字幕,但是当音频太长时,通常超过 60 分钟,重试次数过多会失败。它说:google.api_core.exceptions.GoogleAPIC
我有一些来自 System.Speech.Recognition 的简单代码可以正常工作: using (var recognizer = new SpeechRecognitionEngine(ne
Windows 10。我在“设置”中安装了日语 TTS 语音。现在,当我在 Speech API 5.4 OneCore 中使用语音枚举时(虽然不是在 5.4 中),我得到 6 个语音: 大卫 齐拉
当我提交对太长文本的综合请求时,我收到以下错误: google.api_core.exceptions.ResourceExhausted: 429 Received message larger t
我是 C# 的新手,也是 Speech.Recognition 的新手。我搜索了很长时间的教程,但没有找到那么多,我什至不确定我是否正确包含了所有内容。 我下载了: SDK Runtime Langu
我有一个奇怪的要求,即在我现有的应用程序中我有 Text2Speech 并且为此,我使用了 AVSpeechSynthesizer 来语音文本,但现在要求改变了,现在我需要将 HTML 文件数据转换为
我使用 Google Speech API 通过 Python 识别 .OGG 文件音频中的越南语语音。但它不会返回任何结果。 最佳答案 至少在英文版的Google Speech API中,需要使用F
我想从手机录制音频,然后将其发送到谷歌语音非流媒体 API。我可以使用 Capture.captureAudio() 进行录音,但是我不知道音频编码和采样率是什么,因为它们是必需的 for the a
我使用谷歌云语音到文本 API 将音频转换为文本。 对于 .raw文件它工作正常 但是对于 .wav文件它给了我类似的错误: Google::Gax::RetryError Exception: Ga
.NET 中有两个类似的用于语音识别的命名空间和程序集。我试图了解其中的差异以及何时适合使用其中之一。 程序集 System.Speech(在 System.Speech.dll 中)有 System
通过流式 API (Performing Streaming Speech Recognition on an Audio Stream) 使用 Google Cloud Speech API, 我们
我是一名优秀的程序员,十分优秀!