- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我已经用谷歌搜索/StackOverflowing 好几天了,但无法弄明白。
我有一个 WPF 项目,我想在其中使用单独的音频系统同时在多个屏幕上播放视频。对于播放视频,我们使用 WPFMediaKit ,它依赖于 DirectShow Lib .NET .对于其他系统,我们想使用更现代的东西,例如通过 NAudio 提供的 Core Audio API。 .我们控制环境,只需要支持 Windows 7(将来可能会迁移到 8)。
WPFMediaKit 的 MediaUriElement
允许您设置它的 AudioRenderer
但由于 DirectSound 施加的 31 个字符限制,它会出现问题?我不完全确定限制从何而来,但这是一个问题,因为我们所有的音频设备都有非常相似的名称(很可能在 31 个字符的空间内不会是唯一的)。因此,计划是修改源并允许它接收表示 DirectSound 设备的 GUID 并更改其行为以通过它查找它。向用户显示音频设备端点列表的代码将依赖于核心音频 API 中的 NAudio 的 MMDeviceEnumerator
。
我已经走到这一步了:
private static void DemonstrateTheIssue() {
SpeechSynthesizer speech = new SpeechSynthesizer();
MemoryStream stream = new MemoryStream();
SpeechAudioFormatInfo synthFormat = new SpeechAudioFormatInfo(EncodingFormat.Pcm, 88200, 16, 1, 16000, 2, null);
speech.SetOutputToAudioStream(stream, synthFormat);
speech.Speak("This is a test. This is only a test.");
stream.Position = 0;
RawSourceWaveStream reader = new RawSourceWaveStream(stream, new WaveFormat());
MMDeviceEnumerator coreAudioDeviceEnumerator = new MMDeviceEnumerator();
MMDeviceCollection coreAudioAudioEndPoints = coreAudioDeviceEnumerator.EnumerateAudioEndPoints(DataFlow.Render, DeviceState.Active);
MMDevice coreAudioSpdif = coreAudioAudioEndPoints.First(ep => ep.FriendlyName.Contains("S/PDIF")); // just an example. In the real application, would be selected by user and the GUID would be stored instead of the FriendlyName
string spdifGuidValue = coreAudioSpdif.Properties[PropertyKeys.PKEY_AudioEndpoint_GUID].Value as string;
Guid spdifGuid = Guid.Parse(spdifGuidValue);
DirectSoundOut directSoundSpdif = new DirectSoundOut(spdifGuid);
directSoundSpdif.Init(reader);
directSoundSpdif.Play();
}
此代码有效。当我检查 NAudio 的 DirectSoundOut
源时,我可以看到它从 dsound.dll
调用 DirectSoundOut.DirectSoundCreate
,它初始化一个 IDirectSound
实例。我不完全确定我能用那个实例做什么。那么,回到这个谜题的另一面......
让我们看看当我给它一个 "Digital Audio (S/PDIF) (High De")
的 AudioRenderer
时 WPFMediaKit 做了什么。通过挖掘源代码,我最终遇到 AddFilterByName(IGraphBuilder graphBuilder, Guid deviceCategory, string friendlyName)
最终调用 AddFilterByDevice(IGraphBuilder graphBuilder, DsDevice device)
。好的,所以它使用了自己的包装类,DsDevice
... 它包装了 IMoniker
和其他一些东西,包括附加到 IMoniker
的 IPropertyBag
中的一些属性实例。在我的踪迹消失在 COM 中之前,我看到的最后一行 C# 代码调用了这个:filterGraph.AddSourceFilterForMoniker(device.Mon, null, device.Name, out filter)
。filterGraph
是一个 IFilterGraph2
实例,device.Name
从名字对象的属性包中返回 "FriendlyName"
。
我觉得我很接近,但我就是无法将这些点联系起来。我如何获取一个 IDirectSound
实例并告诉 filterGraph
在其上播放音频?我需要为 IDirectSound
取一个名字吗?如果是这样,如何?还有其他我不知道的方法吗?或者...我可以创建/编写/获取对我自己的过滤器的引用并将其告知 filterGraph
吗?如果是这样,我该怎么做?
请像我还是个 child 一样回答这个问题——这些东西真的让我难以理解。
最佳答案
DirectSound 和 DirectShow 是两个不同的 API。没有直接将 DirectSound 对象添加到 DirectShow 过滤器图中,因此您无法做到不可能。
有两种方法可以解决这个问题:您要么坚持您已经拥有一个IDirectSound
接口(interface)指针,要么您想要在DirectShow 中使用它。在这种情况下,您必须实现一个自定义音频渲染器过滤器,它将由这个 DirectSound 接口(interface)支持,并且您的渲染器会将所有音频转发到您感兴趣的设备。你真的不想走这条路。特别是,您将无法仅在 C# 中实现它。
第二种方法是找到一个现有的 DirectShow 音频渲染器,它正在使用您感兴趣的设备。然后使用它,它将通过相同的 DirectSound 设备播放,只是与您最初手上的指针不同。
关于第二种方法的更多细节。 DirectShow 有一个特殊类别,其中列出了所有音频渲染器:CLSID_AudioRendererCategory
.在那里枚举过滤器,你枚举 DirectSound Renderer Filter
的实例为每个现有设备创建。
This filter acts as a wrapper for an audio device. To enumerate the audio devices available on the user's system, use the ICreateDevEnum interface with the audio renderer category (CLSID_AudioRendererCategory). For each audio device, the audio renderer category contains two filter instances. One of these corresponds to the DirectSound Renderer, and the other corresponds to the Audio Renderer (WaveOut) filter. The DirectSound instance has the friendly name "DirectSound: DeviceName," where DeviceName is the name of the device. The WaveOut instance has the friendly name DeviceName.
您可以在那里找到合适的设备,然后您可以将此过滤器用作常规音频渲染器(也就是说,您将它添加到您的图形中,在那里连接它)。但是,过滤器不会公开它在内部使用的 IDirectSound
指针。
关于c# - 如何将直接声音添加到 FilterGraph 2?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20554182/
编辑:最初的问题是在调用我的自定义过滤器时过滤器图停止了。我们通过在交付方法中设置样本的时间属性来解决这个问题。 我简化了图表 这适用于将视频从网络摄像头录制到文件中。 但是,如果我将过滤器放在两者之
这是导致永无止境转码的最小示例: ffmpeg -y -filter_complex movie=filename='./frames/image0.png':loop=0,trim=duration
我已经用谷歌搜索/StackOverflowing 好几天了,但无法弄明白。 我有一个 WPF 项目,我想在其中使用单独的音频系统同时在多个屏幕上播放视频。对于播放视频,我们使用 WPFMediaKi
我有一个基本的 directshow 图: Video Capture Source: SMI Grabber Dev (4ch usb dvr) > video Renderer 当我启动 Grap
我关注页面Create a mosaic out of several input videos合并视频。 当我使用 http://*.flv 视频作为输入时,它工作正常。 但是当我使用 rtmp:/
我正在用 C# 开发一个应用程序,我正在使用 DirectShow.NET 库来呈现具有多个音轨的 .AVI 文件 如何在多个音轨之间切换?我正在使用 RenderFile 构建我的过滤器图,而不是手
我正在尝试找出为什么会收到错误消息 Invalid file index 3 in filtergraph description从以下命令(忽略我为可读性而输入的换行符): ffmpeg -y -p
我正致力于在 C# dll 中实现 directshow 功能。我的工作基于 Microsoft 随 Windows Mobile 6 sdk 提供的基于 C++ 的“CameraCapture”示例
我正在开发一个严重依赖 FFMpeg 对音频文件执行各种转换的应用程序。我目前正在命令行上测试我的 FFMpeg 配置。 我正在尝试连接多个不同格式的音频文件(主要是 MP3、MP2 和 WAV)。我
我正在尝试将任意数量的视频与它们上面的一系列水印连接起来: ffmpeg -i segment0.mp4 -i segment1.mp4 -i ... segmentn.mp4 -i end.mp4
我正在使用的命令如下,使用该命令我得到 8 channel output.wav。 ffmpeg.exe -i one.wav -i two.wav -i three.wav -i four.w
我不明白为什么这不起作用..我试图获取带有 [0:v]/[0:1]/[0:v:0] 的视频流和带有 [0:a] 的音频流/[0:0]/[0:0:0]。 没有任何效果。 解释输入: 第 1.1 个输入流
我不明白为什么这不起作用..我试图获取带有 [0:v]/[0:1]/[0:v:0] 的视频流和带有 [0:a] 的音频流/[0:0]/[0:0:0]。 没有任何效果。 解释输入: 第 1.1 个输入流
我正在尝试将 django 中的两个音频文件与 连接起来ffmpeg 但收到此错误 filtergraph 描述 [0][1]concat=a=1:n=1:v=1[s0] 中的流说明符 '' 不匹配
我是一名优秀的程序员,十分优秀!