- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我们的项目使用 WebRTC 进行 VOIP 调用,在访问 CallKit 框架之前它工作正常。但是当我尝试访问CallKit框架时,出现了双方都听不到对方讲话的情况。当我删除 CallKit 时,一切恢复正常。
CallKit的接听按钮与项目中原有的接听按钮功能相同。
令我惊讶的是,没有必要听不到任何声音。有时一切正常,但有时会出现问题。嗯,出问题的概率比较大。
我找到了下面的流程图,我怀疑问题出在函数调用的顺序上。但是不知道WebRTC是怎么对应图中的功能的。
另外我很好奇socket不稳定会不会导致CallKit框架工作不正常
请原谅我英文不好,但是这个问题困扰了我好几天了,我也不知道到底是哪里出了问题,是不是哪里和CallKit框架冲突了?
希望您能帮帮我,非常感谢!
最佳答案
以正确的方式连接 webrtc 和 callkit 需要完成几个步骤:首先,您必须使用 RTCAudioTrack 并添加 RTCAudioSession 来处理音频。直接添加到 RTCPeerConnection 中的旧遗留 RTCAudioSession 可以工作,但它不是首选的方法。第二件事是使用 manualAudio。当应用程序启动时,您应该更改 RTCAudioSession 上的 useManualAudio 标志:
RTCAudioSession.sharedSession().useManualAudio = true
这让您可以推迟音频直到 CallKit 通知 Audio Session 已激活,因此在 ProviderDelegate 中您应该实现以下方法:
(void)provider:(CXProvider *)provider didActivateAudioSession:(AVAudioSession *)audioSession
RTCAudioSession.sharedSession().didActivecated(audioSession)
RTCAudioSession.sharedSession().isAudioEnabled = true
第二个音频委托(delegate)方法不要忘记添加:
(void)provider:(CXProvider *)provider didDeactivateAudioSession:(AVAudioSession *)audioSession
RTCAudioSession.sharedSession().didDeactivecated(audioSession)
RTCAudioSession.sharedSession().isAudioEnabled = false
关于ios - CallKit: 使用 WebRTC 时没有声音,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48070163/
是WebRTC Web 开发人员可以免费在网页上设置视频通话吗?为什么 Twilio 的视频通话定价为每分钟 25 美分,在网络托管服务器上管理视频通话对小家伙来说会不会太贵了? 任何深入 WebRT
webRTC 是根据 https://apprtc.appspot.com/ 实现的 PeerConnection webRTC 如何实现远程音视频流的同步? 最佳答案 使用 RTCP SR/RR 报
我正在尝试使用 webRTC,似乎对每条消息中可以发送的字节数有任意限制。 This guy我使用的示例选择了 100(加上一些)字节的限制。在我的测试中,它似乎接近 200 字节。但是从阅读 TCP
我目前正在测试 WebRTC 的功能,但我有一些脑逻辑问题。 WebRTC 究竟是什么? 我只读了“STUN”、“P2P”和其他...但是在技术方面什么是正确的 WebRTC(见下一个) 我需要什么
我目前正在使用 opentok 构建实时视频聊天医疗保健应用程序api,其技术主要建立在 WebRTC 上,并想知道如何处理整体安全方面。 最佳答案 简而言之,是的。所有 WebRTC 媒体流都经过加
WebRTC Reference App --> var errorMessages = []; var channelToken = 'AHRlWroGHj6YqW
我对浏览器中的点对点连接感兴趣。由于这对于 WebRTC 来说似乎是可能的,我想知道它是如何精确工作的。 我已经阅读了一些解释并看到了相关图表,现在我很清楚,连接建立是通过服务器进行的。服务器似乎在愿
我是 WebRTC 的初学者,我想知道是否需要导入任何内容才能使用 JavaScript API。 最佳答案 不,您不需要导入任何库。 webRTC 包含在 Chrome 和 Firefox 中(以及
我正在使用 WebRTC 来开发我的应用程序之一。 WebRTC 是否原生支持视频数据包的自适应比特率流,目前尚不清楚? VP8/VP9 是否支持自适应比特率编码? bitrate_controlle
是否可以通过 webRTC 捕获桌面屏幕共享。我们知道它只是捕获浏览器选项卡上的屏幕,但是否可以捕获整个桌面屏幕,例如浏览计算机上的文件或打开和查看文件,例如pdf等.. 最佳答案 目前,RTCWeb
我可以有两个单独的服务器用于托管和发送信号吗?还是仅在托管服务器中配置信令服务器更好? 最佳答案 托管 webrtc 信令服务器没有具体限制。如果需要,您可以将信令服务器与 Web 应用程序服务器分开
我想知道 WebRTC api 是否会自动更改带宽以增加体验。据我所知,WebRTC 具有更改和限制最大值的功能。带宽如我们所愿。我寻求答案的问题是我们应该手动执行此操作还是 WebRTC 无论如何都
如果在本地网络中的两个对等方之间建立了 WebRTC 连接,我们可以在失去与互联网的连接后维持它吗?这似乎是可能的,因为它是点对点的。 最佳答案 是的,有可能。对等方使用同一网络中的专用 IP 地址直
我正在尝试创建一个应用程序,该应用程序要求用户使用 webRTC 将其本地视频流发送到多个对等方。据我所知,我负责管理多个 PeerConnection 对象,因为 PeerConnection 一次
我想创建自己的视频聊天应用程序。我使用 WebRTC 框架。我阅读了一些教程,每个主题都假定存在信令 channel 。如何实现自己的信令 channel ? 最佳答案 由于目前没有为 WebRTC
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 6年前关闭。 Improve this qu
假设我有 2 个同行与 webRTC 交换视频。现在我需要将两个流都保存为中央服务器中的视频文件。是否可以实时进行? (存储/上传来自同行的视频不是一种选择)。 我想建立一个 3 节点 webRTC
WebRTC 信号让我发疯。我的用例非常简单:信息亭和控制室 webapp 之间的双向音频对讲。两台计算机都在同一个网络上。两者都没有互联网访问权限,所有机器都有已知的静态 IP。 我阅读的所有内容都
我知道我可以将宽度和高度设置为本地视频的约束。但是,我不确定如何通过 RTCPeerConnection 获取远程视频的宽度和高度。我用谷歌搜索了很多,但似乎没有得到任何有用的信息。我认为这应该是一个
我是 WebRTC 的新手,并试图弄清楚如何在浏览器之外创建一个程序,该程序接收 WebRTC 音频流并将其输出到扬声器上。 是否有适用于 Java 或 C# 的 WebRTC 库? 该接收器将在 l
我是一名优秀的程序员,十分优秀!