- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试将一部 iPhone 上的实时视频缓冲区传输到另一部 iPhone(称为客户端 iPhone)以进行预览显示,并接受来自客户端 iPhone 的命令。我正在考虑实现这一目标的标准方法。我找到的最接近的东西是 Github 上的 AVCaptureMultipeerVideoDataOutput
.
然而,它仍然使用 Multipeer 连接框架,我认为它仍然需要在两部 iPhone 上进行一些设置。我想要的是理想情况下两部 iPhone 都不需要设置,只要两部 iPhone 都启用了 Wifi(或者如果可能的话,蓝牙),对等点应该在应用程序中相互识别并提示用户发现设备。实现此目的的标准方法是什么以及示例代码的任何链接?
编辑:我从头开始编写代码后通过 Multipeer 连接让它工作。截至目前,我通过将数据缩小和压缩为 jpeg 将像素缓冲区发送到对等设备。在远程设备上,我设置了 UIImage,我在其中每帧显示一次数据。但是我认为 UIKit 可能不是显示数据的最佳方式,即使图像很小。如何使用 OpenGLES 显示这些数据?在 Opengles 中可以直接解码 jpeg 吗?
最佳答案
评论:
As of now, I am sending the pixel buffers to peer device by downscaling & compressing the data as jpeg. On the remote device, I have UIImage setup where I display the data every frame time. However I think UIKit may not be the best way to display data, even though images are small.
事实证明,这是通过 Multipeer Connectivity 框架传输图像的最佳方式。我已经尝试了所有替代方案:
让我为#2 提供一些代码:
在传输图像数据的iOS设备上:
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
CVPixelBufferLockBaseAddress(imageBuffer,0);
__block uint8_t *baseAddress = (uint8_t *)CVPixelBufferGetBaseAddress(imageBuffer);
dispatch_async(self.compressionQueue, ^{
uint8_t *compressed = malloc(sizeof(uint8_t) * 1228808);
size_t compressedSize = compression_encode_buffer(compressed, 1228808, baseAddress, 1228808, NULL, COMPRESSION_ZLIB);
NSData *data = [NSData dataWithBytes:compressed length:compressedSize];
NSLog(@"Sending size: %lu", [data length]);
dispatch_async(dispatch_get_main_queue(), ^{
__autoreleasing NSError *err;
[((ViewController *)self.parentViewController).session sendData:data toPeers:((ViewController *)self.parentViewController).session.connectedPeers withMode:MCSessionSendDataReliable error:&err];
});
});
CVPixelBufferUnlockBaseAddress(imageBuffer, 0);
}
在显示图像数据的 iOS 设备上:
typedef struct {
size_t length;
void *data;
} ImageCacheDataStruct;
- (void)session:(nonnull MCSession *)session didReceiveData:(nonnull NSData *)data fromPeer:(nonnull MCPeerID *)peerID
{
NSLog(@"Receiving size: %lu", [data length]);
uint8_t *original = malloc(sizeof(uint8_t) * 1228808);
size_t originalSize = compression_decode_buffer(original, 1228808, [data bytes], [data length], NULL, COMPRESSION_ZLIB);
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef newContext = CGBitmapContextCreate(original, 640, 480, 8, 2560, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
CGImageRef newImage = CGBitmapContextCreateImage(newContext);
UIImage *image = [[UIImage alloc] initWithCGImage:newImage scale:1 orientation:UIImageOrientationUp];
CGContextRelease(newContext);
CGColorSpaceRelease(colorSpace);
CGImageRelease(newImage);
if (image) {
dispatch_async(dispatch_get_main_queue(), ^{
[((ViewerViewController *)self.childViewControllers.lastObject).view.layer setContents:(__bridge id)image.CGImage];
});
}
}
虽然此代码在接收端生成原始质量的图像,但您会发现这对于实时播放来说太慢了。
最好的方法是:
在发送图像数据的 iOS 设备上:
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
CVPixelBufferLockBaseAddress(imageBuffer,0);
uint8_t *baseAddress = (uint8_t *)CVPixelBufferGetBaseAddress(imageBuffer);
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef newContext = CGBitmapContextCreate(baseAddress, width, height, 8, bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
CGImageRef newImage = CGBitmapContextCreateImage(newContext);
UIImage *image = [[UIImage alloc] initWithCGImage:newImage scale:1 orientation:UIImageOrientationUp];
CGImageRelease(newImage);
CGContextRelease(newContext);
CGColorSpaceRelease(colorSpace);
CVPixelBufferUnlockBaseAddress(imageBuffer, 0);
if (image) {
NSData *data = UIImageJPEGRepresentation(image, 0.7);
NSError *err;
[((ViewController *)self.parentViewController).session sendData:data toPeers:((ViewController *)self.parentViewController).session.connectedPeers withMode:MCSessionSendDataReliable error:&err];
}
}
在接收图像数据的iOS设备上:
- (void)session:(nonnull MCSession *)session didReceiveData:(nonnull NSData *)data fromPeer:(nonnull MCPeerID *)peerID
{
dispatch_async(self.imageCacheDataQueue, ^{
dispatch_semaphore_wait(self.semaphore, DISPATCH_TIME_FOREVER);
const void *dataBuffer = [data bytes];
size_t dataLength = [data length];
ImageCacheDataStruct *imageCacheDataStruct = calloc(1, sizeof(imageCacheDataStruct));
imageCacheDataStruct->data = (void*)dataBuffer;
imageCacheDataStruct->length = dataLength;
__block const void * kMyKey;
dispatch_queue_set_specific(self.imageDisplayQueue, &kMyKey, (void *)imageCacheDataStruct, NULL);
dispatch_sync(self.imageDisplayQueue, ^{
ImageCacheDataStruct *imageCacheDataStruct = calloc(1, sizeof(imageCacheDataStruct));
imageCacheDataStruct = dispatch_queue_get_specific(self.imageDisplayQueue, &kMyKey);
const void *dataBytes = imageCacheDataStruct->data;
size_t length = imageCacheDataStruct->length;
NSData *imageData = [NSData dataWithBytes:dataBytes length:length];
UIImage *image = [UIImage imageWithData:imageData];
if (image) {
dispatch_async(dispatch_get_main_queue(), ^{
[((ViewerViewController *)self.childViewControllers.lastObject).view.layer setContents:(__bridge id)image.CGImage];
dispatch_semaphore_signal(self.semaphore);
});
}
});
});
}
信号量和单独的 GCD 队列的原因很简单:您希望帧以相等的时间间隔显示。否则,视频起初似乎有时会放慢速度,然后为了 catch 速度而加快速度超过正常速度。我的方案确保每一帧都以相同的速度一个接一个地播放,而不管网络带宽瓶颈。
关于ios - iOS 中的点对点视频,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41562766/
我正在尝试实现这个协议(protocol):http://en.wikipedia.org/wiki/Chord_(peer-to-peer ) 我从中了解到的是,加入“圆圈”的每个节点都放置在圆圈内
我对 java 中的 cometd 很陌生。 我对 java 中的 cometd 更感兴趣,但是当我用 google 搜索它时,我几乎找不到一个链接这是 cometd 链接,文档中不清楚。 有人可以发
什么是编写 XNA 点对点游戏的最佳方式而不必使用要求游戏的两个玩家都具有 XBOX Gold 成员(member)资格的 Windows Live 东西 我还需要一些客户端/服务器功能,但这还不是很
按照目前的情况,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the
假设我有 2 部手机,彼此相距 50 米,我想从手机 A 向手机 B 发送一个非常小的数据包,而不使用与蜂窝塔的任何通信。 为了简单起见,我想构建一个应用程序,为同一半径(同一区域)的 2 部手机实现
我听说过点对点内存传输并阅读了一些关于它的内容,但无法真正理解与标准 PCI-E 总线传输相比它的速度有多快。 我有一个使用多个 GPU 的 CUDA 应用程序,我可能对 P2P 传输感兴趣。我的问题
我从Android website中发现了这一点他们告诉我当前的 API使开发人员能够为 Wifi 点对点进行一些编程仅适用于 Android 4.0(API 级别 14)。 这是真的吗?我的意思是我
我正在为网页编写一个简单的 javascript 游戏。我将使用 tidesdk 将其转换为桌面。我想让不同机器上的玩家无需通过服务器进行通信。 一般来说这可能吗?这是套接字??您是否有使用 Java
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭 7 年前。 Improve this q
我想在我的 iPhone 应用程序中加入 Paypal 作为点对点选项来回馈 friend 。然而,当我在网上搜索 Paypal iOS 时,它说我现在应该使用 Braintree。 它非常易于使用并
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭 4 年前。 Improve this qu
我正在寻找一种使用 p2p 将客户端(网络浏览器)连接到服务器(没有外部 IP)的方法。 作为客户端语言,我想使用 javascript。 我正在阅读有关 WebRTC 点对点的信息,但我不知道它是否
我在 .NET 3.5 中使用 WCF 来实现对等网络应用程序。我使用 PNRP 解析对等节点。 IGlobalStoreServiceContract 是我的契约(Contract),如下所示, [
按照目前的情况,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visit the
是否有任何已知的方法可以在不使用专用中央服务器的情况下找到对等点? 即:如果我有对等方断开并重新连接到互联网但每次都获得一个新的 IP 地址,并且我想连接到他们而不设置专用服务器进行注册。 我正在考虑
我正在尝试将 Paypal 的自适应支付 API 集成到我的应用程序中,将只使用点对点交易,但我无法做任何与点对点支付相关的事情。我尝试使用这个工具 from Paypal 但我仍然没有取得任何成功。
我正在编写用于交换文本消息的点对点(它不应该有服务器 - 这是一项任务)程序。这是一个非常小的聊天。只是消息,没有别的。这是我第一次练习 Boost::Asio,因此我有一些问题。 正如我所说,我的聊
很难说出这里问的是什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或言辞激烈,无法以目前的形式合理回答。如需帮助澄清此问题以便可以重新打开,visit the help center . 9年前关闭
我想使用 Python 和 Ubuntu 在两台计算机之间双向传输音频,最好使用 H.323 我看过 pjsip,但只能看到一种连接到 SIP 服务器的方式,而不是简单的点对点系统。 谁能指出我正确的
我有两个使用 vert.x EventBus 进行通信的 Java 类。 我有一个 Productor.java 类: package TP1; import io.vertx.core.Abstra
我是一名优秀的程序员,十分优秀!