- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我一直希望一些代码会出现在 Internet 上,但一无所获 ;)
WebRTC 传入的 I420Frame 对象似乎有 3 个 yuvPlanes 数组
典型的 Android 相机应用获取 PreviewCallback.onPreviewFrame byte[] 作为单个字节数组。
有人可以帮助我如何将 I420Frames yuvPlanes 转换为单个 byte[] 数组,如 PreviewCallback.onPreviewFrame byte[] YCbCr_420_SP (NV21)?
作为引用,VideoStreamsView.java 有这段代码可以渲染到 OpenGL - 但我只是希望它像相机预览一样 ;) 来自:https://code.google.com/p/libjingle/source/browse/trunk/talk/examples/android/src/org/appspot/apprtc/VideoStreamsView.java?r=286
// Upload the YUV planes from |frame| to |textures|.
private void texImage2D(I420Frame frame, int[] textures) {
for (int i = 0; i < 3; ++i) {
ByteBuffer plane = frame.yuvPlanes[i];
GLES20.glActiveTexture(GLES20.GL_TEXTURE0 + i);
GLES20.glBindTexture(GLES20.GL_TEXTURE_2D, textures[i]);
int w = i == 0 ? frame.width : frame.width / 2;
int h = i == 0 ? frame.height : frame.height / 2;
abortUnless(w == frame.yuvStrides[i], frame.yuvStrides[i] + "!=" + w);
GLES20.glTexImage2D(
GLES20.GL_TEXTURE_2D, 0, GLES20.GL_LUMINANCE, w, h, 0,
GLES20.GL_LUMINANCE, GLES20.GL_UNSIGNED_BYTE, plane);
}
checkNoGLES2Error();
}
谢谢。
最佳答案
好的,给你:
// Copy the bytes out of |src| and into |dst|, ignoring and overwriting
// positon & limit in both buffers.
//** copied from org/webrtc/VideoRenderer.java **//
private static void copyPlane(ByteBuffer src, ByteBuffer dst) {
src.position(0).limit(src.capacity());
dst.put(src);
dst.position(0).limit(dst.capacity());
}
public static android.graphics.YuvImage ConvertTo(org.webrtc.VideoRenderer.I420Frame src, int imageFormat) {
switch (imageFormat) {
default:
return null;
case android.graphics.ImageFormat.YV12: {
byte[] bytes = new byte[src.yuvStrides[0]*src.height +
src.yuvStrides[1]*src.height/2 +
src.yuvStrides[2]*src.height/2];
ByteBuffer tmp = ByteBuffer.wrap(bytes, 0, src.yuvStrides[0]*src.height);
copyPlane(src.yuvPlanes[0], tmp);
tmp = ByteBuffer.wrap(bytes, src.yuvStrides[0]*src.height, src.yuvStrides[2]*src.height/2);
copyPlane(src.yuvPlanes[2], tmp);
tmp = ByteBuffer.wrap(bytes, src.yuvStrides[0]*src.height+src.yuvStrides[2]*src.height/2, src.yuvStrides[1]*src.height/2);
copyPlane(src.yuvPlanes[1], tmp);
int[] strides = src.yuvStrides.clone();
return new YuvImage(bytes, imageFormat, src.width, src.height, strides);
}
case android.graphics.ImageFormat.NV21: {
if (src.yuvStrides[0] != src.width)
return convertLineByLine(src);
if (src.yuvStrides[1] != src.width/2)
return convertLineByLine(src);
if (src.yuvStrides[2] != src.width/2)
return convertLineByLine(src);
byte[] bytes = new byte[src.yuvStrides[0]*src.height +
src.yuvStrides[1]*src.height/2 +
src.yuvStrides[2]*src.height/2];
ByteBuffer tmp = ByteBuffer.wrap(bytes, 0, src.width*src.height);
copyPlane(src.yuvPlanes[0], tmp);
byte[] tmparray = new byte[src.width/2*src.height/2];
tmp = ByteBuffer.wrap(tmparray, 0, src.width/2*src.height/2);
copyPlane(src.yuvPlanes[2], tmp);
for (int row=0; row<src.height/2; row++) {
for (int col=0; col<src.width/2; col++) {
bytes[src.width*src.height + row*src.width + col*2] = tmparray[row*src.width/2 + col];
}
}
copyPlane(src.yuvPlanes[1], tmp);
for (int row=0; row<src.height/2; row++) {
for (int col=0; col<src.width/2; col++) {
bytes[src.width*src.height + row*src.width + col*2+1] = tmparray[row*src.width/2 + col];
}
}
return new YuvImage(bytes, imageFormat, src.width, src.height, null);
}
}
}
public static android.graphics.YuvImage convertLineByLine(org.webrtc.VideoRenderer.I420Frame src) {
byte[] bytes = new byte[src.width*src.height*3/2];
int i=0;
for (int row=0; row<src.height; row++) {
for (int col=0; col<src.width; col++) {
bytes[i++] = src.yuvPlanes[0][col+row*src.yuvStrides[0]];
}
}
for (int row=0; row<src.height/2; row++) {
for (int col=0; col<src.width/2; col++) {
bytes[i++] = src.yuvPlanes[2][col+row*src.yuvStrides[2]];
bytes[i++] = src.yuvPlanes[1][col+row*src.yuvStrides[1]];
}
}
return new YuvImage(bytes, android.graphics.ImageFormat.NV21, src.width, src.height, null);
}
}
这会将 I420Frame 转换为 android.graphics.ImageFormat.NV21 的 Android YuvImage ,你可以compressToJpeg() . ImageFormat.YV12 支持似乎在 SDK 中受到限制。注意 Y 和 V 必须打乱。
为简洁起见,跳过了大多数错误检查。
关于Android org.webrtc.VideoRenderer.I420Frame 数组到 PreviewCallback.onPreviewFrame byte[],我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20803423/
我对 Android 4.0.x 的预览回调有疑问。我设置了一个摄像头,创建了一个表面以在 previewCallback 事件上显示摄像头图像。一切正常。 但在 Android 4.0.x 中,on
我想对来自相机的图像进行一些图像处理并将其显示在 SurfaceView 上,但我不知道如何修改相机框架。我尝试使用 setPreviewCallbackWithBuffer 和 onPreviewF
对于 Android 项目,我必须实时分析相机帧。现在我使用“android.hardware.Camera.PreviewCallback”来接收相机帧。问题是,当我尝试分析帧时,我的 FPS 从
我正在尝试获取相机预览数据,但我不想显示预览。不幸的是 setPreviewCallback( PreviewCallback ) 不工作,除非你打电话 setPreviewDisplay(Surfa
所以我已经阅读了相机 API,但在这方面找不到任何东西。我正在使用相机来抓取帧并且它工作得很好,直到我尝试释放相机。我在一系列调用中复制了错误: camera = Camera.open(); cam
我经历了http://developer.android.com/guide/topics/media/camera.html#custom-camera我尝试添加一个 Camera.PreviewC
我一直在扩充 QR 扫描库 Zxing,以便在扫描时立即保存照片。我被建议在 PreviewCallback.java 的 onPreviewFrame 方法中这样做: public void on
我有一个应用程序可以获取带有表面的相机预览帧。它在 Android 4.0.4 上运行,但在更新后无法在同一设备上与 Jelly Bean 4.1.2 一起运行。简单地说,回调永远不会被回调。这是代码
我目前正在做我的最后一年项目,该项目正在构建一个 Android 相机应用程序。 我对相机接口(interface)感到困惑:PictureCallback、ShutterCallback 和 Pre
API 21 中的 Camera2 中的 Camera.PreviewCallback 是否有任何等效项,比映射到 SurfaceTexture 并拉取 Bitmap 更好?我需要能够将预览数据从相机
我正在开发一个需要使用相机输入和实时结果显示进行大量图像处理的应用程序。我决定使用 OpenGL 和 OpenCV 以及 Android 的普通相机 API。到目前为止,它已经变成了一场多线程噩梦,不
我一直希望一些代码会出现在 Internet 上,但一无所获 ;) WebRTC 传入的 I420Frame 对象似乎有 3 个 yuvPlanes 数组 典型的 Android 相机应用获取 Pre
我是一名优秀的程序员,十分优秀!