- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在查看消息应用程序 Signal 的 Android 代码,并尝试查看捕获的图像字节发送到的位置。
public void takePicture(final Rect previewRect) {
if (!camera.isPresent() || camera.get().getParameters() == null) {
Log.w(TAG, "camera not in capture-ready state");
return;
}
camera.get().setOneShotPreviewCallback(new Camera.PreviewCallback() {
@Override
public void onPreviewFrame(byte[] data, final Camera camera) {
final int rotation = getCameraPictureOrientation();
final Size previewSize = camera.getParameters().getPreviewSize();
final Rect croppingRect = getCroppedRect(previewSize, previewRect, rotation);
Log.w(TAG, "previewSize: " + previewSize.width + "x" + previewSize.height);
Log.w(TAG, "data bytes: " + data.length);
Log.w(TAG, "previewFormat: " + camera.getParameters().getPreviewFormat());
Log.w(TAG, "croppingRect: " + croppingRect.toString());
Log.w(TAG, "rotation: " + rotation);
new CaptureTask(previewSize, rotation, croppingRect).executeOnExecutor(AsyncTask.THREAD_POOL_EXECUTOR, data);
}
});
}
它是否被发送到 CaptureTask 构造函数?我对图像写入存储的时间/位置特别感兴趣。这是代码相关部分的链接:CameraView.java
最佳答案
I'm trying to see where the captured image bytes are sent to.
捕获的图像字节是byte[]数据
。 data
被传递给 executeOnExecutor()
。 CaptureTask
是一个AsyncTask
; byte[]
被传递给 doInBackground()
。
关于java - CameraView.takePicture() 将捕获的图像字节发送到哪里?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47873196/
我打算使用 BeyondAR 框架开发一个安卓应用程序。我尝试在屏幕的前半部分使用 CameraView 组件(应用仅在纵向模式下运行),但是当我将相机旋转 90 度时,图像会拉伸(stretch)并
在我的场景中,我试图创建一个自定义CameraView。在这里,捏合放大和缩小不起作用。我该如何解决这个问题? 下面是我的代码: @IBAction func pinchToZoom(_ send
在阅读本教程后,我写了一个小相机应用程序: http://www.brighthub.com/mobile/google-android/articles/43414.aspx 在模拟器中一切正常(好
我正在查看消息应用程序 Signal 的 Android 代码,并尝试查看捕获的图像字节发送到的位置。 public void takePicture(final Rect previewRect
camerax cameraView 和 previewView 有什么区别?因为我找不到关于比较 2 个 View 以预览 camerax 的资源或文章 最佳答案 PreviewView 是一个自定
我尝试开发一个移动纸板应用程序,它将 3d 对象渲染到相机 View 中(某种 ar)。 我使用了这个项目并尝试在相机中渲染一个简单的立方体: https://github.com/Sveder/Ca
本文整理了Java中com.zx.zxutils.views.CameraView.ZXCameraView类的一些代码示例,展示了ZXCameraView类的具体用法。这些代码示例主要来源于Gith
我有一个副项目,其中包含链接下方的此屏幕。重要的是我想在相机 View 中创建这个屏幕,而不是在图片中。 我正在考虑为此与 Metal 打交道。我该如何编写这段代码,任何建议将不胜感激。谢谢。 htt
我需要从屏幕的所需部分捕获图像。从相机 捕捉图像。 当时其他屏幕内容。 这怎么可能? 最佳答案 尝试使用 Surface View 来创建动态 相机 View 并在您需要的部分进行设置。 下面的代码试
我需要捕获图像 从 屏幕的所需部分。 从相机捕获图像。 当时其他屏幕内容。 这怎么可能? 最佳答案 尝试使用 Surface View 来创建动态 相机 View 并设置在您需要的部分。 下面的代码试
目前 Compose 中没有相当于 CameraView(和 PreviewView)的功能。是否可以将其包装并以组合布局显示? 最佳答案 仍然没有可组合的 CameraX。您需要使用 Android
我正在尝试在干净的 Android 应用程序中包含 CameraView 组件(来自 CameraX jetpack),如下所示: https://medium.com/@hitherejoe/exp
我刚刚解决了这个问题。感谢一些出色的帮助让我走上正轨。 这是我现在拥有的代码。 基本上,我现在可以从绘制的叠加层和 cameraPreview 中制作图像。但还不能将它们结合起来。我能找到的有用代码似
我正在尝试运行这个 example of face detection with the firebase MLkit在安卓系统上。我没有使用内置的 CameraView,而是使用库 CameraVi
所以,我目前正在尝试转换使用 CameraView 拍摄的照片使用 OpenCV 转换为灰度。拍照后我用Anko为了异步处理它。处理完成后,我将图像写入 MediaStore。该 Activity 有
我在我的 android 应用程序中使用 opencv 人脸检测。我面临的问题如下。我实现“PictureCallback”的类在“onPictureTaken”中获取 byte[] 数据,但它与我在
我正在尝试按照 this video 中应用的步骤进行操作实现“实时使用 Firebase ML 的 QR 码阅读器”。 在依赖项中添加这一行时, implementation 'com.ot
我是一名优秀的程序员,十分优秀!