- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我想创建一个应用程序,它必须录制视频(使用媒体录像机)并且录制的视频需要格式化(使用相机)。
我创建了如下所示的示例代码,但是当从菜单中按下开始录制按钮时显示错误。显示强制关闭错误。但是 previewcallback 没有错误。我的代码如下所示
package buffer.video;
import android.app.Activity;
import android.os.Bundle;
import java.io.IOException;
import android.app.Activity;
import android.hardware.Camera;
import android.hardware.Camera.PreviewCallback;
import android.media.MediaRecorder;
import android.os.Bundle;
import android.util.Log;
import android.view.Menu;
import android.view.MenuInflater;
import android.view.MenuItem;
import android.view.SurfaceHolder;
import android.view.SurfaceView;
import android.widget.Toast;
public class VofoVideoToBufferActivity extends Activity implements SurfaceHolder.Callback,
Camera.AutoFocusCallback {
private SurfaceView preview;
private SurfaceHolder previewHolder;
private MediaRecorder mRecorder;
private Camera mCamera;
private boolean mPreviewRunning = false;
private boolean mCaptureFrame = false;
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
Log.e("", "Begin onCreate");
setContentView(R.layout.main);
preview = (SurfaceView) findViewById(R.id.surfaceView1);
previewHolder = preview.getHolder();
previewHolder.addCallback(this);
previewHolder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);
}
public void onResume() {
super.onResume();
}
public void onPause() {
super.onPause();
}
public boolean onCreateOptionsMenu(Menu menu) {
MenuInflater inflater = getMenuInflater();
inflater.inflate(R.menu.menu, menu);
return true;
}
public void startRecording() {
Log.e("", "Begin StartRecording");
mCaptureFrame = true;
if(mRecorder!=null)
{
mRecorder.stop();
mRecorder.release();
}
mRecorder = new MediaRecorder();
mRecorder.setVideoSource(MediaRecorder.VideoSource.CAMERA);
mRecorder.setAudioSource(MediaRecorder.AudioSource.MIC);
mRecorder.setOutputFormat(MediaRecorder.OutputFormat.THREE_GPP);
mRecorder.setVideoSize(176, 144);
mRecorder.setVideoFrameRate(15);
mRecorder.setVideoEncoder(MediaRecorder.VideoEncoder.H263);
mRecorder.setAudioEncoder(MediaRecorder.AudioEncoder.AMR_NB);
mRecorder.setMaxDuration(30000);
mRecorder.setPreviewDisplay(previewHolder.getSurface());
mRecorder.setOutputFile("/sdcard/videotest2.3gp");
try {
mRecorder.prepare();
} catch (IllegalStateException e) {
e.printStackTrace();
} catch (IOException e) {
e.printStackTrace();
}
mRecorder.start();
}
public void stopRecording() {
Log.e("", "Begin StopChange");
mRecorder.stop();
}
public boolean onOptionsItemSelected(MenuItem item) {
switch (item.getItemId()) {
case R.id.startRecording:
startRecording();
return true;
case R.id.stopRecording:
stopRecording();
return true;
default:
return super.onOptionsItemSelected(item);
}
}
public void surfaceCreated(SurfaceHolder holder) {
Log.e("", "Begin surfaceDestroy");
mCamera = Camera.open();
}
public void surfaceDestroyed(SurfaceHolder holder) {
mCamera.stopPreview();
mPreviewRunning = false;
mCamera.release();
mRecorder.reset();
mRecorder.release();
}
public void onAutoFocus(boolean success, Camera camera) {
}
PreviewCallback previewCallback = new PreviewCallback() {
public void onPreviewFrame(byte[] data, Camera camera) {
Log.e("", "onPreviewFrame pass");
if (mCaptureFrame) {
Toast.makeText(getParent(),"halooo",Toast.LENGTH_LONG).show();
}
}
};
public void surfaceChanged(SurfaceHolder holder, int format, int width,
int height) {
Log.e("", "Begin SurfaceChange");
if (mPreviewRunning)
mCamera.stopPreview();
Camera.Parameters p = mCamera.getParameters();
p.setPreviewSize(170,240);
mCamera.setParameters(p);
try {
mCamera.setPreviewDisplay(holder);
} catch (IOException e) {
e.printStackTrace();
}
mCamera.setPreviewCallback(previewCallback);
mCamera.startPreview();
mPreviewRunning = true;
}
}
list 文件如下所示
<?xml version="1.0" encoding="utf-8"?>
<manifest xmlns:android="http://schemas.android.com/apk/res/android"
package="vofo.streaming"
android:versionCode="1"
android:versionName="1.0">
<uses-sdk android:minSdkVersion="8" />
<uses-permission android:name="android.permission.RECORD_AUDIO"></uses-permission>
<uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE"></uses-permission>
<uses-permission android:name="android.permission.CAMERA"></uses-permission>
<uses-permission android:name="android.permission.INTERNET"></uses-permission>
<application android:icon="@drawable/icon" android:label="@string/app_name">
<activity android:name=".MainActivity"
android:label="@string/app_name">
<intent-filter>
<action android:name="android.intent.action.MAIN" />
<category android:name="android.intent.category.LAUNCHER" />
</intent-filter>
</activity>
</application>
</manifest>
Logcat View 如下所示。只复制了 Logcat 的最后一部分。
07-19 12:42:42.229: DEBUG/dalvikvm(8599): GC_FOR_MALLOC freed 7 objects / 408168 bytes in 236ms
07-19 12:42:42.259: ERROR/(8599): onPreviewFrame pass
07-19 12:42:42.339: ERROR/(8599): onPreviewFrame pass
07-19 12:42:42.469: ERROR/(8599): onPreviewFrame pass
07-19 12:42:42.589: ERROR/(8599): onPreviewFrame pass
07-19 12:42:42.709: ERROR/(8599): onPreviewFrame pass
07-19 12:42:43.089: DEBUG/dalvikvm(8599): GC_FOR_MALLOC freed 7 objects / 408168 bytes in 258ms
07-19 12:42:43.099: ERROR/(8599): onPreviewFrame pass
07-19 12:42:43.169: ERROR/(8599): onPreviewFrame pass
07-19 12:42:43.289: ERROR/(8599): onPreviewFrame pass
07-19 12:42:43.419: ERROR/(8599): onPreviewFrame pass
07-19 12:42:43.439: INFO/ActivityManager(67): Starting activity: Intent { act=android.intent.action.MAIN cat=[android.intent.category.LAUNCHER] flg=0x10000000 cmp=vofo.streaming/.MainActivity }
07-19 12:42:43.629: DEBUG/AndroidRuntime(8802): Shutting down VM
07-19 12:42:43.679: DEBUG/dalvikvm(8802): Debugger has detached; object registry had 1 entries
07-19 12:42:43.809: INFO/AndroidRuntime(8802): NOTE: attach of thread 'Binder Thread #3' failed
07-19 12:42:43.841: INFO/ActivityManager(67): Start proc vofo.streaming for activity vofo.streaming/.MainActivity: pid=8811 uid=10036 gids={1015, 1006, 3003}
07-19 12:42:43.850: ERROR/(8599): onPreviewFrame pass
07-19 12:42:44.479: DEBUG/dalvikvm(8599): GC_FOR_MALLOC freed 15 objects / 408680 bytes in 566ms
07-19 12:42:44.499: ERROR/(8599): onPreviewFrame pass
07-19 12:42:44.589: ERROR/(8599): onPreviewFrame pass
07-19 12:42:44.719: ERROR/(8599): onPreviewFrame pass
07-19 12:42:44.859: ERROR/(8599): onPreviewFrame pass
07-19 12:42:45.859: VERBOSE/RecordVideo(8811): Width x Height = 176x144
07-19 12:42:45.949: INFO/ActivityManager(67): Displayed activity vofo.streaming/.MainActivity: 2317 ms (total 2317 ms)
07-19 12:42:46.599: DEBUG/AndroidRuntime(8599): Shutting down VM
07-19 12:42:46.599: WARN/dalvikvm(8599): threadid=1: thread exiting with uncaught exception (group=0x4001d800)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): FATAL EXCEPTION: main
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): java.lang.NullPointerException
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at buffer.video.VofoVideoToBufferActivity.surfaceDestroyed(VofoVideoToBufferActivity.java:128)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.SurfaceView.reportSurfaceDestroyed(SurfaceView.java:568)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.SurfaceView.updateWindow(SurfaceView.java:472)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.SurfaceView.onWindowVisibilityChanged(SurfaceView.java:206)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.View.dispatchWindowVisibilityChanged(View.java:3891)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.ViewGroup.dispatchWindowVisibilityChanged(ViewGroup.java:719)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.ViewGroup.dispatchWindowVisibilityChanged(ViewGroup.java:719)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.ViewGroup.dispatchWindowVisibilityChanged(ViewGroup.java:719)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.ViewGroup.dispatchWindowVisibilityChanged(ViewGroup.java:719)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.ViewRoot.performTraversals(ViewRoot.java:744)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.view.ViewRoot.handleMessage(ViewRoot.java:1727)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.os.Handler.dispatchMessage(Handler.java:99)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.os.Looper.loop(Looper.java:123)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at android.app.ActivityThread.main(ActivityThread.java:4627)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at java.lang.reflect.Method.invokeNative(Native Method)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at java.lang.reflect.Method.invoke(Method.java:521)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at com.android.internal.os.ZygoteInit$MethodAndArgsCaller.run(ZygoteInit.java:868)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at com.android.internal.os.ZygoteInit.main(ZygoteInit.java:626)
07-19 12:42:46.669: ERROR/AndroidRuntime(8599): at dalvik.system.NativeStart.main(Native Method)
07-19 12:42:48.049: DEBUG/dalvikvm(181): GC_EXPLICIT freed 191 objects / 13008 bytes in 8398ms
07-19 12:42:52.690: INFO/Process(8599): Sending signal. PID: 8599 SIG: 9
07-19 12:42:52.750: INFO/ActivityManager(67): Process buffer.video (pid 8599) has died.
07-19 12:42:52.759: INFO/WindowManager(67): WIN DEATH: Window{4509e720 SurfaceView paused=false}
07-19 12:42:52.790: INFO/WindowManager(67): WIN DEATH: Window{4507e048 buffer.video/buffer.video.VofoVideoToBufferActivity paused=false}
07-19 12:42:52.880: WARN/InputManagerService(67): Window already focused, ignoring focus gain of: com.android.internal.view.IInputMethodClient$Stub$Proxy@45061a50
07-19 12:42:56.730: DEBUG/dalvikvm(262): GC_EXPLICIT freed 31 objects / 1576 bytes in 169ms
07-19 12:43:00.439: ERROR/CameraInput(34): Unsupported parameter(x-pvmf/media-input-node/cap-config-interface;valtype=key_specific_value)
07-19 12:43:00.439: ERROR/CameraInput(34): VerifiyAndSetParameter failed on parameter #0
07-19 12:43:00.460: ERROR/audio_input(34): unsupported parameter: x-pvmf/media-input-node/cap-config-interface;valtype=key_specific_value
07-19 12:43:00.469: ERROR/audio_input(34): VerifyAndSetParameter failed
07-19 12:43:00.539: WARN/AuthorDriver(34): Video encoding bit rate is set to 192000 bps
07-19 12:43:00.589: INFO/MediaRecorderJNI(8811): prepare: surface=0x20fc70 (id=1)
07-19 12:43:00.649: ERROR/PVOMXEncNode(34): PVMFOMXEncNode-Audio_AMRNB::DoPrepare(): Got Component OMX.PV.amrencnb handle
07-19 12:43:00.699: DEBUG/CameraHardwareStub(34): initHeapLocked: preview size=320x240
07-19 12:43:00.759: DEBUG/CameraInput(34): Intended mFrameWidth=176, mFrameHeight=144
07-19 12:43:00.759: DEBUG/CameraHardwareStub(34): initHeapLocked: preview size=176x144
07-19 12:43:00.779: DEBUG/CameraInput(34): Actual mFrameWidth=176, mFrameHeight=144
07-19 12:43:00.799: ERROR/AuthorDriver(34): Command 13 completed with error -17
07-19 12:43:00.799: ERROR/MediaRecorder(8811): prepare failed: -17
07-19 12:43:00.799: ERROR/RecordVideo(8811): java.io.IOException: prepare failed.
07-19 12:43:00.799: WARN/System.err(8811): java.io.IOException: prepare failed.
07-19 12:43:00.850: WARN/System.err(8811): at android.media.MediaRecorder._prepare(Native Method)
07-19 12:43:00.859: WARN/System.err(8811): at android.media.MediaRecorder.prepare(MediaRecorder.java:503)
07-19 12:43:00.869: WARN/System.err(8811): at vofo.streaming.MainActivity.beginRecording(MainActivity.java:191)
07-19 12:43:00.869: WARN/System.err(8811): at vofo.streaming.MainActivity.access$0(MainActivity.java:162)
07-19 12:43:00.899: WARN/System.err(8811): at vofo.streaming.MainActivity$1.onClick(MainActivity.java:74)
07-19 12:43:00.899: WARN/System.err(8811): at android.view.View.performClick(View.java:2408)
07-19 12:43:00.899: WARN/System.err(8811): at android.view.View$PerformClick.run(View.java:8816)
07-19 12:43:00.899: WARN/System.err(8811): at android.os.Handler.handleCallback(Handler.java:587)
07-19 12:43:00.919: WARN/System.err(8811): at android.os.Handler.dispatchMessage(Handler.java:92)
07-19 12:43:00.919: WARN/System.err(8811): at android.os.Looper.loop(Looper.java:123)
07-19 12:43:00.959: WARN/System.err(8811): at android.app.ActivityThread.main(ActivityThread.java:4627)
07-19 12:43:00.959: WARN/System.err(8811): at java.lang.reflect.Method.invokeNative(Native Method)
07-19 12:43:00.969: WARN/System.err(8811): at java.lang.reflect.Method.invoke(Method.java:521)
07-19 12:43:00.969: WARN/System.err(8811): at com.android.internal.os.ZygoteInit$MethodAndArgsCaller.run(ZygoteInit.java:868)
07-19 12:43:00.969: WARN/System.err(8811): at com.android.internal.os.ZygoteInit.main(ZygoteInit.java:626)
07-19 12:43:00.989: WARN/System.err(8811): at dalvik.system.NativeStart.main(Native Method)
请帮帮我
最佳答案
mCamera
或 mRecorder
在您的方法 onSurfaceDestroyed
中为 null。检查是否为 null,只有当它不为 null 时才对这些对象执行操作。
关于Android相机预览回调和mediarecorder录制视频,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6743768/
我打算使用 vulkan synchronization examples 之一作为如何处理不经常更新的统一缓冲区的引用。具体来说,我正在看这个: vkBeginCommandBuffer(...);
我对 git 的了解有限。 我已经从 master 创建了一个分支 B1,进行了一些编辑并提交到这个分支。 我想从 B1 创建另一个分支 B2,我在 B2 中进行了一些编辑 而且我还想提交 B2(包含
这是我做的 我创建了一个分支 abc。然后我创建了两个文本文件 one.txt 和 two.txt。然后我将它们提交到分支 abc。然后我从分支中删除文件 one.txt 并将这些更改提交到分支。 现
在我的主分支中,我得到了 2 个文件: file1.txt file2.txt 我从那里创建了名为 b1 的新分支。在b1中,我修改了file2.txt,不小心删除了file1.txt(从磁盘中,当我
我是 git 的新手。 我创建了一个分支,进行了更改,现在我想 merge 回 master 以使它们“永久化”。 所以我执行了 git merge 1.2 报告为已经是最新的,在 master 上执
我在一个新团队中,工作方式与我以前习惯的完全不同,我们在功能分支上工作,测试人员会在该功能分支上进行测试,然后我们会运行一个 jenkins 作业在该功能被测试签署时将该功能 merge 到开发中,根
我目前正在学习动态内存管理是如何工作的,更具体地说是 realloc 以及它是如何在函数中完成的。 在下面的程序中,我只是想尝试使用 malloc 在函数 a() 中分配一些数字,然后将它们传递给另一
在 Java 中如何从另一个线程分派(dispatch)回主 UI 线程?我正在使用带有 Runnable 的执行器在主 UI 线程之外做一些工作,并且我有一个接口(interface),以便可以通过
我在 git 中有一个项目,所有的事情都直接在 master 分支上完成,标签被用来标记代码的发布版本。我知道这并不理想,并且一直在查看 git 流程,例如:http://nvie.com/posts
我们有一个相当大的 GIT 存储库,我想删除从未 merge 回 master 的分支。 反过来也很好 - 一种列出在某个时候已 merge 到 master 中的所有分支的方法。 我希望首先获取一个
在 Swift 和 C 之间传递字符串时,我看到一些我不理解的行为。请考虑以下 Swift 函数: func demo() { print("\n\n\n\n")
我以前从未合作过,现在我发现自己需要与其他一些人分享这个项目,即使我将完成 90% 的开发工作。 我在 github 上有一个私有(private)仓库。我用 推送了我的初始源 git push or
我们的项目使用 Gitlab,我们有两个长期存在的分支:dev 和 master,类似于 Git Flow。我们正在使用“merge 提交”方法,它将在主分支中创建一个 merge 提交。 但是,由于
我对自定义 View 的绑定(bind)属性有疑问。该属性绑定(bind)到核心数据实体的 NSArrayController。 问题是这样的: 在我看来,我画了几个矩形。这些矩形的位置保存在核心数据
这对我来说似乎太棘手,无法正确执行此操作。 我有一个TreeMap ,我正在获取其中的子图: public static reqObj assignObj(reqObj vArg, i
我有以下 XAML: 所以,基本上我希望将其中一
我正在使用 Angular js 1.3.4 版本并使用 ui-select。 我正在将复杂的多级 JSON 对象数组绑定(bind)到此 ui-select,它工作正常。因此用户可以在此选择中选择任
我正在使用 WebAPI 构建 API,并且一直在使用 NLog 在整个堆栈中进行日志记录。我的 API 解决方案有两个主要项目,包括: 实现 Controller 和 webapi 东西的网站层本身
在 Git 中,给定 (1) 一个分支 A 和 (2) 一个在过去某个时间从 A 派生的分支 B,然后 merge 回 A,我如何才能找到现在 A 中起源于 B 的所有提交? 目的是确定现在在 A 中
假设我的 Controller 如下所示: public class myController { private MyCustomItem acte; ... // gett
我是一名优秀的程序员,十分优秀!