- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我正在开发一个 Android 应用程序,它应该能够将视频流式传输到我网络上的本地服务器,而无需将其存储在 SD 卡上。
为此,我在 C# 中创建了一个简单的套接字应用程序,用于监听特定的 IP:PORT
在 Android 部分,我使用套接字将 setOutputFile()
设置为此 IP:PORT。
此应用程序在 Android 手机上完美启动,但它不显示预览,当我开始录制时,它无一异常(exception)地退出。它也不向网络发送任何数据流。
当我将 setOutPutFile()
设置为 SD 卡时,它可以正常工作并录制视频。
对于服务器部分,当我将数据从任何其他应用程序(从 PC)发送到同一 IP:PORT 时,它会接收数据。
简而言之,我想在PC和Android之间建立通信 channel ,使用socket进行流式传输。
这是我的 Android 代码:
Socket soc=new Socket("192.168.1.3",8210);
ParcelFileDescriptor pfd = ParcelFileDescriptor.fromSocket(soc);
...
...
// other Recorder setup steps
...
...
Recorder.setOutputFile(pfd.getFileDescriptor()); // working fine for sdcard
Recorder.setPreviewDisplay(holder.getSurface());
Recorder.prepare();
这是我使用 C# 编写并在 PC 上运行的服务器应用程序:
socketForServer = new TcpClient("192.168.1.3", 8210);
NetworkStream networkStream = socketForServer.GetStream();
byte[] rData = new byte[1024];
networkStream.Read(rData, 0, 1024);
...
...
// process rData
...
...
我无法理解这里发生的问题。我正朝着正确的方向前进吗?
最佳答案
我的服务器代码有问题。
我不得不使用 TcpListener
代替 TcpClient
。
正确的代码如下:
TcpListener listener = new TcpListener(ipAddress, 8210);
Socket s = listener.AcceptSocket();
NetworkStream ns = new NetworkStream(s);
.
.
.
//reading the data from stream
.
.
.
关于Android MediaRecorder setOutPutFile() 使用套接字进行流式传输,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5158323/
我正在为 chrome 商店构建一个屏幕录像机插件。我是 将麦克风的音轨添加到媒体流 包含( 屏幕的视频轨道 + 系统音频轨道 )。所以最终流包含 2 个音轨,一个是麦克风,另一个是系统音频。 当我将
当我尝试在我的程序中制作摄像机时,出现此错误: E/MediaRecorder﹕ start failed: -19 代码是 try { final SurfaceView sv = (Sur
const [rec, setRec] = useState({}); const [onRec, setOnRec] = useState(true); useEffect(() => {
这段代码在 Debug模式下工作得很好,但当不是 Debug模式时它总是抛出运行时异常。 mMediaRecorder.stop(); 根据 Java 文档: Stops recordin
当我尝试为我的 MediaRecorder 设置视频大小时,我在启动方法中收到 RuntimeException。 mRecorder.setAudioSource(MediaRecorder.Aud
录制音频是一个很长的操作,所以我启动mRecorder?.start()在服务内的协程中,您可以看到 RecordService.kt。 我调用 suspend fun startRecord(){.
使用媒体记录器,我可以在 azure 上上传和附加视频 blob。但是无法使用以下代码在下载时查找组合视频 - var chunks =[]; var mediaRecorder = new Medi
我在我的应用程序中集成了摄像头。当用户单击捕获按钮时,我隐藏了工具栏,以便摄像头预览屏幕尺寸增加。这会导致应用程序在停止在线录制时崩溃 - mMediaRecorder.stop(); 。 java.
我想在按住按钮时使用 MediaRecorder 开始录制语音消息。尝试在 onLongClickListener 中开始录制时出现 IllegalStateException。 如堆栈跟踪中所述,我
我的应用需要录制最长 8 秒的视频。这已经通过 MediaRecorder.setMaxDuration(long milliseconds) 实现。该应用还需要顶部的进度条和带有剩余时间倒计时的标签
使用时 CanvasCaptureMediaStream和 MediaRecorder,有没有办法在每一帧上获取一个事件? 我需要的和 requestAnimationFrame() 没什么不同,但我
我正在尝试使用媒体录音机来录制音频。我让它工作,以便我能够录制和播放。唯一的问题是我无法记录程序第二次崩溃的情况。我有一个单独的方法来重置 MediaRecorder,但无论我将它放在哪里,它都不起作
我正在使用 MediaRecorder 录制视频,但似乎无论我使用什么设置,帧率都令人震惊(~ 1fps) 这是我的代码: recorder.setAudioSource(MediaRecor
如果我使用 MediaRecorder.AudioSource.MIC 声音会正常录制。如果 MediaRecorder.AudioSource.VOICE_DOWNLINK 声音以慢速播放。我需要它
我查看了其他人遇到的这个问题,但没有找到合适的解决方案。像他们一样,我遵循了相机功能教程:http://developer.android.com/guide/topics/media/camera.
我正在准备一个小型 Android 应用程序,用于捕获用户的照片和录音。用户会用他的相机拍照,然后在查看该照片时添加音频评论。 为了捕捉音频,我正在使用 MediaRecorder [因为 andro
我想录制通话语音,但我收到 MediaRecorder:start failed : -2147483648 这是我的通话记录代码块 public void SesKayitBaslat(Str
我的应用程序录制了一个音频 fragment ,并在录制完成后使用 Retrofit2 将 fragment 发送到服务器。服务器接收到文件,但是文件损坏了,我说的损坏是无法播放。我使用以下 URL(
我尝试实现的方法如下所示。 它保存了文件,音频没问题,但视频全是绿色线条。 我做错了什么? camera.unlock(); mediaRecorder = new MediaRecorder();
我首先尝试创建 SurfaceView: SurfaceView sv = new SurfaceView(context); // Get a surface surfaceHolder = sv.
我是一名优秀的程序员,十分优秀!