- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
感谢阅读,提前为我的英语不好道歉。
我正在使用 OpenCV 进行网络摄像头流式处理。我的最终目标是制作类似 Skype 的应用程序。所以我首先尝试基本的 1:1 TCP 模型。
关于TCP 1:1模型,
连接后,客户端发送其实时网络摄像头帧,服务器接收并在其 jpanel 上显示。
到目前为止,我确实收到了一张图片并在 jpanel 上显示了它。
我正在尝试接收连续的帧。
起初,问题是服务器端套接字似乎在等待客户端输入完成,即它永远不会停止,因为实时帧是连续发送的。
所以我在发送帧之前发送了每个帧大小,以逃避无法停止的等待。
但效果不佳。客户端不断发送帧,但服务器接收不到。
例如,如果客户端发送大约 25k 字节大小的帧,服务器每次读取仅接收 1 到 3 个字节,即使缓冲区大小为 512。
客户端线程.java
package client;
import java.io.ByteArrayInputStream;
import java.io.ByteArrayOutputStream;
import java.io.DataInputStream;
import java.io.DataOutputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.Socket;
import javax.imageio.ImageIO;
import video.VideoCap;
public class ClientThread extends Thread
{
String serverIp;
int serverPort;
Socket socket;
VideoCap videoCap;
public ClientThread(Socket socket, String serverIp, int serverPort, VideoCap videoCap)
{
this.socket = socket;
this.serverIp = serverIp;
this.serverPort = serverPort;
this.videoCap = videoCap;
}
public void run()
{
while (ClientUI.calling)
{
try
{
InputStream in = socket.getInputStream();
DataInputStream dis = new DataInputStream(in);
OutputStream out = socket.getOutputStream();
DataOutputStream dos = new DataOutputStream(out);
// receive
int bufSize = dis.readInt();
while (ClientUI.calling)
{
ByteArrayOutputStream baos = new ByteArrayOutputStream();
ImageIO.write(videoCap.getOneFrame(), "jpg", baos);
InputStream inputImage = new ByteArrayInputStream(baos.toByteArray());
// frame size
dos.writeInt(baos.size());
out(inputImage, baos, bufSize);
Thread.sleep(5000);
}
}
catch (IOException | InterruptedException e)
{
e.printStackTrace();
}
}
}
void out(InputStream in, OutputStream out, int bufSize)
{
long size = 0;
try
{
byte[] buf = new byte[bufSize];
int n;
while ((n = in.read(buf)) > 0)
{
out.write(buf, 0, n);
size += n;
System.out.println("size: " + size);
}
}
catch (IOException e)
{
e.printStackTrace();
}
finally
{
System.out.println(getClass().getName() + " :: out >>> sent size: " + size);
}
}
}
服务器线程.java
package server;
import java.awt.image.BufferedImage;
import java.io.ByteArrayInputStream;
import java.io.ByteArrayOutputStream;
import java.io.DataInputStream;
import java.io.DataOutputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.ServerSocket;
import java.net.Socket;
import javax.imageio.ImageIO;
import javax.swing.JPanel;
public class ServerThread extends Thread
{
ServerSocket serverSocket;
Socket socket;
JPanel panel;
byte[] buf;
public ServerThread(ServerSocket serverSocket, JPanel panel, int bufSize)
{
this.serverSocket = serverSocket;
this.panel = panel;
buf = new byte[bufSize];
}
public void run()
{
try
{
System.out.println("waiting for client");
socket = serverSocket.accept();
System.out.println("client accepted");
InputStream in = socket.getInputStream();
DataInputStream dis = new DataInputStream(in);
OutputStream out = socket.getOutputStream();
DataOutputStream dos = new DataOutputStream(out);
dos.writeInt(buf.length);
while (ServerUI.calling)
{
int frameSize = dis.readInt();
ByteArrayOutputStream outImage = new ByteArrayOutputStream();
long size = 0;
int n;
while (frameSize >= size)
{
n = dis.read(buf);
if (n == -1)
break;
outImage.write(buf, 0, n);
size += n;
System.out.println(n);
}
InputStream inputImage = new ByteArrayInputStream(outImage.toByteArray());
BufferedImage bufferedImage = ImageIO.read(inputImage);
panel.getGraphics().drawImage(bufferedImage, 0, 0, null);
}
}
catch (IOException e)
{
e.printStackTrace();
}
}
}
最佳答案
我将 DataOutput/InputStream 更改为 ObjectOutput/InputStream。我不确定为什么不顺利,但我想这是因为序列化问题。但是 byte 不需要序列化,所以我不太清楚。
我将提供无论如何工作的代码。因为AudioServer我分成了两个Thread所以前面的代码和下面的代码有很大的不同。
VideoServerThread.java
import java.awt.image.BufferedImage;
import java.io.ByteArrayInputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.ObjectInputStream;
import java.io.Serializable;
import java.net.ServerSocket;
import java.net.Socket;
import javax.imageio.ImageIO;
import javax.swing.JPanel;
public class VideoServerThread extends Thread
{
private ServerSocket serverSocket;
int videoServerPort;
private Socket socket;
private JPanel panel;
private boolean calling;
public VideoServerThread(ServerSocket serverSocket, int videoServerPort, JPanel panel, boolean calling)
{
this.serverSocket = serverSocket;
this.videoServerPort = videoServerPort;
this.panel = panel;
this.calling = calling;
}
@Override
public void run()
{
System.out.println("Video Server opened!");
try
{
serverSocket = new ServerSocket(videoServerPort);
socket = serverSocket.accept();
InputStream in = socket.getInputStream();
ObjectInputStream ois = new ObjectInputStream(in);
BufferedImage bufferedImage;
InputStream inputImage;
Frame f;
while (calling)
{
f = (Frame) ois.readObject();
inputImage = new ByteArrayInputStream(f.bytes);
bufferedImage = ImageIO.read(inputImage);
panel.getGraphics().drawImage(bufferedImage, 0, 0, panel.getWidth(), panel.getHeight(), null);
panel.getGraphics().drawImage(bufferedImage, 0, 0, null);
bufferedImage.flush();
inputImage.close();
f = null;
}
}
catch (IOException e)
{
e.printStackTrace();
}
catch (ClassNotFoundException e)
{
e.printStackTrace();
}
}
class Frame implements Serializable
{
public byte[] bytes;
public Frame(byte[] bytes)
{
this.bytes = bytes;
}
public int size()
{
return bytes.length;
}
}
}
VideoClientThread.java
import java.awt.image.BufferedImage;
import java.io.ByteArrayOutputStream;
import java.io.IOException;
import java.io.ObjectOutputStream;
import java.net.Socket;
import javax.imageio.ImageIO;
import common.Frame;
import video.VideoCap;
public class VideoClientThread extends Thread
{
private final String formatType = "jpg";
private VideoCap videoCap;
private Socket socket;
private String ip;
private int port;
private boolean calling;
public VideoClientThread(VideoCap videoCap, Socket socket, String ip, int port, boolean calling)
{
this.videoCap = videoCap;
this.socket = socket;
this.ip = ip;
this.port = port;
this.calling = calling;
}
public void run()
{
try
{
socket = new Socket(ip, port);
socket.setSoTimeout(5000);
ObjectOutputStream oos = new ObjectOutputStream(socket.getOutputStream());
Frame f;
BufferedImage bufferedImage;
while (calling)
{
ByteArrayOutputStream fbaos = new ByteArrayOutputStream();
bufferedImage = videoCap.getOneFrame();
ImageIO.write(bufferedImage, formatType, fbaos);
f = new Frame(fbaos.toByteArray());
oos.writeObject(f);
oos.flush();
bufferedImage.flush();
// Thread.sleep(33);
}
}
catch (IOException e)
{
e.printStackTrace();
}
// catch (InterruptedException e)
// {
// e.printStackTrace();
// }
}
}
关于java - java中的TCP网络摄像头流,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43276792/
避免必须自己创建整个相机应用程序,我调用: Intent camera = new Intent(MediaStore.ACTION_IMAGE_CAPTURE); this.startActivit
我使用这种方法从前置摄像头录制视频: Recording video via Mediarecorder 它在我的 Nexus 4 上运行良好,但有人说有很多手机的前置摄像头无法录制视频,只能拍照。我
我正在使用 Android 手机的摄像头作为输入来测试成像算法,并且需要一种方法来始终如一地测试算法。理想情况下,我想获取预先录制的视频源并让手机“假装”视频源是来自相机的实时视频。 我理想的解决方案
我想在 android 上通过 v4l 访问外部 USB 摄像头。 我试过了 SimpleWebCam .在对原始源代码进行一些细微修改后,我实现了使其在 Root过的 android 设备上运行。然
我正在尝试连接两个连接到单个 USB 端口的 USB 网络摄像头。问题是当时只有一个摄像头工作...我在 python 中使用 OpenCV。这可能吗?我的目标是将多台相机连接到一台计算机以进行机器视
我想知道如何在 virtualbox 中使用笔记本电脑的内置网络摄像头和 android x86。 我已经尝试启动默认的“相机”应用程序,它告诉我必须配置 SDCard,我在本教程中所做的:SD ca
我在 64 位华硕的 Ubuntu 12.10 上安装了 ARToolKit。安装没有错误,所以我觉得我没问题。但是当我想尝试一个例子时,它找不到相机。如果我在 char *vconf = ""; 没
我想以编程方式移动 webvr 场景中 View 的位置。为此,我使用了position.add 方法。 以下是我如何以编程方式移动相机: 摄像机移至此处: var obj3d = docume
我正在使用 Camera 2 API 将 JPEG 图像保存在磁盘上。我的 Nexus 5X 目前有 3-4 fps,我想将其提高到 20-30。可能吗? 将图像格式更改为 YUV 我设法生成 30
Baby Monitor (http://www.babymonitor3g.com/) 等应用程序可让两台 iOS 设备相互连接。连接后,一台设备可以激活另一台设备上的摄像头、灯光和麦克风,即使该应
我有一个论坛帖子表单,允许发帖人附加录音和/或网络摄像头快照。这两个都是使用 navigator.getUserMedia() 实现的应用程序接口(interface)。对于音频,我建立了 varia
我对 Opencv 和 Python 有疑问。当我尝试从相机中查看帧时,它无法识别 USB 相机,我使用了带有两个 USB 相机的书籍中的标准代码,问题是只有一个相机工作,我不知道。我在 window
我编写了一个程序,基本上使用步进电机 + a4988 驱动程序将托盘放在连接到 Raspberry Pi 的相机下方。代码将托盘带到起始位置,迈出一步,拍照并重复 10 次。然后托盘返回到起始位置。我
我的 uEye 相机遇到了一个问题。使用我的笔记本电脑摄像头(id 0)或 usb 上的网络摄像头(id 1)这条线完美运行: TheVideoCapturer.open(1); (TheVideoC
我是 Android 版 openCV 的新手,我需要一个在后台运行的图像处理应用(检测图像的线条)。 我已经制作了一个应用程序来完成我需要的所有图像处理(使用 jni),但它不能在后台运行并且它使用
我正在尝试使用 OpenCV 从 USB 摄像头捕获视频。 #include #include using namespace std; using namespace cv; int main(
我正在寻找启用和禁用默认 iPhone 相机的方法,例如在特定时间或纬度/经度。有些地方是禁止摄像头的,所以我们可以在到达这样的地方时关闭它,这里只是举个例子。好吧,我认为在 iPhone 中禁用和启
有人有这种“东西”的工作样本吗? 在理论上,以这种方式实现它是个好主意,但我没有看到任何相关的代码 fragment 来说明如何实现它。 我不要花哨的东西,越简单越好。我只想在单独的线程上实现与相机控
我正在开发一个新网站。您可以加入房间通话并进行语音通话,因此可以使用您的网络摄像头,但您也可以共享您的屏幕。 问题是当我将轨道添加到流中时,对等点不再工作......我不知道如何解决这个问题。我还尝试
我需要在 Flutter 中创建一个考试应用程序,我们需要每隔一段时间拍摄用户的照片和视频,而在执行此操作时我们不想显示相机屏幕。 我尝试使用 Flutter 的 Camera 插件,但我无法找到任何
我是一名优秀的程序员,十分优秀!