- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我一直在尝试在 ASP.NET 中设置 MJPEG 流。我想从 URL 检索 MJEPG 流,并将我获得的每一帧发送到每个连接的客户端。我能够找到的示例仅从一组文件中读取,而不是从 URL 中连续流,并通过 MultiStreamContent 发送整个文件。由于我是逐帧检索的,因此无法执行此操作。我想知道是否可以用 ASP.NET MVC 做我想做的事。我目前正在使用 AForge 视频从链接中检索 MJPEG 流。我的 Controller 类代码:
using System.Net.Http;
using System.Web.Http;
using AForge.Video;
namespace VideoPrototypeMVC.Controllers
{
public class CameraController : ApiController
{
int framecounter = 0;
MJPEGStream stream = new MJPEGStream();
[HttpGet]
public void GetVideoContent()
{
stream.Source = @"http://127.0.0.1:5002/stream";
stream.NewFrame += new NewFrameEventHandler(showFrame);
stream.Start();
MultipartContent content = new MultipartContent();
while (stream.IsRunning)
{
//Continues streaming should be here?
}
}
//Can be used to display of a frame is available
private void showFrame(object sender, NewFrameEventArgs eventArgs)
{
framecounter++;
System.Diagnostics.Debug.WriteLine("New frame event: " + framecounter);
}
//Should be called at the end of the stream
private void stopStream(object sender, ReasonToFinishPlaying reason)
{
System.Diagnostics.Debug.WriteLine("Stop stream");
stream.Stop();
framecounter = 0;
}
}
}
这段代码不是最终的,但我只需要继续流下来。我找到了使用 Socket servers 的示例,但我想坚持使用 MVC,因为它可以让我更轻松地设置服务器的其余部分。
最佳答案
确保其他人也能处理好这件事。我设法将@Evk(再次感谢您)所说的与我在此处找到的信息结合起来:creating my own MJPEG stream .
请注意:下面的代码只是原型(prototype)/概念验证!当我运行此程序时,由于 StartStream 中的无休止循环,我的处理器会达到 100%。将努力使它更加基于事件,但我认为下面的代码更容易解释。
using System;
using System.IO;
using System.Net;
using System.Web;
using System.Net.Http;
using System.Web.Http;
using AForge.Video;
using System.Drawing;
using System.Text;
using System.Drawing.Imaging;
using System.Threading;
namespace VideoPrototypeMVC.Controllers
{
public class CameraController : ApiController
{
private MJPEGStream mjpegStream = new MJPEGStream();
private bool frameAvailable = false;
private Bitmap frame = null;
private string BOUNDARY = "frame";
/// <summary>
/// Initializer for the MJPEGstream
/// </summary>
CameraController()
{
mjpegStream.Source = @"{{INSERT STREAM URL}}";
mjpegStream.NewFrame += new NewFrameEventHandler(showFrameEvent);
}
[HttpGet]
public HttpResponseMessage GetVideoContent()
{
mjpegStream.Start();
var response = Request.CreateResponse();
response.Content = new PushStreamContent((Action<Stream, HttpContent, TransportContext>)StartStream);
response.Content.Headers.ContentType = System.Net.Http.Headers.MediaTypeHeaderValue.Parse("multipart/x-mixed-replace; boundary=" + BOUNDARY);
return response;
}
/// <summary>
/// Craete an appropriate header.
/// </summary>
/// <param name="length"></param>
/// <returns></returns>
private byte[] CreateHeader(int length)
{
string header =
"--" + BOUNDARY + "\r\n" +
"Content-Type:image/jpeg\r\n" +
"Content-Length:" + length + "\r\n\r\n";
return Encoding.ASCII.GetBytes(header);
}
public byte[] CreateFooter()
{
return Encoding.ASCII.GetBytes("\r\n");
}
/// <summary>
/// Write the given frame to the stream
/// </summary>
/// <param name="stream">Stream</param>
/// <param name="frame">Bitmap format frame</param>
private void WriteFrame(Stream stream, Bitmap frame)
{
// prepare image data
byte[] imageData = null;
// this is to make sure memory stream is disposed after using
using (MemoryStream ms = new MemoryStream())
{
frame.Save(ms, ImageFormat.Jpeg);
imageData = ms.ToArray();
}
// prepare header
byte[] header = CreateHeader(imageData.Length);
// prepare footer
byte[] footer = CreateFooter();
// Start writing data
stream.Write(header, 0, header.Length);
stream.Write(imageData, 0, imageData.Length);
stream.Write(footer, 0, footer.Length);
}
/// <summary>
/// While the MJPEGStream is running and clients are connected,
/// continue sending frames.
/// </summary>
/// <param name="stream">Stream to write to.</param>
/// <param name="httpContent">The content information</param>
/// <param name="transportContext"></param>
private void StartStream(Stream stream, HttpContent httpContent, TransportContext transportContext)
{
while (mjpegStream.IsRunning && HttpContext.Current.Response.IsClientConnected)
{
if (frameAvailable)
{
try
{
WriteFrame(stream, frame);
frameAvailable = false;
} catch (Exception e)
{
System.Diagnostics.Debug.WriteLine(e);
}
}else
{
Thread.Sleep(30);
}
}
stopStream();
}
/// <summary>
/// This event is thrown when a new frame is detected by the MJPEGStream
/// </summary>
/// <param name="sender">Object that is sending the event</param>
/// <param name="eventArgs">Data from the event, including the frame</param>
private void showFrameEvent(object sender, NewFrameEventArgs eventArgs)
{
frame = new Bitmap(eventArgs.Frame);
frameAvailable = true;
}
/// <summary>
/// Stop the stream.
/// </summary>
private void stopStream()
{
System.Diagnostics.Debug.WriteLine("Stop stream");
mjpegStream.Stop();
}
}
}
关于c# - 使用 C#/ASP.NET MVC 进行逐帧 MJPEG 流式传输,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47259756/
Microsoft 声明 Edge 浏览器原生支持 MJPEG 多部分流。 ( https://dev.modern.ie/platform/status// ) 以下 HTML 在所有 web-ki
我在保存时遇到问题 MJPEG流到文件。 当我直播时 MJPEG使用这样的管道: gst-launch filesrc location=thirdmovie640x360.mp4 ! decodeb
我正在从我的相机接收 MJPEG 流。当我使用十六进制编辑器查看视频数据时,它似乎不包含任何流信息。我只看到一个又一个的原始 JPEG,但没有关于帧率等的信息。 MJPEG 缺少任何元信息是正常的还是
我已经实现了 Android and MJPEG 并且还实现了异步和认证来运行它,这就是提到的 here .现在我已经设法运行 jpeg 视频流,但问题是它在运行流时一直闪烁。它不断地打开和关闭。我认
我正在尝试在 iOS 应用程序中显示 MJPEG 流。为此,我需要在收到新图像后立即使用新图像刷新 imageView。需要将流中的图像分开。 是否有一些明确的开始和结束标记/字节用于将各个图像分开?
你能帮我如何将我的视频流式传输到 iOS 应用程序吗?我使用了 UIWebView 但视频没有变化。有什么解决办法吗。例如这个流。 http://80.32.204.149:8080/mjpg/vid
除 IE 之外的现代浏览器处理 MJPEG ( Motion JPEG )。 Here是一个例子 fiddle 。 我可以检测到对 MJPEG 的支持吗?我已经看过 Modernizr徒劳无功。 最佳
我想从 IP 摄像机(通过 RTSP)接收 JPEG 图像。为此,我在 OpenCV 中尝试了 cvCreateFileCapture_FFMPEG。但是ffmpeg似乎对流媒体的MJPEG格式有一些
我需要从 IP 摄像机获取 mjpeg 流,有人知道正确的方法吗?我google了一下,我找到了这个例子 http://www.anddev.org/mjpeg_on_android_anyone-t
我有一个每秒提供 30 帧 mjpeg 的网络摄像机。我想将这些帧记录到 mp4 文件中。我已经有一个将其记录为 avi 文件的库,但它不是首选。我尝试在录制 avi 后将视频转换为 mp4,但速度有
我有一堆 mov/H.264 文件,我想将它们编码成 mov/MJPEG。但是,我得到的输出质量非常低。这是我尝试过的: ffmpeg -i a.mov -an -crf 11 -preset slo
我正在使用 FFMpeg 来解码 Mjpeg 流。 最近我遇到了来自 FFMpeg 的访问冲突异常,经过调查,我发现由于网络数据包丢失,我正在向 FFMpeg 传递一个可能有“间隙”的帧。 FFMpe
我在从 ip-camera 解码 RTP/MJPEG 流时遇到了问题。 如 rfc2435 所述,量化表(对于 Q 值 1 <= Q <= 99)应根据这些默认表计算: /* * Table K.1
我有一堆 mov/H.264 文件,我想将它们编码为 mov/MJPEG。但是我得到的输出质量非常低。这是我尝试过的: ffmpeg -i a.mov -an -crf 11 -preset slow
我有一个来自 IP cam 的传入 mjpeg 流。 现在我可以使用 ffmpeg 和 openGL 显示它,但是当我尝试将所有传入的流保存到文件中并稍后播放时,播放器(VLC)无法打开文件。 有人告
我正在尝试制作一个 mjpeg 流媒体。帧之前的前 5 个字节给出了帧的大小。然后我可以提取框架。我需要检查我是否获得了正确的框架。我正在尝试将帧写入 .jpeg 文件;那是行不通的。我这样做正确吗?
为了测试处理 ip 摄像机流(例如 mjpeg)的软件,我想从原始摄像机中捕获一个短序列,然后将此记录循环流式传输,就好像它来自 ip 摄像机一样。它应该基于命令行以简化自动化集成测试。 我已经想通了
Android MediaPlayer是否支持MJPEG格式 1 path = "http://cif12.nfreeway.gov.tw/live-vi
我知道 Android 本身不支持 MJPEG,但是否有任何可用的 jar 文件/驱动程序可以添加到项目中以使其成为可能? 最佳答案 有一个 View 可用于显示 MJPEG 流: Android a
我目前正在我的树莓派上设置一个小型 wifi 控制的汽车,并进行直播。我正在从在不同端口的 pi 上运行的服务器获取流,我正在使用简单的 img 标签嵌入 video.mjpeg 文件。流工作正常,但
我是一名优秀的程序员,十分优秀!