- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在尝试通过 rtmp 流式传输我的网络摄像头。我尝试通过以下管道流式传输数据:
gst-launch-1.0 -v v4l2src ! 'video/x-raw, width=640, height=480, framerate=30/1' ! queue ! videoconvert ! omxh264enc ! h264parse ! flvmux ! rtmpsink location='rtmp://{MY_IP}/rtmp/live'
它就像一个魅力。我可以在我的网站上看到视频。
然后我想先捕捉帧,然后做一些处理。我像以前一样通过将数据推送到 appsrc 并通过管道流式传输处理过的数据,但是出现了一些问题。
我在我的网站上看不到任何流媒体。服务器端和客户端都不会引发任何错误或警告。尽管如此,我仍然可以通过以下方式获取流媒体:
gst-launch-1.0 rtmpsrc location='rtmp://{MY_IP}/rtmp/live' ! filesink location='rtmpsrca.flv'
有人知道吗?
这是我的网站部分和 gstreamer 管道的片段
gstreamer 管道:
void threadgst(){
App * app = &s_app;
GstCaps *srccap;
GstCaps * filtercap;
GstFlowReturn ret;
GstBus *bus;
GstElement *pipeline;
gst_init (NULL,NULL);
loop = g_main_loop_new (NULL, TRUE);
//creazione della pipeline:
pipeline = gst_pipeline_new ("gstreamer-encoder");
if( ! pipeline ) {
g_print("Error creating Pipeline, exiting...");
}
//creazione elemento appsrc:
app-> videosrc = gst_element_factory_make ("appsrc", "videosrc");
if( ! app->videosrc ) {
g_print( "Error creating source element, exiting...");
}
//creazione elemento queue:
app-> queue = gst_element_factory_make ("queue", "queue");
if( ! app->queue ) {
g_print( "Error creating queue element, exiting...");
}
app->videocoverter = gst_element_factory_make ("videoconvert", "videocoverter");
if( ! app->videocoverter ) {
g_print( "Error creating videocoverter, exiting...");
}
//creazione elemento filter:
app->filter = gst_element_factory_make ("capsfilter", "filter");
if( ! app->filter ) {
g_print( "Error creating filter, exiting...");
}
app->h264enc = gst_element_factory_make ("omxh264enc", "h264enc");
if( ! app->h264enc ) {
g_print( "Error creating omxh264enc, exiting...");
}
app->h264parse = gst_element_factory_make ("h264parse", "h264parse");
if( ! app->h264parse ) {
g_print( "Error creating h264parse, exiting...");
}
app->flvmux = gst_element_factory_make ("flvmux", "flvmux");
if( ! app->flvmux ) {
g_print( "Error creating flvmux, exiting...");
}
app->rtmpsink = gst_element_factory_make ("rtmpsink", "rtmpsink");
if( ! app->rtmpsink ) {
g_print( "Error rtmpsink flvmux, exiting...");
}
g_print ("Elements are created\n");
g_object_set (G_OBJECT (app->rtmpsink), "location" , "rtmp://192.168.3.107/rtmp/live live=1" , NULL);
g_print ("end of settings\n");
srccap = gst_caps_new_simple("video/x-raw",
"format", G_TYPE_STRING, "RGB",
"width", G_TYPE_INT, 640,
"height", G_TYPE_INT, 480,
//"width", G_TYPE_INT, 320,
//"height", G_TYPE_INT, 240,
"framerate", GST_TYPE_FRACTION, 30, 1,
//"pixel-aspect-ratio", GST_TYPE_FRACTION, 1, 1,
NULL);
filtercap = gst_caps_new_simple("video/x-raw",
"format", G_TYPE_STRING, "I420",
"width", G_TYPE_INT, 640,
"height", G_TYPE_INT, 480,
//"width", G_TYPE_INT, 320,
//"height", G_TYPE_INT, 240,
"framerate", GST_TYPE_FRACTION, 30, 1,
NULL);
gst_app_src_set_caps(GST_APP_SRC( app->videosrc), srccap);
g_object_set (G_OBJECT (app->filter), "caps", filtercap, NULL);
bus = gst_pipeline_get_bus (GST_PIPELINE ( pipeline));
g_assert(bus);
gst_bus_add_watch ( bus, (GstBusFunc) bus_call, app);
gst_bin_add_many (GST_BIN ( pipeline), app-> videosrc, app->queue, app->videocoverter,app->filter, app->h264enc, app->h264parse, app->flvmux, app->rtmpsink, NULL);
g_print ("Added all the Elements into the pipeline\n");
int ok = false;
ok = gst_element_link_many ( app-> videosrc, app->queue, app->videocoverter, app->filter,app->h264enc, app->h264parse, app->flvmux, app->rtmpsink, NULL);
if(ok)g_print ("Linked all the Elements together\n");
else g_print("*** Linking error ***\n");
g_assert(app->videosrc);
g_assert(GST_IS_APP_SRC(app->videosrc));
g_signal_connect (app->videosrc, "need-data", G_CALLBACK (start_feed), app);
g_signal_connect (app->videosrc, "enough-data", G_CALLBACK (stop_feed),app);
g_print ("Playing the video\n");
gst_element_set_state (pipeline, GST_STATE_PLAYING);
g_print ("Running...\n");
g_main_loop_run ( loop);
g_print ("Returned, stopping playback\n");
gst_element_set_state (pipeline, GST_STATE_NULL);
gst_object_unref ( bus);
g_main_loop_unref (loop);
g_print ("Deleting pipeline\n");
}
我的网页来源
<!DOCTYPE html>
<meta content="text/html;charset=utf-8" http-equiv="Content-Type">
<meta content="utf-8" http-equiv="encoding">
<html>
<head>
<title>Live Streaming</title>
<!-- strobe -->
<script type="text/javascript" src="strobe/lib/swfobject.js"></script>
<script type="text/javascript">
var parameters = {
src: "rtmp://192.168.3.107/rtmp/live",
autoPlay: true,
controlBarAutoHide: false,
playButtonOverlay: true,
showVideoInfoOverlayOnStartUp: true,
optimizeBuffering : false,
initialBufferTime : 0.1,
expandedBufferTime : 0.1,
minContinuousPlayback : 0.1,
//poster: "images/poster.png"
};
swfobject.embedSWF(
"strobe/StrobeMediaPlayback.swf"
, "StrobeMediaPlayback"
, 1024
, 768
, "10.1.0"
, "strobe/expressInstall.swf"
, parameters
, {
allowFullScreen: "true"
}
, {
name: "StrobeMediaPlayback"
}
);
</script>
</head>
<body>
<div id="StrobeMediaPlayback"></div>
</body>
</html>
最佳答案
当使用 appsrc 和 appsink 时,人们通常会用缓冲区做一些事情,有时他们会获取数据并以某种方式处理它们,然后创建新的缓冲区但忘记正确地为其添加时间戳。
什么是时间戳?它将时间信息附加到音频/视频缓冲区。为什么? - 每个应用程序(vlc、web ..)的同步机制在特定时间以特定速率向用户显示(呈现)视频/音频(这是 PTS)。
这与帧速率(在视频中)或频率(在音频中 - 但时间戳在这里工作不同 - 它不是每个通常有 4 个字节的音频样本)有关。
那么您的 Web 端可能发生了什么 - 它收到了缓冲区但没有时间戳信息。所以应用程序不知道如何/何时显示视频,所以它默默地失败了,什么也不显示。
GStreamer 应用之所以有效,是因为它显然有一些算法可以猜测帧率等。
正如我所说,您有两个选择。
1,自己计算 PTS 和持续时间:
guint64 calculated_pts = some_cool_algorithm();
GstBuffer *buffer = gst_buffer_new(data);//your processed data
GST_BUFFER_PTS(buffer) = calculated_pts; // in nanoseconds
GST_BUFFER_DURATION(buffer) = 1234567890; // in nanoseconds
//push buffer to appsrc
2,或者通过为 appsrc 开启 do-timestamp
这将自动生成时间戳 - 现在我不确定它是怎么做的 - 它要么从 caps 中选择帧率,要么根据生成 PTS如何将框架插入其中。
关于c - Rtmp 流通过 gstreamer-1.0 appsrc 到 rtmpsink,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38495163/
#include using namespace std; class C{ private: int value; public: C(){ value = 0;
这个问题已经有答案了: What is the difference between char a[] = ?string?; and char *p = ?string?;? (8 个回答) 已关闭
关闭。此题需要details or clarity 。目前不接受答案。 想要改进这个问题吗?通过 editing this post 添加详细信息并澄清问题. 已关闭 7 年前。 此帖子已于 8 个月
除了调试之外,是否有任何针对 c、c++ 或 c# 的测试工具,其工作原理类似于将独立函数复制粘贴到某个文本框,然后在其他文本框中输入参数? 最佳答案 也许您会考虑单元测试。我推荐你谷歌测试和谷歌模拟
我想在第二台显示器中移动一个窗口 (HWND)。问题是我尝试了很多方法,例如将分辨率加倍或输入负值,但它永远无法将窗口放在我的第二台显示器上。 关于如何在 C/C++/c# 中执行此操作的任何线索 最
我正在寻找 C/C++/C## 中不同类型 DES 的现有实现。我的运行平台是Windows XP/Vista/7。 我正在尝试编写一个 C# 程序,它将使用 DES 算法进行加密和解密。我需要一些实
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
有没有办法强制将另一个 窗口置于顶部? 不是应用程序的窗口,而是另一个已经在系统上运行的窗口。 (Windows, C/C++/C#) 最佳答案 SetWindowPos(that_window_ha
假设您可以在 C/C++ 或 Csharp 之间做出选择,并且您打算在 Windows 和 Linux 服务器上运行同一服务器的多个实例,那么构建套接字服务器应用程序的最明智选择是什么? 最佳答案 如
你们能告诉我它们之间的区别吗? 顺便问一下,有什么叫C++库或C库的吗? 最佳答案 C++ 标准库 和 C 标准库 是 C++ 和 C 标准定义的库,提供给 C++ 和 C 程序使用。那是那些词的共同
下面的测试代码,我将输出信息放在注释中。我使用的是 gcc 4.8.5 和 Centos 7.2。 #include #include class C { public:
很难说出这里问的是什么。这个问题是含糊的、模糊的、不完整的、过于宽泛的或修辞性的,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开它,visit the help center 。 已关
我的客户将使用名为 annoucement 的结构/类与客户通信。我想我会用 C++ 编写服务器。会有很多不同的类继承annoucement。我的问题是通过网络将这些类发送给客户端 我想也许我应该使用
我在 C# 中有以下函数: public Matrix ConcatDescriptors(IList> descriptors) { int cols = descriptors[0].Co
我有一个项目要编写一个函数来对某些数据执行某些操作。我可以用 C/C++ 编写代码,但我不想与雇主共享该函数的代码。相反,我只想让他有权在他自己的代码中调用该函数。是否可以?我想到了这两种方法 - 在
我使用的是编写糟糕的第 3 方 (C/C++) Api。我从托管代码(C++/CLI)中使用它。有时会出现“访问冲突错误”。这使整个应用程序崩溃。我知道我无法处理这些错误[如果指针访问非法内存位置等,
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 7 年前。
已关闭。此问题不符合Stack Overflow guidelines 。目前不接受答案。 要求我们推荐或查找工具、库或最喜欢的场外资源的问题对于 Stack Overflow 来说是偏离主题的,因为
我有一些 C 代码,将使用 P/Invoke 从 C# 调用。我正在尝试为这个 C 函数定义一个 C# 等效项。 SomeData* DoSomething(); struct SomeData {
这个问题已经有答案了: Why are these constructs using pre and post-increment undefined behavior? (14 个回答) 已关闭 6
我是一名优秀的程序员,十分优秀!