- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我是 gstremaer 的新手。我已经编写了使用 gstreamer 播放 avi 文件的代码。但是在执行代码时它只是在一段时间后挂起,我无法调试是什么问题,有人可以帮助我。
代码和输出如下:
Code:
#include<stdio.h>
#include<gst/gst.h>
#include<glib.h>
//Function to process message on bus of pipeline
gboolean process_message(GstBus *bus, GstMessage *msg,gpointer data);
//Function to add pad dynamically for ogg demux
void dynamic_addpad(GstElement *element, GstPad *pad, gpointer data);
void dynamic_decodepad (GstElement* object, GstPad* arg0, gboolean arg1,gpointer user_data);
GstElement *source, *demuxer, *audio_decoder, *video_decoder, *audio_convertor,*video_convertor, *audio_sink,*video_sink,*audioqueue,*videoqueue;//*audio_demuxer, *video_demuxer,
int main(int argc,char* argv[])
{
GstPipeline *pipeline;
GstBin *Bin;
GstBus *bus;
GMainLoop *Mainloop;
gst_init (&argc,&argv);
Mainloop = g_main_loop_new(NULL,FALSE);//NULL to use the current context and False to tell its not in running state
pipeline = gst_pipeline_new("PIPELINE");
Bin = GST_BIN(pipeline);
bus = gst_pipeline_get_bus(pipeline);
source = gst_element_factory_make("filesrc","file-source");
g_object_set(G_OBJECT(source),"location",argv[1],NULL);
demuxer = gst_element_factory_make("avidemux","avi-demuxer");
audioqueue = gst_element_factory_make("queue","Queue for audio");
videoqueue = gst_element_factory_make("queue","Queue for video");
video_decoder = gst_element_factory_make("decodebin","decoderbin");//"Vorbis audio decoder","vorbis");
audio_convertor = gst_element_factory_make("audioconvert","audio convertor");//"Audio converter","audioconvert");
video_convertor = gst_element_factory_make("videoscale","video convertor");//"Audio converter","audioconvert");
audio_sink = gst_element_factory_make("autoaudiosink","Auto audio sink");
video_sink = gst_element_factory_make("xvimagesink","XV video sink ");
if(!source || !demuxer || !audioqueue || !videoqueue || !video_decoder ||!audio_convertor || !video_convertor || !audio_sink || !video_sink )
{ g_print("Could not not create element\n");
return 0;
}
gst_bin_add(Bin,source);
gst_bin_add_many(Bin,demuxer,audioqueue,videoqueue,audio_convertor,video_decoder,video_convertor,audio_sink,video_sink,NULL);
gst_element_link(source,demuxer);
gst_element_link_many(audioqueue,video_decoder,audio_convertor,audio_sink,NULL);
gst_element_link_many(videoqueue,video_decoder,video_convertor,video_sink,NULL);
g_signal_connect(demuxer,"pad-added",G_CALLBACK(dynamic_addpad),NULL);//demuxer and decoder are passed as instance and data as pads of both the elements are linked in dynamic_addpad
g_signal_connect(video_decoder,"new-decoded-pad",G_CALLBACK(dynamic_decodepad),NULL);//demuxer and decoder are passed as instance and data as pads of both the elements are linked in dynamic_addpad
gst_bus_add_watch(bus,process_message,Mainloop); //Mainloop is passed as user data as in the process_message actions are taken on the loop
g_object_unref(bus);
g_print("In playing state\n");
gst_element_set_state(pipeline,GST_STATE_PLAYING);//Pipeline is also a bin and bin is also an element at abstract level and hence gst_element_set_state call is used to set state of pipeline.
g_main_loop_run(Mainloop);
g_print("In playing state2\n");
gst_element_set_state(pipeline,GST_STATE_NULL);
g_object_unref(G_OBJECT(pipeline));
}
//Function to process message on bus of pipeline
gboolean process_message(GstBus *bus, GstMessage *msg,gpointer data)
{
GError *error;
gchar *debug;
GMainLoop *loop = (GMainLoop *)data;
g_print(" In process message msg->type : %d\n",GST_MESSAGE_TYPE(msg));
switch(GST_MESSAGE_TYPE(msg))
{
case GST_MESSAGE_UNKNOWN :
g_print("GST_MESSAGE_UNKNOWN \n");
break;
case GST_MESSAGE_EOS :
g_print("GST_MESSAGE_EOS \n");
g_main_loop_quit(loop);
break;
case GST_MESSAGE_ERROR :
g_print("GST_MESSAGE_ERROR \n");
gst_message_parse_error (msg, &error, &debug);
g_free(debug);
//if(!error)
{
g_print("GST_MESSAGE_ERROR message : %s \n",error->message);
}
g_main_loop_quit(loop);
break;
case GST_MESSAGE_WARNING :
g_print("GST_MESSAGE_WARNING \n");
break;
case GST_MESSAGE_INFO :
g_print("GST_MESSAGE_INFO \n");
break;
case GST_MESSAGE_TAG :
g_print("GST_MESSAGE_TAG \n");
break;
case GST_MESSAGE_BUFFERING:
g_print("GST_MESSAGE_BUFFERING \n");
break;
case GST_MESSAGE_STATE_CHANGED:
g_print("GST_MESSAGE_STATE_CHANGED \n");
break;
default :
g_print("default \n");
break;
}
return TRUE; //returns true always as it has to be always registered returning false will deregister the function
}
//Function to add pad dynamically for ogg demux
void dynamic_addpad(GstElement *element, GstPad *pad, gpointer data)
{
GstPad *audiodemuxsink;
GstPad *videodemuxsink;
GstElement *decoder = (GstElement *)data;
g_print(" In dynamic ADDING PAD\n");
audiodemuxsink = gst_element_get_static_pad(audioqueue,"sink");
gst_pad_link(pad,audiodemuxsink );
videodemuxsink = gst_element_get_static_pad(videoqueue,"sink");
gst_pad_link(pad,videodemuxsink );
g_print(" In dynamic ADDING PAD2\n");
}
void dynamic_decodepad (GstElement* object, GstPad* pad, gboolean arg1,gpointer user_data)
{
GstPad *videoconvertsink;
GstPad *audioconvertsink ;
g_print(" In dynamic_decodepad ADDING PAD\n");
videoconvertsink = gst_element_get_static_pad(video_convertor,"sink");
gst_pad_link(pad,videoconvertsink);
audioconvertsink = gst_element_get_static_pad(audio_convertor,"sink");
gst_pad_link(pad,audioconvertsink );
g_print(" In dynamic_decodepad ADDING PAD2\n");
}
Output:
In playing state
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 8192
default
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 8192
default
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 8192
default
In process message msg->type : 8192
default
In dynamic ADDING PAD
In dynamic ADDING PAD2
In dynamic ADDING PAD
In dynamic ADDING PAD2
In process message msg->type : 16
GST_MESSAGE_TAG
In process message msg->type : 16
GST_MESSAGE_TAG
In process message msg->type : 16
GST_MESSAGE_TAG
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In dynamic_decodepad ADDING PAD
In dynamic_decodepad ADDING PAD2
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
In process message msg->type : 64
GST_MESSAGE_STATE_CHANGED
最佳答案
你的代码在几个方面是错误的,这就是为什么我的答案这么长。
首先,gst_pipeline_new
返回 GstElement*
不是 GstPipeline*
:
- pipeline = gst_pipeline_new("PIPELINE");
+ GstElement *pipeline = gst_pipeline_new("PIPELINE");
Bin = GST_BIN(pipeline);
- bus = gst_pipeline_get_bus(pipeline);
+ bus = gst_pipeline_get_bus(GST_PIPELINE(pipeline));
decodebin
解码两个流(音频和视频)。但你需要两个。创建它,不要忘记将它添加到 bin:
videoqueue = gst_element_factory_make("queue","Queue for video");
+ audio_decoder = gst_element_factory_make("decodebin","a_decodebin");
video_decoder = gst_element_factory_make("decodebin","decoderbin");//"Vorbis audio decoder","vorbis");
- gst_bin_add_many(Bin,demuxer,audioqueue,videoqueue,audio_convertor,video_decoder,video_convertor,audio_sink,video_sink,NULL);
+ gst_bin_add_many(
+ Bin,
+ demuxer,
+ audioqueue,videoqueue,
+ audio_decoder,audio_convertor,
+ video_decoder,video_convertor,
+ audio_sink,video_sink,
+ NULL);
decodebin2
如
decodebin
已弃用。
gst_element_link_many
在 decodebin 和转换器之间创建链接。 :
gst_element_link(source,demuxer);
- gst_element_link_many(audioqueue,video_decoder,audio_convertor,audio_sink,NULL);
- gst_element_link_many(videoqueue,video_decoder,video_convertor,video_sink,NULL);
+ gst_element_link_many(audioqueue,audio_decoder,NULL);
+ gst_element_link_many(audio_convertor,audio_sink,NULL);
+ gst_element_link_many(videoqueue,video_decoder,NULL);
+ gst_element_link_many(video_convertor,video_sink,NULL);
audio_decoder
decodebin,我们需要处理它的 pad 创建信号:
+ g_signal_connect(audio_decoder,"new-decoded-pad",G_CALLBACK(dynamic_decodepad),NULL);
g_signal_connect(video_decoder,"new-decoded-pad",G_CALLBACK(dynamic_decodepad),NULL);
void dynamic_addpad(GstElement *element, GstPad *pad, gpointer data)
{
GstPad *audiodemuxsink;
GstPad *videodemuxsink;
GstElement *decoder = (GstElement *)data;
g_print(" In dynamic ADDING PAD\n");
audiodemuxsink = gst_element_get_static_pad(audioqueue,"sink");
gst_pad_link(pad,audiodemuxsink );
videodemuxsink = gst_element_get_static_pad(videoqueue,"sink");
gst_pad_link(pad,videodemuxsink );
g_print(" In dynamic ADDING PAD2\n");
}
dynamic_addpad
在每个打击垫创建时调用。
avidemux
通常会创建两个打击垫(每个数据流一个):“audio_00”和“video_00”。所以,
dynamic_addpad
将被调用两次,我们需要根据焊盘名称区分要链接的内容:
void dynamic_addpad(GstElement *element, GstPad *pad, gpointer data)
{
char* pad_name = gst_pad_get_name(pad);
g_print(" In dynamic ADDING PAD %s\n", pad_name);
if (g_str_has_prefix(pad_name,"audio")) {
GstPad *audiodemuxsink = gst_element_get_static_pad(audioqueue,"sink");
gst_pad_link(pad,audiodemuxsink );
}
else if (g_str_has_prefix(pad_name,"video")) {
GstPad *videodemuxsink = gst_element_get_static_pad(videoqueue,"sink");
gst_pad_link(pad,videodemuxsink );
}
g_free (pad_name);
}
dynamic_decodepad
几乎相同.因为它只有一个 src pad 是由 decodebin 创建的,所以为
video_decoder
创建单独的处理程序会更容易和
audio_decoder
.
void dynamic_decodepad (GstElement* object, GstPad* pad, gboolean arg1,gpointer user_data)
{
GstPad* videoconvertsink = gst_element_get_static_pad(video_convertor,"sink");
if (gst_pad_can_link(pad,videoconvertsink)) {
gst_pad_link(pad,videoconvertsink);
}
GstPad* audioconvertsink = gst_element_get_static_pad(audio_convertor,"sink");
if (gst_pad_can_link(pad,audioconvertsink)) {
gst_pad_link(pad,audioconvertsink);
}
}
gst_pad_can_link
在
dynamic_addpath
中不起作用因为可以连接
query
元素同时添加到“audio_00”和“video_00”。
关于播放 avi 文件的 gstreamer 代码挂起,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8396127/
要将视频 MP4 转换为视频 MP4 anamorphose,我使用: ffmpeg -i input.mp4 -crf 15 -g 1 -intra output.mp4 我在 output.mp4
我有一个 .avi 视频。我需要将其中的一部分剪切为另一个 .avi 文件。当我这样做时,我会丢失剪切文件的质量: ffmpeg -i input.avi -ss 00:34:00 -t 00:10:
我有一个带有 SDK for Visual C++ 的视频采集卡。在 SDK 的回调中,我可以以 30 fps 的速度使用彩色帧 (640 x 480)。目前,我在一个单独的线程中将整个图像序列作为单
我在带有 Codec DV Video (dvds) 的文件夹(在 Windows 7 上)中有一堆 avi 文件。这些是直接从我的索尼 DCR-PC120E Pal 相机和索尼附带的软件复制而来的。
我必须为我正在做的项目录制视频。其中两个是 USB 摄像头,另一个是 IP 顶置摄像头。所有三个都连接到笔记本电脑。录制视频后,我需要能够在编辑器中打开它们(不是特别用于编辑,而是用于建模其中需要时间
有没有办法使用 mmread 或其他函数逐帧读取 .avi 视频文件,类似于使用 videoReader 和 readFrame 函数? 我使用了 mmread 但读取每一帧需要很长时间,因为它读取了
我想解复用然后复用 .avi 文件而不更改任何内容。 我的程序是这样的(为简洁而编辑): AVFormatContext *input_format_context = NULL; a
有一个 IP 网络摄像头,我前段时间写了一个 .NET 类。它基本上是一个 Timer 实现,它每五秒从相机 ping 一个快照 CGI 脚本。相机本身非常简陋。它没有任何类型的 API 供我使用,我
我自己正在学习matlab,我用matlab做了一个动画情节;现在我想把它保存为一个视频文件。你能告诉我如何在matlab中把我的动画转换成一个视频文件吗?下面是我的代码 x=[1:2]; for i
我正在尝试制作一个程序,从网络摄像头捕捉视频并从麦克风捕捉声音,但我卡在了我试图用静止图像制作电影的部分 我听说你需要使用 directshow,但它对我不起作用 有人知道捕获视频和声音并将其编码为文
我想在 PHP 页面上播放视频 (AVI/MPG)。我怎样才能做到这一点?我还想为每个视频生成缩略图。谁能推荐一些工具? 最佳答案 对于缩略图,您需要类似 ffmpeg安装在您的服务器上。 要播放视频
我正在使用 ffmpeg 剪切视频文件: ffmpeg - -ss 00:00:00 -t 00:00:30 不包括 *.avi 格式的不同文件格式是可以的。对于 avi 电影,ffmpeg 显示视
我正在尝试拆分持续时间为 1 小时到 8 分钟的视频 (.avi) 文件。 我正在使用以下命令 ffmpeg -i videos_22_05_18/cnbc.avi -ss 00:00:00 -to
我创建了一个 AVI file通过使用 Cairo 渲染帧。 AVI生成代码为part of an OCaml library .但是,ffmpeg 和 vlc 都只产生第一帧。如果我剪掉 avi 标
我有一台 Fujifilm FinePix Real 3D W3,它创建了 Fujifilm 所谓的 3D-AVI 文件。有一些程序可以将这些 3D-AVI 文件拆分为单独的左右电影,但它们涉及在 W
我正在尝试使用以下命令将 avi 转换为 mp4: ffmpeg -i avi_videos.avi -c copy new.mp4 我收到了一个错误(见下文),我不太明白。我需要添加哪些其他参数才能
背景故事: 我有一个 VB.net 程序(它使用一个更老的 COM 对象访问 DVR)以每 15 秒的长度创建顺序编号的 AVI 文件。每 15 秒创建一个新的 AVI,其中包含最近 15 秒的视频。
你好。 我有一个很大的视频文件。 ffmpeg , tcprobe和其他工具说,它是 AVI 容器中的 h264 流。 现在我想从视频中剪下小块。 问题:视频接缝的索引损坏/损坏。我通过 mplaye
我有一个 .avi 文件,它位于我服务器的一个文件夹中。此文件夹的名称带有重音符号。 问题是,当我将该文件放在标签中时,它会显示一个 txt 文件(我认为是 avi 文件编码),这显然是一个错误。它只
我有一个带有 3 个字幕流的 AVI 文件(mpeg4 视频)。我需要将第二个流提取到 SRT/txt 以便对翻译进行一些更正。我目前在一台 Ubuntu 机器上。 我尝试使用 avconv,但出现错
我是一名优秀的程序员,十分优秀!