gpt4 book ai didi

c - swr_convert float 平面到 S16

转载 作者:行者123 更新时间:2023-12-04 22:58:41 24 4
gpt4 key购买 nike

如何使用 libav API 进行转换 AV_SAMPLE_FMT_FLTPAV_SAMPLE_FMT_S16
我试图弄清楚如何将 PCM(从麦克风捕获)44.1KHz 重新采样和编码为 AAC 48.0KHz

那是我的重采样初始化器:

void initialize_resampler(SwrContext*& resamplerCtx, AVCodecContext* encoder, AVFrame*& rawResampledAudioFrame, AVStream* audioFormatStream)
{
int nb_samples = (encoder->codec->capabilities & AV_CODEC_CAP_VARIABLE_FRAME_SIZE) ? encoder->sample_rate : encoder->frame_size;

int encoderFrameSize = encoder->channels * av_get_bytes_per_sample(encoder->sample_fmt) * encoder->frame_size;
rawResampledAudioFrame = allocate_audioframe(encoder->sample_fmt, encoder->channel_layout, encoder->sample_rate, nb_samples);

// Copy the stream parameters to the muxer
check(avcodec_parameters_from_context(audioFormatStream->codecpar, encoder));

// Create resampler context
resamplerCtx = swr_alloc();
if (resamplerCtx == nullptr)
throw std::runtime_error("Could not allocate resampler context");

// Set options
check(av_opt_set_int(resamplerCtx, "in_channel_count", 2, 0));
check(av_opt_set_int(resamplerCtx, "in_sample_rate", 44100, 0));
check(av_opt_set_sample_fmt(resamplerCtx, "in_sample_fmt", AV_SAMPLE_FMT_S16, 0));
check(av_opt_set_int(resamplerCtx, "out_channel_count", encoder->channels, 0));
check(av_opt_set_int(resamplerCtx, "out_sample_rate", encoder->sample_rate, 0));
check(av_opt_set_sample_fmt(resamplerCtx, "out_sample_fmt", encoder->sample_fmt, 0));

// initialize the resampling context
check(swr_init(resamplerCtx));
}

对于重采样,我有以下代码:
    AVPacket pkt{};
while (true)
{
AVPacket input_packet;
av_init_packet(&input_packet);

check(av_read_frame(inputContext, &input_packet));

check(avcodec_send_packet(decoderContext, &input_packet));
check(avcodec_receive_frame(decoderContext, decodedFrame));


// WHAT DO HERE swr_convert(resamplerContext, )
av_packet_unref(&input_packet);

av_init_packet(&pkt);
auto in_stream = inputContext->streams[pkt.stream_index];
auto out_stream = outputContext->streams[pkt.stream_index];

pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
pkt.duration = av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
pkt.pos = -1;

check(avcodec_send_frame(encoderContext, decodedFrame));
check(avcodec_receive_packet(encoderContext, &pkt));

check(av_interleaved_write_frame(outputContext, &pkt));
av_packet_unref(&pkt);
}

阅读文档我无法弄清楚我需要传递给函数的确切内容。我有此代码将 PCM 编码为 MP2(输出为 AV_SAMPLE_FMT_S16 )
const uint8_t* inPtr[] { const_cast<const uint8_t*>(&pcmData[0]), nullptr, nullptr,nullptr,nullptr,nullptr,nullptr,nullptr };
uint8_t* outPtr[] { &resampledAudioData[0], nullptr, nullptr,nullptr,nullptr,nullptr,nullptr,nullptr };

int resampledSamplesCount{ swr_convert(
resamplerCtx,
outPtr,
maxResampledSamplesCount,
inPtr,
inputSampleCount) };

// Negativo indica erro.
check(resampledSamplesCount);

pcmData 是来自输入 AVPacket 的原始数据(PCM)

我在这里得到的是: MP2 不是平面的,因此它使用与 plannar 不同的相同 outPtr[0] ,后者需要两个指向相同可写数据的有效指针。但是,例如,我需要传递给 inPtr 什么?

当我尝试使用相同的代码时,ffmpeg 尝试在 outPtr[1] 上写入 nullptr。

最佳答案

在这里做什么部分应该是这样的:

int out_samples = swr_convert(swr,
&audio_buf, /* out */
(int)out_count, /* out */
(const uint8_t**)decodedFrame->extended_data, /* in */
decodedFrame->nb_samples); /* in */

至于 out_count可以使用这样的东西(你可以改进它):
double frame_nb = 1.0 * encoder->sample_rate / audio_st->codec->sample_rate * decodedFrame->nb_samples;
out_count = floor(frame_nb);
audio_buf是您预先分配的输出缓冲区(48000 * 4 是好的大小)。
最后现在的问题是有多少数据写入缓冲区。这是公式:
int data_size = out_samples * av_get_bytes_per_sample(encoder->sample_fmt) * decodedFrame->channels;

希望这可以帮助。

关于c - swr_convert float 平面到 S16,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59618487/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com