声网默认的音频模块可以满足在 app 中使用基本音频功能的需求。声网 SDK 支持使用自定义的音频源和自定义的音频渲染模块为你的 app 添加特殊的音频功能。
实时音频传输过程中,声网 SDK 通常会开启默认的音频模块。在以下场景中,你可能会发现默认的音频模块无法满足开发需求,需要自定义音频采集或自定义音频渲染。例如:
使用自定义音频源管理音频帧的采集、处理和播放时,需要使用声网 SDK 外部方法。
下图展示在自定义音频采集、音频渲染时,音频数据的传输过程。
自定义音频采集
pushAudioFrame
,将采集到的音频帧发送给 SDK。自定义音频渲染
pullPlaybackAudioFrame
获取远端用户发送的音频数据。在进行操作之前,请确保你已经在项目中实现了基本的实时音视频功能。详见实现视频通话或实现视频直播。
本节介绍如何实现自定义音频采集。
参考以下调用时序图,在你的 app 中实现自定义音频采集:
本节介绍如何实现自定义音频采集。
参考如下步骤,在你的项目中实现自定义音频采集功能:
调用 joinChannel
前,调用 setExternalAudioSource
指定音频源。
// 指定自定义音频源
m_rtcEngine->setExternalAudioSource(true, m_capAudioInfo.sampleRate, m_capAudioInfo.channels);
// 本地用户加入频道
ChannelMediaOptions option;
option.autoSubscribeAudio = true;
option.autoSubscribeVideo = true;
m_rtcEngine->joinChannel("Your token", szChannelId.c_str(), 0, option);
使用 SDK 外部方法自行实现音频的采集和处理。
调用 pushAudioFrame
,将音频帧发送给 SDK,留作备用。
mediaEngine->pushAudioFrame(AUDIO_RECORDING_SOURCE, &m_audioFrame);
本节介绍如何实现自定义音频渲染。你可以采用如下两种方式实现自定义音频渲染。
参考如下调用时序,在你的项目中调用自定义音频渲染 API 实现自定义音频渲染。
调用 joinChannel
前,调用 setExternalAudioSink
开启和配置自定义音频渲染。
// 开启自定义音频渲染
// 采样率(Hz)可以设置为 16000,32000,441000 或者 48000
// 声道数可以设置为 1 或 2
nRet = m_rtcEngine->setExternalAudioSink(m_renderAudioInfo.sampleRate, m_renderAudioInfo.channels);
加入频道后,调用 pullAudioFrame
获取远端用户发送的音频数据。使用你自己的音频渲染器处理音频数据,然后播放已渲染的数据。
void CAgoraCaptureAduioDlg::PullAudioFrameThread(CAgoraCaptureAduioDlg * self)
{
int nRet = 0;
agora::util::AutoPtr<agora::media::IMediaEngine> mediaEngine;
mediaEngine.queryInterface(self->m_rtcEngine, AGORA_IID_MEDIA_ENGINE);
IAudioFrameObserver::AudioFrame audioFrame;
audioFrame.avsync_type = 0; // 预留参数
audioFrame.bytesPerSample = TWO_BYTES_PER_SAMPLE;
audioFrame.type = agora::media::IAudioFrameObserver::FRAME_TYPE_PCM16;
audioFrame.channels = self->m_renderAudioInfo.channels;
audioFrame.samplesPerChannel = self->m_renderAudioInfo.sampleRate / 100 * self->m_renderAudioInfo.channels;
audioFrame.samplesPerSec = self->m_renderAudioInfo.sampleRate;
audioFrame.buffer = new BYTE[audioFrame.samplesPerChannel * audioFrame.bytesPerSample];
while (self->m_extenalRenderAudio )
{
// 拉取远端音频数据
nRet = mediaEngine->pullAudioFrame(&audioFrame);
if (nRet != 0)
{
Sleep(10);
continue;
}
SIZE_T nSize = audioFrame.samplesPerChannel * audioFrame.bytesPerSample;
self->m_audioRender.Render((BYTE*)audioFrame.buffer, nSize);
}
delete audioFrame.buffer;
}
开始前,请确保你的项目中已实现原始音频数据。详见原始音频数据。
参考如下步骤,在你的项目中调用原始音频数据 API 实现自定义音频渲染:
onRecordAudioFrame
,onPlaybackAudioFrame
,onMixedAudioFrame
或者 onPlaybackAudioFrameBeforeMixing
获取待播放的音频数据。本节介绍文中使用方法的更多信息以及相关页面的链接。
声网在 GitHub 上提供了一个开源的示例项目。 你可以在 GitHub 上参考源代码或进行下载体验。