音频观测器
介绍跟音频观测器相关的方法和回调。
registerAudioEncodedFrameObserver
注册音频编码数据观测器。
public abstract int registerAudioEncodedFrameObserver( AudioEncodedFrameObserverConfig config, IAudioEncodedFrameObserver observer);
详情
- 请在加入频道后调用该方法。
- 由于该方法和 startAudioRecording [2/2] 都会设置音频内容和音质,不建议该方法和 startAudioRecording [2/2] 一起使用。否则,只有后调用的方法会生效。
参数
- config
- 编码后音频的观测器设置。详见 AudioEncodedFrameObserverConfig。
- observer
- 编码后音频的观测器。详见 IAudioEncodedFrameObserver。
返回值
- 0: 方法调用成功
- < 0: 方法调用失败
registerAudioFrameObserver
注册音频观测器对象。
public abstract int registerAudioFrameObserver(IAudioFrameObserver observer);
详情
该方法用于注册音频观测器对象,即注册回调。当需要 SDK 给出 onMixedAudioFrame、onRecordAudioFrame、onPlaybackAudioFrame 或 onEarMonitoringAudioFrame 等回调时,需要使用该方法注册回调。
参数
- observer
-
接口对象实例。详见 IAudioFrameObserver。如果传入 NULL,则表示取消注册。建议在收到 onLeaveChannel 后调用,来释放音频观测器对象。
返回值
- 0:方法调用成功。
- < 0:方法调用失败。
registerAudioSpectrumObserver
注册音频频谱观测器。
public abstract int registerAudioSpectrumObserver(IAudioSpectrumObserver observer);
详情
成功注册音频频谱观测器并调用 enableAudioSpectrumMonitor 开启音频频谱监测后,SDK 会按照你设置的时间间隔报告你在 IAudioSpectrumObserver 类中实现的回调。
参数
- observer
-
音频频谱观测器。详见 IAudioSpectrumObserver。
返回值
- 0: 方法调用成功
- < 0: 方法调用失败
setPlaybackAudioFrameBeforeMixingParameters
设置 onPlaybackAudioFrameBeforeMixing 报告的音频数据格式。
public abstract int setPlaybackAudioFrameBeforeMixingParameters(int sampleRate, int channel);
参数
- sampleRate
-
音频数据采样率 (Hz),可设置为
8000
、16000
、32000
、44100
或48000
。
- channel
-
音频数据声道数,可设置为
1
(单声道) 或2
(双声道) 。
返回值
- 0: 方法调用成功
- < 0: 方法调用失败
setPlaybackAudioFrameParameters
设置播放的音频格式。
public abstract int setPlaybackAudioFrameParameters( int sampleRate, int channel, int mode, int samplesPerCall);
详情
该方法设置 onPlaybackAudioFrame 回调数据的格式。
- 该方法需要在加入频道前调用。
- SDK 会通过该方法中的 samplesPerCall、sampleRate 和 channel 参数计算出采样间隔,计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。请确保采样间隔不小于 0.01 秒。SDK 会根据该采样间隔触发 onPlaybackAudioFrame 回调。
参数
- sampleRate
- onPlaybackAudioFrame 中返回数据的采样率,可设置为 8000、 16000、 32000、44100 或 48000。
- channel
-
onPlaybackAudioFrame 中返回数据的通道数,可设置为 1 或 2:
- 1: 单声道
- 2: 双声道
- mode
-
音频帧的使用模式:
- RAW_AUDIO_FRAME_OP_MODE_READ_ONLY (0): (默认) 只读模式。例如: 若用户通过 SDK 采集数据,自己进行 RTMP 推流,则可以选择该模式。
- RAW_AUDIO_FRAME_OP_MODE_READ_WRITE (2): 读写模式。例如:若用户自己有音效处理模块,且想要根据实际需要对数据进行前处理 (例如变声),则可以选择该模式。
- samplesPerCall
- onPlaybackAudioFrame 中返回数据的采样点数,如旁路推流应用中通常为 1024。
返回值
- 0:方法调用成功。
- < 0:方法调用失败。
setRecordingAudioFrameParameters
设置采集的原始音频数据格式。
public abstract int setRecordingAudioFrameParameters( int sampleRate, int channel, int mode, int samplesPerCall);
详情
该方法设置 onRecordAudioFrame 回调的采集音频格式。
- 该方法需要在加入频道前调用。
- SDK 会通过该方法中的 samplesPerCall、sampleRate 和 channel 参数计算出采样间隔,计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。请确保采样间隔不小于 0.01 秒。SDK 会根据该采样间隔触发 onRecordAudioFrame 回调。
参数
- sampleRate
- onRecordAudioFrame 中返回数据的采样率,可设置为 8000、 16000、 32000、44100 或 48000。
- channel
-
onRecordAudioFrame 中返回数据的通道数,可设置为 1 或 2:
- 1: 单声道。
- 2: 双声道。
- mode
-
音频帧的使用模式:
- RAW_AUDIO_FRAME_OP_MODE_READ_ONLY (0): (默认) 只读模式。例如: 若用户通过 SDK 采集数据,自己进行 RTMP 推流,则可以选择该模式。
- RAW_AUDIO_FRAME_OP_MODE_READ_WRITE (2): 读写模式。例如:若用户自己有音效处理模块,且想要根据实际需要对数据进行前处理 (例如变声),则可以选择该模式。
- samplesPerCall
- onRecordAudioFrame 中返回数据的采样点数,如旁路推流应用中通常为 1024。
返回值
- 0:方法调用成功。
- < 0:方法调用失败。
unregisterAudioSpectrumObserver
取消注册音频频谱观测器。
public abstract int unRegisterAudioSpectrumObserver(IAudioSpectrumObserver observer);
详情
调用 registerAudioSpectrumObserver 后,如果你想取消注册音频频谱观测器,请调用该方法。
参数
- observer
- 音频频谱观测器。详见 IAudioSpectrumObserver。
返回值
- 0: 方法调用成功
- < 0: 方法调用失败
onMixedAudioEncodedFrame
获取本地和所有远端用户混音后的音频编码数据。
public abstract void onMixedAudioEncodedFrame( ByteBuffer buffer, int samplesPerChannel, int channels, int samplesPerSec, int codecType);
调用 registerAudioEncodedFrameObserver 并将音频编码内容设为 AUDIO_ENCODED_FRAME_OBSERVER_POSITION_MIXED 后,你可以通过该回调获取本地和所有远端用户混音、编码后的音频数据。
参数
- buffer
- 音频 buffer。
- samplesPerChannel
- 每声道的采样点数。
- channels
-
声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- codecType
- 音频编码类型:
- AUDIO_CODEC_OPUS(1): OPUS 编码格式。
- AUDIO_CODEC_AACLC(8): LC-AAC 编码格式。
- AUDIO_CODEC_HEAAC(9): HE-AAC 编码格式。
- AUDIO_CODEC_HEAAC2(11): HE-AAC v2 编码格式。
onPlaybackAudioEncodedFrame
获取所有远端用户的音频编码数据。
public abstract void onPlaybackAudioEncodedFrame( ByteBuffer buffer, int samplesPerChannel, int channels, int samplesPerSec, int codecType);
调用 registerAudioEncodedFrameObserver 并将音频编码内容设为 AUDIO_ENCODED_FRAME_OBSERVER_POSITION_PLAYBACK 后,你可以通过该回调获取所有远端用户的音频编码数据。
参数
- buffer
- 音频 buffer。
- samplesPerChannel
- 每声道的采样点数。
- channels
-
声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- codecType
- 音频编码类型:
- AUDIO_CODEC_OPUS(1): OPUS 编码格式。
- AUDIO_CODEC_AACLC(8): LC-AAC 编码格式。
- AUDIO_CODEC_HEAAC(9): HE-AAC 编码格式。
- AUDIO_CODEC_HEAAC2(11): HE-AAC v2 编码格式。
onRecordAudioEncodedFrame
获取本地用户的音频编码数据。
public abstract void onRecordAudioEncodedFrame( ByteBuffer buffer, int samplesPerChannel, int channels, int samplesPerSec, int codecType);
调用 registerAudioEncodedFrameObserver 并将音频编码内容设为 AUDIO_ENCODED_FRAME_OBSERVER_POSITION_MIC 后,你可以通过该回调获取本地用户的音频编码数据。
参数
- buffer
- 音频 buffer。
- samplesPerChannel
- 每声道的采样点数。
- channels
-
声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- codecType
- 音频编码类型:
- AUDIO_CODEC_OPUS(1): OPUS 编码格式。
- AUDIO_CODEC_AACLC(8): LC-AAC 编码格式。
- AUDIO_CODEC_HEAAC(9): HE-AAC 编码格式。
- AUDIO_CODEC_HEAAC2(11): HE-AAC v2 编码格式。
onFrame
已获取音频帧回调。
AudioFrame onFrame(AudioFrame frame);
注册音频数据观测器后,每次接收到一帧音频帧时,都会触发该回调,报告音频帧信息。
参数
- frame
- 音频帧信息。详见 AudioFrame。
返回值
根据你在 registerAudioFrameObserver 中设置的 mode 使用音频数据后,在此返回值中传入该音频数据。
onEarMonitoringAudioFrame
获得耳返的原始音频数据。
public abstract boolean onEarMonitoringAudioFrame(int type, int samplesPerChannel, int bytesPerSample, int channels, int samplesPerSec, ByteBuffer buffer, long renderTimeMs, int avsync_type);
- 方法一:调用 setEarMonitoringAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onEarMonitoringAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getEarMonitoringAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onEarMonitoringAudioFrame 回调。
- 方法一的优先级高于方法二,如果已使用方法一设置了音频数据格式,则使用方法二的设置不生效。
参数
- 音频原始数据。详见 AudioFrame。
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
-
声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
onMixedAudioFrame
获取采集和播放音频混音后的数据。
public abstract boolean onMixedAudioFrame(int type, int samplesPerChannel, int bytesPerSample, int channels, int samplesPerSec, ByteBuffer buffer, long renderTimeMs, int avsync_type);
- 方法一:调用 setMixedAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onMixedAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getMixedAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onMixedAudioFrame 回调。
- 方法一的优先级高于方法二,如果使用方法一设置音频数据格式,方法二设置无效。
参数
- 音频原始数据。详见 AudioFrame。
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
-
声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
onPlaybackAudioFrame
获得播放的原始音频数据。
public abstract boolean onPlaybackAudioFrame(int type, int samplesPerChannel, int bytesPerSample, int channels, int samplesPerSec, ByteBuffer buffer, long renderTimeMs, int avsync_type);
- 方法一:调用 setPlaybackAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onPlaybackAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getPlaybackAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onPlaybackAudioFrame 回调。
- 方法一的优先级高于方法二,如果使用方法一设置音频数据格式,方法二设置无效。
参数
- 音频原始数据。详见 AudioFrame。
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
-
声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
onPlaybackAudioFrameBeforeMixing
获得混音前的指定用户的声音。
public abstract boolean onPlaybackAudioFrameBeforeMixing(int userId, int type, int samplesPerChannel, int bytesPerSample, int channels, int samplesPerSec, ByteBuffer buffer, long renderTimeMs, int avsync_type);
参数
- userId
- 指定用户的用户 ID。
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
-
声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
onRecordAudioFrame
获得采集的原始音频数据。
public abstract boolean onRecordAudioFrame(String channelId, int type, int samplesPerChannel, int bytesPerSample, int channels, int samplesPerSec, ByteBuffer buffer, long renderTimeMs, int avsync_type);
- 方法一:调用 setRecordingAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onRecordAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getRecordAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onRecordAudioFrame 回调。
- 方法一的优先级高于方法二,如果使用方法一设置音频数据格式,方法二设置无效。
参数
- channelId
- 频道 ID。
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
-
声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
getObservedAudioFramePosition
设置音频观测位置。
- (AgoraAudioFramePosition)getObservedAudioFramePosition NS_SWIFT_NAME(getObservedAudioFramePosition());
你可以根据场景需求,通过修改 getObservedAudioFramePosition 的返回值,设置你需要观测的某个或多个位置。
注解观测多个位置时,需要使用 |(或运算符)。为降低设备耗能,你可以根据实际需求适当减少观测位置。
返回值
- POSITION_PLAYBACK (0x0001):该位置可观测所有远端用户混音后的播放音频,对应 onPlaybackAudioFrame 回调。
- POSITION_RECORD (0x0002):该位置可观测采集的本地用户的音频,对应 onRecordAudioFrame 回调。
- POSITION_MIXED (0x0004):该位置可观测本地和所有远端用户混音后的音频,对应 onMixedAudioFrame 回调。
- POSITION_BEFORE_MIXING (0x0008):该位置可观测单个远端用户混音前的音频,对应 onPlaybackAudioFrameBeforeMixing 回调。
- POSITION_EAR_MONITORING (0x0010):该位置可观测单个本地用户耳返的音频,对应 onEarMonitoringAudioFrame 回调。
getRecordAudioParams
设置 onRecordAudioFrame 回调数据的格式。
public abstract AudioParams getRecordAudioParams();
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置 SDK 采集的音频数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onRecordAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
SDK 采集的音频数据,详见 AudioParams。
getMixedAudioParams
设置 onMixedAudioFrame 回调数据的格式。
public abstract AudioParams getMixedAudioParams();
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置 SDK 采集和播放音频混音后的数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onMixedAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
SDK 采集和播放音频混音后的音频数据,详见 AudioParams。
getPlaybackAudioParams
设置 onPlaybackAudioFrame 回调数据的格式。
public abstract AudioParams getMixedAudioParams();
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置 SDK 播放的音频数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onPlaybackAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
SDK 播放的音频数据,详见 AudioParams。
getEarMonitoringAudioParams
设置 onEarMonitoringAudioFrame 回调数据的格式。
public abstract AudioParams getEarMonitoringAudioParams();
- 自从
- v4.0.1
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置耳返的音频数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onEarMonitoringAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
耳返的音频数据,详见 AudioParams。
onLocalAudioSpectrum
获取本地音频频谱。
boolean onLocalAudioSpectrum(AudioSpectrumInfo data);
成功调用 registerAudioSpectrumObserver 实现 IAudioSpectrumObserver 中的 onLocalAudioSpectrum 回调并调用 enableAudioSpectrumMonitor 开启音频频谱监测后,SDK 会按照你设置的时间间隔触发该回调,报告编码后的本地音频数据的频谱。
参数
- data
- 本地用户的音频频谱数据。详见 AudioSpectrumInfo。
返回值
true
: 接收。false
: 不接收。
onRemoteAudioSpectrum
获取远端音频频谱。
boolean onRemoteAudioSpectrum(UserAudioSpectrumInfo[] userAudioSpectrumInfos, int spectrumNumber);
成功调用 registerAudioSpectrumObserver 实现 IAudioSpectrumObserver 中的 onRemoteAudioSpectrum 回调并调用 enableAudioSpectrumMonitor 开启音频频谱监测后,SDK 会按照你设置的时间间隔触发该回调,报告接收到的远端音频数据的频谱。
参数
- userAudioSpectrumInfos
- 远端用户的音频频谱信息,详见 UserAudioSpectrumInfo。 数组数量等于 SDK 监测到的远端用户数量,数组为空表示没有监测到远端用户的音频频谱。
- spectrumNumber
- 远端用户的数量。
返回值
true
: 接收。false
: 不接收。