mirror of
https://github.com/espressif/esp-sr.git
synced 2025-09-15 15:28:44 +08:00
fix/Wrong rst statement
This commit is contained in:
parent
fa9cfb1849
commit
7f7028d659
@ -295,7 +295,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开
|
||||
* @param afe_config The config of AFE_SR
|
||||
* @returns Handle to the AFE_SR data
|
||||
*/
|
||||
typedef esp_afe_sr_data_t* (*esp_afe_sr_iface_op_create_from_config_t)(afe_config_t *afe_config);
|
||||
typedef esp_afe_sr_data_t* (*esp_afe_sr_iface_op_create_from_config_t)(afe_config_t *afe_config);
|
||||
|
||||
feed 音频数据
|
||||
~~~~~~~~~~~~~~~~
|
||||
@ -318,7 +318,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开
|
||||
* `get_feed_chunksize`.
|
||||
* @return The size of input
|
||||
*/
|
||||
typedef int (*esp_afe_sr_iface_op_feed_t)(esp_afe_sr_data_t *afe, const int16_t* in);
|
||||
typedef int (*esp_afe_sr_iface_op_feed_t)(esp_afe_sr_data_t *afe, const int16_t* in);
|
||||
|
||||
获取音频通道数:
|
||||
|
||||
@ -332,7 +332,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开
|
||||
* @param afe The AFE_SR object to query
|
||||
* @return The amount of total channels
|
||||
*/
|
||||
typedef int (*esp_afe_sr_iface_op_get_total_channel_num_t)(esp_afe_sr_data_t *afe);
|
||||
typedef int (*esp_afe_sr_iface_op_get_total_channel_num_t)(esp_afe_sr_data_t *afe);
|
||||
|
||||
fetch 音频数据
|
||||
~~~~~~~~~~~~~~
|
||||
@ -352,7 +352,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开
|
||||
* @param afe The AFE_SR object to query
|
||||
* @return The amount of samples to feed the fetch function
|
||||
*/
|
||||
typedef int (*esp_afe_sr_iface_op_get_samp_chunksize_t)(esp_afe_sr_data_t *afe);
|
||||
typedef int (*esp_afe_sr_iface_op_get_samp_chunksize_t)(esp_afe_sr_data_t *afe);
|
||||
|
||||
``afe_handle->fetch()`` 的函数声明如下:
|
||||
|
||||
@ -366,7 +366,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开
|
||||
* @param afe The AFE_SR object to query
|
||||
* @return The result of output, please refer to the definition of `afe_fetch_result_t`. (The frame size of output audio can be queried by the `get_fetch_chunksize`.)
|
||||
*/
|
||||
typedef afe_fetch_result_t* (*esp_afe_sr_iface_op_fetch_t)(esp_afe_sr_data_t *afe);
|
||||
typedef afe_fetch_result_t* (*esp_afe_sr_iface_op_fetch_t)(esp_afe_sr_data_t *afe);
|
||||
|
||||
其返回值为结构体指针,结构体定义如下:
|
||||
|
||||
@ -377,15 +377,15 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开
|
||||
*/
|
||||
typedef struct afe_fetch_result_t
|
||||
{
|
||||
int16_t *data; // the data of audio.
|
||||
int data_size; // the size of data. The unit is byte.
|
||||
int wakeup_state; // the value is wakenet_state_t
|
||||
int wake_word_index; // if the wake word is detected. It will store the wake word index which start from 1.
|
||||
int vad_state; // the value is afe_vad_state_t
|
||||
int trigger_channel_id; // the channel index of output
|
||||
int wake_word_length; // the length of wake word. It's unit is the number of samples.
|
||||
int ret_value; // the return state of fetch function
|
||||
void* reserved; // reserved for future use
|
||||
int16_t *data; // the data of audio.
|
||||
int data_size; // the size of data. The unit is byte.
|
||||
int wakeup_state; // the value is wakenet_state_t
|
||||
int wake_word_index; // if the wake word is detected. It will store the wake word index which start from 1.
|
||||
int vad_state; // the value is afe_vad_state_t
|
||||
int trigger_channel_id; // the channel index of output
|
||||
int wake_word_length; // the length of wake word. It's unit is the number of samples.
|
||||
int ret_value; // the return state of fetch function
|
||||
void* reserved; // reserved for future use
|
||||
} afe_fetch_result_t;
|
||||
|
||||
WakeNet 使用
|
||||
|
||||
@ -3,19 +3,11 @@ ESP-SR 用户指南
|
||||
|
||||
:link_to_translation:`en:[English]`
|
||||
|
||||
这里是乐鑫 `ESP-SR <https://github.com/espressif/esp-sr>` 本文档将介绍乐鑫以 ESP32 系列芯片为基础推出的 AI 语音解决方案。从前端音频处理,到语音命令词识别,从硬件设计建议,到性能测试方法,全面介绍乐鑫在 AI 语音方面的系统性工作,为用户在乐鑫 ESP32 系列芯片及开发板上构建 AIoT 应用,提供有力参考。
|
||||
这里是乐鑫 `ESP-SR <https://github.com/espressif/esp-sr>`__ 本文档将介绍乐鑫以 ESP32 和 ESP32S3 系列芯片为基础推出的 AI 语音解决方案。从前端音频处理,到语音命令词识别,从硬件设计建议,到性能测试方法,全面介绍乐鑫在 AI 语音方面的系统性工作,为用户在乐鑫 ESP32 系列芯片及开发板上构建 AIoT 应用,提供有力参考。
|
||||
|
||||
乐鑫 AFE 算法已通过亚马逊 Alexa 内置设备的 Software Audio Front-End 认证。可在语音通话和语音识别等场景下提供高质量音频输入。AFE算法中内置的唤醒模块可实现本地语音唤醒功能,且支持唤醒词定制。乐鑫语音命令词识别模型可支持最多200条中英文命令词,且可在运行中修改命令词,为应用带来极大灵活性。
|
||||
乐鑫 AFE 算法已通过亚马逊 Alexa 内置设备的 Software Audio Front-End 认证。可在语音通话和语音识别等场景下提供高质量音频输入。 AFE 算法中内置的唤醒模块可实现本地语音唤醒功能,且支持唤醒词定制。乐鑫语音命令词识别模型可支持最多 200 条中英文命令词,且可在运行中修改命令词,为应用带来极大灵活性。
|
||||
|
||||
基于多年硬件设计与开发经验,乐鑫可为客户提供语音开发板Review服务,并乐意为客户自制开发板进行测试和调优,以展现算法最优性能。客户也可按照乐鑫提供的测试方式和自测结果,对开发板和整机产品进行深入评估。
|
||||
|
||||
.. only:: html
|
||||
|
||||
**本文档仅包含针对芯片的 ESP-AT 使用**。如需了解其他芯片,请在页面左上方的下拉菜单中选择您的目标芯片。
|
||||
|
||||
.. only:: latex
|
||||
|
||||
**本文档仅包含针对芯片的 ESP-AT 使用**。
|
||||
基于多年硬件设计与开发经验,乐鑫可为客户提供语音开发板 Review 服务,并乐意为客户自制开发板进行测试和调优,以展现算法最优性能。客户也可按照乐鑫提供的测试方式和自测结果,对开发板和整机产品进行深入评估。
|
||||
|
||||
.. toctree::
|
||||
:hidden:
|
||||
|
||||
@ -22,7 +22,7 @@
|
||||
|
||||
- 如果客户不提供唤醒词语料
|
||||
|
||||
- 所有训练语料由乐鑫采集提供(训练前、后,乐鑫不会泄露客户语料)
|
||||
- 所有训练语料由乐鑫采集提供
|
||||
- 语料提供给乐鑫后,需要 2~3 周进行模型训练及调优
|
||||
- 根据量级收取少量模型定制费用(语料采集费用另收)
|
||||
|
||||
|
||||
@ -81,7 +81,7 @@ WakeNet使用
|
||||
|
||||
- WakeNet 运行
|
||||
|
||||
WakeNet 目前包含在语音前端算法 `AFE <../audio_front_end/README_CN.md>`__中,默认为运行状态,并将识别结果通过 AFE fetch 接口返回。
|
||||
WakeNet 目前包含在语音前端算法 `AFE <../audio_front_end/README_CN.md>`__ 中,默认为运行状态,并将识别结果通过 AFE fetch 接口返回。
|
||||
|
||||
如果用户不需要初始化 WakeNet,请在 AFE 配置时选择:
|
||||
|
||||
@ -89,7 +89,7 @@ WakeNet使用
|
||||
|
||||
afe_config.wakenet_init = False.
|
||||
|
||||
如果用户想临时关闭/打开 WakeNet, 请在运行过程中调用:
|
||||
如果用户想临时关闭/打开 WakeNet, 请在运行过程中调用:
|
||||
|
||||
::
|
||||
|
||||
|
||||
Loading…
Reference in New Issue
Block a user