diff --git a/docs/zh_CN/audio_front_end/README.rst b/docs/zh_CN/audio_front_end/README.rst index d2716f8..891b6de 100644 --- a/docs/zh_CN/audio_front_end/README.rst +++ b/docs/zh_CN/audio_front_end/README.rst @@ -295,7 +295,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开 * @param afe_config The config of AFE_SR * @returns Handle to the AFE_SR data */ - typedef esp_afe_sr_data_t* (*esp_afe_sr_iface_op_create_from_config_t)(afe_config_t *afe_config); + typedef esp_afe_sr_data_t* (*esp_afe_sr_iface_op_create_from_config_t)(afe_config_t *afe_config); feed 音频数据 ~~~~~~~~~~~~~~~~ @@ -318,7 +318,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开 * `get_feed_chunksize`. * @return The size of input */ - typedef int (*esp_afe_sr_iface_op_feed_t)(esp_afe_sr_data_t *afe, const int16_t* in); + typedef int (*esp_afe_sr_iface_op_feed_t)(esp_afe_sr_data_t *afe, const int16_t* in); 获取音频通道数: @@ -332,7 +332,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开 * @param afe The AFE_SR object to query * @return The amount of total channels */ - typedef int (*esp_afe_sr_iface_op_get_total_channel_num_t)(esp_afe_sr_data_t *afe); + typedef int (*esp_afe_sr_iface_op_get_total_channel_num_t)(esp_afe_sr_data_t *afe); fetch 音频数据 ~~~~~~~~~~~~~~ @@ -352,7 +352,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开 * @param afe The AFE_SR object to query * @return The amount of samples to feed the fetch function */ - typedef int (*esp_afe_sr_iface_op_get_samp_chunksize_t)(esp_afe_sr_data_t *afe); + typedef int (*esp_afe_sr_iface_op_get_samp_chunksize_t)(esp_afe_sr_data_t *afe); ``afe_handle->fetch()`` 的函数声明如下: @@ -366,7 +366,7 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开 * @param afe The AFE_SR object to query * @return The result of output, please refer to the definition of `afe_fetch_result_t`. (The frame size of output audio can be queried by the `get_fetch_chunksize`.) */ - typedef afe_fetch_result_t* (*esp_afe_sr_iface_op_fetch_t)(esp_afe_sr_data_t *afe); + typedef afe_fetch_result_t* (*esp_afe_sr_iface_op_fetch_t)(esp_afe_sr_data_t *afe); 其返回值为结构体指针,结构体定义如下: @@ -377,15 +377,15 @@ AFE 的输出音频为单通道数据。在语音识别场景,若WakeNet 开 */ typedef struct afe_fetch_result_t { - int16_t *data; // the data of audio. - int data_size; // the size of data. The unit is byte. - int wakeup_state; // the value is wakenet_state_t - int wake_word_index; // if the wake word is detected. It will store the wake word index which start from 1. - int vad_state; // the value is afe_vad_state_t - int trigger_channel_id; // the channel index of output - int wake_word_length; // the length of wake word. It's unit is the number of samples. - int ret_value; // the return state of fetch function - void* reserved; // reserved for future use + int16_t *data; // the data of audio. + int data_size; // the size of data. The unit is byte. + int wakeup_state; // the value is wakenet_state_t + int wake_word_index; // if the wake word is detected. It will store the wake word index which start from 1. + int vad_state; // the value is afe_vad_state_t + int trigger_channel_id; // the channel index of output + int wake_word_length; // the length of wake word. It's unit is the number of samples. + int ret_value; // the return state of fetch function + void* reserved; // reserved for future use } afe_fetch_result_t; WakeNet 使用 diff --git a/docs/zh_CN/index.rst b/docs/zh_CN/index.rst index 62d4d32..86aaaef 100644 --- a/docs/zh_CN/index.rst +++ b/docs/zh_CN/index.rst @@ -3,19 +3,11 @@ ESP-SR 用户指南 :link_to_translation:`en:[English]` -这里是乐鑫 `ESP-SR ` 本文档将介绍乐鑫以 ESP32 系列芯片为基础推出的 AI 语音解决方案。从前端音频处理,到语音命令词识别,从硬件设计建议,到性能测试方法,全面介绍乐鑫在 AI 语音方面的系统性工作,为用户在乐鑫 ESP32 系列芯片及开发板上构建 AIoT 应用,提供有力参考。 +这里是乐鑫 `ESP-SR `__ 本文档将介绍乐鑫以 ESP32 和 ESP32S3 系列芯片为基础推出的 AI 语音解决方案。从前端音频处理,到语音命令词识别,从硬件设计建议,到性能测试方法,全面介绍乐鑫在 AI 语音方面的系统性工作,为用户在乐鑫 ESP32 系列芯片及开发板上构建 AIoT 应用,提供有力参考。 -乐鑫 AFE 算法已通过亚马逊 Alexa 内置设备的 Software Audio Front-End 认证。可在语音通话和语音识别等场景下提供高质量音频输入。AFE算法中内置的唤醒模块可实现本地语音唤醒功能,且支持唤醒词定制。乐鑫语音命令词识别模型可支持最多200条中英文命令词,且可在运行中修改命令词,为应用带来极大灵活性。 +乐鑫 AFE 算法已通过亚马逊 Alexa 内置设备的 Software Audio Front-End 认证。可在语音通话和语音识别等场景下提供高质量音频输入。 AFE 算法中内置的唤醒模块可实现本地语音唤醒功能,且支持唤醒词定制。乐鑫语音命令词识别模型可支持最多 200 条中英文命令词,且可在运行中修改命令词,为应用带来极大灵活性。 -基于多年硬件设计与开发经验,乐鑫可为客户提供语音开发板Review服务,并乐意为客户自制开发板进行测试和调优,以展现算法最优性能。客户也可按照乐鑫提供的测试方式和自测结果,对开发板和整机产品进行深入评估。 - -.. only:: html - - **本文档仅包含针对芯片的 ESP-AT 使用**。如需了解其他芯片,请在页面左上方的下拉菜单中选择您的目标芯片。 - -.. only:: latex - - **本文档仅包含针对芯片的 ESP-AT 使用**。 +基于多年硬件设计与开发经验,乐鑫可为客户提供语音开发板 Review 服务,并乐意为客户自制开发板进行测试和调优,以展现算法最优性能。客户也可按照乐鑫提供的测试方式和自测结果,对开发板和整机产品进行深入评估。 .. toctree:: :hidden: diff --git a/docs/zh_CN/wake_word_engine/ESP_Wake_Words_Customization.rst b/docs/zh_CN/wake_word_engine/ESP_Wake_Words_Customization.rst index f5d5a77..73ffb29 100644 --- a/docs/zh_CN/wake_word_engine/ESP_Wake_Words_Customization.rst +++ b/docs/zh_CN/wake_word_engine/ESP_Wake_Words_Customization.rst @@ -22,7 +22,7 @@ - 如果客户不提供唤醒词语料 - - 所有训练语料由乐鑫采集提供(训练前、后,乐鑫不会泄露客户语料) + - 所有训练语料由乐鑫采集提供 - 语料提供给乐鑫后,需要 2~3 周进行模型训练及调优 - 根据量级收取少量模型定制费用(语料采集费用另收) diff --git a/docs/zh_CN/wake_word_engine/README.rst b/docs/zh_CN/wake_word_engine/README.rst index 499fc05..27010de 100644 --- a/docs/zh_CN/wake_word_engine/README.rst +++ b/docs/zh_CN/wake_word_engine/README.rst @@ -81,7 +81,7 @@ WakeNet使用 - WakeNet 运行 - WakeNet 目前包含在语音前端算法 `AFE <../audio_front_end/README_CN.md>`__中,默认为运行状态,并将识别结果通过 AFE fetch 接口返回。 + WakeNet 目前包含在语音前端算法 `AFE <../audio_front_end/README_CN.md>`__ 中,默认为运行状态,并将识别结果通过 AFE fetch 接口返回。 如果用户不需要初始化 WakeNet,请在 AFE 配置时选择: @@ -89,7 +89,7 @@ WakeNet使用 afe_config.wakenet_init = False. - 如果用户想临时关闭/打开 WakeNet, 请在运行过程中调用: + 如果用户想临时关闭/打开 WakeNet, 请在运行过程中调用: ::