Skip to main content
说点啥是一款基于 Kotlin 的 Android 智能语音输入工具,致力于通过 LLM 与 ASR 技术让语音输入更自然、更高效,并提供 AI 后处理、悬浮球输入、小企鹅联动等高级功能。

大模型配置

目前新用户可以在引导页直接选择使用硅基流动提供的免费模型 API:
接下来将介绍如何在说点啥键盘中,为语音识别与 AI 后处理功能进一步配置硅基流动提供的API。

配置语音识别 API

在软件首页可以进入语音识别设置和 AI 后处理设置两个入口。
进入语音识别设置,可以选择切换语音识别供应商。在硅基流动(SiliconFlow)渠道,可以选择是否使用免费服务。免费服务提供两个ASR模型:
  • TeleAI/TeleSpeechASR
  • FunAudioLLM/SenseVoiceSmall
关闭使用免费服务,即可使用自己的API Key,并可以使用更多模型:
  • Qwen/Qwen3-Omni-30B-A3B-Instruct(多模态模型,可输入音频,更好更快)
  • Qwen/Qwen3-Omni-30B-A3B-Thinking(多模态模型,可输入音频,效果最好但略慢)
  • TeleAI/TeleSpeechASR
  • FunAudioLLM/SenseVoiceSmall

配置后处理 API

后处理功能帮助优化语音识别效果或完成部分特色功能,例如识别完成后进行翻译、总结识别内容中的代办信息等。硅基流动免费提供两个快速模型:
  • Qwen/Qwen-3-8B(推理模型)
  • THUDM/GLM-4-9B-0414
关闭免费服务后,可以配置自己的 API Key,使用更多模型:
除了内置的已适配模型,还可以通过自定义选项填入其他模型ID。
部分模型支持深度思考模式切换开关,帮助用户在更快的响应速度和更好的处理效果之间选择。

使用示例

完成配置后,让我们测试一下语音识别是否正常工作:
  1. 打开输入框
  2. 进行语音输入
  • 确认当前输入法为说点啥
  • 长按键盘上的麦克风按钮(大按钮),开始说话
  • 说完后松开按钮,等待识别结果
  1. 查看结果
  • 如果配置正确,识别结果会自动输入到文本框中
  • 如果出现错误,报错信息会自动复制到粘贴板中,请检查:
    • API Key 是否正确
    • 网络连接是否正常
    • 麦克风权限是否已授予
    • 是否有语音输入(检查音量波形)
更多详细使用说明见说点啥官方文档