2026·05·01
用户说"这个 AI 听不懂我说的话"。我去看日志,模型其实给出了答案,只是答非所问。
问题不在准确率,在于失败的时候什么都不说。它装作懂了,硬给一个回复。用户没办法判断——是自己问得不清楚,还是 AI 没听懂。
不确定,是 AI 必须暴露给用户的状态。
我把"理解失败"做成了一个明确的视觉信号:当置信度低于阈值,AI 直接说"这个问题我不太确定,是不是想问 X 或 Y?"
上线一周,用户投诉减半。