Lazy loaded image
🧠在产品层面约束大模型的"不靠谱"
Words 507Read Time 2 min
2025-3-13
2025-3-13
type
status
date
slug
summary
tags
category
icon
password
comment
Status

为什么大模型不能达到百分之百的正确率?

  1. 概率生成范式:现在的大模型都是基于神经网络(Transformer架构)的模型,本质上是基于统计概率的序列预测。
  1. 验证机制缺失:与传统搜索引擎不同,大模型缺乏实时知识校验能力。其参数化记忆方式无法通过溯源校验来保证信息的可靠性。

现在有没有办法完全解决这个问题?

为了解决模型幻觉的问题,当前从使用模型的层面主要解决方案有:外挂RAG知识库、反思(Self-Reflection)、思维链(CoT)等。尽管这些方法在一定程度上缓解了幻觉问题,但由于大模型的复杂性和生成机制的局限性,仍不能完全消除幻觉。而且在未来技术发展过程中,现在的框架体系,也可预见地不能完全消除。
因为“大模型不能替代人去坐牢”,所以对于正确率有要求的业务,大多数场景模型产出的内容并不能直接交付,人工审核甚至人工介入是必要的。
 

基于上面问题如何设计产品?

产品设计的时候,不仅仅要考虑如何设计智能体的流程,其实如何提高人工审核的效率,如何设置人工介入节点能够提高智能体执行的准确性,也应该包含在产品的考虑范围。
分场景制定自动化等级:根据错误成本划分任务类型,差异化设计人机交互流程。 AI增强工具:开发辅助人工审核的AI工具(如自动事实核查、矛盾检测),而非简单替代。
上一篇
notebook LM
下一篇
内部工具为什么复杂