type
status
date
slug
summary
tags
category
icon
password
comment
Status
为什么大模型不能达到百分之百的正确率?
- 概率生成范式:现在的大模型都是基于神经网络(Transformer架构)的模型,本质上是基于统计概率的序列预测。
- 验证机制缺失:与传统搜索引擎不同,大模型缺乏实时知识校验能力。其参数化记忆方式无法通过溯源校验来保证信息的可靠性。
现在有没有办法完全解决这个问题?
为了解决模型幻觉的问题,当前从使用模型的层面主要解决方案有:外挂RAG知识库、反思(Self-Reflection)、思维链(CoT)等。尽管这些方法在一定程度上缓解了幻觉问题,但由于大模型的复杂性和生成机制的局限性,仍不能完全消除幻觉。而且在未来技术发展过程中,现在的框架体系,也可预见地不能完全消除。
因为“大模型不能替代人去坐牢”,所以对于正确率有要求的业务,大多数场景模型产出的内容并不能直接交付,人工审核甚至人工介入是必要的。
基于上面问题如何设计产品?
产品设计的时候,不仅仅要考虑如何设计智能体的流程,其实如何提高人工审核的效率,如何设置人工介入节点能够提高智能体执行的准确性,也应该包含在产品的考虑范围。
分场景制定自动化等级:根据错误成本划分任务类型,差异化设计人机交互流程。
AI增强工具:开发辅助人工审核的AI工具(如自动事实核查、矛盾检测),而非简单替代。
- Author:小灰
- URL:https://blog.opencontent.cn//article/llm_project_design
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!