大模型给出极端错误答案,如何处理?

大模型能够很好的处理很多自然语言相关的问题,但是在使用的过程中,有时候会给出一些明显的,极端错误的答案,这往往会给客户或者一线人员造成较大的迷惑,我们该如何处理这些极端错误答案?...显示全部

大模型能够很好的处理很多自然语言相关的问题,但是在使用的过程中,有时候会给出一些明显的,极端错误的答案,这往往会给客户或者一线人员造成较大的迷惑,我们该如何处理这些极端错误答案?

收起
参与30

查看其它 9 个回答abcruichao的回答

abcruichaoabcruichao系统工程师中国农业银行

生成极端错误答案是大模型的潜在风险之一,类似的问题还有:
1.大模型“幻觉”导致生成看似合理但却虚假或有误导性的回答。
2.大模型生成有偏见甚至色情暴力的内容。

由于深度学习模型的黑盒特性,以上问题无法完全消除,但是能够从以下几个方面改善:
1.尽可能高质量的预训练数据。
2.利用RLHF(基于人类反馈的强化学习)技术进行指令微调,尽可能让模型拒绝回答未知问题。
3.使用领域数据进行微调。
4.利用RAG(检索增强生成)技术检索已有知识库。
5.额外训练模型用于来筛选极端错误。

银行 · 2024-01-08
浏览460

回答者

abcruichao
系统工程师中国农业银行
擅长领域: 人工智能大数据深度学习

abcruichao 最近回答过的问题

回答状态

  • 发布时间:2024-01-08
  • 关注会员:11 人
  • 回答浏览:460
  • X社区推广