大模型能够很好的处理很多自然语言相关的问题,但是在使用的过程中,有时候会给出一些明显的,极端错误的答案,这往往会给客户或者一线人员造成较大的迷惑,我们该如何处理这些极端错误答案?
收起1. 明显极端错误,说明完全没训练好;训练好的会给出不明显的“一本正经胡说八道”,很容易迷惑非专家或半瓶子醋专家
2. 没训练好是结果,找原因要去两个阶段看:一是训练阶段,二是微调阶段。
3.训练阶段注意给的数据对不对和够不够的问题,包含大量错误的数据训出来肯定没啥好结果,但是数据量太少有些时候也会导致严重跑偏。
4.微调阶段的根本述求是“对齐”, 这个阶段的重要任务之一就是对大模型输出结果进行纠偏,需要对荒诞不经的输出内容进行人工审核和纠正,不妨倒查这部分工作有没有做好?
3.即使各部分工作都做到理想化,也不能避免偶有惊喜,大模型不能100%保证输出结果都准确性和正确性,目前现状是这样。