五、现实世界中的补救机制
本小章还未完,请点击下一页继续阅读后面精彩内容!
正因为自监督训练存在这些问题,现代大模型在预训练之后通常会做:
1。微调(fine-tuning):用有标注数据进行小范围有针对性训练;
2。RLHF(人类反馈强化学习):用人工打分机制优化模型输出结果,使其更符合人类价值;
3。插件系统(ToolUse):通过嵌套计算器、数据库、搜索引擎等,补足知识结构的“缺口”;
4。多模态协同:语言+图像+动作等维度补充信息结构的不完整性。
这些都是在弥补“无标注训练”的先天缺陷。
?
六、结论与展望
你提出的问题可以总结为一句话:
没有经过标注训练的大模型,其知识体系是片面的、目标性弱的、可解释性差的,因此并不完整。
AI大模型在当前阶段,的确存在以下三大“不完整性”:
1。知识分布不完整→稀缺敏感信息无法自动习得;
2。结构建模不完整→缺乏明确因果与目标框架;
3。验证机制不完整→幻觉无法主动修正,错误输出不自知。
但它的优势也明显:
?学习范围极广;
?语境模拟能力强;
?多样性高、可迁移性强。
未来,大模型的发展趋势一定是:
?人类标注与反馈机制更精细化(如AutoRLHF、偏好建模);
?任务导向设计(agent化、链式推理)加强推理结构;
?领域专家介入,实现专家知识标注精调;
?多模态数据参与建模,提升理解维度。
?
喜欢职场小聪明请大家收藏:()职场小聪明