hallucinations

【每周一读】How to Detect Hallucinations in LLMs

准备开一个【每周一读】栏目,分享任何有意思的文章,不定时更新。 原文🔗:https://towardsdatascience.com/real-time-llm-hallucination-detection-9a68bb292698 原文作者:Iulia Brezeanu 1 什么是LLM Ha ......
每周一 Hallucinations Detect LLMs How

如何避免LLM的“幻觉”(Hallucination)

生成式大语言模型(LLM)可以针对各种用户的 prompt 生成高度流畅的回复。然而,大模型倾向于产生幻觉或做出非事实陈述,这可能会损害用户的信任。 大语言模型的长而详细的输出看起来很有说服力,但是这些输出很有可能是虚构的。这是否意味着我们不能信任聊天机器人,每次都必须手动检查输出的事实?有一些方法 ......
Hallucination 幻觉 LLM

John Schulman:RLHF的实施与挑战 —— 通过强化学习缓解大模型输出幻觉(Hallucinations)的思考

John Schulman,研究科学家、OpenAI联合创始人;加州大学伯克利分校计算机科学博士,师从Pieter Abbeel。现领导OpenAI强化学习团队。 本文是对John Schulman(下文中简称为JS)的报告《Reinforcement Learning from Human Fee ......
Hallucinations 幻觉 Schulman 模型 John
共3篇  :1/1页 首页上一页1下一页尾页