🍁 金秋送福,大奖转不停!Gate 广场第 1️⃣ 3️⃣ 期秋季成长值抽奖大狂欢开启!
总奖池超 $15,000+,iPhone 17 Pro Max、Gate 精美周边、大额合约体验券等你来抽!
立即抽奖 👉 https://www.gate.com/activities/pointprize/?now_period=13&refUid=13129053
💡 如何攒成长值,解锁更多抽奖机会?
1️⃣ 进入【广场】,点头像旁标识进入【社区中心】
2️⃣ 完成发帖、评论、点赞、社群发言等日常任务,成长值拿不停
100% 必中,手气再差也不亏,手气爆棚就能抱走大奖,赶紧试试手气!
详情: https://www.gate.com/announcements/article/47381
#成长值抽奖赢iPhone17和精美周边# #BONK# #BTC# #ETH# #GT#
OpenAI 最新研究:为何 GPT-5 与其他 LLM 还是会胡说八道
OpenAI 发布最新研究论文,直言即使大型语言模型 (LLM) 像 GPT-5 已经进步不少,但是「AI 幻觉」 (Hallucinations) 依旧是根本问题,甚至永远无法完全消除。研究团队透过实验,揭露模型在回答特定问题时,会自信满满却给出完全错误的答案,并提出一套新的「评估机制」改革方案,希望能减少模型「乱猜」的情况。
研究员测试 AI 模型不同问题,答案全错
研究人员向某个被广泛使用的聊天机器人,询问某个的博士论文题目,结果连续得到三个答案全都错误。接着再问他的生日,机器人同样给了三个不同日期,结果还是全错。
研究表示,AI 模型在面对一些资料里「很不常见的资讯」时,它会很有自信地给出答案,但却错得离谱。
预训练机制只学「语言表面」,不懂事实正确性
研究指出,模型的预训练过程,是透过大量文字来「预测下一个词」,但资料里没有标注「真或假」。换句话说,模型只学到语言的表面,而不是事实正确性。
拼字或括号这类规律性高的东西,随着模型规模变大,错误会逐渐消失。
但像是「某人生日」这种随机性高的资讯,无法靠语言模式推理出来,因此容易产生幻觉。
AI 模型被鼓励「瞎猜」,需修正模型评估模式
研究强调评估方式要大改,重点不是单纯看「对或错」,而是要重罚那种错得很自信的答案,并且奖励 AI 要「老实说不知道」。换句话说,AI 要是乱讲答案,比承认不知道更该被扣分。
反过来,如果它回答「不确定」,也应该拿到一些分数,而不是直接算零分。而且这不能只是多加几个测验做做样子,而是要彻底推翻现在只看答对率的评估制度。不改正评估方式,AI 只会继续乱猜。
研究最后表示要降低幻觉,就必须从评估体系下手,建立能真正鼓励「谨慎与诚实」的测试方式。与其要求 AI「每次都答对」,更重要的是建立一个能接受 AI「不知道」的游戏规则。
(2025 最新五大主流 LLM 全解析,付费、应用与安全性一次看懂)
这篇文章 OpenAI 最新研究:为何 GPT-5 与其他 LLM 还是会胡说八道 最早出现于 链新闻 ABMedia。