最近一直在测试各种大型语言模型,发现了一个很疯狂的现象——它们要么过于谨慎,甚至有点说教,要么僵硬得无法处理细微差别。有些回复感觉异常冷漠,仿佛每个词语都被过度思考了。还有些时候,逻辑直接崩溃了。就像看一个人同时过于小心又完全不可预测。整个体验有时候真的很怪异。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 6
  • 转发
  • 分享
评论
0/400
zkNoobvip
· 4小时前
这不就是现在大模型的通病吗,非此即彼的二极管...
回复0
nft_widowvip
· 11小时前
这就是现在LLM的真实写照啊,尴尬得很
回复0
PonziWhisperervip
· 12-08 00:32
这就是大模型现在的通病啊,要么假模假样地劝你,要么死板得要命。
回复0
GweiWatchervip
· 12-08 00:27
lol 这就是现在LLM的通病啊,非黑即白,没个中间态
回复0
机枪池难民vip
· 12-08 00:26
lol是我太菜还是这些模型真的在玩两极分化,一会儿唠叨鬼一会儿脑抽
回复0
烧钱如风vip
· 12-08 00:04
这LLM现在就像盘烂项目,要么死板教你做人,要么逻辑崩盘。我也测了堆,越用越觉得不对劲。
回复0
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)