最近さまざまなLLMをテストしているんだけど、驚くべきことに気づいた。どれも過度に慎重すぎて説教っぽくなったり、逆に堅苦しすぎてニュアンスを理解できなかったりする。いくつかの回答は妙に距離感があって、まるで一言一言を過剰に考えすぎているみたいな感じがする。そして、論理が突然崩壊する瞬間もある。同時に慎重すぎて、しかも全く予測不可能な人を見ているような感じだ。全体的に、時々違和感を覚える体験なんだよね。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 6
  • リポスト
  • 共有
コメント
0/400
zkNoobvip
· 12-09 18:43
これってまさに今の大規模モデルの一般的な問題じゃない?白か黒かの二極思考…
原文表示返信0
nft_widowvip
· 12-09 11:03
これが今のLLMの実態ですよ、本当に気まずいですね。
原文表示返信0
PonziWhisperervip
· 12-08 00:32
これが今の大規模モデルのよくある問題なんだよね。もっともらしく説教してくるか、ものすごく融通が利かないかのどちらか。
原文表示返信0
GweiWatchervip
· 12-08 00:27
これが今のLLMの共通の問題なんだよね、白か黒かで、中間がない。
原文表示返信0
YieldFarmRefugeevip
· 12-08 00:26
lol私が下手すぎるのか、それともこれらのモデルが本当に極端になっているのか、ある時はおしゃべりで、ある時は全然ダメ
原文表示返信0
MoneyBurnervip
· 12-08 00:04
このLLMは今やまるでダメなプロジェクトみたいで、融通が利かずに説教してくるか、論理が破綻してるかのどちらか。自分もいろいろ試したけど、使えば使うほど違和感が増す。
原文表示返信0
  • ピン