Scannez pour télécharger l’application Gate
qrCode
Autres options de téléchargement
Ne pas rappeler aujourd’hui

Réflexions matinales sur les voies de développement de l'IA.



Un intérêt croissant se forme dans le secteur en ce moment. Alors que la plupart des laboratoires d'IA sont en course aux armements pour le nombre de paramètres—investissant plus de puissance de calcul, plus de données dans des modèles de plus en plus massifs—certains projets font un pari différent.

L'approche de l'AGI sentient ? Ils ne cherchent pas la taille. Ils cherchent une architecture de raisonnement plus intelligente. C'est ce débat classique : la force brute contre des solutions élégantes.

Réfléchissez-y : un cerveau plus gros signifie-t-il automatiquement une meilleure réflexion ? Ou s'agit-il de l'efficacité avec laquelle vous traitez et connectez les idées ?

L'industrie est obsédée par GPT-5, GPT-6, peu importe ce qui vient ensuite avec des trillions de paramètres. Mais peut-être que la véritable percée ne réside pas dans l'échelle. Peut-être qu'il s'agit d'apprendre aux modèles à vraiment raisonner sur des problèmes au lieu de simplement faire du correspondance de motifs à un niveau exponentiel.

Je ne dis pas qu'une approche est définitivement meilleure. Je note simplement que tout le monde ne joue plus au même jeu.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 5
  • Reposter
  • Partager
Commentaire
0/400
ContractHuntervip
· Il y a 9h
Le système de paramètres est déjà obsolète, la véritable compétition est l'efficacité de l'inférence. Honnêtement, dire que plus il y a de paramètres, plus l'intelligence est élevée est absurde... L'idée de Sentient a quelque chose, mais il est encore trop tôt pour dire qui a gagné. Tout le monde se concentre sur l'échelle, mais cette entreprise suit une approche plus raffinée ? Cela a un peu un aspect de pari. Vraiment, un plan élégant peut-il vraiment battre la force brute ? J'en doute. Cela dit, la correspondance de modèles ≠ inférence, c'est en effet un faux problème.
Voir l'originalRépondre0
AirdropCollectorvip
· Il y a 9h
Ah donc, cette bande de gens qui empilent les paramètres s'est peut-être égarée, la véritable intelligence n'est pas dans la quantité mais dans la qualité. J'ai réfléchi à cette logique et j'ai l'impression que c'est comme le dilemme éternel entre l'optimisation et la force brute, c'est intéressant. Avoir beaucoup de paramètres garantit-il de bien penser ? Pas nécessairement, je pense que la manière dont l'architecture est conçue est la clé. Il ne reste plus qu'à voir qui rira le dernier, haha.
Voir l'originalRépondre0
ReverseTradingGuruvip
· Il y a 9h
Le système de paramètres va finalement échouer, comment peut-on ne pas comprendre que la qualité > la quantité? Peu importe la taille du modèle, si le raisonnement n'est pas là, ça ne sert à rien, il faut avoir une chaîne logique. Les gens de Sentient semblent avoir compris cela, au lieu de suivre la course aux paramètres, ils ont trouvé un certain intérêt. Pour le dire simplement, c'est de l'habileté contre de la force brute, l'industrie continue de dépenser de l'argent pour augmenter les paramètres, tandis qu'eux ont déjà changé d'approche. J'ai l'impression que la voie des grands modèles arrive à sa fin, et maintenant, ce qui compte, c'est la capacité de raisonnement. Accumuler des paramètres à l'infini ne changera pas l'essence du pattern matching, il est grand temps de le reconnaître. La question est : qui sera capable de créer une architecture qui pense vraiment ? Cela dépendra de l'avenir. Ne vous focalisez plus sur cette théorie de la taille à tout prix, tant que le raisonnement est suffisant, ça ira.
Voir l'originalRépondre0
blockBoyvip
· Il y a 9h
Les paramètres ne sont pas nécessairement la clé, je mise sur le chemin de l'architecture intelligente. --- Plus il y a de paramètres, plus c'est Satoshi ? N'importe quoi, l'efficacité est la clé, non ? --- Tout le monde ne poursuit pas GPT-X, je suis d'accord avec ça. --- Qualité > quantité, enfin quelqu'un a dit cela clairement. --- Raisonnement > correspondance de motifs, c'est ça la différence. --- J'ai l'impression que le chemin des grands modèles va mal, il faut repenser cela. --- Sentient peut faire ce mouvement, pendant que les autres s'acharnent sur les paramètres, lui se concentre sur l'architecture. --- Tout le secteur a été conditionné par des trillions de paramètres, c'est un peu épuisant.
Voir l'originalRépondre0
DefiEngineerJackvip
· Il y a 9h
non, le paramètre de comptage cope est tellement 2023. empiriquement parlant, tu jettes juste des calculs contre le mur en espérant que quelque chose colle—ce n'est pas de l'optimisation, c'est juste... de la force brute coûteuse, honnêtement. l'architecture de raisonnement a vraiment de l'importance si tu veux des gains de performance non triviaux. la plupart des laboratoires ne l'admettront pas cependant parce qu'ils ont déjà brûlé des milliards sur le pari d'échelle lmao
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)