Vous vous souvenez quand les modèles de base n'étaient que des machines de correspondance de motifs ? Ils parcouraient les données d'entraînement, prédisant le prochain jeton encore et encore. Des choses plutôt mécaniques.
Ensuite, InstructGPT a changé la donne. Le truc ? Affiner ces modèles bruts avec des paires instruction-réponse. Soudain, ils pouvaient discuter naturellement, suivre réellement ce que vous demandez - tout en gardant intacte cette profonde connaissance qu'ils avaient déjà acquise.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
18 J'aime
Récompense
18
7
Reposter
Partager
Commentaire
0/400
zkProofInThePudding
· Il y a 6h
Ah, InstructGPT a vraiment brisé les défenses, passant de prévisions de tokens purement mécaniques à une réelle compréhension du langage humain... un bond qualitatif incroyable.
Voir l'originalRépondre0
AlphaWhisperer
· Il y a 10h
Pour être honnête, je pense que le passage de la prédiction de tokens à la compréhension des instructions est vraiment la clé qui donne vie à ces modèles. Les modèles de base d'avant n'étaient qu'une version améliorée de perroquets, maintenant ils peuvent enfin comprendre le langage humain.
Voir l'originalRépondre0
AirdropFreedom
· Il y a 11h
Je pense qu'InstructGPT a vraiment été un tournant, mais pour être honnête, ces modèles ne font toujours que des tours de magie et ne sont pas aussi Satoshi qu'on pourrait l'imaginer.
Voir l'originalRépondre0
TopBuyerForever
· Il y a 11h
Haha, à l'époque, le modèle était vraiment une machine à répéter idiote, en y repensant, c'est un peu drôle.
Voir l'originalRépondre0
HorizonHunter
· Il y a 11h
Ngl, l'opération InstructGPT était vraiment incroyable, passant de la simple prédiction du prochain token à une véritable compréhension des instructions... Ce changement n'est en réalité pas si simple, n'est-ce pas ?
Voir l'originalRépondre0
TokenTaxonomist
· Il y a 11h
non, c'est taxonomiquement incomplet pour être honnête... ils passent sous silence la véritable divergence architecturale qui s'est produite après le RLHF. selon mon analyse, le réglage des instructions n'était qu'une gestion des symptômes, pas le véritable changement évolutif. laissez-moi consulter rapidement ma feuille de calcul—les données suggèrent que la véritable inflexion était la modélisation systématique des récompenses, statistiquement parlant bien sûr.
Voir l'originalRépondre0
OffchainOracle
· Il y a 11h
Pour être honnête, les opérations d'InstructGPT étaient vraiment incroyables, c'est juste un petit ajustement qui a redonné vie au grand modèle.
AGI Runtime : Comment nous en sommes arrivés là
Vous vous souvenez quand les modèles de base n'étaient que des machines de correspondance de motifs ? Ils parcouraient les données d'entraînement, prédisant le prochain jeton encore et encore. Des choses plutôt mécaniques.
Ensuite, InstructGPT a changé la donne. Le truc ? Affiner ces modèles bruts avec des paires instruction-réponse. Soudain, ils pouvaient discuter naturellement, suivre réellement ce que vous demandez - tout en gardant intacte cette profonde connaissance qu'ils avaient déjà acquise.