Résultats de la recherche pour "PROS"
Aujourd'hui
04:57

Xiaomi dévoile des détails sur l’entraînement du MiMo-V2-Pro : paramètres du modèle 1T, milliers de GPUs déployés

Message de Gate News, 24 avril — La responsable de l’équipe de grands modèles de langage chez Xiaomi, Luo Fuli, a révélé dans une interview approfondie que le modèle MiMo-V2-Pro compte au total 1 trillion de paramètres et nécessitait des milliers de GPUs pour l’entraînement. Elle a noté que l’échelle de 1T représente le seuil minimum pour obtenir des performances se rapprochant du niveau de Claude Opus 4.6 et obtenir un billet d’entrée compétitif pour la phase suivante d’agents IA
Plus
04:29

V4‑Pro atteint un taux de réussite de 67 % en codage lors d’un test d’auto-utilisation interne, se rapprochant des performances d’Opus 4.5

Message d’actualités Gate, 24 avril — V4 a divulgué publiquement des données internes de tests d’auto-utilisation (dogfooding) pour son modèle V4‑Pro. La société a collecté environ 200 tâches d’ingénierie issues du monde réel auprès de plus de 50 ingénieurs, couvrant le développement de fonctionnalités, la correction de bogues, la refactorisation et le diagnostic sur des piles technologiques incluant
Plus
03:21

Les données d’entraînement de DeepSeek V4 doublées à 33T, provoquant une instabilité qui a retardé la sortie

Message de Gate News, 24 avril — Le rapport technique V4 de DeepSeek révèle que V4-Flash et V4-Pro ont été préentraînés respectivement sur 32T et 33T jetons, soit le double des quelque 15T jetons utilisés pour V3. Le rapport reconnaît avoir rencontré des "défis d’instabilité significatifs" pendant l’entraînement, avec des pics de perte survenant à répétition en raison d’anomalies dans la couche Mixture-of-Experts MoE ; le mécanisme de routage lui-même exacerbe ces anomalies, et un simple rollback ne peut pas résoudre le problème.
Plus
14:41

OpenClaw 2026.4.22 unifie le cycle de vie des plugins entre les harness Codex et Pi, réduisant le temps de chargement des plugins jusqu’à 90 %

Message de Gate News, 23 avril — OpenClaw, une plateforme open source d’agent IA, a publié la version 2026.4.22 le 22 avril, dont le plus grand changement est l’alignement des cycles de vie du harness Codex et du harness Pi. Auparavant, les plugins se comportaient de façon incohérente entre les deux voies de harness, certains hooks étant absents dans certains environnements. La nouvelle version consolide les hooks critiques, notamment before_prompt_build, before_compaction/after_compaction, after_tool_call, before_message_write, et llm_input/llm_output/agent_end, éliminant la nécessité pour les développeurs de maintenir des implémentations distinctes pour chaque voie. La mise à jour introduit aussi la prise en charge du middleware async tool_result pour les extensions de plugin côté Codex. Les améliorations de performance sont considérables : le chargement des plugins utilise désormais Jiti natif, réduisant le temps de démarrage de 82 % à 90 %, tandis que l’exécution de doctor --non-interactive a diminué d’environ 74 %. Le niveau de réflexion par défaut pour les modèles d’inférence a été relevé de désactivé/faible à moyen, permettant des sorties de raisonnement par défaut pour les configurations non modifiées. D’autres correctifs incluent le fait que les appels d’agent multi-tours de Kimi K2.6 n’interrompent plus en raison d’une corruption de l’ID tool_call, une meilleure gestion de la mémoire des sous-processus Linux avec un ajustement automatique de oom_score_adj, et un nouveau système de récupération de configuration last-known-good pour empêcher que les crashs de Gateway ne soient causés par des écrasements accidentels de configuration. Les nouvelles intégrations de fournisseurs incluent la génération d’images de xAI grok-imagine-image et grok-imagine-image-pro, ainsi que les capacités TTS et STT ; Tencent Cloud en tant que plugin fournisseur officiel avec des modèles de prévisualisation Hy3 et une tarification ; et l’outil natif web_search d’OpenAI, remplaçant le canal de recherche géré d’OpenClaw lorsque la recherche web est activée.
Plus
XAI1,83%
12:17

Sam Bankman-Fried Withdraws New Trial Motion, Citing Concerns Over Fair Hearing from Judge

Message de Gate News, 23 avril — Sam Bankman-Fried, ancien PDG de FTX, a retiré sa demande de nouveau procès mercredi, dans une lettre adressée au juge de district américain Lewis Kaplan, affirmant qu’il ne croit pas obtenir un "procès équitable" sur cette question de la part du juge. Dans son dépôt auprès du tribunal de district américain pour le district sud de New York, Bankman-Fried a déclaré qu’il s’était concentré sur le fait de répondre aux questions précédentes de Kaplan, notamment sur le point de savoir si son avocat avait rédigé sa requête au titre de la règle 33 une demande de nouveau procès. "Comme je ne pense pas obtenir une audience équitable sur ce sujet devant vous, je demande maintenant à retirer la requête au titre de la règle 33, sans préjudice de la possibilité de la renouveler après que mon recours direct et la demande connexe de réassignation auront été tranchés", a-t-il déclaré. Bankman-Fried a été déclaré coupable en novembre 2023 des sept chefs d’accusation criminels de fraude au détriment des clients, des prêteurs et des investisseurs de FTX. Il a été condamné à 25 ans de prison. Sa mère, Barbara Fried, a déposé la demande de nouveau procès en son nom en mars. Bankman-Fried a également déposé un appel en novembre en vue d’obtenir un nouveau procès, qui reste en suspens. En outre, il a demandé une grâce au président Donald Trump, bien que Trump ait déclaré en janvier qu’il n’a pas l’intention d’en accorder une. Mercredi, Bankman-Fried a précisé qu’il avait conçu, rédigé et mené une grande partie des recherches juridiques pour la requête au titre de la règle 33 pendant qu’il était incarcéré à Brooklyn. Il a déclaré qu’il n’avait pas consulté son avocat, mais qu’il avait partagé des brouillons avec ses parents pour obtenir des suggestions éditoriales et avec un avocat new-yorkais initialement engagé pour le représenter dans le cadre de la requête, avant de décider de se représenter lui-même en tant que défenseur pro se.
Plus
08:02

Vision Banana de Google : un modèle de vision unifié surpasse les modèles conçus pour des tâches spécifiques en segmentation et en géométrie 3D

Message de Gate News, 23 avril — Des chercheurs de Google, dont He Kaiming et Xie Saining, ont publié un article présentant Vision Banana, un modèle polyvalent de compréhension visuelle créé grâce à un réglage fin par instruction léger du modèle de génération d’images Nano Banana Pro (Gemini 3 Pro Image) de l’entreprise
Plus
14:16

Pyth intégré comme source de données de règlement pour les marchés de matières premières de Kalshi

Kalshi intègre Pyth comme données de règlement pour son nouveau centre de matières premières, couvrant les principaux métaux et énergies, afin de permettre un trading continu et un règlement fiable ; Pyth Pro étendra l’accès aux données et la couverture des actifs. Kalshi, une plateforme de marché de prédiction réglementée par la CFTC, a intégré Pyth comme source de données de règlement pour son nouveau centre de matières premières, couvrant l’or, l’argent, le Brent, le gaz naturel, le cuivre, le maïs, le soja et le blé. Pyth Pro fournira un accès direct aux données de marché aux teneurs de marché de Kalshi afin de soutenir un trading continu et un règlement fiable des contrats d’événements liés aux matières premières. La collaboration prévoit également une expansion vers d’autres classes d’actifs, notamment les indices, les actions et le marché des changes.
Plus
PYTH10,44%
07:05

Le retrait de Claude Code par Anthropic déclenche une levée de boucliers des développeurs ; OpenAI gagne du soutien au sein de la communauté

Anthropic supprime Claude Code de l’offre Pro, suscitant des critiques alors que les développeurs migrent vers OpenAI ; Codex reste gratuit/de base, tandis que GPT-5.4 et Image 2.0 améliorent les performances, entraînant une large migration des utilisateurs. Résumé : L’article examine la suppression de Claude Code par Anthropic depuis le plan Pro $20 , ce qui déclenche un tollé chez les développeurs qui y voient une hausse de prix cachée et un risque pour la fiabilité. Il met en contraste cette décision avec la politique d’OpenAI consistant à conserver Codex dans les offres gratuites et de base, tout en soulignant de solides performances du modèle avec GPT-5.4 et ChatGPT Images 2.0, et note une migration rapide des utilisateurs vers OpenAI, Codex dépassant apparemment 4 millions d’utilisateurs actifs hebdomadaires.
Plus