Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Notas de desenvolvimento de agentes AI (Primeira aula): as armadilhas do contexto window
Ao fazer um projeto, percebi o quão complicado esse problema pode ser — alguns arquivos, sem perceber, crescem demais e todo o fluxo precisa ser reformulado no meio do caminho. Naquele momento, fiquei realmente surpreso.
Depois, comecei a pensar: será que dá para pensar de forma inversa? Fazer com que os agentes aprendam a gerenciar seu próprio tamanho de contexto? Ou seja, que os agentes, durante a execução, possam reconhecer quando precisam otimizar e como ajustar a estrutura dos arquivos para se adaptar às limitações de tokens.
Essa ideia é realmente interessante — incorporar a lógica de otimização no mecanismo de autoajuste dos agentes. A seguir, vou testar quais soluções realmente funcionam, quais têm mais chances de dar problema, e quem tiver ideias pode participar da discussão.
Deixar os agents gerirem o contexto por conta própria é realmente inteligente, só tenho medo de que a otimização automática acabe tornando tudo mais confuso.
Aguardarei os teus resultados de teste, quero ver qual solução é mais confiável.
Na parte de autogerenciamento, realmente tenho que refletir, senão mais tarde vai ser uma loucura de manter
A auto-otimização realmente é uma ideia inteligente, deixar o agente gerenciar a janela de contexto é muito mais confiável do que apagar manualmente
Mas acho que o mais importante é como fazer com que ele reconheça quais informações devem ser mantidas e quais podem ser descartadas, esse trade-off é difícil de equilibrar
Quem tem experiência prática, por favor, compartilhe, quero ver se já existem soluções prontas
A ideia de gerenciar o tamanho do contexto por conta própria é realmente ótima, só não sei se a implementação não vai criar novos problemas
Se houver progresso, tenho que compartilhar, agora estou preso nisso
Essa ideia é boa, se os agents puderem se adaptar e otimizar, isso já resolve metade do problema
Mas é preciso pensar bem em como determinar quando essa lógica deve ser otimizada, é fácil fazer confusão
Aguardando seus resultados de testes, quais soluções são realmente viáveis
让agent自己管理token这想法我喜欢,就是不知道实际跑起来会不会又是另一套逻辑
有测试结果的话一定要分享啊,想看看最后怎么优化的
其实这才是真正的自适应吧,不然就是在给agents打补丁
感觉你后面肯定还有更野的想法,继续啊
试过RAG那套流程吗,感觉也能缓解这问题
坦白说之前的方案都太被动了,这次换个思路还是值得的
等你出个最佳实践指南,社区估计得抢破头
A ideia de deixar o agente gerir o token por conta própria é boa, só tenho medo de ser mais uma nova armadilha
---
自适应管理听起来不错,就怕实际跑的时候token还是会溅你一脸血
---
这个思路有点意思,反正现在模型那么多限制,让agents自己想办法也蛮合理的
---
等等,优化逻辑怎么嵌入啊,会不会本身就吃掉一堆context
---
我觉得可以试试分片处理,比硬怼context window聪明多了
---
真的,这种自优化的东西调试起来得多费劲啊
---
有点想看看你后面测试的方案,踩坑指南也值得学