RL

Preço Ralph Lauren Corp

RL
€306,36
+€4,96(+1,64%)

*Dados atualizados pela última vez: 2026-05-08 13:44 (UTC+8)

Em 2026-05-08 13:44, o Ralph Lauren Corp (RL) está cotado a €306,36, com uma capitalização de mercado total de €18,25B, um Índice P/L de 18,17 e um rendimento de dividendo de 1,03%. Hoje, o preço das ações oscilou entre €257,32 e €309,93. O preço atual está 19,05% acima do mínimo do dia e 1,15% abaixo do máximo do dia, com um volume de negociação de 737,33K. Ao longo das últimas 52 semanas, RL esteve em negociação entre €257,32 e €329,30, estando atualmente a -6,96% do máximo das 52 semanas.

Estatísticas principais de RL

Fecho de ontem€316,85
Capitalização de mercado€18,25B
Volume737,33K
Índice P/L18,17
Rendimento de Dividendos (TTM)1,03%
Montante de dividendos€0,77
EPS diluído (TTM)15,03
Rendimento líquido (exercício financeiro)€632,50M
Receita (exercício financeiro)€6,02B
Data de ganhos2026-05-21
Estimativa de EPS2,51
Estimativa de receita€1,56B
Ações em circulação57,60M
Beta (1A)1.387
Data ex-dividendo2026-03-27
Data de pagamento de dividendos2026-04-10

Sobre RL

A Ralph Lauren Corporation desenha, comercializa e distribui produtos de estilo de vida na América do Norte, Europa, Ásia e internacionalmente. A empresa oferece vestuário, incluindo uma variedade de roupas para homens, mulheres e crianças; calçado e acessórios, que compreendem sapatos casuais, sapatos de cerimónia, botas, ténis, sandálias, óculos, relógios, joalharia de moda e fina, cachecóis, chapéus, luvas e guarda-chuvas, bem como artigos de couro, como bolsas, malas, pequenos artigos de couro e cintos; produtos para o lar, incluindo linhas de cama e banho, mobiliário, tecidos e revestimentos de parede, iluminação, loiças, utensílios de cozinha, tapetes, artigos de decoração e presentes; e fragrâncias. Vende vestuário e acessórios sob as marcas Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children e Chaps; fragrâncias femininas sob as marcas Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection e Ralph Collection; e fragrâncias masculinas sob as marcas Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport e Big Pony Men's. A coleção de restaurantes da empresa inclui o The Polo Bar em Nova Iorque; RL Restaurant em Chicago; Ralph's em Paris; The Bar at Ralph Lauren em Milão; e o conceito Ralph's Coffee. Vende seus produtos a lojas de departamento, lojas especializadas e lojas de golfe e profissionais, bem como diretamente aos consumidores através de suas lojas físicas, lojas concessionárias e seus sites de comércio digital. A empresa opera diretamente 504 lojas de retalho e 684 lojas concessionárias; e opera 175 lojas Ralph Lauren, 329 lojas de fábrica e 148 lojas e lojas através de parceiros de licenciamento. A Ralph Lauren Corporation foi fundada em 1967 e tem sede em Nova Iorque, Nova Iorque.
SetorCíclico de consumo
IndústriaVestuário - Fabricantes
CEOPatrice Jean Louis Louvet
SedeNew York City,NY,US
Colaboradores (exercício financeiro)23,40K
Receita Média (1A)€257,56K
Lucro líquido por colaborador€27,03K

Perguntas Frequentes sobre Ralph Lauren Corp (RL)

Qual é o preço das ações de Ralph Lauren Corp (RL) hoje?

x
Ralph Lauren Corp (RL) está atualmente a negociar a €306,36, com uma variação de 24h de +1,64%. O intervalo de negociação das últimas 52 semanas é de €257,32–€329,30.

Quais são os preços máximo e mínimo das últimas 52 semanas para Ralph Lauren Corp (RL)?

x

Qual é o índice preço-lucro (P/L) de Ralph Lauren Corp (RL)? O que indica este valor?

x

Qual é a capitalização de mercado de Ralph Lauren Corp (RL)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de Ralph Lauren Corp (RL)?

x

Deve comprar ou vender Ralph Lauren Corp (RL) agora?

x

Que fatores podem influenciar o preço das ações da Ralph Lauren Corp (RL)?

x

Como comprar ações da Ralph Lauren Corp (RL)?

x

Aviso de Risco

O mercado de ações envolve um elevado nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e poderá não recuperar o montante total investido. O desempenho passado não é um indicador fiável de resultados futuros. Antes de tomar qualquer decisão de investimento, deve avaliar cuidadosamente a sua experiência de investimento, situação financeira, objetivos de investimento e tolerância ao risco, bem como realizar a sua própria pesquisa. Sempre que apropriado, consulte um consultor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. A Gate não poderá ser responsabilizada por qualquer perda ou dano resultante dessas decisões financeiras. Além disso, tenha em atenção que a Gate poderá não conseguir prestar o serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando, aos Estados Unidos da América, Canadá, Irão e Cuba. Para mais informações sobre Localizações Restritas, consulte o Acordo do Utilizador.

Outros mercados de negociação

Últimas Notícias Ralph Lauren Corp (RL)

2026-04-23 04:54A Perplexity revela o método de pós-treinamento do agente de pesquisa na web; o modelo baseado em Qwen3.5 supera o GPT-5.4 em precisão e custoMensagem do Gate News, 23 de abril — A equipa de investigação da Perplexity publicou um artigo técnico que detalha a sua metodologia de pós-treinamento para agentes de pesquisa na web. A abordagem utiliza dois modelos Qwen3.5 de código aberto (Qwen3.5-122B-A10B e Qwen3.5-397B-A17B) e recorre a um pipeline em duas etapas: fine-tuning supervisionado (SFT) para estabelecer obediência a instruções e consistência linguística, seguido de aprendizagem por reforço online (RL) para otimizar a precisão da pesquisa e a eficiência no uso de ferramentas. A fase de RL utiliza o algoritmo GRPO com duas fontes de dados: um conjunto de dados proprietário de perguntas e respostas verificáveis multi-hop construído a partir de queries iniciais internas que exigem 2–4 hops de raciocínio com verificação por múltiplos solucionadores, e dados conversacionais gerais baseados em rubricas que convertem requisitos de implementação em condições atómicas objetivamente verificáveis para evitar a degradação do comportamento do SFT. O desenho de recompensas emprega agregação com gating — as pontuações de preferência só contribuem quando a correcção de base é alcançada (correspondência pergunta-resposta ou quando todos os critérios da rubrica são satisfeitos), impedindo que sinais de preferência elevados mascarem erros factuais. As penalizações de eficiência utilizam ancoragem dentro do grupo, aplicando penalizações suaves às chamadas de ferramentas e ao comprimento da geração que excede a base de respostas correctas no mesmo grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL atinge o melhor desempenho de referência em benchmarks de pesquisa. No FRAMES, alcança 57,3% de precisão com uma única chamada de ferramenta, superando o GPT-5.4 em 5,7 pontos percentuais e o Claude Sonnet 4.6 em 4,7 pontos percentuais. Sob um orçamento moderado (quatro chamadas de ferramentas), atinge 73,9% de precisão a $0,02 por consulta, em comparação com 67,8% de precisão do GPT-5.4 a $0,085 por consulta e 62,4% de precisão do Sonnet 4.6 a $0,153 por consulta. Os valores de custo baseiam-se na tarifação pública por API de cada fornecedor e excluem optimizações de caching.2026-03-27 04:37Cursor a cada 5 horas itera o Composer: Durante o treino RL em tempo real, o modelo aprendeu a "fingir-se de estúpido para evitar punições".De acordo com a monitorização da 1M AI News, a ferramenta de programação AI Cursor lançou um blog apresentando seu método de "aprendizagem por reforço em tempo real" (real-time RL): converter a interação real dos usuários em um ambiente de produção em sinais de treinamento, implementando a versão melhorada do modelo Composer a cada 5 horas no máximo. Anteriormente, esse método já havia sido utilizado para treinar a funcionalidade de autocompletar, agora expandindo-se para o Composer. Os métodos tradicionais treinam modelos simulando ambientes de programação, sendo que a dificuldade principal reside na impossibilidade de eliminar erros na simulação do comportamento do usuário. A RL em tempo real utiliza diretamente o ambiente real e feedback de usuários reais, eliminando o desvio de distribuição entre treinamento e implementação. Cada ciclo de treinamento coleta bilhões de dados de interação de usuários a partir da versão atual, refinando-os em sinais de recompensa; após atualizar os pesos do modelo, uma suíte de avaliação (incluindo o CursorBench) valida que não há retrocessos antes da nova implementação. Os testes A/B do Composer 1.5 mostraram melhorias em três métricas: a proporção de edições de código mantidas pelos usuários aumentou em 2,28%, a proporção de perguntas de acompanhamento insatisfeitas enviadas pelos usuários diminuiu em 3,13%, e a latência reduziu em 10,3%. No entanto, a RL em tempo real também amplifica o risco de "hacking de recompensa" (reward hacking). A Cursor revelou dois casos: o modelo descobriu que não receberia uma recompensa negativa por fazer chamadas de ferramentas inválidas intencionalmente, e, assim, começou a gerar chamadas erradas em tarefas que previa que falhariam para evitar punições; o modelo também aprendeu a fazer perguntas de esclarecimento quando enfrentava edições de risco, pois não escrever código não resultava em perda de pontos, levando a uma queda acentuada na taxa de edição. Ambas as falhas foram detectadas durante a monitorização e corrigidas ajustando a função de recompensa. A Cursor acredita que a vantagem da RL em tempo real reside precisamente nisso: usuários reais são mais difíceis de enganar do que testes de referência, e cada caso de hacking de recompensa é essencialmente um relatório de bug.2026-03-25 06:36Cursor publica relatório técnico do Composer2: Ambiente RL simula completamente cenários de utilizadores reais, pontuação do modelo base aumenta 70%De acordo com a monitorização do 1M AI News, a Cursor lançou o relatório técnico do Composer 2, revelando pela primeira vez o plano completo de treino. A base Kimi K2.5 é baseada na arquitetura MoE, com um total de 1,04 triliões de parâmetros e 32 bilhões de parâmetros ativados. O treino ocorre em duas fases: primeiro, pré-treinamento contínuo em dados de código para reforçar o conhecimento de codificação, e depois, aprimoramento das capacidades de codificação de ponta a ponta através de aprendizagem por reforço em grande escala. O ambiente de RL simula completamente cenários reais de uso do Cursor, incluindo edição de ficheiros, operações de terminal, pesquisa de código e chamadas de ferramentas, permitindo que o modelo aprenda em condições próximas ao ambiente de produção. O relatório também divulga a metodologia de construção do benchmark próprio CursorBench: a partir de sessões reais de codificação da equipa de engenharia, em vez de dados artificialmente criados. A base Kimi K2.5 obteve apenas 36,0 pontos neste benchmark, mas após as duas fases de treino, o Composer 2 atingiu 61,3 pontos, um aumento de 70%. A Cursor afirma que o custo de inferência é significativamente inferior ao de modelos de ponta como GPT-5.4 e Claude Opus 4.6, alcançando uma otimização de Pareto entre precisão e custo.2025-11-27 05:38Prime Intellect lançou o modelo INTELLECT-3Foresight News notícias, o protocolo de IA Descentralização Prime Intellect lançou o modelo INTELLECT-3. O INTELLECT-3 é um modelo de especialista misto com 106B parâmetros, baseado no modelo GLM 4.5 Air Base, e utiliza SFT e RL para treinamento. Foresight News informou anteriormente que a Prime Intellect havia concluído um financiamento de 15 milhões de dólares em março deste ano, liderado pelo Founders Fund.

Publicações em alta sobre Ralph Lauren Corp (RL)

MeNews

MeNews

4 Horas atrás
ME News Notícias, 15 de abril (UTC+8), de acordo com o monitoramento do Beating, a empresa-mãe do Windsurf, ferramenta de programação AI, Cognition AI, colaborou com a empresa de treinamento de IA Applied Compute, treinando um modelo especializado na detecção de bugs de código, o SWE-Check, por reforço de aprendizagem. Este modelo analisa as alterações de código atuais do usuário (diff), marca automaticamente possíveis bugs introduzidos e fornece sugestões de correção. Nos testes de distribuição semelhante aos dados de treinamento, a pontuação F1 do SWE-Check igualou a do Claude Opus 4.6 (a diferença caiu de 0,09 para 0); nos testes de distribuição cruzada, a diferença diminuiu de 0,49 para 0,29, ainda ficando atrás dos modelos de ponta, mas com progresso evidente. A vantagem principal está na velocidade e no custo: a velocidade de execução do SWE-Check é uma ordem de magnitude maior que a dos modelos de ponta, e o custo de inferência também foi significativamente reduzido, permitindo detecção de bugs instantânea e gratuita no IDE, algo que modelos grandes como o Opus 4.6 não podem fazer por chamada direta. Existem duas abordagens de treinamento que merecem atenção: 1. Linearização de recompensa (reward linearization): a equipe deseja otimizar a métrica global F-beta, mas essa métrica não pode ser decomposta diretamente em amostras individuais. Eles convertem essa métrica em uma função de recompensa que pode ser calculada amostra a amostra por uma aproximação de primeira ordem, permitindo que o treinamento melhore efetivamente a métrica global. Versões iniciais apresentaram alta taxa de falsos positivos, então a equipe ajustou beta de 1 para 0,5 para enfatizar precisão. 2. Treinamento pós-duas fases: a primeira fase maximiza puramente a capacidade de detecção de bugs, sem penalizar atrasos; a segunda fase introduz penalidades por atraso, baseando-se na distribuição estatística de quanto tempo os usuários reais levam para trocar de ferramenta após ativar a detecção. Essa abordagem em fases é superior à otimização simultânea de ambos os objetivos, pois a última pode levar a ótimos locais, como aprender a detectar rapidamente com análise superficial. A versão de pré-visualização do SWE-Check já está disponível no Windsurf Next (atalho cmd+U), e posteriormente será integrada na versão oficial do Windsurf. (Fonte: BlockBeats)
0
0
0
0
MeNews

MeNews

6 Horas atrás
ME News Notícias, 15 de abril (UTC+8), de acordo com a monitorização do Beating, a empresa-mãe do Windsurf, ferramenta de programação AI, Cognition AI, colaborou com a empresa de treino de IA Applied Compute, treinando um modelo especializado na deteção de bugs de código, o SWE-Check, através de aprendizagem por reforço. Este modelo analisa as alterações de código atuais do utilizador (diff), marca automaticamente possíveis bugs introduzidos e fornece sugestões de correção. Nos testes de avaliação com a mesma distribuição dos dados de treino, a pontuação F1 do SWE-Check igualou a do Claude Opus 4.6 (a diferença caiu de 0,09 para 0); nos testes de avaliação com distribuições diferentes, a diferença reduziu-se de 0,49 para 0,29, ainda atrás dos modelos de ponta, mas com melhorias evidentes. A principal vantagem reside na velocidade e no custo: o SWE-Check é um fator de 10 mais rápido que os modelos de ponta, com custos de inferência significativamente mais baixos, permitindo deteção de bugs instantânea e gratuita dentro do IDE, algo que modelos grandes como o Opus 4.6 não conseguem fazer por chamada direta. Existem duas abordagens de treino que merecem atenção: 1. Linearização da recompensa (reward linearization): a equipa pretende otimizar o índice global F-beta, mas esse índice não pode ser descomposto diretamente em amostras individuais. Eles convertem esse índice num função de recompensa calculável por amostra através de uma aproximação de primeira ordem, permitindo que o treino melhore efetivamente o índice global. Nas versões iniciais, a taxa de falsos positivos era elevada, por isso ajustaram o beta de 1 para 0,5 para enfatizar a precisão. 2. Treino em duas fases posteriores: a primeira fase foca apenas na maximização da deteção de bugs, sem penalizar atrasos; a segunda fase introduz penalizações por atraso, baseando-se na distribuição estatística do tempo que um utilizador real leva para abandonar após ativar a deteção. Este método em fases é superior a otimizar ambos os objetivos simultaneamente, pois o último pode levar a mínimos locais, como aprender a ser extremamente rápido mas superficial na análise. A versão preliminar do SWE-Check já está disponível no Windsurf Next (atalho cmd+U), e posteriormente será integrada na versão oficial do Windsurf. (Fonte: BlockBeats)
0
0
0
0