NVDA+2.57%GOOGL-0.39%MSFT-0.59%META+0.23%AMZN+2.02%AMD+3.55%ORCL+0.17%PLTR-1.86%
RESEARCHQwen Blog·27/07/2025

GSPO: Towards Scalable Reinforcement Learning for Language Models

O Reinforcement Learning é crucial para escalar modelos de linguagem, mas algoritmos existentes sofrem de instabilidade e colapso do modelo. Para resolver isso e permitir o escalonamento bem-sucedido, propõe-se o algoritmo Group Sequence Policy Optimization (GSPO).

ScalabilityPolicy OptimizationLanguage ModelsReinforcement Learning
27
NEWSQwen Blog·24/07/2025

Qwen-MT: Where Speed Meets Smart Translation

A Qwen-MT introduz a atualização qwen-mt-turbo, que aprimora significativamente as capacidades de tradução e compreensão multilingue do modelo. Construído sobre o Qwen3 e utilizando aprendizado por reforço, oferece suporte a 92 idiomas com maior precisão e fluência.

Qwen-MTAI TranslationReinforcement Learninglanguage model
23
NEWSQwen Blog·22/07/2025

Qwen3-Coder: Agentic Coding in the World

Qwen3-Coder é um novo modelo de código agêntico, com destaque para a variante 480B-A35B-Instruct, que oferece 480 bilhões de parâmetros e suporta contextos de até 1 milhão de tokens. Ele estabelece novos recordes de desempenho em codificação agêntica, uso de navegador e ferramentas, comparável ao Claude Sonnet 4.

programaçãoAgentes de IAIAQwen3-Coder
27
NEWSQwen Blog·27/06/2025

Time to Speak Some Dialects, Qwen-TTS!

A nova atualização do Qwen-TTS, treinada em milhões de horas de fala, oferece naturalidade e expressividade de nível humano, ajustando automaticamente prosódia e emoções. Agora, ele suporta a geração de 3 dialetos chineses (pequinês, xangainês, sichuanês) e 7 vozes bilíngues chinês-inglês através da Qwen API.

Qwen-TTSDialetos ChinesesIAAPI
21
ARTICLEQwen Blog·26/06/2025

Qwen VLo: From "Understanding" the World to "Depicting" It

O Qwen VLo é um novo modelo multimodal unificado de compreensão e geração que representa um avanço significativo na IA. Ele não apenas entende o conteúdo de imagens, mas também gera recriações de alta qualidade, conectando percepção e criação.

Geração de ImagensMultimodal AIQwen VLoGrandes Modelos
23
NEWSQwen Blog·05/06/2025

Qwen3 Embedding: Advancing Text Embedding and Reranking Through Foundation Models

A série Qwen3 Embedding, construída sobre o modelo fundamental Qwen3, é lançada para tarefas de embedding, recuperação e reranking de texto. Ela alcança desempenho de ponta em benchmarks, aproveitando capacidades multilíngues robustas e foi disponibilizada como código aberto sob a licença Apache 2.

Text EmbeddingAI ModelsQwen3 Embeddingfoundation models
27
NEWSQwen Blog·28/04/2025

Qwen3: Think Deeper, Act Faster

Qwen3, a nova família de modelos de linguagem, foi lançada, com o modelo principal Qwen3-235B-A22B alcançando resultados competitivos em benchmarks. Modelos menores como Qwen3-30B-A3B e Qwen3-4B também demonstraram desempenho superior em comparação com outros modelos.

AI ModelsBenchmarksMoEQwen3
23
NEWSQwen Blog·27/03/2025

QVQ-Max: Think with Evidence

A Qwen lançou oficialmente o QVQ-Max, um modelo de raciocínio visual capaz de compreender, analisar e raciocinar com informações de imagens e vídeos. Ele demonstra habilidades impressionantes na resolução de problemas complexos, desde matemática e programação até criação artística.

Multimodal AIVisual ReasoningQVQ-MaxAI
24
NEWSQwen Blog·26/03/2025

Qwen2.5 Omni: See, Hear, Talk, Write, Do It All!

Apresentamos o Qwen2.5-Omni, o novo modelo multimodal de ponta da série Qwen, capaz de processar texto, imagens, áudio e vídeo. Ele oferece respostas em tempo real por meio de geração de texto e síntese de fala, estando disponível abertamente em plataformas como Hugging Face e Qwen Chat.

modelo multimodalQwen2.5-OmniInteligência ArtificialGeração de Texto
24
NEWSQwen Blog·23/03/2025

Qwen2.5-VL-32B: Smarter and Lighter

O texto anuncia o Qwen2.5-VL-32B-Instruct, um novo modelo da série Qwen2.5-VL otimizado com aprendizado por reforço e lançado como código aberto sob licença Apache 2.0. Este modelo se destaca por sua escala de 32 bilhões de parâmetros.

Open Source32B ParametersReinforcement Learningmachine learning
23
RESEARCHQwen Blog·05/03/2025

QwQ-32B: Embracing the Power of Reinforcement Learning

O conteúdo aborda o potencial do Aprendizado por Reforço (RL) em escala para aprimorar o desempenho e as capacidades de raciocínio de modelos de IA, superando métodos convencionais. A pesquisa explora especificamente o impacto do RL na inteligência de Grandes Modelos de Linguagem (LLMs), citando exemplos como o DeepSeek R1.

Model Performancedeep learningReinforcement Learninglarge language models
27
NEWSQwen Blog·24/02/2025

<think>...</think> QwQ-Max-Preview

Este conteúdo descreve a intenção de criar uma introdução para um blog que anunciará o QwQ-Max-Preview. Trata-se de um modelo de IA da série Qwen, construído sobre Qwen2.5-Max, focado em ser uma versão de prévia.

PreviewAIQwenLLM
21
ARTICLEQwen Blog·28/01/2025

Qwen2.5-Max: Exploring the Intelligence of Large-scale MoE Model

O conteúdo explora a importância da escalabilidade contínua de dados e modelos (densos ou Mixture-of-Expert) para aprimorar a inteligência artificial, destacando a experiência limitada da comunidade na área. Menciona que detalhes críticos de escalabilidade foram recentemente divulgados pelo DeepSeek V3 e que o Qwen2 está em desenvolvimento.

IAmodelos de linguagemMoE
23
ARTICLEQwen Blog·26/01/2025

Qwen2.5-1M: Deploy Your Own Qwen with Context Length up to 1M Tokens

Este conteúdo anuncia o lançamento dos modelos open-source Qwen2.5-1M (7B e 14B), que agora suportam um comprimento de contexto de até um milhão de tokens. Esta liberação expande as capacidades dos modelos Qwen para lidar com contextos extensos, seguindo a atualização da versão Turbo.

Contexto de 1MOpen SourceInteligência Artificialmodelos de linguagem
27
NEWSQwen Blog·26/01/2025

Qwen2.5 VL! Qwen2.5 VL! Qwen2.5 VL!

O conteúdo anuncia o lançamento do Qwen2.5-VL, o novo modelo de linguagem de visão carro-chefe da Qwen, representando um avanço significativo. Ele está disponível para experimentação no Qwen Chat e em plataformas como Hugging Face e ModelScope em três tamanhos.

AI ModelsHugging FaceVision-Language ModelQwen
26
ARTICLEQwen Blog·20/01/2025

Global-batch load balance almost free lunch to improve your MoE LLM training

O conteúdo introduz a arquitetura Mixture-of-Experts (MoE) como uma técnica popular para escalar parâmetros de modelos. Ele descreve a camada MoE consistindo de um roteador e um grupo de experts, onde apenas um subconjunto é ativado para processar uma entrada.

deep learningtrainingMoENeural Architecture
23
RESEARCHQwen Blog·13/01/2025

Towards Effective Process Supervision in Mathematical Reasoning

Modelos de Linguagem Grandes (LLMs) têm feito avanços notáveis no raciocínio matemático, mas podem cometer erros de cálculo ou lógica. Mesmo quando as respostas finais estão corretas, os LLMs podem criar passos de raciocínio plausíveis, mas falhos, comprometendo a confiabilidade de seus processos.

Mathematical ReasoningLLMsProcess SupervisionAI limitations
27
ARTICLEMicrosoft AI Blog·06/12/2022

A conversation with Kevin Scott: What’s next in AI

Este conteúdo é um anúncio de um post no AI Blog sobre uma conversa com Kevin Scott, abordando o futuro da inteligência artificial.

Future of AIblog postinterviewKevin Scott
3
ARTICLEMicrosoft AI Blog·12/10/2022

From Hot Wheels to handling content: How brands are using Microsoft AI to be more productive and imaginative

Este conteúdo aborda como marcas estão utilizando a inteligência artificial da Microsoft para aumentar sua produtividade e criatividade. A publicação explora exemplos que vão desde a infância até a gestão de conteúdo.

creativityproductivitybrandsMicrosoft AI
3
NEWSMicrosoft AI Blog·06/10/2022

Microsoft open sources its ‘farm of the future’ toolkit

A Microsoft anunciou a disponibilização em código aberto de seu kit de ferramentas 'Fazenda do Futuro', conforme publicado no The AI Blog.

AgriculturaOpen SourceIAMicrosoft
9
←1…86878889→
[email protected]