NVDA+0.25%GOOGL+0.31%MSFT+2.09%META-0.67%AMZN-0.49%AMD-0.57%ORCL+8.62%PLTR+3.98%
NEWSQwen Blog·18/08/2025

Qwen-Image-Edit: Image Editing with Higher Quality and Efficiency

Qwen-Image-Edit é uma nova versão do modelo Qwen-Image focada em edição de imagens, estendendo suas capacidades de renderização de texto para edição precisa. Ele permite edição semântica e de aparência ao integrar-se com Qwen2.5-VL e VAE Encoder.

Text Editingcomputer visionImage EditingAI model
27
NEWS↑ trendingReddit r/LocalLLaMA·13/08/2025

Announcing LocalLlama discord server & bot!

Um novo servidor Discord para LocalLlama foi lançado, visando criar uma comunidade mais técnica e focada em discussão de IA de código aberto. O servidor contará com um bot para testar modelos e melhor organização de eventos.

BotLocalLlamaComunidadeIA de código aberto
35
NEWSQwen Blog·04/08/2025

Qwen-Image: Crafting with Native Text Rendering

Anuncia o lançamento do Qwen-Image, um modelo de fundação de imagem MMDiT de 20 bilhões de parâmetros. Ele se destaca na renderização complexa de texto e edição precisa de imagens.

Image generationImage EditingAI modelQwen-Image
21
RESEARCHQwen Blog·27/07/2025

GSPO: Towards Scalable Reinforcement Learning for Language Models

O Reinforcement Learning é crucial para escalar modelos de linguagem, mas algoritmos existentes sofrem de instabilidade e colapso do modelo. Para resolver isso e permitir o escalonamento bem-sucedido, propõe-se o algoritmo Group Sequence Policy Optimization (GSPO).

scalabilityPolicy OptimizationLanguage ModelsReinforcement Learning
27
NEWSQwen Blog·24/07/2025

Qwen-MT: Where Speed Meets Smart Translation

A Qwen-MT introduz a atualização qwen-mt-turbo, que aprimora significativamente as capacidades de tradução e compreensão multilingue do modelo. Construído sobre o Qwen3 e utilizando aprendizado por reforço, oferece suporte a 92 idiomas com maior precisão e fluência.

Qwen-MTAI TranslationReinforcement Learninglanguage model
23
NEWSQwen Blog·22/07/2025

Qwen3-Coder: Agentic Coding in the World

Qwen3-Coder é um novo modelo de código agêntico, com destaque para a variante 480B-A35B-Instruct, que oferece 480 bilhões de parâmetros e suporta contextos de até 1 milhão de tokens. Ele estabelece novos recordes de desempenho em codificação agêntica, uso de navegador e ferramentas, comparável ao Claude Sonnet 4.

programaçãoAgentes de IAIAQwen3-Coder
27
NEWSQwen Blog·27/06/2025

Time to Speak Some Dialects, Qwen-TTS!

A nova atualização do Qwen-TTS, treinada em milhões de horas de fala, oferece naturalidade e expressividade de nível humano, ajustando automaticamente prosódia e emoções. Agora, ele suporta a geração de 3 dialetos chineses (pequinês, xangainês, sichuanês) e 7 vozes bilíngues chinês-inglês através da Qwen API.

Qwen-TTSDialetos ChinesesIAAPI
21
ARTICLEQwen Blog·26/06/2025

Qwen VLo: From "Understanding" the World to "Depicting" It

O Qwen VLo é um novo modelo multimodal unificado de compreensão e geração que representa um avanço significativo na IA. Ele não apenas entende o conteúdo de imagens, mas também gera recriações de alta qualidade, conectando percepção e criação.

Geração de ImagensMultimodal AIQwen VLoGrandes Modelos
23
NEWSQwen Blog·05/06/2025

Qwen3 Embedding: Advancing Text Embedding and Reranking Through Foundation Models

A série Qwen3 Embedding, construída sobre o modelo fundamental Qwen3, é lançada para tarefas de embedding, recuperação e reranking de texto. Ela alcança desempenho de ponta em benchmarks, aproveitando capacidades multilíngues robustas e foi disponibilizada como código aberto sob a licença Apache 2.

Text EmbeddingAI ModelsQwen3 Embeddingfoundation models
27
NEWSQwen Blog·28/04/2025

Qwen3: Think Deeper, Act Faster

Qwen3, a nova família de modelos de linguagem, foi lançada, com o modelo principal Qwen3-235B-A22B alcançando resultados competitivos em benchmarks. Modelos menores como Qwen3-30B-A3B e Qwen3-4B também demonstraram desempenho superior em comparação com outros modelos.

AI ModelsBenchmarksMoEQwen3
23
NEWSQwen Blog·27/03/2025

QVQ-Max: Think with Evidence

A Qwen lançou oficialmente o QVQ-Max, um modelo de raciocínio visual capaz de compreender, analisar e raciocinar com informações de imagens e vídeos. Ele demonstra habilidades impressionantes na resolução de problemas complexos, desde matemática e programação até criação artística.

Multimodal AIVisual ReasoningQVQ-MaxAI
24
NEWSQwen Blog·26/03/2025

Qwen2.5 Omni: See, Hear, Talk, Write, Do It All!

Apresentamos o Qwen2.5-Omni, o novo modelo multimodal de ponta da série Qwen, capaz de processar texto, imagens, áudio e vídeo. Ele oferece respostas em tempo real por meio de geração de texto e síntese de fala, estando disponível abertamente em plataformas como Hugging Face e Qwen Chat.

modelo multimodalQwen2.5-OmniInteligência ArtificialGeração de Texto
24
NEWSQwen Blog·23/03/2025

Qwen2.5-VL-32B: Smarter and Lighter

O texto anuncia o Qwen2.5-VL-32B-Instruct, um novo modelo da série Qwen2.5-VL otimizado com aprendizado por reforço e lançado como código aberto sob licença Apache 2.0. Este modelo se destaca por sua escala de 32 bilhões de parâmetros.

Open Source32B ParametersReinforcement LearningMachine Learning
23
RESEARCHQwen Blog·05/03/2025

QwQ-32B: Embracing the Power of Reinforcement Learning

O conteúdo aborda o potencial do Aprendizado por Reforço (RL) em escala para aprimorar o desempenho e as capacidades de raciocínio de modelos de IA, superando métodos convencionais. A pesquisa explora especificamente o impacto do RL na inteligência de Grandes Modelos de Linguagem (LLMs), citando exemplos como o DeepSeek R1.

Model Performancedeep learningReinforcement Learninglarge language models
27
NEWSQwen Blog·24/02/2025

<think>...</think> QwQ-Max-Preview

Este conteúdo descreve a intenção de criar uma introdução para um blog que anunciará o QwQ-Max-Preview. Trata-se de um modelo de IA da série Qwen, construído sobre Qwen2.5-Max, focado em ser uma versão de prévia.

PreviewAIQwenLLM
21
ARTICLEQwen Blog·28/01/2025

Qwen2.5-Max: Exploring the Intelligence of Large-scale MoE Model

O conteúdo explora a importância da escalabilidade contínua de dados e modelos (densos ou Mixture-of-Expert) para aprimorar a inteligência artificial, destacando a experiência limitada da comunidade na área. Menciona que detalhes críticos de escalabilidade foram recentemente divulgados pelo DeepSeek V3 e que o Qwen2 está em desenvolvimento.

IAmodelos de linguagemMoE
23
ARTICLEQwen Blog·26/01/2025

Qwen2.5-1M: Deploy Your Own Qwen with Context Length up to 1M Tokens

Este conteúdo anuncia o lançamento dos modelos open-source Qwen2.5-1M (7B e 14B), que agora suportam um comprimento de contexto de até um milhão de tokens. Esta liberação expande as capacidades dos modelos Qwen para lidar com contextos extensos, seguindo a atualização da versão Turbo.

Contexto de 1MOpen SourceInteligência Artificialmodelos de linguagem
27
NEWSQwen Blog·26/01/2025

Qwen2.5 VL! Qwen2.5 VL! Qwen2.5 VL!

O conteúdo anuncia o lançamento do Qwen2.5-VL, o novo modelo de linguagem de visão carro-chefe da Qwen, representando um avanço significativo. Ele está disponível para experimentação no Qwen Chat e em plataformas como Hugging Face e ModelScope em três tamanhos.

AI ModelsHugging FaceVision-Language ModelQwen
26
ARTICLEQwen Blog·20/01/2025

Global-batch load balance almost free lunch to improve your MoE LLM training

O conteúdo introduz a arquitetura Mixture-of-Experts (MoE) como uma técnica popular para escalar parâmetros de modelos. Ele descreve a camada MoE consistindo de um roteador e um grupo de experts, onde apenas um subconjunto é ativado para processar uma entrada.

deep learningtrainingMoENeural Architecture
23
RESEARCHQwen Blog·13/01/2025

Towards Effective Process Supervision in Mathematical Reasoning

Modelos de Linguagem Grandes (LLMs) têm feito avanços notáveis no raciocínio matemático, mas podem cometer erros de cálculo ou lógica. Mesmo quando as respostas finais estão corretas, os LLMs podem criar passos de raciocínio plausíveis, mas falhos, comprometendo a confiabilidade de seus processos.

Mathematical ReasoningLLMsProcess SupervisionAI limitations
27
←1…89909192→
[email protected]