A Tencent Hunyuan lança mais um grande trunfo em AI de Código aberto! O modelo Hunyuan-A13B é apresentado, desafiando o monstro de 80B com 13B de parâmetros.

robot
Geração de resumo em curso

À medida que a IA generativa entra em uma nova fase, os supermodelos, embora poderosos, vêm acompanhados de altos custos de recursos e dificuldades de implantação. O modelo de linguagem de código aberto Hunyuan-A13B, recentemente lançado pela Tencent, segue uma nova rota leve e de alto desempenho: embora possua um total de 80 bilhões de parâmetros, apenas 13 bilhões de parâmetros são ativados em cada inferência, através da arquitetura "Mixture-of-Experts (MoE)", reduzindo significativamente os custos de inferência sem sacrificar a compreensão e a capacidade de raciocínio linguístico.

Quebrando os gargalos de desempenho e recursos: Análise da camada técnica do Hunyuan-A13B

Hunyuan-A13B utiliza uma arquitetura MoE esparsa, composta por 64 módulos de especialistas e um especialista compartilhado, ativando apenas 8 especialistas durante cada inferência. Combinado com a função de ativação SwiGLU e a técnica GQA (Grouped Query Attention), consegue melhorar de forma eficaz a eficiência do uso da memória e a taxa de transferência da inferência.

Além disso, a quantidade de dados de pré-treinamento atinge 20 trilhões de tokens, incluindo 250 bilhões de dados de alta qualidade do domínio STEM, reforçando o desempenho do modelo em matemática, ciências e raciocínio lógico. O treinamento em geral passou por três grandes fases: pré-treinamento básico, treinamento de resfriamento rápido e treinamento de extensão de contexto longo, suportando finalmente uma capacidade de processamento de contexto de até 256K tokens.

Escolha entre dois modos de raciocínio: Rápido vs. Pensamento Profundo, alternando livremente.

Hunyuan-A13B introduz um mecanismo de raciocínio de modo duplo (Dual-mode Chain-of-Thought), que alterna automaticamente entre os modos "pensamento rápido" e "pensamento lento" com base na complexidade da tarefa. O pensamento rápido é adequado para consultas simples do dia a dia, enfatizando baixa latência e alta eficiência; o pensamento lento, por sua vez, ativa caminhos de raciocínio Chain-of-Thought mais longos, lidando com problemas lógicos de múltiplos passos e deduções complexas, equilibrando precisão e uso de recursos.

Resultados de avaliação impressionantes

Em vários testes de referência reconhecidos, o Hunyuan-A13B teve um desempenho bastante excelente. Ele conquistou o primeiro lugar em raciocínio matemático (como AIME 2024, MATH) e também se destacou em raciocínio lógico (como BBH, ZebraLogic). Mesmo em testes de longo texto que exigem mais profundidade do modelo, como LongBench-v2 e RULER, o Hunyuan-A13B demonstrou uma incrível capacidade de retenção de contexto e integração lógica, superando o Qwen3-A22B e o DeepSeek-R1, cujos parâmetros são muito maiores.

Diante dos desafios de um ambiente aberto, a capacidade de chamada de ferramentas foi completamente atualizada.

Além das habilidades linguísticas e de raciocínio, o Hunyuan-A13B também melhorou significativamente a capacidade do Agente. Nos testes BFCL v3, ComplexFuncBench e outros focados em chamadas de ferramentas, planejamento e diálogos de múltiplas rodadas, seu desempenho não só superou o Qwen3-A22B, como também ficou em primeiro lugar no teste C3-Bench, demonstrando sua poderosa capacidade de adaptação a fluxos de tarefas complexas.

A taxa de transferência da inferência está em alta, a eficiência de implantação merece atenção.

De acordo com o relatório de testes práticos, o Hunyuan-A13B também impressiona em termos de eficiência de inferência. Combinado com estruturas de inferência existentes como vLLM, TensorRT-LLM, etc., pode alcançar uma taxa de transferência de quase 2000 tokens/s com um tamanho de lote de 32 e um comprimento de saída de 14K tokens. Mesmo sob condições de precisão quantificada como INT8 e FP8, consegue manter o desempenho, o que é crucial para a implementação empresarial.

Alto desempenho e alta relação qualidade-preço, Código aberto modelos ganham uma nova opção

A Tencent estabeleceu um novo padrão no campo dos modelos de linguagem de Código aberto com o Hunyuan-A13B. Este modelo não apenas superou o estereótipo de que "modelos pequenos não conseguem competir com modelos grandes", mas também oferece raciocínio flexível e capacidade de adaptação a múltiplas tarefas, tornando-se a nova bandeira no campo do LLM de Código aberto. Para desenvolvedores e empresas com recursos limitados, mas que ainda buscam soluções de IA eficientes, o Hunyuan-A13B é, sem dúvida, uma poderosa nova opção a ser considerada.

Este artigo a Tencent Hunyuan lança novamente uma grande novidade em AI de Código aberto! O modelo Hunyuan-A13B foi apresentado, desafiando a besta de 80B com 13B de parâmetros, apareceu pela primeira vez na Chain News ABMedia.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)