Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Artificial Analysis
Análise independente de modelos de IA e provedores de hospedagem - escolha o melhor modelo e provedor de API para seu caso de uso
A Alibaba expandiu sua família de modelos Qwen3.5 com 3 novos modelos – o modelo 27B se destaca, alcançando 42 no Índice de Inteligência de Análise Artificial e igualando modelos de peso aberto de 8 a 25 vezes maior
@Alibaba_Qwen expandiu a família Qwen3.5 com três novos modelos além do topo de linha 397B lançado no início deste mês: o Qwen3.5 27B (Dense, com pontuação 42 no Índice de Inteligência), Qwen3.5 122B A10B (MoE, 42) e Qwen3.5 35B A3B (MoE, 37). Os dois modelos MoE (Mistura de Especialistas) ativam apenas uma fração dos parâmetros totais por passada para frente (10B de 122B e ~3B de 35B, respectivamente). O Índice de Inteligência é nossa métrica de síntese que incorpora 10 avaliações que abrangem raciocínio geral, tarefas agentiais, codificação e raciocínio científico.
Todos os modelos são licenciados pelo Apache 2.0, suportam nativamente o contexto 262K e retornam à arquitetura híbrida de pensamento/não-pensamento unificado do Qwen3 original, após o Alibaba migrar para checkpoints separados de Instrução e Raciocínio com as atualizações Qwen3 2507.
Principais resultados de benchmarking para as variantes de raciocínio:
➤ Qwen3.5 27B nota 42 no Índice de Inteligência e é o modelo mais inteligente abaixo de 230B. O modelo mais próximo de tamanho semelhante é o GLM-4.7-Flash (31B no total, 3B ativos), que marca 30. Modelos de pesos abertos de inteligência equivalente são 8 a 25 vezes maiores em termos de parâmetros totais: MiniMax-M2.5 (230B, 42), DeepSeek V3.2 (685B, 42) e GLM-4.7 (357B, 42). Na precisão FP8, leva ~27GB para armazenar os pesos dos modelos, enquanto na quantização de 4 bits você pode usar hardware de qualidade de laptop com 16GB+ de RAM
➤ Qwen3.5 27B pontua 1205 no GDPval-AA (Tarefas Agenticas do Trabalho do Mundo Real), colocando-o ao lado de modelos maiores. Para contextualizar, MiniMax-M2.5 marca 1206, GLM-4.7 (Raciocínio) 1200 e DeepSeek V3.2 (Raciocínio) 1194. Isso é particularmente notável para um modelo de 27B parâmetros e sugere forte capacidade agente para seu tamanho. O GDPval-AA testa modelos em tarefas do mundo real em 44 ocupações e 9 principais indústrias
➤ AA-Oniciência continua sendo uma fraqueza relativa na família Qwen3.5, impulsionada principalmente por menor precisão e não por taxa de alucinações. Qwen3.5 27B pontua -42 em AA-Oniscience, comparável ao MiniMax-M2.5 (-40), mas atrás do DeepSeek V3.2 (-21) e GLM-4.7 (-35). Embora a taxa de alucinação do Qwen3.5 27B (80%) seja menor que a dos pares (GLM-4.7 90%, MiniMax 89%, DeepSeek 82%), sua precisão também é menor, com 21% contra 34% para DeepSeek V3.2 e 29% para GLM-4.7. Isso provavelmente é consequência do tamanho do modelo – geralmente observamos que modelos com mais parâmetros totais têm melhor desempenho em precisão no AA-Omniscience, já que a memória de conhecimento mais ampla se beneficia de contagens maiores de parâmetros
➤ Qwen3.5 27B é equivalentemente inteligente a Qwen3.5 122B A10B. O 122B A10B é um modelo Mistura de Especialistas que ativa apenas 10B de seus 122B totais de parâmetros por passada para frente. O modelo 27B lidera em GDPval-AA (1205 Elo vs 1145 Elo) e ligeiramente em TerminalBench (+1,5 p.p.), enquanto o modelo 122B lidera em SciCode (+2,5 p.p.), HLE (+1,2 p.p.) e tem uma taxa de alucinações menor (Omniscience -40 vs -42)
➤ Qwen3.5 35B A3B (Reasoning, 37) é o modelo mais inteligente com ~3B parâmetros ativos, 7 pontos à frente do GLM-4.7-Flash (30). Outros modelos dessa categoria ativa ~3B incluem Qwen3 Coder Next (80B no total, 28), Qwen3 Next 80B A3B (27) e NVIDIA Nemotron 3 Nano 30B A3B (24)
➤ Qwen3.5 27B usou 98M de tokens de saída para rodar o Índice de Inteligência, custando ~$299 via Alibaba Cloud API. Isso representa um uso notavelmente alto de tokens em comparação com modelos de inteligência semelhante: MiniMax-M2.5 (56M), DeepSeek V3.2 (61M) e até mesmo o maior Qwen3.5 397B (86M).
Outras informações:
➤ Janela de contexto: 262K tokens (extensível para 1M via YaRN)
➤ Licença: Apache 2.0
➤ Precificação da API (Alibaba Cloud): 397 bilhões: $0,60/3,60 dólares, 122 bilhões: 0,40/3,20 dólares, 27 bilhões: 0,30/2,40 dólares, 35 bilhinhões A3B: 0,25/2,00 dólares por 1 milhão de tokens de entrada/saída

3,62K
Kling 3.0 1080p (Pro) ocupa a #1 posição em Texto para Vídeo tanto em tabelas de Áudio quanto Sem Áudio na Área de Análise Artificial de Vídeo, superando Grok Imagine, Runway Gen-4.5 e Veo 3.1!
Em Image to Video, Kling 3.0 1080p (Pro) fica em #4 no ranking With Audio e #6 em No Audio, atrás de Grok Imagine e PixVerse V5.6.
Kling 3.0 é o lançamento mais recente da @Kling_ai, representando um grande salto em relação aos modelos Kling 2.6. O modelo está disponível em níveis de qualidade 1080p (Pro) e 720p (Standard), e suporta gerações de até 15 segundos, além de geração nativa de áudio.
A Kling também lançou o Kling 3.0 Omni, um modelo multimodal que vai além da geração de vídeo para suportar imagens e entradas de vídeo, edição de vídeo e geração de vídeo em um único modelo unificado. Kling 3.0 Omni 1080p (Pro) e Omni 720p (Padrão) também têm bom desempenho, com Omni 1080p (Pro) ficando em #2 em Texto para Vídeo com Áudio e #4 em Sem Áudio.
Kling 3.0 está disponível pelo aplicativo Kling AI e via API no @fal. Kling 3.0 1080p (Pro) custa ~$13/min sem áudio e ~$20/min com áudio, enquanto 720p (Padrão) custa ~$10/min e ~$15/min, respectivamente. Sem áudio, 1080p (Pro) é comparável ao Veo 3.1 por $12/min, embora seja um valor significativo acima do Kling 2.5 Turbo e Grok Imagine por $4,20/min.
Veja abaixo comparações entre Kling 3.0 1080p (Pro) e outros modelos líderes em nossa Arena 🧵 de Vídeo de Análise Artificial

191
A Inception Labs lançou o Mercury 2, seu LLM Diffusion de próxima geração pronto para produção. O Mercury 2 alcança >1.000 tokens de saída/s com ganhos significativos em inteligência
Os LLMs de Difusão ("dLLMs") da @_inception_ai utilizam uma arquitetura diferente em comparação com os LLMs baseados em autoregressivo. O processo de geração de LLM por difusão começa com ruído e refina iterativamente a saída usando um modelo de transformador que pode modificar múltiplos tokens em paralelo. Isso permite a paralelização da geração de tokens de saída, possibilitando velocidades de saída mais rápidas porque muitos tokens de saída são gerados ao mesmo tempo.
Principais lições:
➤ Entre modelos de tamanho/preço comparáveis, o Mercury 2 tem desempenho competitivo em inteligência versus velocidade de saída. Embora não tenha inteligência líder, sua velocidade de saída é mais de 3 vezes superior ao modelo seguinte mais rápido dessa classe (benchmarks baseados em endpoints de primeira mão ou na mediana dos provedores que atendem ao modelo onde um endpoint de primeira parte não está disponível)
➤ Os principais pontos fortes incluem codificação agente, uso terminal e acompanhamento de instruções. Mercury 2 tem desempenho semelhante ao Claude 4.5 Haiku no Terminal-Bench Hard e obtém 70% em IFBench (Instruction Following), superando gpt-oss-120B, GPT-5.1 Codex mini e GPT-5 nano
Histórico do Inception Labs:
Este é o segundo lançamento da Inception Labs. Os fundadores foram anteriormente professores de Stanford, UCLA e Cornell e contribuíram para pesquisas e tecnologias em IA, incluindo Atenção Rápida, Transformadores de Decisão e Otimização de Preferências Diretas (DPO).
Veja abaixo para uma análise mais aprofundada.

11,35K
Melhores
Classificação
Favoritos
