NVDA+2.57%GOOGL-0.39%MSFT-0.59%META+0.23%AMZN+2.02%AMD+3.55%ORCL+0.17%PLTR-1.86%
RESEARCHarXiv CS.AI·4d atrás

MedGemma 1.5 Technical Report

O MedGemma 1.5 4B é um novo modelo que expande as capacidades do MedGemma 1, integrando análise de imagens médicas de alta dimensão (CT/MRI, histopatologia), localização anatômica e compreensão de documentos médicos. Ele demonstra ganhos significativos em precisão de classificação de condições em MRI e CT, e um aumento de 47% no macro F1 para imagens de patologia de lâmina inteira.

deep learningAIhealthcare AIMedical Imaging
28
RESEARCHarXiv CS.AI·4d atrás

Uncertainty-Guided Latent Diagnostic Trajectory Learning for Sequential Clinical Diagnosis

Este artigo aborda o desafio do diagnóstico clínico sequencial sob incerteza, onde a maioria dos sistemas baseados em LLMs não modela a aquisição progressiva de evidências. Os autores propõem o framework Latent Diagnostic Trajectory Learning (LDTL), utilizando agentes LLM para planejamento e diagnóstico, tratando sequências de ações como caminhos latentes.

Diagnóstico ClínicoAprendizado SequencialTrajetória LatenteIncerteza
28
RESEARCHarXiv CS.AI·4d atrás

ReVEL: Multi-Turn Reflective LLM-Guided Heuristic Evolution via Structured Performance Feedback

ReVEL propõe um framework híbrido que integra LLMs como raciocinadores multi-turno dentro de algoritmos evolutivos para evoluir heurísticas eficazes para problemas de otimização NP-difíceis. O método utiliza agrupamento de perfis de desempenho e reflexão guiada por feedback para que o LLM analise comportamentos e gere refinamentos direcionados.

Otimização CombinatóriaInteligência ArtificialAlgoritmos EvolutivosHeurísticas
28
RESEARCHarXiv CS.LG·4d atrás

Cactus: Accelerating Auto-Regressive Decoding with Constrained Acceptance Speculative Sampling

Este trabalho propõe o Cactus, um novo método para acelerar a decodificação auto-regressiva de LLMs através de amostragem especulativa com aceitação restrita. Ele resolve as limitações de abordagens anteriores, garantindo uma divergência controlada da distribuição do verificador por meio de uma formulação de otimização restrita.

Cactusconstrained optimizationauto-regressive decodingspeculative sampling
28
RESEARCHarXiv CS.LG·4d atrás

Energy-Based Dynamical Models for Neurocomputation, Learning, and Optimization

Este artigo explora avanços em sistemas dinâmicos para computação, inspirados na neurociência, com o objetivo de melhorar a escalabilidade, robustez e eficiência energética em IA. O foco está em modelos dinâmicos baseados em energia, como redes de Hopfield e máquinas de Boltzmann, que codificam informações através de fluxos de gradiente.

neurocomputationhopfield networksMachine Learningenergy-based models
28
RESEARCHarXiv CS.CL·4d atrás

TDA-RC: Task-Driven Alignment for Knowledge-Based Reasoning Chains in Large Language Models

Este artigo propõe um método baseado em topologia para otimizar cadeias de raciocínio em LLMs, visando superar lacunas lógicas e custos elevados. Ele quantifica características estruturais de CoT, ToT e GoT usando homologia persistente para aprimorar o paradigma CoT.

LLMsChain-of-ThoughtReasoningTree-of-Thoughts
28
RESEARCHarXiv CS.CL·4d atrás

The Illusion of Latent Generalization: Bi-directionality and the Reversal Curse

Este artigo aborda a 'maldição da reversão' em modelos de linguagem autorregressivos, onde falham ao recuperar fatos em ordem inversa. A pesquisa demonstra que a precisão da reversão exige um sinal de treinamento que torne a entidade de origem um alvo de previsão, indicando armazenamento separado para direções diretas e inversas, em vez de uma representação única e agnóstica à direção.

LLMsNLPbidirectional modelsRepresentation Learning
28
RESEARCHarXiv CS.CL·4d atrás

This Treatment Works, Right? Evaluating LLM Sensitivity to Patient Question Framing in Medical QA

Este estudo de pesquisa avalia a sensibilidade de Grandes Modelos de Linguagem (LLMs) à forma como as perguntas de pacientes são formuladas em cenários de QA médica. Usando um ambiente RAG controlado, a pesquisa investiga como o enquadramento (positivo vs. negativo) e o estilo da linguagem afetam a consistência das respostas dos LLMs.

prompt engineeringRAGlinguagem naturalmedical QA
28
RESEARCHarXiv CS.CL·4d atrás

Document Optimization for Black-Box Retrieval via Reinforcement Learning

Este artigo de pesquisa propõe uma nova abordagem para otimização de documentos, transformando-os para melhor alinhamento com sistemas de recuperação via Reinforcement Learning (GRPO), utilizando melhorias de ranking como recompensa. O método, aplicável a retrievers de caixa preta, demonstrou ganhos em tarefas de recuperação de código e documentos visuais.

language modelsVision-Language ModelsReinforcement Learningdocument optimization
28
RESEARCHarXiv CS.CL·4d atrás

Multilingual Language Models Encode Script Over Linguistic Structure

Este estudo investiga como modelos de linguagem multilíngues, como Llama-3.2-1B e Gemma-2-2B, organizam suas representações internas para idiomas diversos. Os pesquisadores descobriram que essas representações são fortemente condicionadas pela ortografia, e não pela identidade linguística abstrata, com a romanização gerando representações distintas.

Representações de LinguagemModelos de Linguagem MultilínguesLLaMAOrtografia
28
RESEARCHarXiv CS.AI·4d atrás

Pramana: Fine-Tuning Large Language Models for Epistemic Reasoning through Navya-Nyaya

Grandes modelos de linguagem (LLMs) falham em raciocínio sistemático e frequentemente alucinam, expondo uma lacuna epistêmica. Pramana é uma nova abordagem que ensina metodologia epistemológica explícita a LLMs, através de fine-tuning na lógica Navya-Nyaya, um framework de raciocínio indiano milenar.

Epistemic ReasoningHallucinationLarge Language ModelsFine-tuning
28
RESEARCHarXiv CS.AI·4d atrás

Algebraic Structure Discovery for Real World Combinatorial Optimisation Problems: A General Framework from Abstract Algebra to Quotient Space Learning

O conteúdo apresenta um framework geral para identificar estruturas algébricas em problemas de otimização combinatória, visando reduzir o espaço de busca e melhorar a descoberta da solução ótima global. Ele formaliza operações e constrói espaços quociente para otimizar sobre representações reduzidas, com aplicações em tarefas de combinação de regras usando algoritmos genéticos.

Rule-based systemsCombinatorial OptimisationQuotient Space LearningGenetic Algorithms
28
RESEARCHarXiv CS.AI·4d atrás

Part-Level 3D Gaussian Vehicle Generation with Joint and Hinge Axis Estimation

Este trabalho propõe um framework generativo para sintetizar veículos 3D Gaussianos animáveis a partir de uma única imagem ou entradas multi-view esparsas. Ele visa superar as limitações dos modelos de veículos rígidos atuais em simulações de direção autônoma, introduzindo um módulo de refinamento para articulação de partes.

Computer VisionAutonomous Driving3D GenerationVehicle Simulation
28
RESEARCHarXiv CS.LG·4d atrás

PRIME: Prototype-Driven Multimodal Pretraining for Cancer Prognosis with Missing Modalities

PRIME é um novo framework de pré-treinamento multimodal auto-supervisionado projetado para prognóstico de câncer, que aborda o desafio de modalidades de dados ausentes em coortes clínicas. Ele integra imagens de histopatologia, expressão gênica e relatórios patológicos, aprendendo representações robustas por meio de imputação semântica no espaço latente e objetivos de alinhamento intermodal.

Self-supervised learningMultimodal PretrainingMissing ModalitiesCancer Prognosis
28
RESEARCHarXiv CS.LG·4d atrás

Enhancing sample efficiency in reinforcement-learning-based flow control: replacing the critic with an adaptive reduced-order model

Este trabalho introduz uma estrutura de aprendizado por reforço baseada em modelo de ordem reduzida (ROM) adaptativo para controle de fluxo ativo. Ele visa melhorar a eficiência de amostragem do DRL, substituindo o crítico por um ROM que estima gradientes e se atualiza continuamente com novos dados.

Sample EfficiencyReinforcement LearningFlow ControlReduced-Order Models
28
RESEARCHarXiv CS.AI·4d atrás

Operational Noncommutativity in Sequential Metacognitive Judgments

Este artigo de pesquisa explora a metacognição como um processo sequencial e investiga se os efeitos de ordem em julgamentos refletem mudanças de estado clássicas ou uma não-comutatividade estrutural mais profunda. Ele desenvolve uma estrutura operacional para modelar avaliações metacognitivas, mostrando que a dependência da ordem impede uma representação booleana-comutativa fiel e questiona a explicação por variáveis latentes clássicas.

Order EffectsNon-CommutativitySequential JudgmentMetacognition
28
RESEARCHarXiv CS.LG·4d atrás

El Nino Prediction Based on Weather Forecast and Geographical Time-series Data

Este artigo propõe um novo framework para aprimorar a previsão de eventos El Niño, integrando dados de previsão do tempo e geográficos. Ele utiliza uma arquitetura híbrida de deep learning, combinando CNN para extração espacial e LSTM para modelagem temporal, visando identificar precursores complexos.

CNNdeep learningWeather ForecastingEl Nino Prediction
28
RESEARCHarXiv CS.CL·4d atrás

Phase-Associative Memory: Sequence Modeling in Complex Hilbert Space

O artigo apresenta a Memória Associativa de Fase (PAM), um modelo de sequência recorrente que utiliza representações de valores complexos e opera em um espaço de Hilbert complexo. O PAM alcança uma perplexidade de validação de 30.0 no WikiText-103, um desempenho competitivo com transformadores, e aborda a degradação da capacidade em modelos de estado vetorial.

Associative MemoryPhase-Associative MemorySequence ModelingComplex Hilbert Space
28
RESEARCHarXiv CS.CL·4d atrás

Beyond LLM-as-a-Judge: Deterministic Metrics for Multilingual Generative Text Evaluation

Este artigo propõe OmniScore, uma família de métricas determinísticas desenvolvidas com modelos pequenos, para avaliar texto gerado de forma mais eficiente e reprodutível do que LLMs-juízes. Ele aproxima o comportamento de LLMs-juízes, preserva baixa latência e consistência, e suporta avaliações multidimensionais em 107 idiomas.

OmniScoremétricas de IAmultilíngueavaliação de texto
28
RESEARCHarXiv CS.LG·4d atrás

Learning-Based Multi-Criteria Decision Making Model for Sawmill Location Problems

Este estudo propõe um framework de Tomada de Decisão Multicritério Baseado em Aprendizado (LB-MCDM) que integra machine learning com análise espacial GIS para otimizar a localização de serrarias. Demonstrado através de um caso de estudo no Mississippi, o modelo aplica cinco algoritmos de ML para identificar locais adequados, destacando o Random Forest Classifier como o de melhor desempenho e utilizando SHAP para determinar a importância dos critérios.

sawmill locationRandom ForestMachine LearningGIS
30
←1…6667686970…83→
[email protected]