healthqa-br / README.md
Larxel's picture
Updated preprint link and citation
744f958 verified
metadata
license: cc-by-4.0
task_categories:
  - question-answering
language:
  - pt
tags:
  - healthcare
  - medicine
  - nursing
  - psychology
  - dentistry
  - social-work
  - professional-exams
pretty_name: HealthQA-BR
size_categories:
  - 1K<n<10K

HealthQA-BR

Resumo

O HealthQA-BR é o primeiro benchmark de larga escala e abrangência para todo o Sistema Único de Saúde (SUS), projetado para medir o conhecimento clínico de Grandes Modelos de Linguagem (LLMs) frente aos desafios da saúde pública brasileira. Composto por 5.632 questões de múltipla escolha, o conjunto de dados é derivado de provas e concursos de licenciamento profissional e residência de abrangência nacional e de alto impacto no Brasil.

Diferentemente de benchmarks focados na realidade médica norte-americana, o HealthQA-BR foi projetado para o ecossistema de saúde brasileiro. Ele avalia de forma granular não só as especialidades da medicina, mas também sua realidade interprofissional, incluindo enfermagem, odontologia, psicologia, serviço social, farmácia, fisioterapia, entre muitos outros. O resultado é uma avaliação mais realista e holística sobre o potencial de uma IA para o trabalho em equipe que caracteriza o cuidado ao paciente no SUS.

  • Curadoria de: Andrew Maranhão Ventura D'addario
  • Financiado por: Ministério da Saúde do Brasil (MS/DECIT), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) [processo nº 400757/2024-9] e a Fundação Gates.
  • Idioma(s) (NLP): Português (pt-BR)
  • Licença: Creative Commons Attribution 4.0 Generic License (cc-by-4.0)
  • Artigo: Link do Paper

Resultados

Model Revalida Enare Residência Médica Enare Multiprofissional Overall Accuracy
GPT 4.1 0.8768 0.8651 0.8522 0.8661
GPT 4.1 Mini 0.8250 0.8086 0.8136 0.8148
GPT 4.1 Nano 0.6792 0.6830 0.7199 0.6895
GPT 4o 0.8559 0.8469 0.8428 0.8489
GPT 4o Mini 0.7102 0.7120 0.7414 0.7175
Gemini 2.0 Flash 0.8199 0.8175 0.8385 0.8226
Gemini 2.0 Flash Lite 0.7749 0.7670 0.8033 0.7770
DeepSeek R1 0.8599 0.8473 0.8540 0.8526
LLaMA 4 Maverick 0.8059 0.7964 0.8179 0.8038
LLaMA 4 Scout 0.7147 0.7410 0.7792 0.7406
LLaMA 3.3 70b 0.7569 0.7458 0.7552 0.7512
LLaMA 3.1 8b 0.3663 0.3359 0.3746 0.3535
Exaone 3.5 32b 0.5138 0.5106 0.6065 0.5314
Gemma 3 27b 0.7355 0.7049 0.7431 0.7225
Gemma 3 12b 0.6629 0.6317 0.6959 0.6548
Gemma 3 4b 0.4530 0.4352 0.5326 0.4609
Gemma 3 1b 0.3067 0.2612 0.2998 0.2836
Doutor Bode 7b 360k 0.4041 0.3958 0.5060 0.4212
Doutor Bode 7b 240k 0.4136 0.3891 0.5000 0.4197
ChatBode 7b 0.4271 0.4103 0.4845 0.4309
InternLM2 Chat 7b 0.3754 0.3742 0.4356 0.3873

Estrutura do Conjunto de Dados

O conjunto de dados é fornecido no formato Apache Parquet para maior eficiência e facilidade de uso. Cada entrada consiste em uma pergunta, cinco opções de resposta, uma única resposta correta e metadados ricos para análise granular.

Campos de Dados:

  • id: Chave única de 8 caracteres.
  • source: O exame do qual a questão foi extraída (Revalida, Enare Residência Médica, Enare Multiprofissional).
  • year: O ano do exame (2011 - 2025).
  • group: A especialidade médica ou de area da saúde específica à qual a questão pertence (ex: Cardiologia, Enfermagem, Serviço social).
  • question: O texto da questão e suas alternativas. As alternativas são "A", "B", "C", "D", "E", mas algumas questões possuem apenas 4.
  • answer: A letra da alternativa correta ("A" é a mais comum, correspondendo a 21,89% das respostas).

Composição do Conjunto de Dados:

O conjunto de dados integra questões de três fontes de exames distintas:

Fonte Descrição Nº de Questões
Revalida Exame de licenciamento médico para médicos formados no exterior 1.777
Enare - Médica Exame de ingresso em residência médica para médicos 2.691
Enare - Multiprofissional Exame de ingresso em residência para profissionais da saúde 1.164
Total 5.632

Processo de Criação

Justificativa

Conhecimento clínico é predescessor de desempenho no mundo real e no contexto do SUS. O desenvolvimento do HealthQA-BR foi motivado pela necessidade de superar a perigosa ilusão de competência criada por benchmarks focados apenas em medicina e em língua inglesa. As avaliações atuais frequentemente mascaram lacunas de conhecimento críticas e específicas de cada especialidade, além de ignorarem a natureza interprofissional do cuidado ao paciente. Este benchmark foi criado para permitir uma auditoria mais honesta e granular da prontidão de uma IA para toda a equipe de saúde no contexto e desafios de saúde do Brasil, incluindo médicos, enfermeiros, farmaceuticos, psicólogos, dentistas e muitos outros; fornecendo uma ferramenta crucial para identificar e remediar fraquezas antes da implementação clínica.

Origem

As questões foram extraídas de exames nacionais públicos e de alto impacto, administrados por órgãos oficiais brasileiros, garantindo relevância clínica e qualidade.

  1. Revalida (Exame Nacional de Revalidação de Diplomas Médicos): Um exame de notória dificuldade, administrado pelo INEP, para médicos formados no exterior que desejam exercer a profissão no Brasil.
  2. Enare (Exame Nacional de Residência): Um exame nacional unificado para residência, organizado pela Empresa Brasileira de Serviços Hospitalares (Ebserh), que administra hospitais universitários federais dentro do Sistema Único de Saúde (SUS). Essa ligação direta garante que o conteúdo do exame esteja alinhado com os desafios de saúde pública do país. O conjunto de dados inclui questões tanto da residência médica (Enare - Residência Médica) quanto da singular residência multiprofissional (Enare - Residência Multiprofissional).

Coleta e Processamento

Um pipeline meticuloso e multiestágio foi executado para garantir a qualidade e a integridade do conjunto de dados:

  1. Parsing e Extração: As questões foram extraídas automaticamente de documentos PDF disponíveis publicamente, com scripts projetados para lidar com variações de formatação e artefatos de OCR.
  2. Curadoria e Validação de Integridade: Todas as questões foram cruzadas com os gabaritos oficiais. Quaisquer questões que foram anuladas pelas bancas examinadoras foram definitivamente removidas.
  3. Desduplicação Avançada: Uma estratégia de duas camadas foi usada para eliminar tanto duplicatas exatas (via hashing) quanto quase-duplicatas (usando modelos de similaridade semântica seguidos por revisão manual de especialistas).
  4. Etiquetagem de Metadados: Cada questão foi etiquetada com sua fonte, ano e uma das mais de 30 categorias profissionais ou de subespecialidades, permitindo uma análise refinada.
  5. Auditoria Final de Qualidade: Uma amostra aleatória e estratificada de 1,5% do conjunto de dados foi auditada manualmente em comparação com os documentos originais para confirmar a precisão de todos os campos, não revelando inconsistências.

Informações Pessoais e Sensíveis

O conjunto de dados consiste inteiramente em questões de exames profissionais disponíveis publicamente. Ele não contém nenhuma informação pessoal, privada ou sensível sobre indivíduos.

Vieses, Riscos e Limitações

  • Viés Geográfico e Sistêmico: O conjunto de dados é explicitamente projetado para o contexto de saúde brasileiro e está alinhado com as prioridades e o perfil epidemiológico do Sistema Único de Saúde (SUS). Embora isso seja uma vantagem para avaliar modelos para esta região, o conteúdo pode não ser representativo dos desafios de saúde em outros países.
  • Limitações Metodológicas: Conforme observado no artigo original, o benchmark se baseia em um formato de questões de múltipla escolha e usa a acurácia como métrica principal. Esta é uma escolha deliberada para testar o conhecimento fundamental, mas não é uma avaliação completa das capacidades de um LLM em fluxos de trabalho clínicos complexos e do mundo real (ex: raciocínio diagnóstico, interação com o paciente ou equidade).

Recomendações

Os usuários são fortemente encorajados a usar os metadados granulares para realizar análises por especialidade e área da saúde, ao invés de depender de uma única pontuação de acurácia geral. Uma pontuação alta no HealthQA-BR indica um forte conhecimento fundamental, mas não deve ser interpretada como uma certificação de segurança clínica ou prontidão para implementação. O objetivo principal do benchmark é identificar lacunas de conhecimento específicas para que possam ser corrigidas por meio de ajuste fino direcionado (fine-tuning) ou outras estratégias de remediação.

Citação

Vancouver:

D'addario AMV. HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models. arXiv [Preprint]. Available from: https://arxiv.org/abs/2506.21578

BibTeX:

@article{daddario2025healthqabr,
  title={HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models},
  author={D'addario, Andrew Maranhão Ventura},
  journal={arXiv preprint arXiv:2506.21578},
  year={2025},
  eprint={2506.21578},
  archivePrefix={arXiv},
  primaryClass={cs.CL},
  url={https://arxiv.org/abs/2506.21578},
  note={O conjunto de dados HealthQA-BR e o código de avaliação estão disponíveis publicamente em: https://huggingface.co/datasets/Larxel/healthqa-br}
}