File size: 11,429 Bytes
c283b07
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
744f958
c283b07
 
744f958
c283b07
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
b562f5f
c283b07
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
744f958
c283b07
 
 
 
 
744f958
c283b07
744f958
c283b07
744f958
 
 
 
 
c283b07
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
---
license: cc-by-4.0
task_categories:
  - question-answering
language:
  - pt
tags:
  - healthcare
  - medicine
  - nursing
  - psychology
  - dentistry
  - social-work
  - professional-exams
pretty_name: HealthQA-BR
size_categories:
  - 1K<n<10K
---

# HealthQA-BR

### Resumo

> O **HealthQA-BR** é o primeiro benchmark de larga escala e abrangência para todo o Sistema Único de Saúde (SUS), projetado para medir o conhecimento clínico de Grandes Modelos de Linguagem (LLMs) frente aos desafios da saúde pública brasileira. Composto por 5.632 questões de múltipla escolha, o conjunto de dados é derivado de provas e concursos de licenciamento profissional e residência de abrangência nacional e de alto impacto no Brasil.
> 
> Diferentemente de benchmarks focados na realidade médica norte-americana, o HealthQA-BR foi projetado para o ecossistema de saúde brasileiro. Ele avalia de forma granular não só as **especialidades da medicina**, mas também sua realidade interprofissional, incluindo **enfermagem, odontologia, psicologia, serviço social, farmácia, fisioterapia, entre muitos outros**. O resultado é uma avaliação mais realista e holística sobre o potencial de uma IA para o trabalho em equipe que caracteriza o cuidado ao paciente no SUS.
 
- **Curadoria de:** Andrew Maranhão Ventura D'addario
- **Financiado por:** Ministério da Saúde do Brasil (MS/DECIT), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) [processo nº 400757/2024-9] e a Fundação Gates.
- **Idioma(s) (NLP):** Português (pt-BR)
- **Licença:** Creative Commons Attribution 4.0 Generic License (`cc-by-4.0`)
- **Artigo:** [Link do Paper](https://arxiv.org/abs/2506.21578)

### Resultados
| Model                            | Revalida  | Enare Residência Médica | Enare Multiprofissional | Overall Accuracy |
|:---------------------------------|----------:|------------------------:|------------------------:|-----------------:|
| **GPT 4.1**                      | **0.8768**| **0.8651**              | **0.8522**              | **0.8661**       |
| GPT 4.1 Mini                     | 0.8250    | 0.8086                  | 0.8136                  | 0.8148           |
| GPT 4.1 Nano                     | 0.6792    | 0.6830                  | 0.7199                  | 0.6895           |
| GPT 4o                           | 0.8559    | 0.8469                  | 0.8428                  | 0.8489           |
| GPT 4o Mini                      | 0.7102    | 0.7120                  | 0.7414                  | 0.7175           |
| Gemini 2.0 Flash                 | 0.8199    | 0.8175                  | 0.8385                  | 0.8226           |
| Gemini 2.0 Flash Lite            | 0.7749    | 0.7670                  | 0.8033                  | 0.7770           |
| **DeepSeek R1**                  | **0.8599**| **0.8473**              | **0.8540**              | **0.8526**       |
| LLaMA 4 Maverick                 | 0.8059    | 0.7964                  | 0.8179                  | 0.8038           |
| LLaMA 4 Scout                    | 0.7147    | 0.7410                  | 0.7792                  | 0.7406           |
| LLaMA 3.3 70b                    | 0.7569    | 0.7458                  | 0.7552                  | 0.7512           |
| LLaMA 3.1 8b                     | 0.3663    | 0.3359                  | 0.3746                  | 0.3535           |
| Exaone 3.5 32b                   | 0.5138    | 0.5106                  | 0.6065                  | 0.5314           |
| Gemma 3 27b                      | 0.7355    | 0.7049                  | 0.7431                  | 0.7225           |
| Gemma 3 12b                      | 0.6629    | 0.6317                  | 0.6959                  | 0.6548           |
| Gemma 3 4b                       | 0.4530    | 0.4352                  | 0.5326                  | 0.4609           |
| Gemma 3 1b                       | 0.3067    | 0.2612                  | 0.2998                  | 0.2836           |
| Doutor Bode 7b 360k              | 0.4041    | 0.3958                  | 0.5060                  | 0.4212           |
| Doutor Bode 7b 240k              | 0.4136    | 0.3891                  | 0.5000                  | 0.4197           |
| ChatBode 7b                      | 0.4271    | 0.4103                  | 0.4845                  | 0.4309           |
| InternLM2 Chat 7b                | 0.3754    | 0.3742                  | 0.4356                  | 0.3873           |


### Estrutura do Conjunto de Dados

O conjunto de dados é fornecido no formato Apache Parquet para maior eficiência e facilidade de uso. Cada entrada consiste em uma pergunta, cinco opções de resposta, uma única resposta correta e metadados ricos para análise granular.

**Campos de Dados:**

- `id`: Chave única de 8 caracteres.
- `source`: O exame do qual a questão foi extraída (`Revalida`, `Enare Residência Médica`, `Enare Multiprofissional`).
- `year`: O ano do exame (2011 - 2025).
- `group`: A especialidade médica ou de area da saúde específica à qual a questão pertence (ex: `Cardiologia`, `Enfermagem`, `Serviço social`).
- `question`: O texto da questão e suas alternativas. As alternativas são "A", "B", "C", "D", "E", mas algumas questões possuem apenas 4.
- `answer`: A letra da alternativa correta ("A" é a mais comum, correspondendo a 21,89% das respostas).


**Composição do Conjunto de Dados:**

O conjunto de dados integra questões de três fontes de exames distintas:

| Fonte | Descrição | Nº de Questões |
| :--- | :--- | :--- |
| Revalida | Exame de licenciamento médico para médicos formados no exterior | 1.777 |
| Enare - Médica | Exame de ingresso em residência médica para médicos | 2.691 |
| Enare - Multiprofissional| Exame de ingresso em residência para profissionais da saúde | 1.164 |
| **Total** | | **5.632** |


## Processo de Criação

### Justificativa

Conhecimento clínico é predescessor de desempenho no mundo real e no contexto do SUS.
O desenvolvimento do HealthQA-BR foi motivado pela necessidade de superar a perigosa ilusão de competência criada por benchmarks focados apenas em medicina e em língua inglesa. As avaliações atuais frequentemente mascaram lacunas de conhecimento críticas e específicas de cada especialidade, além de ignorarem a natureza interprofissional do cuidado ao paciente. Este benchmark foi criado para permitir uma auditoria mais honesta e granular da prontidão de uma IA para toda a equipe de saúde no contexto e desafios de saúde do Brasil, incluindo médicos, enfermeiros, farmaceuticos, psicólogos, dentistas e muitos outros; fornecendo uma ferramenta crucial para identificar e remediar fraquezas antes da implementação clínica.

### Origem

As questões foram extraídas de exames nacionais públicos e de alto impacto, administrados por órgãos oficiais brasileiros, garantindo relevância clínica e qualidade.

1.  **Revalida (Exame Nacional de Revalidação de Diplomas Médicos):** Um exame de notória dificuldade, administrado pelo INEP, para médicos formados no exterior que desejam exercer a profissão no Brasil.
2.  **Enare (Exame Nacional de Residência):** Um exame nacional unificado para residência, organizado pela Empresa Brasileira de Serviços Hospitalares (Ebserh), que administra hospitais universitários federais dentro do Sistema Único de Saúde (SUS). Essa ligação direta garante que o conteúdo do exame esteja alinhado com os desafios de saúde pública do país. O conjunto de dados inclui questões tanto da residência médica (`Enare - Residência Médica`) quanto da singular residência multiprofissional (`Enare - Residência Multiprofissional`).

### Coleta e Processamento

Um pipeline meticuloso e multiestágio foi executado para garantir a qualidade e a integridade do conjunto de dados:

1.  **Parsing e Extração:** As questões foram extraídas automaticamente de documentos PDF disponíveis publicamente, com scripts projetados para lidar com variações de formatação e artefatos de OCR.
2.  **Curadoria e Validação de Integridade:** Todas as questões foram cruzadas com os gabaritos oficiais. Quaisquer questões que foram anuladas pelas bancas examinadoras foram definitivamente removidas.
3.  **Desduplicação Avançada:** Uma estratégia de duas camadas foi usada para eliminar tanto duplicatas exatas (via hashing) quanto quase-duplicatas (usando modelos de similaridade semântica seguidos por revisão manual de especialistas).
4.  **Etiquetagem de Metadados:** Cada questão foi etiquetada com sua fonte, ano e uma das mais de 30 categorias profissionais ou de subespecialidades, permitindo uma análise refinada.
5.  **Auditoria Final de Qualidade:** Uma amostra aleatória e estratificada de 1,5% do conjunto de dados foi auditada manualmente em comparação com os documentos originais para confirmar a precisão de todos os campos, não revelando inconsistências.

### Informações Pessoais e Sensíveis

O conjunto de dados consiste inteiramente em questões de exames profissionais disponíveis publicamente. Ele **não contém nenhuma informação pessoal, privada ou sensível** sobre indivíduos.

## Vieses, Riscos e Limitações

-   **Viés Geográfico e Sistêmico:** O conjunto de dados é explicitamente projetado para o contexto de saúde brasileiro e está alinhado com as prioridades e o perfil epidemiológico do Sistema Único de Saúde (SUS). Embora isso seja uma vantagem para avaliar modelos para esta região, o conteúdo pode não ser representativo dos desafios de saúde em outros países.
-   **Limitações Metodológicas:** Conforme observado no artigo original, o benchmark se baseia em um formato de questões de múltipla escolha e usa a acurácia como métrica principal. Esta é uma escolha deliberada para testar o conhecimento fundamental, mas não é uma avaliação completa das capacidades de um LLM em fluxos de trabalho clínicos complexos e do mundo real (ex: raciocínio diagnóstico, interação com o paciente ou equidade).

## Recomendações

Os usuários são fortemente encorajados a usar os metadados granulares para realizar análises por especialidade e área da saúde, ao invés de depender de uma única pontuação de acurácia geral. Uma pontuação alta no HealthQA-BR indica um forte conhecimento fundamental, mas **não deve ser interpretada como uma certificação de segurança clínica ou prontidão para implementação**. O objetivo principal do benchmark é identificar lacunas de conhecimento específicas para que possam ser corrigidas por meio de ajuste fino direcionado (fine-tuning) ou outras estratégias de remediação.

## Citação

**Vancouver:**

D'addario AMV. HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models. arXiv [Preprint]. Available from: https://arxiv.org/abs/2506.21578

**BibTeX:**

```bibtex
@article{daddario2025healthqabr,
  title={HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models},
  author={D'addario, Andrew Maranhão Ventura},
  journal={arXiv preprint arXiv:2506.21578},
  year={2025},
  eprint={2506.21578},
  archivePrefix={arXiv},
  primaryClass={cs.CL},
  url={https://arxiv.org/abs/2506.21578},
  note={O conjunto de dados HealthQA-BR e o código de avaliação estão disponíveis publicamente em: https://huggingface.co/datasets/Larxel/healthqa-br}
}