Datasets:
Tasks:
Question Answering
Modalities:
Text
Formats:
parquet
Languages:
Portuguese
Size:
1K - 10K
ArXiv:
License:
Update Dataset Card
Browse filesUpdated description with documentation version 0611
README.md
CHANGED
@@ -1,3 +1,138 @@
|
|
1 |
-
---
|
2 |
-
license: cc-by-4.0
|
3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
license: cc-by-4.0
|
3 |
+
task_categories:
|
4 |
+
- question-answering
|
5 |
+
language:
|
6 |
+
- pt
|
7 |
+
tags:
|
8 |
+
- healthcare
|
9 |
+
- medicine
|
10 |
+
- nursing
|
11 |
+
- psychology
|
12 |
+
- dentistry
|
13 |
+
- social-work
|
14 |
+
- professional-exams
|
15 |
+
pretty_name: HealthQA-BR
|
16 |
+
size_categories:
|
17 |
+
- 1K<n<10K
|
18 |
+
---
|
19 |
+
|
20 |
+
# HealthQA-BR
|
21 |
+
|
22 |
+
### Resumo
|
23 |
+
|
24 |
+
> O **HealthQA-BR** é o primeiro benchmark de larga escala e abrangência para todo o Sistema Único de Saúde (SUS), projetado para medir o conhecimento clínico de Grandes Modelos de Linguagem (LLMs) frente aos desafios da saúde pública brasileira. Composto por 5.632 questões de múltipla escolha, o conjunto de dados é derivado de provas e concursos de licenciamento profissional e residência de abrangência nacional e de alto impacto no Brasil.
|
25 |
+
>
|
26 |
+
> Diferentemente de benchmarks focados na realidade médica norte-americana, o HealthQA-BR foi projetado para o ecossistema de saúde brasileiro. Ele avalia de forma granular não só as **especialidades da medicina**, mas também sua realidade interprofissional, incluindo **enfermagem, odontologia, psicologia, serviço social, farmácia, fisioterapia, entre muitos outros**. O resultado é uma avaliação mais realista e holística sobre o potencial de uma IA para o trabalho em equipe que caracteriza o cuidado ao paciente no SUS.
|
27 |
+
|
28 |
+
- **Curadoria de:** Andrew Maranhão Ventura D'addario
|
29 |
+
- **Financiado por:** Ministério da Saúde do Brasil (MoH/DECIT), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) [processo nº 400757/2024-9] e a Fundação Gates.
|
30 |
+
- **Idioma(s) (NLP):** Português (pt-BR)
|
31 |
+
- **Licença:** Creative Commons Attribution 4.0 Generic License (`cc-by-4.0`)
|
32 |
+
- **Artigo:** [Link do Paper](https://www.researchgate.net/publication/392769601_HealthQA-BR_A_System-Wide_Benchmark_Reveals_Critical_Knowledge_Gaps_in_Large_Language_Models)
|
33 |
+
|
34 |
+
### Resultados
|
35 |
+
| Model | Revalida | Enare Residência Médica | Enare Multiprofissional | Overall Accuracy |
|
36 |
+
|:---------------------------------|----------:|------------------------:|------------------------:|-----------------:|
|
37 |
+
| **GPT 4.1** | **0.8768**| **0.8651** | **0.8522** | **0.8661** |
|
38 |
+
| GPT 4.1 Mini | 0.8250 | 0.8086 | 0.8136 | 0.8148 |
|
39 |
+
| GPT 4.1 Nano | 0.6792 | 0.6830 | 0.7199 | 0.6895 |
|
40 |
+
| GPT 4o | 0.8559 | 0.8469 | 0.8428 | 0.8489 |
|
41 |
+
| GPT 4o Mini | 0.7102 | 0.7120 | 0.7414 | 0.7175 |
|
42 |
+
| Gemini 2.0 Flash | 0.8199 | 0.8175 | 0.8385 | 0.8226 |
|
43 |
+
| Gemini 2.0 Flash Lite | 0.7749 | 0.7670 | 0.8033 | 0.7770 |
|
44 |
+
| **DeepSeek R1** | **0.8599**| **0.8473** | **0.8540** | **0.8526** |
|
45 |
+
| LLaMA 4 Maverick | 0.8059 | 0.7964 | 0.8179 | 0.8038 |
|
46 |
+
| LLaMA 4 Scout | 0.7147 | 0.7410 | 0.7792 | 0.7406 |
|
47 |
+
| LLaMA 3.3 70b | 0.7569 | 0.7458 | 0.7552 | 0.7512 |
|
48 |
+
| LLaMA 3.1 8b | 0.3663 | 0.3359 | 0.3746 | 0.3535 |
|
49 |
+
| Exaone 3.5 32b | 0.5138 | 0.5106 | 0.6065 | 0.5314 |
|
50 |
+
| Gemma 3 27b | 0.7355 | 0.7049 | 0.7431 | 0.7225 |
|
51 |
+
| Gemma 3 12b | 0.6629 | 0.6317 | 0.6959 | 0.6548 |
|
52 |
+
| Gemma 3 4b | 0.4530 | 0.4352 | 0.5326 | 0.4609 |
|
53 |
+
| Gemma 3 1b | 0.3067 | 0.2612 | 0.2998 | 0.2836 |
|
54 |
+
| Doutor Bode 7b 360k | 0.4041 | 0.3958 | 0.5060 | 0.4212 |
|
55 |
+
| Doutor Bode 7b 240k | 0.4136 | 0.3891 | 0.5000 | 0.4197 |
|
56 |
+
| ChatBode 7b | 0.4271 | 0.4103 | 0.4845 | 0.4309 |
|
57 |
+
| InternLM2 Chat 7b | 0.3754 | 0.3742 | 0.4356 | 0.3873 |
|
58 |
+
|
59 |
+
|
60 |
+
### Estrutura do Conjunto de Dados
|
61 |
+
|
62 |
+
O conjunto de dados é fornecido no formato Apache Parquet para maior eficiência e facilidade de uso. Cada entrada consiste em uma pergunta, cinco opções de resposta, uma única resposta correta e metadados ricos para análise granular.
|
63 |
+
|
64 |
+
**Campos de Dados:**
|
65 |
+
|
66 |
+
- `id`: A chave da alternativa correta (ex: "A").
|
67 |
+
- `source`: O exame do qual a questão foi extraída (`Revalida`, `Enare Residência Médica`, `Enare Multiprofissional`).
|
68 |
+
- `year`: O ano do exame (2011 - 2025).
|
69 |
+
- `group`: A especialidade médica ou de area da saúde específica à qual a questão pertence (ex: `Cardiologia`, `Enfermagem`, `Serviço social`).
|
70 |
+
- `question`: O texto da questão e suas alternativas. As alternativas são "A", "B", "C", "D", "E", mas algumas questões possuem apenas 4.
|
71 |
+
- `answer`: A letra da alternativa correta ("A" é a mais comum, correspondendo a 21,89% das respostas).
|
72 |
+
|
73 |
+
|
74 |
+
**Composição do Conjunto de Dados:**
|
75 |
+
|
76 |
+
O conjunto de dados integra questões de três fontes de exames distintas:
|
77 |
+
|
78 |
+
| Fonte | Descrição | Nº de Questões |
|
79 |
+
| :--- | :--- | :--- |
|
80 |
+
| Revalida | Exame de licenciamento médico para médicos formados no exterior | 1.777 |
|
81 |
+
| Enare - Médica | Exame de ingresso em residência médica para médicos | 2.691 |
|
82 |
+
| Enare - Multiprofissional| Exame de ingresso em residência para profissionais da saúde | 1.164 |
|
83 |
+
| **Total** | | **5.632** |
|
84 |
+
|
85 |
+
|
86 |
+
## Processo de Criação
|
87 |
+
|
88 |
+
### Justificativa
|
89 |
+
|
90 |
+
Conhecimento clínico é predescessor de desempenho no mundo real e no contexto do SUS.
|
91 |
+
O desenvolvimento do HealthQA-BR foi motivado pela necessidade de superar a perigosa ilusão de competência criada por benchmarks focados apenas em medicina e em língua inglesa. As avaliações atuais frequentemente mascaram lacunas de conhecimento críticas e específicas de cada especialidade, além de ignorarem a natureza interprofissional do cuidado ao paciente. Este benchmark foi criado para permitir uma auditoria mais honesta e granular da prontidão de uma IA para toda a equipe de saúde no contexto e desafios de saúde do Brasil, incluindo médicos, enfermeiros, farmaceuticos, psicólogos, dentistas e muitos outros; fornecendo uma ferramenta crucial para identificar e remediar fraquezas antes da implementação clínica.
|
92 |
+
|
93 |
+
### Origem
|
94 |
+
|
95 |
+
As questões foram extraídas de exames nacionais públicos e de alto impacto, administrados por órgãos oficiais brasileiros, garantindo relevância clínica e qualidade.
|
96 |
+
|
97 |
+
1. **Revalida (Exame Nacional de Revalidação de Diplomas Médicos):** Um exame de notória dificuldade, administrado pelo INEP, para médicos formados no exterior que desejam exercer a profissão no Brasil.
|
98 |
+
2. **Enare (Exame Nacional de Residência):** Um exame nacional unificado para residência, organizado pela Empresa Brasileira de Serviços Hospitalares (Ebserh), que administra hospitais universitários federais dentro do Sistema Único de Saúde (SUS). Essa ligação direta garante que o conteúdo do exame esteja alinhado com os desafios de saúde pública do país. O conjunto de dados inclui questões tanto da residência médica (`Enare - Residência Médica`) quanto da singular residência multiprofissional (`Enare - Residência Multiprofissional`).
|
99 |
+
|
100 |
+
### Coleta e Processamento
|
101 |
+
|
102 |
+
Um pipeline meticuloso e multiestágio foi executado para garantir a qualidade e a integridade do conjunto de dados:
|
103 |
+
|
104 |
+
1. **Parsing e Extração:** As questões foram extraídas automaticamente de documentos PDF disponíveis publicamente, com scripts projetados para lidar com variações de formatação e artefatos de OCR.
|
105 |
+
2. **Curadoria e Validação de Integridade:** Todas as questões foram cruzadas com os gabaritos oficiais. Quaisquer questões que foram anuladas pelas bancas examinadoras foram definitivamente removidas.
|
106 |
+
3. **Desduplicação Avançada:** Uma estratégia de duas camadas foi usada para eliminar tanto duplicatas exatas (via hashing) quanto quase-duplicatas (usando modelos de similaridade semântica seguidos por revisão manual de especialistas).
|
107 |
+
4. **Etiquetagem de Metadados:** Cada questão foi etiquetada com sua fonte, ano e uma das mais de 30 categorias profissionais ou de subespecialidades, permitindo uma análise refinada.
|
108 |
+
5. **Auditoria Final de Qualidade:** Uma amostra aleatória e estratificada de 1,5% do conjunto de dados foi auditada manualmente em comparação com os documentos originais para confirmar a precisão de todos os campos, não revelando inconsistências.
|
109 |
+
|
110 |
+
### Informações Pessoais e Sensíveis
|
111 |
+
|
112 |
+
O conjunto de dados consiste inteiramente em questões de exames profissionais disponíveis publicamente. Ele **não contém nenhuma informação pessoal, privada ou sensível** sobre indivíduos.
|
113 |
+
|
114 |
+
## Vieses, Riscos e Limitações
|
115 |
+
|
116 |
+
- **Viés Geográfico e Sistêmico:** O conjunto de dados é explicitamente projetado para o contexto de saúde brasileiro e está alinhado com as prioridades e o perfil epidemiológico do Sistema Único de Saúde (SUS). Embora isso seja uma vantagem para avaliar modelos para esta região, o conteúdo pode não ser representativo dos desafios de saúde em outros países.
|
117 |
+
- **Limitações Metodológicas:** Conforme observado no artigo original, o benchmark se baseia em um formato de questões de múltipla escolha e usa a acurácia como métrica principal. Esta é uma escolha deliberada para testar o conhecimento fundamental, mas não é uma avaliação completa das capacidades de um LLM em fluxos de trabalho clínicos complexos e do mundo real (ex: raciocínio diagnóstico, interação com o paciente ou equidade).
|
118 |
+
|
119 |
+
## Recomendações
|
120 |
+
|
121 |
+
Os usuários são fortemente encorajados a usar os metadados granulares para realizar análises por especialidade e área da saúde, ao invés de depender de uma única pontuação de acurácia geral. Uma pontuação alta no HealthQA-BR indica um forte conhecimento fundamental, mas **não deve ser interpretada como uma certificação de segurança clínica ou prontidão para implementação**. O objetivo principal do benchmark é identificar lacunas de conhecimento específicas para que possam ser corrigidas por meio de ajuste fino direcionado (fine-tuning) ou outras estratégias de remediação.
|
122 |
+
|
123 |
+
## Citação
|
124 |
+
|
125 |
+
**Vancouver:**
|
126 |
+
|
127 |
+
D'addario AMV. HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models. arXiv [Preprint]. 2025.
|
128 |
+
|
129 |
+
**BibTeX:**
|
130 |
+
|
131 |
+
```bibtex
|
132 |
+
@article{daddario2025healthqabr,
|
133 |
+
title={{HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models}},
|
134 |
+
author={D'addario, Andrew Maranhão Ventura},
|
135 |
+
journal={arXiv preprint},
|
136 |
+
year={2025},
|
137 |
+
note={O conjunto de dados HealthQA-BR e o código de avaliação estão disponíveis publicamente em: [https://huggingface.co/datasets/Larxel/healthqa-br](https://huggingface.co/datasets/Larxel/healthqa-br)}
|
138 |
+
}
|