Larxel commited on
Commit
c283b07
·
verified ·
1 Parent(s): 9ae51e5

Update Dataset Card

Browse files

Updated description with documentation version 0611

Files changed (1) hide show
  1. README.md +138 -3
README.md CHANGED
@@ -1,3 +1,138 @@
1
- ---
2
- license: cc-by-4.0
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: cc-by-4.0
3
+ task_categories:
4
+ - question-answering
5
+ language:
6
+ - pt
7
+ tags:
8
+ - healthcare
9
+ - medicine
10
+ - nursing
11
+ - psychology
12
+ - dentistry
13
+ - social-work
14
+ - professional-exams
15
+ pretty_name: HealthQA-BR
16
+ size_categories:
17
+ - 1K<n<10K
18
+ ---
19
+
20
+ # HealthQA-BR
21
+
22
+ ### Resumo
23
+
24
+ > O **HealthQA-BR** é o primeiro benchmark de larga escala e abrangência para todo o Sistema Único de Saúde (SUS), projetado para medir o conhecimento clínico de Grandes Modelos de Linguagem (LLMs) frente aos desafios da saúde pública brasileira. Composto por 5.632 questões de múltipla escolha, o conjunto de dados é derivado de provas e concursos de licenciamento profissional e residência de abrangência nacional e de alto impacto no Brasil.
25
+ >
26
+ > Diferentemente de benchmarks focados na realidade médica norte-americana, o HealthQA-BR foi projetado para o ecossistema de saúde brasileiro. Ele avalia de forma granular não só as **especialidades da medicina**, mas também sua realidade interprofissional, incluindo **enfermagem, odontologia, psicologia, serviço social, farmácia, fisioterapia, entre muitos outros**. O resultado é uma avaliação mais realista e holística sobre o potencial de uma IA para o trabalho em equipe que caracteriza o cuidado ao paciente no SUS.
27
+
28
+ - **Curadoria de:** Andrew Maranhão Ventura D'addario
29
+ - **Financiado por:** Ministério da Saúde do Brasil (MoH/DECIT), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) [processo nº 400757/2024-9] e a Fundação Gates.
30
+ - **Idioma(s) (NLP):** Português (pt-BR)
31
+ - **Licença:** Creative Commons Attribution 4.0 Generic License (`cc-by-4.0`)
32
+ - **Artigo:** [Link do Paper](https://www.researchgate.net/publication/392769601_HealthQA-BR_A_System-Wide_Benchmark_Reveals_Critical_Knowledge_Gaps_in_Large_Language_Models)
33
+
34
+ ### Resultados
35
+ | Model | Revalida | Enare Residência Médica | Enare Multiprofissional | Overall Accuracy |
36
+ |:---------------------------------|----------:|------------------------:|------------------------:|-----------------:|
37
+ | **GPT 4.1** | **0.8768**| **0.8651** | **0.8522** | **0.8661** |
38
+ | GPT 4.1 Mini | 0.8250 | 0.8086 | 0.8136 | 0.8148 |
39
+ | GPT 4.1 Nano | 0.6792 | 0.6830 | 0.7199 | 0.6895 |
40
+ | GPT 4o | 0.8559 | 0.8469 | 0.8428 | 0.8489 |
41
+ | GPT 4o Mini | 0.7102 | 0.7120 | 0.7414 | 0.7175 |
42
+ | Gemini 2.0 Flash | 0.8199 | 0.8175 | 0.8385 | 0.8226 |
43
+ | Gemini 2.0 Flash Lite | 0.7749 | 0.7670 | 0.8033 | 0.7770 |
44
+ | **DeepSeek R1** | **0.8599**| **0.8473** | **0.8540** | **0.8526** |
45
+ | LLaMA 4 Maverick | 0.8059 | 0.7964 | 0.8179 | 0.8038 |
46
+ | LLaMA 4 Scout | 0.7147 | 0.7410 | 0.7792 | 0.7406 |
47
+ | LLaMA 3.3 70b | 0.7569 | 0.7458 | 0.7552 | 0.7512 |
48
+ | LLaMA 3.1 8b | 0.3663 | 0.3359 | 0.3746 | 0.3535 |
49
+ | Exaone 3.5 32b | 0.5138 | 0.5106 | 0.6065 | 0.5314 |
50
+ | Gemma 3 27b | 0.7355 | 0.7049 | 0.7431 | 0.7225 |
51
+ | Gemma 3 12b | 0.6629 | 0.6317 | 0.6959 | 0.6548 |
52
+ | Gemma 3 4b | 0.4530 | 0.4352 | 0.5326 | 0.4609 |
53
+ | Gemma 3 1b | 0.3067 | 0.2612 | 0.2998 | 0.2836 |
54
+ | Doutor Bode 7b 360k | 0.4041 | 0.3958 | 0.5060 | 0.4212 |
55
+ | Doutor Bode 7b 240k | 0.4136 | 0.3891 | 0.5000 | 0.4197 |
56
+ | ChatBode 7b | 0.4271 | 0.4103 | 0.4845 | 0.4309 |
57
+ | InternLM2 Chat 7b | 0.3754 | 0.3742 | 0.4356 | 0.3873 |
58
+
59
+
60
+ ### Estrutura do Conjunto de Dados
61
+
62
+ O conjunto de dados é fornecido no formato Apache Parquet para maior eficiência e facilidade de uso. Cada entrada consiste em uma pergunta, cinco opções de resposta, uma única resposta correta e metadados ricos para análise granular.
63
+
64
+ **Campos de Dados:**
65
+
66
+ - `id`: A chave da alternativa correta (ex: "A").
67
+ - `source`: O exame do qual a questão foi extraída (`Revalida`, `Enare Residência Médica`, `Enare Multiprofissional`).
68
+ - `year`: O ano do exame (2011 - 2025).
69
+ - `group`: A especialidade médica ou de area da saúde específica à qual a questão pertence (ex: `Cardiologia`, `Enfermagem`, `Serviço social`).
70
+ - `question`: O texto da questão e suas alternativas. As alternativas são "A", "B", "C", "D", "E", mas algumas questões possuem apenas 4.
71
+ - `answer`: A letra da alternativa correta ("A" é a mais comum, correspondendo a 21,89% das respostas).
72
+
73
+
74
+ **Composição do Conjunto de Dados:**
75
+
76
+ O conjunto de dados integra questões de três fontes de exames distintas:
77
+
78
+ | Fonte | Descrição | Nº de Questões |
79
+ | :--- | :--- | :--- |
80
+ | Revalida | Exame de licenciamento médico para médicos formados no exterior | 1.777 |
81
+ | Enare - Médica | Exame de ingresso em residência médica para médicos | 2.691 |
82
+ | Enare - Multiprofissional| Exame de ingresso em residência para profissionais da saúde | 1.164 |
83
+ | **Total** | | **5.632** |
84
+
85
+
86
+ ## Processo de Criação
87
+
88
+ ### Justificativa
89
+
90
+ Conhecimento clínico é predescessor de desempenho no mundo real e no contexto do SUS.
91
+ O desenvolvimento do HealthQA-BR foi motivado pela necessidade de superar a perigosa ilusão de competência criada por benchmarks focados apenas em medicina e em língua inglesa. As avaliações atuais frequentemente mascaram lacunas de conhecimento críticas e específicas de cada especialidade, além de ignorarem a natureza interprofissional do cuidado ao paciente. Este benchmark foi criado para permitir uma auditoria mais honesta e granular da prontidão de uma IA para toda a equipe de saúde no contexto e desafios de saúde do Brasil, incluindo médicos, enfermeiros, farmaceuticos, psicólogos, dentistas e muitos outros; fornecendo uma ferramenta crucial para identificar e remediar fraquezas antes da implementação clínica.
92
+
93
+ ### Origem
94
+
95
+ As questões foram extraídas de exames nacionais públicos e de alto impacto, administrados por órgãos oficiais brasileiros, garantindo relevância clínica e qualidade.
96
+
97
+ 1. **Revalida (Exame Nacional de Revalidação de Diplomas Médicos):** Um exame de notória dificuldade, administrado pelo INEP, para médicos formados no exterior que desejam exercer a profissão no Brasil.
98
+ 2. **Enare (Exame Nacional de Residência):** Um exame nacional unificado para residência, organizado pela Empresa Brasileira de Serviços Hospitalares (Ebserh), que administra hospitais universitários federais dentro do Sistema Único de Saúde (SUS). Essa ligação direta garante que o conteúdo do exame esteja alinhado com os desafios de saúde pública do país. O conjunto de dados inclui questões tanto da residência médica (`Enare - Residência Médica`) quanto da singular residência multiprofissional (`Enare - Residência Multiprofissional`).
99
+
100
+ ### Coleta e Processamento
101
+
102
+ Um pipeline meticuloso e multiestágio foi executado para garantir a qualidade e a integridade do conjunto de dados:
103
+
104
+ 1. **Parsing e Extração:** As questões foram extraídas automaticamente de documentos PDF disponíveis publicamente, com scripts projetados para lidar com variações de formatação e artefatos de OCR.
105
+ 2. **Curadoria e Validação de Integridade:** Todas as questões foram cruzadas com os gabaritos oficiais. Quaisquer questões que foram anuladas pelas bancas examinadoras foram definitivamente removidas.
106
+ 3. **Desduplicação Avançada:** Uma estratégia de duas camadas foi usada para eliminar tanto duplicatas exatas (via hashing) quanto quase-duplicatas (usando modelos de similaridade semântica seguidos por revisão manual de especialistas).
107
+ 4. **Etiquetagem de Metadados:** Cada questão foi etiquetada com sua fonte, ano e uma das mais de 30 categorias profissionais ou de subespecialidades, permitindo uma análise refinada.
108
+ 5. **Auditoria Final de Qualidade:** Uma amostra aleatória e estratificada de 1,5% do conjunto de dados foi auditada manualmente em comparação com os documentos originais para confirmar a precisão de todos os campos, não revelando inconsistências.
109
+
110
+ ### Informações Pessoais e Sensíveis
111
+
112
+ O conjunto de dados consiste inteiramente em questões de exames profissionais disponíveis publicamente. Ele **não contém nenhuma informação pessoal, privada ou sensível** sobre indivíduos.
113
+
114
+ ## Vieses, Riscos e Limitações
115
+
116
+ - **Viés Geográfico e Sistêmico:** O conjunto de dados é explicitamente projetado para o contexto de saúde brasileiro e está alinhado com as prioridades e o perfil epidemiológico do Sistema Único de Saúde (SUS). Embora isso seja uma vantagem para avaliar modelos para esta região, o conteúdo pode não ser representativo dos desafios de saúde em outros países.
117
+ - **Limitações Metodológicas:** Conforme observado no artigo original, o benchmark se baseia em um formato de questões de múltipla escolha e usa a acurácia como métrica principal. Esta é uma escolha deliberada para testar o conhecimento fundamental, mas não é uma avaliação completa das capacidades de um LLM em fluxos de trabalho clínicos complexos e do mundo real (ex: raciocínio diagnóstico, interação com o paciente ou equidade).
118
+
119
+ ## Recomendações
120
+
121
+ Os usuários são fortemente encorajados a usar os metadados granulares para realizar análises por especialidade e área da saúde, ao invés de depender de uma única pontuação de acurácia geral. Uma pontuação alta no HealthQA-BR indica um forte conhecimento fundamental, mas **não deve ser interpretada como uma certificação de segurança clínica ou prontidão para implementação**. O objetivo principal do benchmark é identificar lacunas de conhecimento específicas para que possam ser corrigidas por meio de ajuste fino direcionado (fine-tuning) ou outras estratégias de remediação.
122
+
123
+ ## Citação
124
+
125
+ **Vancouver:**
126
+
127
+ D'addario AMV. HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models. arXiv [Preprint]. 2025.
128
+
129
+ **BibTeX:**
130
+
131
+ ```bibtex
132
+ @article{daddario2025healthqabr,
133
+ title={{HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models}},
134
+ author={D'addario, Andrew Maranhão Ventura},
135
+ journal={arXiv preprint},
136
+ year={2025},
137
+ note={O conjunto de dados HealthQA-BR e o código de avaliação estão disponíveis publicamente em: [https://huggingface.co/datasets/Larxel/healthqa-br](https://huggingface.co/datasets/Larxel/healthqa-br)}
138
+ }