Larxel commited on
Commit
744f958
·
verified ·
1 Parent(s): b562f5f

Updated preprint link and citation

Browse files
Files changed (1) hide show
  1. README.md +10 -6
README.md CHANGED
@@ -26,10 +26,10 @@ size_categories:
26
  > Diferentemente de benchmarks focados na realidade médica norte-americana, o HealthQA-BR foi projetado para o ecossistema de saúde brasileiro. Ele avalia de forma granular não só as **especialidades da medicina**, mas também sua realidade interprofissional, incluindo **enfermagem, odontologia, psicologia, serviço social, farmácia, fisioterapia, entre muitos outros**. O resultado é uma avaliação mais realista e holística sobre o potencial de uma IA para o trabalho em equipe que caracteriza o cuidado ao paciente no SUS.
27
 
28
  - **Curadoria de:** Andrew Maranhão Ventura D'addario
29
- - **Financiado por:** Ministério da Saúde do Brasil (MoH/DECIT), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) [processo nº 400757/2024-9] e a Fundação Gates.
30
  - **Idioma(s) (NLP):** Português (pt-BR)
31
  - **Licença:** Creative Commons Attribution 4.0 Generic License (`cc-by-4.0`)
32
- - **Artigo:** [Link do Paper](https://www.researchgate.net/publication/392769601_HealthQA-BR_A_System-Wide_Benchmark_Reveals_Critical_Knowledge_Gaps_in_Large_Language_Models)
33
 
34
  ### Resultados
35
  | Model | Revalida | Enare Residência Médica | Enare Multiprofissional | Overall Accuracy |
@@ -124,15 +124,19 @@ Os usuários são fortemente encorajados a usar os metadados granulares para rea
124
 
125
  **Vancouver:**
126
 
127
- D'addario AMV. HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models. arXiv [Preprint]. 2025.
128
 
129
  **BibTeX:**
130
 
131
  ```bibtex
132
  @article{daddario2025healthqabr,
133
- title={{HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models}},
134
  author={D'addario, Andrew Maranhão Ventura},
135
- journal={arXiv preprint},
136
  year={2025},
137
- note={O conjunto de dados HealthQA-BR e o código de avaliação estão disponíveis publicamente em: [https://huggingface.co/datasets/Larxel/healthqa-br](https://huggingface.co/datasets/Larxel/healthqa-br)}
 
 
 
 
138
  }
 
26
  > Diferentemente de benchmarks focados na realidade médica norte-americana, o HealthQA-BR foi projetado para o ecossistema de saúde brasileiro. Ele avalia de forma granular não só as **especialidades da medicina**, mas também sua realidade interprofissional, incluindo **enfermagem, odontologia, psicologia, serviço social, farmácia, fisioterapia, entre muitos outros**. O resultado é uma avaliação mais realista e holística sobre o potencial de uma IA para o trabalho em equipe que caracteriza o cuidado ao paciente no SUS.
27
 
28
  - **Curadoria de:** Andrew Maranhão Ventura D'addario
29
+ - **Financiado por:** Ministério da Saúde do Brasil (MS/DECIT), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) [processo nº 400757/2024-9] e a Fundação Gates.
30
  - **Idioma(s) (NLP):** Português (pt-BR)
31
  - **Licença:** Creative Commons Attribution 4.0 Generic License (`cc-by-4.0`)
32
+ - **Artigo:** [Link do Paper](https://arxiv.org/abs/2506.21578)
33
 
34
  ### Resultados
35
  | Model | Revalida | Enare Residência Médica | Enare Multiprofissional | Overall Accuracy |
 
124
 
125
  **Vancouver:**
126
 
127
+ D'addario AMV. HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models. arXiv [Preprint]. Available from: https://arxiv.org/abs/2506.21578
128
 
129
  **BibTeX:**
130
 
131
  ```bibtex
132
  @article{daddario2025healthqabr,
133
+ title={HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models},
134
  author={D'addario, Andrew Maranhão Ventura},
135
+ journal={arXiv preprint arXiv:2506.21578},
136
  year={2025},
137
+ eprint={2506.21578},
138
+ archivePrefix={arXiv},
139
+ primaryClass={cs.CL},
140
+ url={https://arxiv.org/abs/2506.21578},
141
+ note={O conjunto de dados HealthQA-BR e o código de avaliação estão disponíveis publicamente em: https://huggingface.co/datasets/Larxel/healthqa-br}
142
  }