--- license: cc-by-4.0 task_categories: - question-answering language: - pt tags: - healthcare - medicine - nursing - psychology - dentistry - social-work - professional-exams pretty_name: HealthQA-BR size_categories: - 1K O **HealthQA-BR** é o primeiro benchmark de larga escala e abrangência para todo o Sistema Único de Saúde (SUS), projetado para medir o conhecimento clínico de Grandes Modelos de Linguagem (LLMs) frente aos desafios da saúde pública brasileira. Composto por 5.632 questões de múltipla escolha, o conjunto de dados é derivado de provas e concursos de licenciamento profissional e residência de abrangência nacional e de alto impacto no Brasil. > > Diferentemente de benchmarks focados na realidade médica norte-americana, o HealthQA-BR foi projetado para o ecossistema de saúde brasileiro. Ele avalia de forma granular não só as **especialidades da medicina**, mas também sua realidade interprofissional, incluindo **enfermagem, odontologia, psicologia, serviço social, farmácia, fisioterapia, entre muitos outros**. O resultado é uma avaliação mais realista e holística sobre o potencial de uma IA para o trabalho em equipe que caracteriza o cuidado ao paciente no SUS. - **Curadoria de:** Andrew Maranhão Ventura D'addario - **Financiado por:** Ministério da Saúde do Brasil (MS/DECIT), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) [processo nº 400757/2024-9] e a Fundação Gates. - **Idioma(s) (NLP):** Português (pt-BR) - **Licença:** Creative Commons Attribution 4.0 Generic License (`cc-by-4.0`) - **Artigo:** [Link do Paper](https://arxiv.org/abs/2506.21578) ### Resultados | Model | Revalida | Enare Residência Médica | Enare Multiprofissional | Overall Accuracy | |:---------------------------------|----------:|------------------------:|------------------------:|-----------------:| | **GPT 4.1** | **0.8768**| **0.8651** | **0.8522** | **0.8661** | | GPT 4.1 Mini | 0.8250 | 0.8086 | 0.8136 | 0.8148 | | GPT 4.1 Nano | 0.6792 | 0.6830 | 0.7199 | 0.6895 | | GPT 4o | 0.8559 | 0.8469 | 0.8428 | 0.8489 | | GPT 4o Mini | 0.7102 | 0.7120 | 0.7414 | 0.7175 | | Gemini 2.0 Flash | 0.8199 | 0.8175 | 0.8385 | 0.8226 | | Gemini 2.0 Flash Lite | 0.7749 | 0.7670 | 0.8033 | 0.7770 | | **DeepSeek R1** | **0.8599**| **0.8473** | **0.8540** | **0.8526** | | LLaMA 4 Maverick | 0.8059 | 0.7964 | 0.8179 | 0.8038 | | LLaMA 4 Scout | 0.7147 | 0.7410 | 0.7792 | 0.7406 | | LLaMA 3.3 70b | 0.7569 | 0.7458 | 0.7552 | 0.7512 | | LLaMA 3.1 8b | 0.3663 | 0.3359 | 0.3746 | 0.3535 | | Exaone 3.5 32b | 0.5138 | 0.5106 | 0.6065 | 0.5314 | | Gemma 3 27b | 0.7355 | 0.7049 | 0.7431 | 0.7225 | | Gemma 3 12b | 0.6629 | 0.6317 | 0.6959 | 0.6548 | | Gemma 3 4b | 0.4530 | 0.4352 | 0.5326 | 0.4609 | | Gemma 3 1b | 0.3067 | 0.2612 | 0.2998 | 0.2836 | | Doutor Bode 7b 360k | 0.4041 | 0.3958 | 0.5060 | 0.4212 | | Doutor Bode 7b 240k | 0.4136 | 0.3891 | 0.5000 | 0.4197 | | ChatBode 7b | 0.4271 | 0.4103 | 0.4845 | 0.4309 | | InternLM2 Chat 7b | 0.3754 | 0.3742 | 0.4356 | 0.3873 | ### Estrutura do Conjunto de Dados O conjunto de dados é fornecido no formato Apache Parquet para maior eficiência e facilidade de uso. Cada entrada consiste em uma pergunta, cinco opções de resposta, uma única resposta correta e metadados ricos para análise granular. **Campos de Dados:** - `id`: Chave única de 8 caracteres. - `source`: O exame do qual a questão foi extraída (`Revalida`, `Enare Residência Médica`, `Enare Multiprofissional`). - `year`: O ano do exame (2011 - 2025). - `group`: A especialidade médica ou de area da saúde específica à qual a questão pertence (ex: `Cardiologia`, `Enfermagem`, `Serviço social`). - `question`: O texto da questão e suas alternativas. As alternativas são "A", "B", "C", "D", "E", mas algumas questões possuem apenas 4. - `answer`: A letra da alternativa correta ("A" é a mais comum, correspondendo a 21,89% das respostas). **Composição do Conjunto de Dados:** O conjunto de dados integra questões de três fontes de exames distintas: | Fonte | Descrição | Nº de Questões | | :--- | :--- | :--- | | Revalida | Exame de licenciamento médico para médicos formados no exterior | 1.777 | | Enare - Médica | Exame de ingresso em residência médica para médicos | 2.691 | | Enare - Multiprofissional| Exame de ingresso em residência para profissionais da saúde | 1.164 | | **Total** | | **5.632** | ## Processo de Criação ### Justificativa Conhecimento clínico é predescessor de desempenho no mundo real e no contexto do SUS. O desenvolvimento do HealthQA-BR foi motivado pela necessidade de superar a perigosa ilusão de competência criada por benchmarks focados apenas em medicina e em língua inglesa. As avaliações atuais frequentemente mascaram lacunas de conhecimento críticas e específicas de cada especialidade, além de ignorarem a natureza interprofissional do cuidado ao paciente. Este benchmark foi criado para permitir uma auditoria mais honesta e granular da prontidão de uma IA para toda a equipe de saúde no contexto e desafios de saúde do Brasil, incluindo médicos, enfermeiros, farmaceuticos, psicólogos, dentistas e muitos outros; fornecendo uma ferramenta crucial para identificar e remediar fraquezas antes da implementação clínica. ### Origem As questões foram extraídas de exames nacionais públicos e de alto impacto, administrados por órgãos oficiais brasileiros, garantindo relevância clínica e qualidade. 1. **Revalida (Exame Nacional de Revalidação de Diplomas Médicos):** Um exame de notória dificuldade, administrado pelo INEP, para médicos formados no exterior que desejam exercer a profissão no Brasil. 2. **Enare (Exame Nacional de Residência):** Um exame nacional unificado para residência, organizado pela Empresa Brasileira de Serviços Hospitalares (Ebserh), que administra hospitais universitários federais dentro do Sistema Único de Saúde (SUS). Essa ligação direta garante que o conteúdo do exame esteja alinhado com os desafios de saúde pública do país. O conjunto de dados inclui questões tanto da residência médica (`Enare - Residência Médica`) quanto da singular residência multiprofissional (`Enare - Residência Multiprofissional`). ### Coleta e Processamento Um pipeline meticuloso e multiestágio foi executado para garantir a qualidade e a integridade do conjunto de dados: 1. **Parsing e Extração:** As questões foram extraídas automaticamente de documentos PDF disponíveis publicamente, com scripts projetados para lidar com variações de formatação e artefatos de OCR. 2. **Curadoria e Validação de Integridade:** Todas as questões foram cruzadas com os gabaritos oficiais. Quaisquer questões que foram anuladas pelas bancas examinadoras foram definitivamente removidas. 3. **Desduplicação Avançada:** Uma estratégia de duas camadas foi usada para eliminar tanto duplicatas exatas (via hashing) quanto quase-duplicatas (usando modelos de similaridade semântica seguidos por revisão manual de especialistas). 4. **Etiquetagem de Metadados:** Cada questão foi etiquetada com sua fonte, ano e uma das mais de 30 categorias profissionais ou de subespecialidades, permitindo uma análise refinada. 5. **Auditoria Final de Qualidade:** Uma amostra aleatória e estratificada de 1,5% do conjunto de dados foi auditada manualmente em comparação com os documentos originais para confirmar a precisão de todos os campos, não revelando inconsistências. ### Informações Pessoais e Sensíveis O conjunto de dados consiste inteiramente em questões de exames profissionais disponíveis publicamente. Ele **não contém nenhuma informação pessoal, privada ou sensível** sobre indivíduos. ## Vieses, Riscos e Limitações - **Viés Geográfico e Sistêmico:** O conjunto de dados é explicitamente projetado para o contexto de saúde brasileiro e está alinhado com as prioridades e o perfil epidemiológico do Sistema Único de Saúde (SUS). Embora isso seja uma vantagem para avaliar modelos para esta região, o conteúdo pode não ser representativo dos desafios de saúde em outros países. - **Limitações Metodológicas:** Conforme observado no artigo original, o benchmark se baseia em um formato de questões de múltipla escolha e usa a acurácia como métrica principal. Esta é uma escolha deliberada para testar o conhecimento fundamental, mas não é uma avaliação completa das capacidades de um LLM em fluxos de trabalho clínicos complexos e do mundo real (ex: raciocínio diagnóstico, interação com o paciente ou equidade). ## Recomendações Os usuários são fortemente encorajados a usar os metadados granulares para realizar análises por especialidade e área da saúde, ao invés de depender de uma única pontuação de acurácia geral. Uma pontuação alta no HealthQA-BR indica um forte conhecimento fundamental, mas **não deve ser interpretada como uma certificação de segurança clínica ou prontidão para implementação**. O objetivo principal do benchmark é identificar lacunas de conhecimento específicas para que possam ser corrigidas por meio de ajuste fino direcionado (fine-tuning) ou outras estratégias de remediação. ## Citação **Vancouver:** D'addario AMV. HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models. arXiv [Preprint]. Available from: https://arxiv.org/abs/2506.21578 **BibTeX:** ```bibtex @article{daddario2025healthqabr, title={HealthQA-BR: A System-Wide Benchmark Reveals Critical Knowledge Gaps in Large Language Models}, author={D'addario, Andrew Maranhão Ventura}, journal={arXiv preprint arXiv:2506.21578}, year={2025}, eprint={2506.21578}, archivePrefix={arXiv}, primaryClass={cs.CL}, url={https://arxiv.org/abs/2506.21578}, note={O conjunto de dados HealthQA-BR e o código de avaliação estão disponíveis publicamente em: https://huggingface.co/datasets/Larxel/healthqa-br} }