Exportar registro bibliográfico


Metrics:

Interpretação de modelos complexos de aprendizado de máquina (2023)

  • Authors:
  • Autor USP: NEIVA, DAVI KEGLEVICH - ICMC
  • Unidade: ICMC
  • DOI: 10.11606/D.55.2023.tde-15012024-160021
  • Subjects: APRENDIZADO COMPUTACIONAL; REDES COMPLEXAS
  • Keywords: Complex models; Interpretabilidade de modelos; Machine learning; Model interpretability; Modelos complexos; SHAP values; Valores SHAP
  • Language: Português
  • Abstract: Algoritmos de aprendizado de máquina são amplamente utilizados em diversos setores da sociedade e desempenham um papel significativo na tomada de decisões em vários contextos. Esses algoritmos são capazes de criar modelos cada vez mais sofisticados, que conseguem capturar relações complexas nos dados para alcançar resultados mais acurados. No entanto, à medida que esses modelos desenvolvem relações mais complexas, a compreensão de seu funcionamento também se torna mais desafiadora. Esses modelos de aprendizado de máquina frequentemente incorporam centenas, ou até mesmo milhares, de variáveis. Neste trabalho, apresentamos alguns algoritmos de aprendizado de máquina, abordamos sua complexidade e discutimos a importância de compreender o funcionamento desses modelos complexos. Além disso, exploramos a metodologia SHAP para interpretar modelos de boosting (classificação e regressão) em 3 estudos de caso distintos: identificação dos perfis mais propensos a alcançarem uma nota mínima no ENEM - Exame Nacional do Ensino Médio; desenvolvimento de um score de risco de crédito de uma cooperativa de empresas e avaliação da concentração de carbono em amostras de solo de diferentes biomas brasileiros a partir de dados de espectroscopia. Com a utilização da metodologia SHAP foi possível trazer informações complementares às do modelo em cada um desses casos, revelando padrões de características socio econômicas dos candidatos do ENEM, características das empresas que o modelo aprendeu nodesenvolvimento do score de crédito e informações relevantes sobre a composição dos solos. A interpretação dos modelos não apenas aprimora a análise dos conjuntos de dados, mas também possibilita a identificação de vieses amostrais, a avaliação do aprendizado obtido durante a construção dos modelos e, até mesmo, a revelação de informações que podem não ser prontamente discerníveis nos dados.
  • Imprenta:
  • Data da defesa: 21.11.2023
  • Acesso à fonteAcesso à fonteDOI
    Informações sobre o DOI: 10.11606/D.55.2023.tde-15012024-160021 (Fonte: oaDOI API)
    • Este periódico é de acesso aberto
    • Este artigo é de acesso aberto
    • URL de acesso aberto
    • Cor do Acesso Aberto: gold
    • Licença: cc-by-nc-sa

    How to cite
    A citação é gerada automaticamente e pode não estar totalmente de acordo com as normas

    • ABNT

      NEIVA, Davi Keglevich. Interpretação de modelos complexos de aprendizado de máquina. 2023. Dissertação (Mestrado) – Universidade de São Paulo, São Carlos, 2023. Disponível em: https://www.teses.usp.br/teses/disponiveis/55/55137/tde-15012024-160021/. Acesso em: 03 jun. 2024.
    • APA

      Neiva, D. K. (2023). Interpretação de modelos complexos de aprendizado de máquina (Dissertação (Mestrado). Universidade de São Paulo, São Carlos. Recuperado de https://www.teses.usp.br/teses/disponiveis/55/55137/tde-15012024-160021/
    • NLM

      Neiva DK. Interpretação de modelos complexos de aprendizado de máquina [Internet]. 2023 ;[citado 2024 jun. 03 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55137/tde-15012024-160021/
    • Vancouver

      Neiva DK. Interpretação de modelos complexos de aprendizado de máquina [Internet]. 2023 ;[citado 2024 jun. 03 ] Available from: https://www.teses.usp.br/teses/disponiveis/55/55137/tde-15012024-160021/


Digital Library of Intellectual Production of Universidade de São Paulo     2012 - 2024