IA combina imagem e dados clínicos e detecta câncer de pele agressivo com 94,5% de precisão, aponta estudo

Um novo sistema de inteligência artificial (IA) conseguiu identificar melanoma — o tipo mais agressivo de câncer de pele — com 94,5% de precisão, ao integrar a análise da imagem da lesão com informações clínicas básicas do paciente, como idade, sexo e local do corpo onde a pinta aparece.

A abordagem, descrita por pesquisadores da Universidade Nacional de Incheon, na Coreia do Sul, promete dar um salto na detecção precoce da doença e ampliar o acesso ao diagnóstico.

Melanoma é difícil de identificar

O melanoma é um dos tumores de pele mais difíceis de diagnosticar, mesmo para especialistas. Muitas lesões parecem benignas, confundem médicos e atrasam o início do tratamento — e, nesse câncer, semanas fazem diferença.

Isso porque o melanoma é altamente agressivo e tem grande capacidade de invadir camadas profundas da pele e alcançar vasos sanguíneos e linfáticos. Quando isso ocorre, as células cancerígenas se espalham rapidamente para outros órgãos, como pulmões, fígado e cérebro.

A evolução costuma ser muito mais veloz do que em outros tipos de câncer de pele, como o carcinoma basocelular ou o espinocelular. Por isso, o diagnóstico precoce é considerado o principal fator para aumentar as chances de cura: quando identificado ainda na fase inicial, o melanoma pode ser removido com cirurgia simples, com taxas de sobrevida que ultrapassam 95%.

Com atraso, porém, o cenário muda: a doença exige tratamentos mais agressivos, tem risco maior de metástase e as chances de sobrevivência caem de forma significativa.

Como o modelo funciona

Até agora, a maior parte das ferramentas de IA analisava apenas a imagem, ignorando dados clínicos que influenciam o risco. O novo estudo mostra que unir essas duas camadas de informação melhora a performance e deixa o sistema mais parecido com a tomada de decisão humana.

O grupo liderado pelo professor Gwangill Jeon, do Departamento de Engenharia de Sistemas Embarcados, treinou um modelo de aprendizado profundo com o banco internacional SIIM-ISIC, que reúne mais de 33 mil imagens dermatoscópicas acompanhadas de metadados clínicos.

A IA aprendeu a reconhecer padrões sutis que associam:

  • Aspecto da lesão (cor, borda, textura, assimetria);
  • Idade do paciente;
  • Sexo;
  • Localização anatômica da pinta.

Com essa combinação, a tecnologia atingiu 94,5% de precisão e um F1-score de 0,94 — desempenho superior ao de modelos consagrados baseados apenas em imagem, como ResNet-50 e EfficientNet.

“O melanoma é difícil de diagnosticar apenas pelas características visuais. Precisávamos de tecnologias que convergissem imagem e dados do paciente”, explicou Jeon ao apresentar o trabalho.

Fonte: G1

Compartilhe: