Print this article
- 05/24/2021

IDENTIFICARE I “BRUTTI ANATROCCOLI” PER COMBATTERE IN ANTICIPO IL CANCRO DELLA PELLE

Beauty Horizons IT

Tags:

 

Il melanoma è di gran lunga la forma più letale di cancro della pelle, uccidendo più di 7.000 persone negli Stati Uniti solo nel 2019. La diagnosi precoce della malattia riduce drasticamente il rischio di morte e i costi del trattamento, ma lo screening diffuso del melanoma non è attualmente fattibile. Ci sono circa 12.000 dermatologi praticanti negli Stati Uniti, e ognuno di loro avrebbe bisogno di vedere 27.416 pazienti all’anno per controllare l’intera popolazione per le lesioni pigmentate sospette (SPL) che possono indicare il cancro.

I sistemi di diagnosi assistita dal computer (CAD) sono stati sviluppati negli ultimi anni per cercare di risolvere questo problema analizzando le immagini delle lesioni cutanee e identificando automaticamente le SPL, ma finora non hanno avuto un impatto significativo sulla diagnosi del melanoma. Questi algoritmi CAD sono addestrati a valutare ogni lesione cutanea individualmente per caratteristiche sospette, ma i dermatologi confrontano più lesioni da un singolo paziente per determinare se sono cancerose – un metodo comunemente chiamato il criterio del “brutto anatroccolo”. Nessun sistema CAD in dermatologia, fino ad oggi, è stato progettato per replicare questo processo di diagnosi. Ora, questa svista è stata corretta grazie a un nuovo sistema CAD per le lesioni cutanee basato su reti neurali profonde convoluzionali (CDNN) sviluppato dai ricercatori del Wyss Institute for Biologically Inspired Engineering dell’Università di Harvard e del Massachusetts Institute of Technology (MIT). Il nuovo sistema ha distinto con successo gli SPL dalle lesioni non sospette nelle foto della pelle dei pazienti con una precisione del ~90%, e per la prima volta ha stabilito una metrica “brutto anatroccolo” in grado di corrispondere al consenso di tre dermatologi l’88% delle volte. “Forniamo essenzialmente un proxy matematico ben definito per l’intuizione profonda su cui si basa un dermatologo quando determina se una lesione cutanea è abbastanza sospetta da giustificare un esame più approfondito”, ha detto il primo autore dello studio Luis Soenksen, Ph.D., un Postdoctoral Fellow al Wyss Institute che è anche un Venture Builder al MIT. “Questa innovazione permette di analizzare rapidamente le foto della pelle dei pazienti per identificare le lesioni che dovrebbero essere valutate da un dermatologo, permettendo uno screening efficace per il melanoma a livello di popolazione”.

La tecnologia è descritta in Science Translational Medicine, e il codice sorgente del CDNN è apertamente disponibile su GitHub (https://github.com/lrsoenksen/SPL_UD_DL).

 

Mettere a fuoco i brutti anatroccoli

Il melanoma è personale per Soenksen, che ha visto diversi amici stretti e membri della famiglia soffrire della malattia. “Mi ha stupito il fatto che le persone possano morire di melanoma semplicemente perché i medici di base e i pazienti attualmente non hanno gli strumenti per trovare quelli “strani” in modo efficiente. Ho deciso di affrontare questo problema sfruttando molte delle tecniche che ho imparato dal mio lavoro nell’intelligenza artificiale al Wyss e al MIT”, ha detto.

Soenksen e i suoi collaboratori hanno scoperto che tutti i sistemi CAD esistenti creati per identificare gli SPL hanno analizzato solo le lesioni singolarmente, omettendo completamente i criteri del brutto anatroccolo che i dermatologi usano per confrontare diversi nei di un paziente durante un esame. Così hanno deciso di costruirne uno loro. Per garantire che il loro sistema potesse essere utilizzato da persone senza una formazione specialistica in dermatologia, il team ha creato un database di oltre 33.000 immagini “a largo campo” della pelle dei pazienti che includevano sfondi e altri oggetti non cutanei, in modo che il CDNN fosse in grado di utilizzare le foto scattate da fotocamere di consumo per la diagnosi. Le immagini contenevano sia SPL che lesioni cutanee non sospette che sono state etichettate e confermate da un consenso di tre dermatologi certificati. Dopo l’addestramento sul database e il successivo perfezionamento e test, il sistema è stato in grado di distinguere tra lesioni sospette e non sospette con il 90,3% di sensibilità e l’89,9% di specificità, migliorando i sistemi precedentemente pubblicati. Ma questo sistema di base stava ancora analizzando le caratteristiche delle singole lesioni, piuttosto che le caratteristiche di più lesioni come fanno i dermatologi. Per aggiungere i criteri del brutto anatroccolo nel loro modello, il team ha usato le caratteristiche estratte in una fase secondaria per creare una “mappa” 3D di tutte le lesioni in una data immagine, e ha calcolato quanto lontano dalle caratteristiche “tipiche” di ogni lesione. Più “strana” era una data lesione rispetto alle altre in un’immagine, più lontana era dal centro dello spazio 3D. Questa distanza è la prima definizione quantificabile del criterio del brutto anatroccolo, e serve a sfruttare le reti di deep learning per superare il compito impegnativo e dispendioso in termini di tempo di identificare ed esaminare le differenze tra tutte le lesioni pigmentate in un singolo paziente.

 

Apprendimento profondo contro i dermatologi

La loro DCNN doveva ancora superare un test finale: eseguire bene come i dermatologi viventi nel compito di identificare le SPL dalle immagini della pelle dei pazienti. Tre dermatologi hanno esaminato 135 foto a campo largo di 68 pazienti e hanno assegnato a ogni lesione un punteggio di “stranezza” che indicava quanto fosse preoccupante. Le stesse immagini sono state analizzate e valutate dall’algoritmo. Quando le valutazioni sono state confrontate, i ricercatori hanno scoperto che l’algoritmo era d’accordo con il consenso dei dermatologi l’88% delle volte, e con i singoli dermatologi l’86% delle volte.

“Questo alto livello di consenso tra l’intelligenza artificiale e i clinici umani è un importante progresso in questo campo, perché l’accordo tra i dermatologi è tipicamente molto alto, intorno al 90%”, ha detto il co-autore Jim Collins, Ph.D., un membro della Core Faculty del Wyss Institute e co-leader della sua Predictive Bioanalytics Initiative che è anche il Termeer Professor of Medical Engineering and Science al MIT. “Essenzialmente, siamo stati in grado di raggiungere un’accuratezza a livello di dermatologo nella diagnosi di potenziali lesioni da cancro della pelle da immagini che possono essere scattate da chiunque con uno smartphone, il che apre un enorme potenziale per trovare e trattare il melanoma prima”.

Riconoscendo che una tale tecnologia dovrebbe essere resa disponibile a quante più persone possibile per il massimo beneficio, il team ha reso il loro algoritmo open-source su GitHub. Sperano di collaborare con centri medici per lanciare studi clinici che dimostrino ulteriormente l’efficacia del loro sistema, e con l’industria per trasformarlo in un prodotto che potrebbe essere utilizzato dai fornitori di assistenza primaria in tutto il mondo. Riconoscono anche che per essere universalmente utile, il loro algoritmo deve essere in grado di funzionare altrettanto bene attraverso l’intero spettro di tonalità della pelle umana, che hanno intenzione di incorporare nello sviluppo futuro.

“Permettere ai nostri scienziati di coltivare le loro passioni e visioni è la chiave del successo del Wyss Institute, ed è meraviglioso vedere questo progresso che può avere un impatto su tutti noi in modo così significativo emergere da una collaborazione con la nostra nuova Iniziativa di bioanalisi predittiva”, ha detto il direttore fondatore del Wyss Don Ingber, M.D., Ph.D., che è anche il professore Judah Folkman di biologia vascolare alla Harvard Medical School e Boston Children’s Hospital, e professore di bioingegneria presso la Harvard John A. Paulson School of Engineering and Applied Sciences.

 

Altri autori del documento includono Regina Barzilay, Martha L. Gray, Timothy Kassis, Susan T. Conover, Berta Marti-Fuster, Judith S. Birkenfeld, Jason Tucker-Schwartz, e Asif Naseem dal MIT, Robert R. Stavert del Beth Israel Deaconess Medical Center, Caroline C. Kim del Tufts Medical Center, Maryanne M. Senna del Massachusetts General Hospital e José Avilés-Izquierdo dell’Hospital General Universitario Gregorio Marañón.

Questa ricerca è stata sostenuta dalla Abdul Latif Jameel Clinic for Machine Learning in Health, dalla Consejería de Educación, Juventud y Deportes de la Comunidad de Madrid attraverso il Madrid-MIT M+Visión Consortium e il programma People del Settimo programma quadro dell’Unione europea, il Messico CONACyT grant 342369/40897, e la US DOE training grant DE-SC0008430.