Credito:CC0 Dominio Pubblico
L'uso di animali per testare la tossicità delle sostanze chimiche potrebbe un giorno diventare obsoleto grazie a un sistema a basso costo, algoritmo ad alta velocità sviluppato da ricercatori della Rutgers e di altre università.
I test di tossicità, che determinano la quantità di esposizione a una sostanza chimica non sicura per l'uomo, sono fondamentali per la sicurezza di milioni di lavoratori in vari settori. Ma degli 85, 000 composti utilizzati nei prodotti di consumo, la maggior parte non è stata completamente testata per la sicurezza. Test sugli animali, oltre alle sue preoccupazioni etiche, può essere troppo costoso e dispendioso in termini di tempo per soddisfare questa esigenza, secondo lo studio pubblicato su Prospettive di salute ambientale .
"C'è un'urgenza bisogno mondiale di un accurato, modo economico e rapido per testare la tossicità delle sostanze chimiche, al fine di garantire la sicurezza delle persone che lavorano con loro e degli ambienti in cui vengono utilizzati, " ha affermato il ricercatore capo Daniel Russo, un dottorando presso la Rutgers University-Camden Center for Computational and Integrative Biology. "I test sugli animali da soli non possono soddisfare questa esigenza".
Gli sforzi precedenti per risolvere questo problema hanno utilizzato i computer per confrontare sostanze chimiche non testate con composti strutturalmente simili la cui tossicità è già nota. Ma quei metodi non erano in grado di valutare sostanze chimiche strutturalmente uniche e furono confuse dal fatto che alcune sostanze chimiche strutturalmente simili hanno livelli di tossicità molto diversi.
Il gruppo guidato da Rutgers ha superato queste sfide sviluppando un algoritmo unico nel suo genere che estrae automaticamente i dati da PubChem, un database del National Institutes of Health di informazioni su milioni di sostanze chimiche. L'algoritmo confronta i frammenti chimici dei composti testati con quelli dei composti non testati, e utilizza più metodi matematici per valutare le loro somiglianze e differenze al fine di prevedere la tossicità di una sostanza chimica non testata.
"L'algoritmo sviluppato da Daniel e dal laboratorio Zhu estrae enormi quantità di dati, e discerne le relazioni tra frammenti di composti di diverse classi chimiche, esponenzialmente più veloce di un essere umano, " ha detto la co-autrice Lauren Aleksunes, professore associato presso la Ernest Mario School of Pharmacy di Rutgers e il Rutgers Environmental and Occupational Health Sciences Institute. "Questo modello è efficiente e fornisce alle aziende e alle autorità di regolamentazione uno strumento per dare la priorità alle sostanze chimiche che potrebbero richiedere test più completi sugli animali prima dell'uso in commercio".
Per mettere a punto l'algoritmo, i ricercatori hanno iniziato con 7, 385 composti per i quali sono noti dati sulla tossicità, e lo ha confrontato con i dati sulle stesse sostanze chimiche in PubChem. Hanno quindi testato l'algoritmo con 600 nuovi composti. Per diversi gruppi di sostanze chimiche, l'algoritmo guidato da Rutgers ha avuto una percentuale di successo dal 62 al 100 percento nel prevedere il loro livello di tossicità orale. E confrontando le relazioni tra insiemi di sostanze chimiche, fanno luce su nuovi fattori che possono determinare la tossicità di una sostanza chimica.
Sebbene l'algoritmo fosse diretto solo a valutare il livello di tossicità delle sostanze chimiche se consumate per via orale, i ricercatori guidati da Rutgers concludono che la loro strategia può essere estesa per prevedere altri tipi di tossicità.
"Anche se la sostituzione completa della sperimentazione animale non è ancora fattibile, questo modello compie un passo importante verso la soddisfazione delle esigenze dell'industria, in cui nuove sostanze chimiche sono in costante sviluppo, e per la sicurezza ambientale ed ecologica, " ha detto l'autore corrispondente Hao Zhu, professore associato di chimica alla Rutgers-Camden e al Rutgers and Environmental and Occupational Health Sciences Institute.