Credito:CC0 Dominio pubblico
Gli investitori del mercato azionario spesso si affidano a teorie del rischio finanziario che li aiutano a massimizzare i rendimenti riducendo al minimo le perdite finanziarie dovute alle fluttuazioni del mercato. Queste teorie aiutano gli investitori a mantenere un portafoglio equilibrato per garantire che non perderanno mai più denaro di quanto siano disposti a separarsi in un dato momento.
Ispirato da quelle teorie, I ricercatori del MIT in collaborazione con Microsoft hanno sviluppato un modello matematico "consapevole del rischio" che potrebbe migliorare le prestazioni delle reti di cloud computing in tutto il mondo. In particolare, l'infrastruttura cloud è estremamente costosa e consuma molta dell'energia mondiale.
Il loro modello tiene conto delle probabilità di fallimento dei collegamenti tra i data center di tutto il mondo, in modo simile alla previsione della volatilità delle azioni. Quindi, esegue un motore di ottimizzazione per allocare il traffico attraverso percorsi ottimali per ridurre al minimo le perdite, massimizzando l'utilizzo complessivo della rete.
Il modello potrebbe aiutare i principali fornitori di servizi cloud, come Microsoft, Amazzonia, e Google:utilizzare meglio la loro infrastruttura. L'approccio convenzionale consiste nel mantenere i collegamenti inattivi per gestire spostamenti di traffico imprevisti derivanti da guasti dei collegamenti, che è uno spreco di energia, larghezza di banda, e altre risorse. Il nuovo modello, chiamato TeaVar, d'altra parte, garantisce che per una percentuale di tempo target, ad esempio 99,9 percento:la rete può gestire tutto il traffico dati, quindi non è necessario mantenere alcun collegamento inattivo. Durante quello 0,01 percento di tempo, il modello mantiene anche i dati eliminati il più in basso possibile.
Negli esperimenti basati su dati reali, il modello ha supportato tre volte il throughput del traffico rispetto ai metodi tradizionali di ingegneria del traffico, mantenendo lo stesso elevato livello di disponibilità della rete. Questa settimana alla conferenza ACM SIGCOMM sarà presentato un documento che descrive il modello ei risultati.
Un migliore utilizzo della rete può far risparmiare ai fornitori di servizi milioni di dollari, ma i benefici "ricadranno" sui consumatori, afferma la co-autrice Manya Ghobadi, il TIBCO Career Development Assistant Professor presso il Dipartimento di Ingegneria Elettrica e Informatica del MIT e un ricercatore presso il Laboratorio di Informatica e Intelligenza Artificiale (CSAIL).
"Avere una maggiore infrastruttura utilizzata non è solo un bene per i servizi cloud, ma è anche meglio per il mondo, " Ghobadi dice. "Le aziende non devono acquistare tante infrastrutture per vendere servizi ai clienti. Più, essere in grado di utilizzare in modo efficiente le risorse del data center può far risparmiare enormi quantità di consumo energetico da parte dell'infrastruttura cloud. Così, ci sono vantaggi sia per gli utenti che per l'ambiente allo stesso tempo."
Insieme a Ghobadi sul giornale ci sono i suoi studenti Jeremy Bogle e Nikhil Bhatia, entrambi CSAIL; Ishai Menache e Nikolaj Bjorner di Microsoft Research; e Asaf Valadarsky e Michael Schapira dell'Università Ebraica.
sui soldi
I fornitori di servizi cloud utilizzano reti di cavi in fibra ottica sotterranee, connettere data center in diverse città. Per instradare il traffico, i provider si affidano a un software di "ingegneria del traffico" (TE) che alloca in modo ottimale la larghezza di banda dei dati (quantità di dati che possono essere trasferiti contemporaneamente) attraverso tutti i percorsi di rete.
L'obiettivo è garantire la massima disponibilità agli utenti di tutto il mondo. Ma questo è difficile quando alcuni collegamenti possono fallire inaspettatamente, a causa di cali nella qualità del segnale ottico derivanti da interruzioni o linee tagliate durante la costruzione, tra gli altri fattori. Per rimanere resistenti al fallimento, i provider mantengono molti collegamenti a un utilizzo molto basso, in attesa di assorbire carichi di dati completi da collegamenti interrotti.
Così, è un difficile compromesso tra disponibilità e utilizzo della rete, che consentirebbe una maggiore velocità di trasmissione dei dati. Ed è qui che i tradizionali metodi TE falliscono, dicono i ricercatori. Trovano percorsi ottimali in base a vari fattori, ma mai quantificare l'affidabilità dei collegamenti. "Non dicono, 'Questo collegamento ha una maggiore probabilità di essere attivo e funzionante, quindi questo significa che dovresti inviare più traffico qui, " Dice Bogle. "La maggior parte dei collegamenti in una rete funzionano a basso utilizzo e non inviano tanto traffico quanto potrebbero inviare".
I ricercatori hanno invece progettato un modello TE che adatta la matematica di base da "valore condizionale a rischio, " una misura di valutazione del rischio che quantifica la perdita media di denaro. Con l'investimento in azioni, se hai un valore condizionale del 99 percento di un giorno a rischio di $ 50, la tua perdita prevista dello scenario peggiore dell'1% in quel giorno è di $ 50. Ma il 99 percento delle volte, farai molto meglio. Questa misura viene utilizzata per investire nel mercato azionario, che è notoriamente difficile da prevedere.
"Ma la matematica si adatta meglio alla nostra impostazione dell'infrastruttura cloud, " dice Ghobadi. "Per lo più, i problemi di collegamento sono dovuti all'età delle apparecchiature, quindi le probabilità di fallimento non cambiano molto nel tempo. Ciò significa che le nostre probabilità sono più affidabili, rispetto al mercato azionario".
Modello consapevole del rischio
Nelle reti, le quote di larghezza di banda dei dati sono analoghe al "denaro, " e le apparecchiature di rete con diverse probabilità di guasto sono le "scorte" e la loro incertezza di variazione dei valori. Utilizzando le formule sottostanti, i ricercatori hanno progettato un modello "consapevole del rischio" che, come la sua controparte finanziaria, garantisce che i dati raggiungano la loro destinazione il 99,9 percento delle volte, ma mantiene la perdita di traffico al minimo durante gli scenari di errore del caso peggiore dello 0,1%. Ciò consente ai provider di cloud di ottimizzare il compromesso tra disponibilità e utilizzo.
I ricercatori hanno mappato statisticamente la potenza del segnale di rete di tre anni dalle reti di Microsoft che collegano i suoi data center a una distribuzione di probabilità di errori di collegamento. L'input è la topologia di rete in un grafico, con flussi di dati sorgente-destinazione collegati tramite linee (link) e nodi (città), con ogni collegamento assegnato una larghezza di banda.
Le probabilità di guasto sono state ottenute controllando la qualità del segnale di ogni collegamento ogni 15 minuti. Se la qualità del segnale è mai scesa al di sotto di una soglia di ricezione, hanno ritenuto che un errore di collegamento. Qualsiasi cosa sopra significava che il collegamento era attivo e funzionante. Da quello, il modello ha generato un tempo medio in cui ogni collegamento era attivo o inattivo, e calcolato una probabilità di guasto, o "rischio", per ogni collegamento in ogni finestra temporale di 15 minuti. Da quei dati, era in grado di prevedere quando i collegamenti rischiosi avrebbero fallito in un dato intervallo di tempo.
I ricercatori hanno testato il modello rispetto ad altri software TE sul traffico simulato inviato attraverso le reti da Google, IBM, ATT, e altri che si sono diffusi in tutto il mondo. I ricercatori hanno creato vari scenari di guasto in base alla loro probabilità di accadimento. Quindi, hanno inviato richieste di dati simulati e del mondo reale attraverso la rete e hanno suggerito ai loro modelli di iniziare ad allocare la larghezza di banda.
Il modello dei ricercatori ha mantenuto collegamenti affidabili quasi a piena capacità, allo stesso tempo allontanando i dati da collegamenti più rischiosi. Negli approcci tradizionali, il loro modello ha eseguito tre volte più dati attraverso la rete, pur garantendo che tutti i dati siano arrivati a destinazione. Il codice è disponibile gratuitamente su GitHub.