Richiedi prestito online

Procedura celere

 

divorano l’economia e noi non li stiamo utilizzando- Fortune Italia


Baris Saydag è Ceo di Kinesis Network, una piattaforma che trasforma risorse informatiche sottoutilizzate in servizi di calcolo scalabili e on-demand. Ha una vasta esperienza nel campo dei data center, della tecnologia aziendale e dell’ottimizzazione delle infrastrutture.

Prestito condominio

per lavori di ristrutturazione

 

Mentre i giganti della tecnologia annunciano investimenti per centinaia di miliardi in nuovi data center, assistiamo a un fondamentale fraintendimento del problema della carenza di potenza di calcolo. L’approccio attuale del settore, che consiste nell’investire ingenti somme di denaro in progetti infrastrutturali su larga scala, è simile all’aggiunta di due corsie a un’autostrada congestionata. Potrebbe offrire un sollievo temporaneo, ma non risolve il problema di fondo.

I numeri sono sbalorditivi. Le spese in conto capitale per i data center sono aumentate del 53% su base annua, raggiungendo i 134 miliardi di dollari solo nel primo trimestre del 2025.

Secondo quanto riferito, Meta sta valutando un investimento di 200 miliardi di dollari nei data center, mentre Microsoft ha stanziato 80 miliardi di dollari per il 2025.

OpenAI, SoftBank e Oracle hanno annunciato l’iniziativa Stargate da 500 miliardi di dollari. McKinsey prevede che entro il 2030 i data center richiederanno 6,7 trilioni di dollari in tutto il mondo. E l’elenco potrebbe continuare.

Ma ecco la scomoda verità. La maggior parte di queste risorse rimarrà drammaticamente sottoutilizzata. Il tasso medio di utilizzo dei server oscilla tra il 12 e il 18% delle capacità, mentre si stima che 10 milioni di server siano completamente inattivi, il che rappresenta 30 miliardi di dollari di capitale sprecato.

Investi nel futuro

scopri le aste immobiliari

 

Anche i server attivi raramente superano il 50% di utilizzo, il che significa che la maggior parte della nostra infrastruttura informatica esistente sta essenzialmente consumando energia senza fare nulla di produttivo.

L’analogia con l’autostrada è calzante

Quando ci si trova di fronte a un ingorgo stradale, la risposta istintiva è quella di aggiungere più corsie. Ma i ricercatori nel campo dei trasporti hanno documentato un fenomeno noto come “domanda indotta”.

Si tratta di una scoperta controintuitiva che dimostra che l’aumento della capacità riduce temporaneamente la congestione fino a quando non attira un numero maggiore di automobilisti, riportando il traffico ai livelli precedenti. Lo stesso fenomeno si applica ai data center.

Costruire nuovi data center è la soluzione più semplice, ma non è né sostenibile né efficiente. Come ho potuto constatare di persona durante lo sviluppo di piattaforme di orchestrazione dei calcoli, il vero problema non è la capacità, ma l’allocazione e l’ottimizzazione.

Esiste già un’offerta abbondante che giace inutilizzata in migliaia di data center in tutto il mondo. La sfida consiste nel collegare in modo efficiente questa capacità dispersa e sottoutilizzata alla domanda.

Il conto da pagare per l’ambiente

Si prevede che il consumo energetico dei data center triplicherà entro il 2030, raggiungendo i 2.967 TWh all’anno. Goldman Sachs stima che la domanda di energia dei data center crescerà del 160% entro il 2030.

Mentre i giganti della tecnologia acquistano intere centrali nucleari per alimentare i propri data center, le città di tutto il paese stanno raggiungendo i limiti massimi di capacità energetica per i nuovi impianti.

Questa crisi energetica evidenzia le notevoli tensioni sulle nostre infrastrutture ed è una sottile ammissione che abbiamo costruito un sistema fondamentalmente insostenibile.

Finanziamenti e agevolazioni

Agricoltura

 

Il fatto che le aziende stiano ora acquistando le proprie centrali elettriche invece di affidarsi alle reti esistenti rivela come il nostro appetito esponenziale per l’elaborazione dati abbia superato la nostra capacità di alimentarlo in modo responsabile.

L’alternativa distribuita

La soluzione non è un’infrastruttura più centralizzata. È un’orchestrazione più intelligente delle risorse esistenti. I moderni software sono in grado di aggregare la potenza di calcolo inutilizzata dei data center, dei server aziendali e persino dei dispositivi consumer in pool di calcolo unificati e on-demand. Questo approccio distribuito offre diversi vantaggi:

Disponibilità immediata: invece di attendere anni per la costruzione di nuovi data center, le reti distribuite possono utilizzare immediatamente la capacità inutilizzata esistente.

Efficienza dei costi: sfruttare le risorse sottoutilizzate costa molto meno che costruire nuove infrastrutture.

Sostenibilità ambientale: massimizzare l’utilizzo dell’hardware esistente riduce la necessità di nuova produzione e il consumo energetico.

Resilienza: i sistemi distribuiti sono intrinsecamente più tolleranti ai guasti rispetto alle mega-strutture centralizzate.

La realtà tecnica

La tecnologia per orchestrare l’elaborazione distribuita esiste già. Alcuni modelli di rete dimostrano già come il software possa astrarre la complessità della gestione delle risorse tra più fornitori e sedi.

Finanziamo agevolati

Contributi per le imprese

 

I container Docker e i moderni strumenti di orchestrazione rendono la portabilità dei carichi di lavoro perfettamente integrata. L’unico tassello mancante è la volontà del settore di adottare un approccio fondamentalmente diverso.

Le aziende devono riconoscere che la maggior parte dei server rimane inattiva per il 70-85% del tempo. Non si tratta di un problema hardware che richiede più infrastrutture. Né si tratta di un problema di capacità. È un problema di orchestrazione e allocazione che richiede un software più intelligente.

Invece di cercare una via d’uscita con megaprogetti sempre più costosi e dannosi per l’ambiente, dobbiamo abbracciare l’orchestrazione distribuita che massimizza le risorse esistenti.

Ciò richiede un cambiamento fondamentale nel modo di pensare. Anziché considerare l’elaborazione come qualcosa che deve essere posseduto e ospitato in strutture enormi, dobbiamo trattarla come un’utilità disponibile su richiesta dalle fonti più efficienti, indipendentemente dalla posizione o dalla proprietà.

Quindi, prima di chiederci se possiamo permetterci di costruire nuovi data center per un valore di 7 trilioni di dollari entro il 2030, dovremmo chiederci se possiamo perseguire un approccio più intelligente e sostenibile all’infrastruttura di elaborazione.

La tecnologia per orchestrare l’elaborazione distribuita su larga scala esiste già. Ciò di cui abbiamo bisogno ora è la visione per implementarla.

Prestito personale

Delibera veloce

 

Le opinioni espresse nei commenti pubblicati su Fortune.com sono esclusivamente quelle degli autori e non riflettono necessariamente le opinioni e le convinzioni di Fortune.

L’articolo originale è stato pubblicato su Fortune.com

FOTO: GETTY IMAGES



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Finanziamo agevolati

Contributi per le imprese

 

Source link

Prestito condominio

per lavori di ristrutturazione