Oggi più che mai le aziende chiedono sistemi tecnologici ideati per gestire in modo agile e semplificato progetti di Analytics, Big Data, IoT, ecc. che mantengano elevati standard di sicurezza e affidabilità ma al contempo risultino ottimizzati e in grado di adattarsi a workload in continua evoluzione.

Esigenze che in linguaggio IT si traducono nella necessità di avere come supporto tecnologico primario sistemi business-critical progettati per poter integrare soluzioni di dati moderne, avere Insight in tempi ridotti con acceleratori hardware specifici, garantire scalabilità contemporanea alla crescita dei dati e, non ultimo, costi di acquisizione ridotti (grazie all’ottimizzazione del sistema). “Promesse” che IBM intende mantenere attraverso i nuovi sistemi Power Systems la cui parola d’ordine è senza dubbio resilienza che si concretizza con soluzioni tecnologiche che rispondono a tre particolari esigenze: ottimizzazione delle prestazioni, virtualizzazione avanzata delle risorse, gestione semplificata e automatizzata di tutti i workload.

Ottimizzazione delle performance

Ciò cui devono far fronte oggi i dipartimenti IT è la gestione di un’ampia serie di applicazioni ottimizzando al massimo i carichi di lavoro e, quindi, le prestazioni dei sistemi, sia che si tratti di soluzioni commerciali per le aziende medio-piccole sia che si tratti di infrastrutture più sofisticate come quelle di HPC – High Performance Computing. Esigenze che trovano una prima risposta nel design e nelle capacità dei processori di nuova generazione che sono oggi alla base dello sviluppo di soluzioni avanzate sia per la tradizionale elaborazione transazionale sia per i carichi di lavoro ad elevato consumo di dati e risorse di calcolo (pensiamo per esempio a quelli previsti per il Web, l’analisi dei dati, la comunicazione mobile o le applicazioni di social networking).

Per ottenere prestazioni massime, i sistemi devono oggi essere dotati di tecnologie di ottimizzazione, che consentono al sistema di regolarsi automaticamente per workload specifici attraverso un “design data-centrico” bilanciato, per supportare le applicazioni ad elevato consumo di dati più complesse e sofisticate ad una velocità superiore rispetto ai sistemi tradizionali (condizione imprescindibile perché se ne possano cogliere davvero i benefici di business).

Maggiore potenza di elaborazione per la distribuzione dei workload: 50% in più di core, un numero raddoppiato di thread per core, accelerazione intelligente garantita dalla Coherent Accelerator Processor Interface (CAPI), interfaccia aperta che consente ai dispositivi PCIe3 di partecipare ad operazioni alla velocità della memoria, il doppio della memoria e tecnologia flash per ridurre la latenza e l’ingombro, percorsi ottimizzati per lo spostamento dei dati dentro e fuori dai sistemi con la massima semplicità, grazie all’input/output (I/O) esteso. Questo per esempio è ciò che propone IBM con i processori Power.

Virtualizzazione avanzata delle risorse per un più semplice accesso al cloud

Spostare in avanti i limiti fisici e virtuali delle infrastrutture per un più efficace scale out per dati e cloud. Questo è ciò che serve per far fronte alle nuove esigenze delle aziende che soprattutto da cloud e analytics si aspettano grandi risultati. Servono in altre parole sistemi che integrino le funzionalità necessarie per ottenere migliori risultati economici con un numero inferiore di server scale out.

IBM risponde con i software di virtualizzazione PowerVM e PowerKVM grazie ai quali si assicura un’allocazione intelligente e dinamica delle risorse (in funzione delle richieste dei carichi di lavoro) e con sistemi integrati che poggiano su server dotati di larghezza di banda superiori rispetto a quelli “tradizionali (più che doppia rispetto ai server della generazione precedente ai Power System con tecnologia Power8) e con un utilizzo garantito del 65% dell’infrastruttura che garantisce l’open scale out con più efficienza (in particolare meno requisiti di hardware, alimentazione e raffreddamento).

Gestione semplificata e automatizzata di tutti i workload

Mettere i dati a disposizione di qualsiasi applicazione e workload con la massima affidabilità e resilienza. Questo è forse il punto più “delicato” perché la scelta tecnologica ha un diretto impatto sul business, oggi sempre più “assetato” di informazioni utili da poter avere in tempi rapidissimi grazie ad una efficace estrazione ed analisi dei dati.

Ciò che si chiede alle infrastrutture è dunque l’ottimizzazione delle risorse e la loro dinamica allocazione e gestione (attraverso funzionalità semplificate e quanto più automatizzate possibile) per le richieste prestazionali di database e di analytics che sempre più arrivano da workload e applicazioni di analisi predittive, IoT, elaborazione di dati non strutturati, soluzioni cognitive e di Intelligenza Artificiale.

Affidabilità, disponibilità e sicurezza, design data-centrico e open per una più rapida ed efficace integrazione di asset, risorse fisiche e virtuali, servizi cloud unite a potenza di elaborazione, memoria e larghezza di banda,

capacità di elaborare e trasferire i dati tra le applicazioni in modo più semplice, sono gli elementi che dovrebbero quindi caratterizzare i sistemi business-critical in un’ottica concreta di resilienza.

La nostra Direzione Vendite è a vostra disposizione per qualunque altra informazione
Silvana Gornati
335213611silvana.gornati@mauden.comwww.mauden.com
CONDIVIDI

LASCIA UN COMMENTO

Per favore inserisci il tuo commento
Per favore inserisci il tuo nome