Storage Field Day 4: chi andrò a incontrare

0 Flares Twitter 0 Facebook 0 Google+ 0 LinkedIn 0 Email -- 0 Flares ×

Per la seconda volta consecutiva, sono stato invitato a partecipare in qualità di delegato allo Storage Field Day, nella sua quarta edizione che si terrà la prossima settimana a San Josè, California.

Anche questa volta la lista dei delegati e delle aziende che presenteranno è veramente notevole, e non vedo l’ora di partire. Siccome ritengo questa una opportunità imperdibile, mi sono imposto di acquisire quante più informazioni possibili sui vari produttori che parteciperanno all’evento in modo da arrivare “preparato” all’evento.

Ho raccolto in questo articolo le informazioni pubblicamente disponibili relative alle singole aziende, utilizzando i loro siti web e altri articoli scritti da giornalisti e bloggers. I concetti che riporto potrebbero non essere completamente corretti, ma rappresentano unicamente l’idea che me ne sono fatto leggendo. Nel caso, durante Storage Field Day 4 avrò modo di correggere queste informazioni, e andare molto più in dettaglio.

Sicuramente, dopo avere realizzato questo articolo, mi sono accorto di due trend ricorrenti: innanzitutto, in questa edizione uno dei temi principali sarà lo storage scale-out, uno dei miei preferiti in ambito storage. Inoltre, segnatevi questa dicitura, perchè la sentiremo citare spesso: “commodity hardware“.

 

Avere Systems

Mi piace quando una soluzione è ben definita e specifica. Permette di capire subito di cosa si tratta, quali benefici può portare, e quindi identificare i potenziali clienti a cui si rivolge. Avere Systems vende un sistema scale-out che permette di ottimizzare storage NAS tradizionali, che non avrebbero capacità native scale-out.

Avere Fxt 3000 series

Il loro sistema, denominato FXT, è disponibile in varie taglie (quindi in parte è anche una soluzione scale-up, ma avrà problemi di rip & replace?), e viene installato in quantità multiple (fino a 50 nodi) davanti a uno storage NAS tradizionale. Tramite esso, è possibile incrementare in modo considerevole un Filer, senza doverlo sostituire. E’ possibile pensare a un ambiente storage in cui il NAS venga dimensionato unicamente per le dimensioni necessarie, demandando completamente ad Avere la gestione delle prestazioni.

Permette inoltre di “virtualizzare” lo storage che gestisce tramite alcune interessanti soluzioni, chiamate FlashMove e FlashMirror. Tramite esse è possibile gestisce NAS di differenti produttori, migrare i dati tra di essi, o replicarli. Ideale ad esempio quando si deve sostituire un NAS con un modello differente, sia che esso sia dello stesso fornitore o di un’altro.

Infine, sono incuriosito dalla possibilità di replicare verso cloud storage esterni. Non ho trovato molte informazioni a riguardo, conto di approfondire questa tematica durante l’incontro che avremo.

 

CleverSafe

Ho già incontrato CleverSafe ad Aprile durante il precedente Storage Field Day 3. Offre soluzioni di object storage basate sulla loro tecnologia Dispersed Storage. La soluzione è molto interessante per i Cloud Service Provider e tutte quelle aziende  che necessitano di storage distribuiti di grandi dimensioni. Utilizzando concetti di Erasure Code, CleverSafe permette di creare storage di larghe dimensioni, completamente ridondati e replicati, senza incorrere nei problemi di overprovisioning dei normali sistemi RAID, che con le dimensioni in gioco sarebbero totalmente anti-economici. Ad esempio, con un sistema a 16 dischi è possibile perderne fino a 6, e ancora essere in grado di recuperare tutti i dati contenuti.

Matt Simmons ha scritto in quell’occasione un dettagliato articolo. Vedremo durante questo nuovo incontro se ci saranno novità rispetto alla precedente presentazione.

 

CloudByte

Cloudbyte offre una soluzione storage completamente software, basata su ZFS; non a caso infatti il sistema operativo su cui è basato è FreeBSD 9.0. Il software permette di creare uno storage di tipo scale-out utilizzando hardware comune, dove ogni server agisce da “Storage Controller”, gestendo i propri dischi locali e condividendoli quindi con altri controller a formare un Cluster. Più cluster inoltre possono essere aggregati in un “site”.

Il prodotto è disegnato specificatamente per ambienti multi-tenant, siano essi service providers o grandi società con numerose divisioni interne. CloudByte si è concentrata molto sulla gestione del QoS, ovvero la possibilità di garantire a differenti workload le prestazioni richieste, senza che essere vengano contese. Tramite la loro tecnologia denominata TSM, è possibile infatti assegnare a differenti workload IOPS, throughput e latenza differenti, e modificare questi valori in tempo reale. Lo storage può essere esposto via FC, iSCSI, NFS o CIFS a differenti sistemi. Anche il provisioning dello storage è completamente automatizzabile, assegnando un profilo a un cliente il sistema determina autonomamente su quale controller o cluster allocare le nuove risorse. Per esigenze ulteriori, tutte queste attività possono essere realizzate tramite un completo set di RESTful APIs; è disponibile comunque anche un plugin per vCenter (e uno per OpenStack Cinder).

Molto interessante, per chi volesse avvicinarsi a questa soluzione, è la disponibilità di una versione completamente gratuita del prodotto, in grado di gestire fino a 4 TB di storage.

 

CoHo Data

Coho Data, che prima era conosciuta come Convergent.IO, è appena uscita dallo stealth mode annunciando il suo primo prodotto, chiamato DataStream 1000.  Si tratta di uno storage di tipo scale-out, che prevede alcune caratteristiche oramai comuni a molti prodotti di ultima generazione, ma con alcune peculiarità.

CohoData 4 Chassis

Per iniziare, le cose “comuni”: lo storage è di tipo scale-out, utilizza hardware comune (un MicroArray mi pare a vedere le foto altro non è che un server SuperMicro 2U Twin), al cui interno sono state installate una scheda Nand Flash PCI-E, dischi meccanici e una scheda di rete con due porte 10G. Sopra a questo hardware, probabilmente gira qualche versione di Linux, al cui interno c’è il software sviluppato da Coho Data.

Le differenze sono ovviamente altrove: come sempre, essendo un prodotto fondamentalmente software (benchè distribuito come appliance), il cuore della soluzione è il codice. Vi è però poi uno switch 10G, che viene venduto congiuntamente ai moduli storage e attraverso il quale i vari sistemi server si collegano all’array. Lo switch è completamente gestito e programmato in tempo reale dal software, in modo da ottimizzare il traffico e garantire sempre sia la ridondanza dei dati che le prestazioni.

Da un punto di vista storage, fondamentalmente si tratta di un Object Storage, denominato in questo caso “Bare Metal Object Store”, che viene gestito contemporaneamente da tutti i MicroArray presenti. Aggiungendo nodi, lo spazio complessivo aumenta in modo trasparente, e i dati vengono ribilanciati tra tutti i nodi. E’ possibile quindi espandere lo storage in modo graduale, secondo le necessità, senza dover ogni volta riconfigurare nulla. Lo storage viene esposto come una share NFS, che può essere quindi consumata da sistemi VMware vSphere così come server fisici. A ognuno di essi può oltretutto essere applicato un profilo, cui corrispondono valori di spazio e I/O garantiti.

E’ una soluzione molto interessante e innovativa, e l’unione di storage e networking all’interno della soluzione è sicuramente una peculiarità. Il target principale ritengo siano grandi realtà e service provider che necessitano di uno storage scale-out per consolidare differenti workload, sia virtualizzati che fisici, nonchè applicazioni come big data. Ciò è confermato dalle dimensioni: il minimo per partire è un singolo blocco (2 MicroArray) e 1 switch, corrispondenti già a 39 TB e 180.000 IOPS, ma sicuramente il sistema ha senso se si prevede di scalare ben oltre questi numeri. Cormac Hogan ha scritto un’ottima recensione sul suo blog, che vi invito a leggere per avere ulteriori informazioni.

 

GridStore

GridStore offre una soluzione di storage completamente scale-out, dove le due componenti principali di uno storage, i controller e la capacità dei dischi, è stata completamente separata in due elementi distinti. Come in altre soluzioni, l’obiettivo principale è sconfiggere i problemi di I/O Blender, permettendo di scalare in modo completamente autonomo sia la capacità computazione che la capacità. Questo è possibile utilizzando i due elementi di cui si compone la soluzione GridStore.

IGS Node single front nnanzitutto, vi è un controller di tipo software, che può essere installato su qualsiasi sistema Windows, sia esso un server fisico oppure un hypervisor basato su Hyper-V. Il controller, denominato (Server-side Virtual Controller Technology, o SVCT in breve) espone lo storage al sistema in cui è installato come fosse un semplice disco SCSI locale, gestisce l’I/O prodotto dal server, e si collega tramite la rete ethernet a uno o più “Nodes”. Ogni Node (ne esistono tre modelli differenti, uno anche con una scheda PCIe Flash) è un elemento alto 1U e dotato di 4 dischi e un processore; suo compito è fornire all’infrastruttura un determinato quantitativo di spazio disco e potenza di calcolo. Lo storage più quindi essere espanso in modo dinamico semplicemente aggiungendo nodi alla “Grid”, ovvero l’unione di più Nodes, quando serve più capacità, oppure ulteriori SVCT quando serve ulteriore I/O.

L’I/O viene distribuito uniformemente tra tutti i nodi presenti, e ognuno di loro riceve una parte dei dati uguale a tutti gli altri nodi. La ridondanza dei dati viene garantita tramite Erasure Code piuttosto che con sistemi RAID o repliche pure, e il computo dell’erasure code viene realizzato direttamente dal vController.

La soluzione appare molto conveniente da un punto di vista economico, per quegli ambienti in cui è necessario partire con poche risorse, ma la crescita potrebbe rendere in poco tempo necessario un cambio di storage. La tecnologia SVCT lo rende utilizzabile (da quello che ho capito) solo su sistemi Windows, ma anche in ambienti VMware vedo dei possibili utilizzi, come ad esempio realizzare un’area di backup per Veeam.

Nimble Storage

Nimble Storage Array

Nimble Storage è uno dei maggiori player nel mercato degli Hybrid Storage (insieme a Tegile e Tintri). La loro soluzione è stata presentata alcuni anni fa, e ha visto una crescita in termini di clienti continua e significativa, tanto che è stata da breve annunciata la prossima quotazione in Borsa, prevista per il 2014. In un mercato molto aggressivo e che ha visto purtroppo già le prime vittime, già questo risultato è un ottimo segno della bontà della soluzione, e soprattutto della capacità di venderla.

Nimble offre uno storage di tipo ibrido (SSD + HDD) basato sull’architettura CASL (Cache Accelerated Sequential Layout), brevettata da Nimble. A sentire numerosi analisti e utenti, questa tecnologia pare molto efficiente nel gestire il tiering tra i due livelli di disco: il tier SSD raccoglie tutte le scritture in arrivo, le allinea e le scrive quindi in modo puramente sequenziale sui dischi meccanici. Conserva inoltre molti dei dati in ingresso, per servirli direttamente se dovessero essere richiesti. Questo approccio permette di sfruttare appieno sia le capacità di gestire I/O completamente random degli SSD, e al tempo stesso ottimizzare l’uso dei dischi meccanici. CASL prevede poi la compressione dei dati in real-time, e soprattutto una completa gestione di copie e snapshots tramite redirect-on-write, il che le rende molto efficienti.

La connettività esterna è di tipo iSCSI, ed è molto interessante la possibilità di effettuare sia scale-up (aggiungendo cassetti dischi a una macchina) sia scale-out, unendo insieme più sistemi nello stesso cluster.

 

Overland Storage

Non ho indicazioni di quale dei vari prodotti che Overland produce ci verrà presentato, e se addirittura sarà una nuova soluzione. Overland Storage produce differenti linee di prodotti, tra cui SAN classiche, tape library, VTL e NAS. Non conosco bene questa società, ma a prima vista un prodotto interessante è Snap Scale. Si tratta di un NAS di tipo scale-out, accedibile via CIFS, NFS o HTTP. Offre allo stesso tempo connettività di tipo iSCSI. Ogni nodo occupa 2RU e offre da 8 a 144 TB di spazio raw, a seconda del modello scelto. Permette inoltre di creare repliche tra differenti cluster, sia locali che geografiche. Non ho trovato informazioni precise su quanti nodi sia possibile aggiungere a un cluster, ma nel caso fosse questo il prodotto di cui ci parleranno, ovviamente approfondirò questo e altri aspetti.

 

Oxygen Cloud

Oxygen Cloud offre una soluzione di file sharing disegnata per utenti aziendali. Oltre alle classiche funzioni che tutti questi software prevedono infatti, ve ne sono altre molto appetibili per le aziende:  cifratura, controllo accessi via Active Directory o LDAP, supporto per RSA Secur-ID, remote wipe, e la possibilità di scegliere se salvare i propri dati su un cloud pubblico (Amazon) oppure sulla Private Cloud offerta da IBM. Oxygen è sicuramente la “mosca bianca” di questa serie di incontri, sarà interessante avere maggiori informazioni sulla loro soluzione.

 

Proximal Data

Proximal Data realizza un prodotto di server caching, denominato AutoCache. E’ una soluzione dedicata a VMware ESXi, ed è stata disegnata per essere installata a livello di kernel e permettere quindi un’accelerazione trasparente di tutte le virtual machines, senza richiedere nessuna modifica dei vari sistemi operativi eseguiti in esse. L’accelerazione viene effettuata sulle attività di read, il sistema inoltre permette la replica dei contenuti della cache tra i vari server di un cluster vSphere, in modo che una VM sottoposta a vmotion non abbia cali prestazionali sul server di destinazione.

Una scelta interessante fatta dai progettisti è quella di accelerare, per default, qualsiasi VM e datastore sia presente su un server ESXi quando si installa il software. In seguito è comunque possibile configurare delle esclusioni. E’ una modalità molto differenti da altre soluzioni simili, che invece devono essere esplicitamente attivate e per default non accelerano niente. Sicuramente questo è un punto che voglio approfondire durante l’incontro.

 

Virident

Virident è un produttore di schede Flash PCIe. Recentemente è stata acquisita da HGST, una divisione del colosso dello storage Western Digital, che nello stesso periodo ha acquisito anche Stec, altro produttore di schede simili. Non ho anche in questo caso notizie di quale tra i loro prodotti sarà oggetto dell’incontro, se le loro schede o piuttosto alcune tra le interessanti soluzioni software che possiedono. Spero vivamente quest’ultima.

0 Flares Twitter 0 Facebook 0 Google+ 0 LinkedIn 0 Email -- 0 Flares ×