Skip to content
Luca Dell'Oca Principal Cloud Architect @Veeam
Virtual To The Core Virtual To The Core

Virtualization blog, the italian way.

  • Media
  • About me
Virtual To The Core
Virtual To The Core

Virtualization blog, the italian way.

Promise VessRaid 1720i, prova sul campo

Luca Dell'Oca, June 23, 2010June 18, 2010

Ho recentemente ultimato l’installazione e configurazione di questo prodotto, in sostituzione di una Buffalo Terastation.

Ve lo dico subito, senza arrivare a fine articolo: è un prodotto ottimo! Se volete anche sapere perchè, continuate a leggere.

Leggendo su vari forum e sulla community di vmware, avevo letto commenti incoraggianti di questo prodotto. Inoltre le specifiche dichiarate mi avevano ulteriormente convinto. Visto che il suo prezzo in svizzera al cambio era di 1200 euro (senza hard disk) mi sono deciso a comprarlo per un mio cliente.

Prima avvertenza: in Italia mi dico ci voglia meno, io in Ticino ho atteso 40 giorni per averlo. Probabilmente la distribuzione in Italia è migliore e più capillare. Tenetene conto se doveste farlo arrivare in fretta.

Arrivato l’imballo, ho potuto subito apprezzare il livello di protezione garantito dal packaging:

Come potete vedere, il frontale è molto scarso, si vedono giusto gli 8 slot per hard disk e sulla destra ci sono i led di stato.

Un accenno ai dischi: una delle comodità di questo sistema è quello di poter scegliere da soli che dischi montare. A differenza di storage concorrenti (e a volte anche più cari…) possiamo scegliere il taglio e il modello, e costruirci il nostro storage ad hoc. Nel mio caso, per motivi di budget ho preso 4 Western Digital RE3 da 1 Tb, con l’intento di costruire un raid 10 da 2 tb finali.

Passiamo al montaggio. Le staffe a dire il vero sono veramente scomode, bisogna possedere i dati quadrati di fissaggio in armadio e la lunghezza delle staffe va modificata svitando e riavvitando 4 viti. Sarebbe stato molto meglio avere una staffa “moderna”, di quelle stendibili e autobloccanti nei fori del rack.

Montato lo storage in posizione, ho esaminato le connessioni disponibili, che potete vedere qui:

Abbiamo, da sinistra:

– connessione di rete per la console di gestione, utilissima in quanto separata dalle connessioni iscsi

– connessione console seriale

– due porte usb per un minimo di espandibilità

– le 4 porte iscsi da 1 gb

Sulla destra, non visibile in foto, c’è anche una porta SAS per connettere un enclosure VessJBOD in cascata e espandere ulteriormente lo storage.

Dicevamo dei dischi: per montarli vengono date in dotazioni le classiche viti da pc, e ho provveduto quindi a installare i 4 dischi WD negli slot vuoti:

Installati i dischi (lo storage prevede oltretutto rimozioni a caldo) ho connesso la porta di gestione alla rete e avviato il sistema.

Anche se non è indicato nel manuale (che vorrebbe farvi usare a tutti i costi la scomodissima console, oltretutto al giorno d’oggi chi ha ancora una porta seriale sul notebook????), l’interfaccia web risponde per default su 192.168.0.1

Ho potuto quindi provvedere a configurare la rete di gestione e creare un’unica lun da 2 Tb.

Senza dovervi fare la lista delle funzioni possedute, ecco cosa ho apprezzato maggiormente:

– lun numbering: possiamo assegnare a ogni lun creata un ID arbitrario. Questo permette di far coesistere vessraid con storage più scarsi (sì, sto sempre parlando della terastation…) che numerano sempre le lun con ID 0

– lun masking: fatto in modo perfetto, per ogni lun creata possiamo dichiarare quali ip sorgente hanno diritto ad accedervi

– ridimensionamento a caldo delle lun

Bene! Il resto del lavoro ovviamente è stato connettere i cav iscsi e configurarl nella vlan corretta con link aggregation, e montare la lun in una macchina esxi. La lun formattata è diventata da 1,82 tb, e siccome dovrà ospitare dei server corpulenti ho utilizzato un cluster size da 2 Mb.

Passiamo alle prestazioni: mi spiace non aver potuto effettuare un test perfetto con una sola VM presente, dato che eravamo un pò di corsa per passare le VM dalla terastation. I dati che vedrete sono stati realizzati con 10 VM accese contemporaneamente.

La VM da cui ho fatto i test era un Windows 2003 server 32bit, Hardware v4, 1 vcpu, 2 gb ram, Disco thick da 10 Gb non formattato e connesso al sistema. Utilizzando IOMeter ho effettuato i seguenti test, tutto con 5 minuti di esecuzione:

    IOPS MBs Avg IO resp (ms) Max IO resp (ms) % CPU
      8K, 50/50 r/w, 50/50 random
    179,09 1,40 5,58 1309,44 1,59
      64K 100 r, 100 sequential
    844,21 52,76 1,18 118,52 4,43
      64K 100 w, 100 sequential
    717,93 44,87 1,39 76,63 3,61
      256K 100 r, 100 sequential
    302,11 75,53 3,30 417,14 4,98
      256K 100 w, 100 sequential
    287,08 71,77 3,48 76,39 5,80

    Il primo test è sicuramente il più pesante, piccoli cluster, 50% di accessi random e un mix perfetto di read e write. E’ un caso limite, ma utile per verificare lo stress massimo a cui possiamo arrivare.

    Gli altri valori sono molto interessanti, specie per quanto riguarda i tempi di I/O e i MBs. Diciamo che avere 50Mbs su un sistema iscsi SATA e 10 VM già funzionanti (tra cui un exchange e un sql, quindi abbastanza esigenti in termini di prestazioni) non è niente male.

    Che dire: un prodotto ottimo!

    Share this:

    • Click to share on X (Opens in new window) X
    • Click to share on Facebook (Opens in new window) Facebook
    • Click to share on LinkedIn (Opens in new window) LinkedIn
    • Click to email a link to a friend (Opens in new window) Email
    • Click to share on Tumblr (Opens in new window) Tumblr
    • Click to share on Pinterest (Opens in new window) Pinterest
    • Click to share on Reddit (Opens in new window) Reddit
    • Click to share on WhatsApp (Opens in new window) WhatsApp
    • Click to share on Pocket (Opens in new window) Pocket
    Tecnologia

    Post navigation

    Previous post
    Next post

    Search

    Sponsors

    Latest Posts

    • Migrate WSL (Windows Subsystem for Linux) to a new computer
    • Pass keystrokes to a pfSense virtual machine to install it automatically
    • Automatically deploy pfSense with Terraform and Ansible
    • My Automated Lab project: #6 Create a S3 Bucket with Terraform
    • My Automated Lab project: #5 Deploy a Linux vSphere VM with Terraform and custom disks
    ©2025 Virtual To The Core | WordPress Theme by SuperbThemes
    We use cookies to ensure that we give you the best experience on our website, and to collect anonymous data regarding navigations stats using 3rd party plugins; they all adhere to the EU Privacy Laws. If you continue to use this site we will assume that you are ok with it.OkNoPrivacy Policy