Sisteme de stocare entry-level. Sisteme de stocare Diferențele față de HP MSA2040

  • Seria Dell EMC Storage SC - soluții automatizate cu infrastructură modernă, construite folosind unități hibride, precum și matrice Flash de înaltă tehnologie.
  • Seria Dell EMC Equallogic PS este dispozitivul optim pentru mediul de informații corporative, asigurând implementarea eficientă a sarcinilor informaționale de zi cu zi.
  • Seria Dell POWERVAULT MD sunt sisteme scalabile, cu costuri reduse, care acceptă consolidarea datelor mari și gestionarea simplificată a datelor.
  • Seria EMC VNXE – soluții de stocare unificate pentru rezolvarea problemelor de informații tipice întreprinderilor mici.

Stocare la nivel de intrare

Sistemele de stocare Dell EMC entry-level oferă platforme de înaltă performanță pentru întreprinderile mici, precum și pentru întreprinderile mari, cu o infrastructură extinsă de sucursale. Echipamentele din această clasă se caracterizează prin capabilități largi de scalare, datorită cărora puteți utiliza potențialul de la 6 până la 150 de unități, obținând o capacitate maximă de stocare a datelor de 450 TB. Sistemele de stocare Dell EMC sunt potrivite în mod optim pentru întreprinderile cu o infrastructură dezvoltată de sisteme de servere fizice, precum și pentru cei care practică utilizarea sistemelor de server virtualizate. Utilizarea practică a stocării Dell EMC vă va permite să consolidați volume mari de informații, precum și să creșteți eficiența procesării acestora. Folosind aceste dispozitive, va fi posibilă implementarea sistemelor de stocare multifuncționale bazate pe rețele IP care acceptă protocoale de acces la fișiere și blocare, NAS și respectiv iSCSI.

Sistem de stocare de nivel mediu

Sistemele de stocare de gamă medie Dell EMC sunt platforme bogate în funcții care permit consolidarea stocării în bloc, a sistemelor server de fișiere și a stocării atașate direct. Utilizarea acestui echipament va oferi companiilor oportunitatea de a extinde în mod dinamic sistemele de fișiere și de a bloca resurse cu suport paralel pentru mai multe protocoale - NFS și CIFS. În plus, sistemele de stocare pot oferi acces la informații folosind protocoale precum Fibre Channel, iSCSI și FCoE. Acest lucru va ajuta la suportarea aplicațiilor bazate pe blocuri care necesită lățime de bandă mare și latență scăzută.

Kraftway introduce un nou produs în segmentul sistemelor de stocare cluster orientate pe hardware: sisteme de stocare a datelor de încredere PROGRESS, care se bazează pe controlere cu instrumente integrate de securitate a informațiilor și produse software rusești pentru gestionarea matricelor de discuri. Caracteristici distinctive ale platformei de stocare de încredere Kraftway:

  • funcții de securitate a informațiilor încorporate integrate în controlere (circuitele plăcii, BIOS și codul firmware BMC);
  • software de management al sistemului de stocare inclus în registrul Ministerului Comunicațiilor al Federației Ruse. Software-ul este produs de Radix, NPO Baum și Aerodisk.

Sistemele de stocare de încredere sunt destinate clienților care au cerințe speciale de securitate pentru sistemele lor IT. Sistemele de stocare PROGRESS conțin modele cu controlere 1, 2, 4 și 8 (*), care funcționează în modul Activ-Activ și asigurând o toleranță ridicată la erori a sistemului de stocare. Rafturile pentru discuri de expansiune de diferite dimensiuni standard sunt conectate la controlerele de sistem, oferind o capacitate de stocare de până la câteva zeci de PB. Capacitatea maximă a unui sistem de stocare cu 2 controlere este de 16 PB. Interfețe gazdă de stocare: iSCSI de la 1 la 100 Gb/s, FC de la 2 la 32 Gb/s, Infiniband până la 100 Gb/s (*).

(*) Specificațiile pot varia pentru fiecare producător de software.



  • D. Controlul accesului


    Fișier atașat

  • Sisteme de depozitare de încredere Kraftway PROGRESS

    Pune o întrebare
  • Sisteme de depozitare de încredere Kraftway PROGRESS

  • Sisteme de depozitare de încredere Kraftway PROGRESS

    Capabilitățile software-ului de gestionare a stocării Kraftway PROGRESS

  • Sisteme de depozitare de încredere Kraftway PROGRESS

    Principalele scenarii pentru utilizarea VSZ

    A. Asigurarea că numai personalul autorizat are acces la controlerul de stocare

    Este necesară autentificarea cu doi factori pentru a încărca sistemul de operare al controlerului. După pornirea alimentării, VSZ oprește procesul de încărcare. Pentru a continua descărcarea, un utilizator autorizat trebuie să aibă un dispozitiv de identificare (smart card, cheie USB) și o parolă.
    VSZ are capacitatea de a diferenția drepturile de gestionare a setărilor de securitate în funcție de rolul utilizatorului. Un utilizator obișnuit, de exemplu, poate să nu aibă drepturi de a introduce și de a modifica setările UEFI BIOS.

    B. Monitorizarea integrității configurației hardware

    După ce este aplicată alimentarea, VSZ efectuează autotestarea, calculând sumele de control și comparându-le cu cele de referință. Dacă reușește, integritatea echipamentului este monitorizată prin compararea sumelor de control și semnalizarea când sunt detectate modificări. Dacă integritatea este încălcată, doar un utilizator cu drepturi de administrator va putea gestiona VSZ.

    B. Monitorizarea integrității sistemului de fișiere

    Administratorul VSZ poate permite verificarea integrității fișierelor critice pentru modificări. În acest caz, când porniți produsul înainte de a încărca sistemul de operare, se calculează sumele de verificare ale fișierelor adăugate la lista de control. Dacă integritatea este încălcată, doar un utilizator cu drepturi de administrator va putea gestiona integrarea VSZ

    D. Scanare antivirus înainte de a porni sistemul de operare

    Căutarea de malware în etapa UEFI înainte de a încărca sistemul de operare vă permite să neutralizați amenințările care sunt extrem de greu de detectat după pornirea sistemului de operare, așa-numitele „rootkit-uri” și „bootkit-uri”. Aceștia pot modifica sectoarele de boot ale sistemului, precum și pot ascunde urmele prezenței unui atacator sau malware pe sistem. Căutarea este efectuată de un modul specializat „Kaspersky Anti-Virus for UEFI”. Dacă este detectat un cod rău intenționat, scanerul întrerupe pornirea sistemului de operare și identifică obiectul infectat.

    D. Controlul accesului la resursele hardware folosind un „hipervisor subțire”. Hipervizorul face parte din UEFI și un instrument software pentru restricționarea accesului la resursele hardware ale unui dispozitiv de calcul.
    Hipervizorul funcționează în modul de virtualizare a tuturor dispozitivelor de intrare/ieșire prezente fizic pe placa de bază, precum și porturi de intrare/ieșire și canale de acces direct la memorie. Hipervizorul oferă controlul accesului la mediile externe, inclusiv interzicerea utilizării acestora, precum și contabilizarea centralizată a mediilor amovibile conectate.

    Capacitățile software de gestionare a stocării

    Fișierul atașat conține o descriere și capabilitățile software-ului de gestionare a matricei de discuri de la fiecare producător: Radix, NPO Baum și Aerodisk.

  • Seria Infortrend ESDS 1000

    Recenzie Infortrend ESDS 1000

    Sistemele de stocare EonStor DS 1000 oferă un raport excelent preț/performanță. Pentru utilizatorii mici și mijlocii...

    Sistem de depozitare Infortrend ESDS 1000 series

    Seria Infortrend ESDS 1000 - stocare accesibilă cu iSCSI încorporat și interfețe FC/SAS opționale pentru performanță și scalabilitate sporite.

    Recenzie Infortrend ESDS 1000

    Sistemele de stocare EonStor DS 1000 oferă un raport excelent preț/performanță. O soluție entry-level este furnizată pentru utilizatorii întreprinderilor mici și mijlocii (IMM). Sunt disponibile modele pentru un număr diferit de unități HDD în diferiți factori de formă: 12 biți 2U, 16 biți 3U și 24 biți 2U sub 2,5" conduce. Toate includ mai multe porturi iSCSI de 1 Gbps pentru conectivitate la rețea, o arhitectură concepută având în vedere aplicațiile de supraveghere video care necesită conexiuni rapide la mai mulți clienți. La carcasele de expansiune pot fi conectate până la 444 de unități. Cu suport pentru o unitate de 10TB, aceasta înseamnă că capacitatea disponibilă poate ajunge până la 4PB.

    Compoziția seriei EonStor DS 1000

    Modele pentru HDD de 2,5".

    DS 1024B - 2U, 24 unități de 2,5" cu interfață SAS sau SATA

    DS 1036B - 3U, 36 unități de 2,5". cu interfață SAS sau SATA

    Modele pentru HDD de 3,5".

    DS 1012 - 2U, 12 unități de 3,5". cu interfață SAS sau SATA

    DS 1016 - 3U, 16 unități de 3,5". cu interfață SAS sau SATA

    DS 1024 - 4U, 24 conduce 3,5"cu interfață SAS sau SATA

    Performanţă

    • EonStor DS 1000 Oferă până la 550K IOPS (operații de cache) și 120K IOPS (întreaga cale, inclusiv discurile) pentru a accelera toate operațiunile legate de stocare.
    • Debitul ajunge la 5.500 MB/s citit și 1.900 MB/s. pentru a înregistra, permițându-vă să faceți cu ușurință gestionați chiar și sarcinile intensive cu eficiență ridicată.

    Lucrul cu cache SSD

    (opțional, trebuie achiziționată licența)

    • Performanță de citire îmbunătățită pentru datele fierbinți
    • Până la patru SSD-uri pentru fiecare controler
    • Capacitate mare de stocare SSD: până la 3,2 TB

    Orez. 1 Creșterea numărului de IOPS atunci când memoria cache SSD este saturată cu date fierbinți

    Opțiuni de interfață gazdă combinate

    • Toate sistemele sunt echipate cu patru porturi iSCSI de 1 Gbps pentru a oferi conectivitate mai mult decât suficientă pentru clienți, servere și alte matrice de stocare.
    • Adăugat opțional modul interfață gazdă cu 8 Gbit/s sau 16 Gbit/s Fibre Channel, 10 Gbit/s iSCSI sau 40 Gbit/s iSCSI, 10 Gbit/s FCoE sau 12 Gbit/s SAS pentru a funcționa în paralel cu porturile implicite de 1 iSCSI Gbit/s s.
    • Opțional adăugat la card gazdă convergent cu 4 opțiuni de conectivitate din care să alegeți (16 Gbps FC, 8 Gbps FC și 10 Gbps iSCSI SFP+, 10 Gbps FCoE)

    Diverse opțiuni de salvare a memoriei cache

    Supercondensatorii și modulul flash pe viață, fără întreținere, fără înlocuire oferă o sursă de alimentare sigură și fiabilă pentru a menține starea memoriei cache dacă sursa principală de alimentare este deteriorată

    Unitatea de rezervă a bateriei înlocuibile la cald (BBU) cu modul flash stochează date dacă sistemul se oprește brusc sau se confruntă cu o întrerupere de curent.

    Puteți alege BBU sau supercondensatori pentru a se potrivi nevoilor și bugetului dumneavoastră

    Funcții avansate disponibile și incluse opțional:

    Replicare locală Replicare locală

    (Licența standard este inclusă în mod implicit, iar licența extinsă este o licență opțională)

    Instantanee

    Licență standard Licență extinsă
    Instantanee pe volum sursă 64 256
    Instantanee în sistem 128 4096

    Copiere volum/Oglindă

    Licență standard Licență extinsă
    Volume sursă în sistem 16 32
    Perechi de replicare la volumul sursă 4 8
    Perechi de replicare pe sistem 64 256

    Reglare fină (activată implicit)

    Alocarea la timp a capacității optimizează utilizarea spațiului de stocare și elimină spațiul de stocare alocat, dar nefolosit.

    Replicare de la distanță (licenta suplimentara)

    Replicare pe volum: 16
    Perechi de replicare per volum sursă: 4
    Loturi de replicare per sistem: 64

    Sistem automat de stocare a datelor pe mai multe niveluri (licenta suplimentara)

    Două sau patru niveluri de stocare în funcție de tipurile de unități

    Suport SSD

    Migrare automată a datelor cu opțiuni de planificare

    Cache SSD (licenta suplimentara)

    Accelerați accesul la date în medii cu citire intensivă, cum ar fi OLTP

    Suportă până la 4 SSD-uri per controler

    Capacitate DIMM recomandată per controler pentru cache SSD:

    DRAM: 2 GB max. Dimensiunea pool-ului de cache SSD: 150 GB

    DRAM: 4 GB max. Dimensiune cache SSD: 400 GB

    DRAM: 8 GB max. Dimensiunea pool-ului de cache SSD: 800 GB

    DRAM: 16 GB max. Dimensiunea memoriei cache SSD: 1.600 GB

    Nu se potrivește cu parametrii sistemului de stocare din seria Infortrend DS 1000? Luați în considerare stocarea unei alte serii sau linii, accesați secțiunea:

    Eroul acestei recenzii va fi modestul sistem de stocare DotHill 4824 Cu siguranță mulți dintre voi ați auzit că DotHill, în calitate de partener OEM, produce sisteme de stocare entry-level pentru Hewlett-Packard - foarte popularul HP MSA (Modular Storage Array). deja la a patra generație. Linia DotHill 4004 corespunde modelului HP MSA2040 cu diferențe minore, care vor fi detaliate mai jos.

    DotHill este un sistem clasic de stocare entry-level. Factor de formă, 2U, două opțiuni pentru unități diferite și cu o mare varietate de interfețe gazdă. Cache în oglindă, două controlere, activ-activ asimetric cu ALUA. Anul trecut, au fost adăugate noi funcționalități: pool-uri de discuri cu trei niveluri (stocare de date pe niveluri) și cache SSD.

    Caracteristici

    • Factor de formă: 2U 24x 2,5" sau 12x 3,5"
    • Interfețe (per controller): 4524C/4534C - 4x SAS3 SFF-8644, 4824C/4834C - 4x FC 8Gbit/s / 4x FC 16Gbit/s / 4x iSCSI 10Gbit/s SFP+ (în funcție de transceiver-urile utilizate)
    • Scalare: 192 unități de 2,5" sau 96 unități de 3,5", acceptă până la 7 rafturi de discuri suplimentare
    • Suport RAID: 0, 1, 3, 5, 6, 10, 50
    • Cache (per controler): 4 GB cu protecție flash
    • Funcționalitate: instantanee, clonare de volum, replicare asincronă (cu excepția SAS), aprovizionare subțire, cache SSD, nivelare pe 3 niveluri (SSD, HDD 10/15k, HDD 7.2k)
    • Limite de configurare: 32 de matrice (vDisk), până la 256 de volume per matrice, 1024 de volume per sistem
    • Management: CLI, interfață web, suport SMI-S

    Pool-uri de discuri în DotHill

    Pentru cei care nu sunt familiarizați cu teoria, merită să vorbim despre principiile de funcționare a pool-urilor de discuri și a stocării pe niveluri. Mai exact, despre o implementare specifică în sistemul de stocare DotHill.

    Înainte de apariția piscinelor, aveam două restricții:

    • Dimensiunea maximă a grupului de discuri. RAID-10, 5 și 6 pot avea maximum 16 unități. RAID-50 - până la 32 de discuri. Dacă aveți nevoie de un volum cu un număr mare de axe (de dragul performanței și/sau al capacității), atunci a trebuit să combinați LUN-urile pe partea gazdă.
    • Utilizarea suboptimă a discurilor rapide. Puteți crea un număr mare de grupuri de discuri pentru mai multe profiluri de încărcare, dar cu un număr mare de gazde și servicii pe acestea, devine dificil să monitorizați constant performanța, volumul și să faceți modificări periodice.

    Un pool de discuri în sistemul de stocare DotHill este o colecție de mai multe grupuri de discuri cu distribuție de încărcare între ele. Din punct de vedere al performanței, puteți considera pool-ul ca un RAID-0 al mai multor subbary, adică Rezolvăm deja problema grupurilor scurte de discuri. În total, doar două pool-uri de discuri sunt acceptate pe sistemul de stocare, A și B, câte unul pe controler, fiecare pool poate avea până la 16 grupuri de discuri. Principala diferență arhitecturală este utilizarea maximă a plasării benzilor libere pe discuri. Mai multe tehnologii și caracteristici se bazează pe această caracteristică:

    Diferențele față de HP MSA2040

    Performanţă

    Configurare stocare
    • DotHill 4824 (2U, 24x2,5")
    • Versiunea de firmware: GL200R007 (cea mai recentă la momentul testării)
    • Licență RealTier 2.0 activată
    • Două controlere cu porturi CNC (FC/10GbE), 4 transceiver FC de 8 Gbit (instalate în primul controler)
    • 20 x 146 GB 15k rpm SAS HDD (Seagate ST9146852SS)
    • 4x SSD de 400 GB (HGST HUSML4040ASS600)

    Configurare gazdă

    • Platforma Supermicro 1027R-WC1R
    • 2x Intel Xeon E5-2620v2
    • 8x 8GB DDR3 1600MHz ECC RDIMM
    • SSD de 480 GB Kingston E50
    • 2x Qlogic QLE2562 (2 porturi 8Gbit FC HBA)
    • CentOS 7, fio 2.1.14
    Conexiunea s-a realizat printr-un controler, direct, prin 4 porturi FC de 8Gbit. Desigur, maparea volumului către gazdă a fost prin intermediul a 4 porturi, iar calea multiplă a fost configurată pe gazdă.

    Pool cu ​​tier-1 și cache pe SSD

    Acest test este o încărcare de trei ore (180 de cicluri de 60 de secunde) cu acces aleatoriu în blocuri de 8 KiB (8 fire cu o adâncime de coadă de 16 fiecare) cu rapoarte diferite de citire/scriere. Întreaga încărcare este concentrată în zona 0-20 GB, care este garantată a fi mai mică decât volumul nivelului de performanță sau cache-ului de pe SSD (800 GB) - acest lucru se face cu scopul de a umple rapid memoria cache sau nivelul într-un mod acceptabil. timp.

    Înainte de fiecare test, volumul a fost creat din nou (pentru a șterge nivelul SSD sau cache-ul SSD), umplut cu date aleatorii (scriere secvențială în blocuri de 1 MiB), citirea înainte a fost dezactivată pe volum, latența medie și maximă valorile au fost determinate în fiecare perioadă de 60 de minute.

    Testele cu 100% citire și 65/35 citire+scriere au fost efectuate atât cu un nivel SSD (un grup de discuri de 4x400GB SSD în RAID-10 a fost adăugat la pool), cât și cu un SSD cache (2x400GB SSD în RAID-0). , stocarea nu permite adăugarea a mai mult de două SSD-uri în cache pentru fiecare pool).

    IOPS

    Rezultatele erau destul de previzibile. După cum susține furnizorul, avantajul unui cache SSD față de un nivel SSD este că memoria cache se umple mai repede, adică sistemul de stocare răspunde mai rapid la apariția zonelor „fierbinte” cu o încărcare intensă a accesului aleator: IOPS crește la 100% citirea împreună cu o scădere a latenței mai rapid decât în ​​cazul utilizării nivelurilor.

    Acest beneficiu se încheie imediat ce se adaugă o încărcare semnificativă de scriere. RAID-60, ca să spunem ușor, nu este foarte potrivit pentru scrierea aleatorie în blocuri mici, dar această configurație a fost aleasă special pentru a arăta esența problemei: sistemul de stocare nu poate face față scrierii, deoarece ocolește memoria cache pe un RAID-60 lent, coada se înfundă rapid și mai rămâne puțin timp pentru a răspunde cererilor de citire, chiar și ținând cont de cache. Unele blocuri ajung în continuare acolo, dar devin rapid invalide, deoarece înregistrarea este în curs. Acest cerc vicios face ca cache-ul doar pentru citire să devină ineficient în acest profil de încărcare. Exact aceeași situație ar putea fi observată și cu versiunile timpurii ale cache-ului SSD (înainte de apariția Write-Back) în controlerele PCI-E RAID de la LSI și Adaptec. Soluție - utilizați un volum inițial mai productiv, adică. RAID-10 în loc de 5/6/50/60 și/sau nivel SSD în loc de cache.

    Latența medie


    Latență maximă

    Acest grafic folosește o scară logaritmică. În cazul 100% și folosind cache-ul SSD, puteți vedea o valoare de latență mai stabilă - după ce memoria cache este umplută, valorile de vârf nu depășesc 20 ms.


    Cum putem rezuma dilema „caching versus tiering”?
    Ce sa aleg?
    • Cache-ul se umple mai repede. Dacă volumul de lucru constă în preponderent citire aleatorie și zona „fierbinte” se schimbă periodic, atunci ar trebui să alegeți un cache.
    • Salvarea volumului „rapid”. Dacă datele „fierbinte” se potrivesc în întregime în cache, dar nu în nivelul SSD, atunci memoria cache poate fi mai eficientă. Cache-ul SSD din DotHill 4004 este doar pentru citire, așa că este creat un grup de discuri RAID-0 pentru acesta. De exemplu, având 4 SSD-uri de 400 GB fiecare, puteți obține 800 GB de cache pentru fiecare dintre cele două pool-uri (1600 GB în total) sau de 2 ori mai puțin atunci când utilizați niveluri (800 GB pentru un pool sau 400 GB pentru două). o opțiune de 1200 GB în RAID-5 pentru un pool, dacă SSD-urile nu sunt necesare pentru al doilea.

      Pe de altă parte, volumul total util al pool-ului atunci când se utilizează gradarea va fi mai mare datorită stocării unei singure copii a blocurilor.

    • Memoria cache nu afectează performanța accesului secvenţial. La memorarea în cache, blocurile nu sunt mutate, ci doar copiate. Cu un profil de încărcare adecvat (citire aleatorie în blocuri mici cu acces repetat la aceleași LBA), sistemul de stocare emite date din cache-ul SSD, dacă este acolo, sau de pe HDD și le copiază în cache. Când apare o încărcare cu acces secvenţial, datele vor fi citite de pe HDD. Exemplu: un pool de 20 HDD-uri 10 sau 15k poate da aproximativ 2000MB/s când se citesc secvenţial, dar dacă datele necesare ajung pe un grup de discuri dintr-o pereche de SSD-uri, atunci vom obţine aproximativ 800MB/s. Dacă acest lucru este critic sau nu, depinde de scenariul real de utilizare a sistemului de stocare.

    4x SSD 400GB HGST HUSML4040ASS600 RAID-10

    Volumul a fost testat pe un grup de discuri liniar - RAID-10 de patru SSD-uri de 400 GB. În această livrare DotHill, abstractul „400GB SFF SAS SSD” s-a dovedit a fi HGST HUSML4040ASS600. Acesta este un SSD din seria Ultrastar SSD400M cu o performanță declarată destul de ridicată (56000/24000 IOPS pentru citire/scriere 4KiB) și cel mai important - o resursă de 10 rescrieri pe zi timp de 5 ani. Desigur, acum HGST are SSD800MM și SSD1600MM mai puternice în arsenalul său, dar acestea sunt destul de suficiente pentru DotHill 4004.

    Am folosit teste concepute pentru un singur SSD - „Test IOPS” și „Test de latență” din specificația SNIA Solid State Storage Performance Test Specification Enterprise v1.1:

    • Test IOPS. Numărul de IOPS (operații de intrare/ieșire pe secundă) este măsurat pentru blocuri de diferite dimensiuni (1024 KiB, 128 KiB, 64 KiB, 32 KiB, 16 KiB, 8 KiB, 4 KiB) și acces aleatoriu cu diferite rapoarte de citire/scriere (100/0, 95/ 5, 65/35, 50/50, 35/65, 5/95, 0/100 au fost utilizate 8 fire cu o adâncime de coadă de 16).
    • Test de latență. Latența medie și maximă este măsurată pentru diferite dimensiuni de bloc (8 KiB, 4 KiB) și rapoarte de citire/scriere (100/0, 65/35, 0/100) cu o adâncime minimă de coadă (1 fir cu QD=1).
    Testul constă într-o serie de măsurători - 25 de reprize de 60 de secunde. Preîncărcare - scrieri secvențiale în blocuri de 128 KiB până când se atinge capacitatea de 2x. Fereastra de stare staționară (4 runde) este verificată prin grafic. Criterii de stare de echilibru: aproximarea liniară în cadrul ferestrei nu trebuie să depășească 90%/110% din valoarea medie.

    SNIA PTS: test IOPS



    După cum era de așteptat, a fost atinsă limita de performanță declarată a unui singur controler în ceea ce privește IOPS cu blocuri mici. Din anumite motive, DotHill indică 100.000 IOPS pentru citire, iar HP pentru MSA2040 indică un 80.000 IOPS mai realist (care se dovedește a fi 40 mii per controler), ceea ce vedem în grafic.

    Pentru verificare, un singur SSD HGST HGST HUSML4040ASS600 a fost testat conectat la un HBA SAS. Pe un bloc de 4 KiB, s-au primit aproximativ 50 de mii de IOPS pentru citire și scriere când saturat (test de saturație de scriere SNIA PTS), scrierea a scăzut la 25-26 de mii de IOPS, ceea ce corespunde caracteristicilor declarate de HGST;

    SNIA PTS: Test de latență

    Latența medie (ms):


    Latența maximă (ms):


    Latența medie și de vârf sunt cu doar 20-30% mai mari decât un singur SSD atunci când este conectat la un HBA SAS.

    Concluzie

    Desigur, articolul sa dovedit a fi oarecum haotic și nu răspunde la câteva întrebări importante:
    • Comparație într-o configurație similară cu produse de la alți furnizori: IBM v3700, Dell PV MD3 (și alți descendenți ai LSI CTS2600), Infrotrend ESDS 3000 etc. Sistemele de stocare vin la noi în configurații diferite și, de regulă, nu durează. lung - trebuie să încărcați și/sau să implementați rapid.
    • Limita capacității de stocare nu a fost testată. Am putut vedea aproximativ 2100MiB/s (RAID-50 de 20 de discuri), dar nu am testat în detaliu încărcarea secvenţială din cauza numărului insuficient de discuri. Sunt sigur că 3200/2650 MB/s de citire/scriere declarate ar fi fost atinse.
    • Nu există un grafic IOPS vs latență util în multe cazuri, unde, variind adâncimea cozii, puteți vedea câte IOPS pot fi obținute cu o valoare de latență acceptabilă. Din păcate, nu a fost suficient timp.
    • Cele mai bune practici. Nu am vrut să reinventez roata, așa cum este
    Cu doar câțiva ani în urmă, sistemele costisitoare de stocare pe hard disk dedicate erau destinate în primul rând aplicațiilor de întreprindere esențiale sau unor sarcini specifice. Astăzi, datorită dezvoltării rapide a conceptului NAS (Network Attached Storage) și a unui număr de alte soluții bazate pe hard disk-uri ATA, astfel de sisteme entry-level devin obiectul atenției întreprinderilor mijlocii, ceea ce este deosebit de important pentru piața ucraineană foarte sensibilă la preț.
    Există motive destul de serioase pentru interesul cumpărătorilor pentru sistemele de stocare a datelor - de exemplu, necesitatea de a consolida rețele de informații, necesitatea de a rezolva problemele cu backupul datelor în rețele mari etc. Pe de altă parte, ele apar în timpul funcționării sisteme de nivel înalt și mediu.

    Conform rezultatelor unui sondaj al mai multor companii din Kiev, astăzi se găsesc cel mai adesea următoarele motive pentru achiziționarea de dispozitive de stocare (în ordine descrescătoare).

    1. Discurile suplimentare sunt imposibile sau neprofitabile de instalat pe server (de obicei fie din cauza lipsei de spațiu în carcasă, fie din cauza prețului ridicat al discurilor originale, fie din cauza configurației în masă a sistemului de operare și a platformei - de exemplu, Silicon Graphics sau Compaq Alpha Server, Mac etc.).

    2. Este necesar să construiți un cluster de failover cu o matrice de discuri partajată. Într-o astfel de situație, uneori vă puteți descurca fără un sistem de stocare a datelor, de exemplu, utilizând controlere PCI-SCSI RAID cu suport pentru sisteme de cluster, dar această configurație este mai puțin funcțională și, în plus, nu vă permite să activați scrierea datelor. stocarea în cache în controlere. Când lucrați cu baze de date, performanța soluțiilor cu un dispozitiv de stocare independent depășește uneori sistemele de pe controlere PCI-SCSI RAID cu un ordin de mărime.

    3. Este imposibil să obțineți o soluție de stocare a datelor de înaltă calitate într-un server standard. În acest caz, sistemul extern vă permite să implementați RAIS (Redundant Array of Independent Servers - o matrice tolerantă la erori de servere independente). Stochează tot, inclusiv datele de sistem, care este accesat de serverele care le procesează. În acest caz, este furnizat un server de rezervă pentru a-l înlocui pe cel defect. Această abordare este oarecum similară cu clustering, dar nu utilizează software specializat și aplicațiile nu migrează automat.

    Clasificarea general acceptată a sistemelor de stocare a datelor se bazează pe principiul organizării accesului la acestea.


    SAS (Server Attached Storage)-- o unitate conectată la server.

    Uneori se folosește termenul „stocare atașată direct” - DAS (Direct Attached Storage).


    Principalul avantaj al unei unități conectate la un server în comparație cu alte opțiuni este prețul scăzut și performanța ridicată. NAS (stocare atașată la rețea)

    -- un dispozitiv de stocare conectat la rețea.

    Principalul avantaj al acestei soluții este viteza de implementare și organizarea atentă a accesului la fișiere.

    SAN (Storage Area Network) - retea de stocare a datelor.

    Desigur, o mulțime de dispozitive diferite pot fi numite o unitate sau un sistem de stocare a datelor. Dar din moment ce vorbim despre sisteme de discuri care asigură stocarea informațiilor și accesul la acestea, le vom înțelege prin termenul „unitate”. În general, acestea constau din hard disk-uri, un controler de intrare/ieșire și un sistem unificator. Discurile, de regulă, acceptă „hot-swap”, adică pot fi conectate și deconectate „din mers”, fără a opri unitatea. Acest lucru face posibilă înlocuirea unui hard disk defect fără probleme pentru utilizator. Sursele de alimentare principale și de rezervă ale unității au o fiabilitate sporită și sunt, de asemenea, interschimbabile la cald. Da, și uneori sunt folosite două controlere I/O. O diagramă a unui sistem tipic de stocare pe disc cu un singur controler poate fi văzută în Fig. 1.

    Controlerul sistemului de stocare pe disc este centrul său. El este responsabil de intrarea/ieșirea datelor în sistem și către canalele externe, precum și de organizarea stocării și accesului la informații. Pentru a comunica cu lumea exterioară, controlerele de unitate folosesc de obicei interfețe SCSI, Fibre Channel sau Ethernet.

    În funcție de scopul sistemului, controlorii pot implementa o logică de operare diferită și pot utiliza diferite protocoale de schimb de date. Ele furnizează sisteme utilizatorilor date la nivel de bloc, cum ar fi hard disk-uri sau servicii de fișiere folosind NFS, CIFS, precum și protocoale Network File System, Common Internet File System, cum ar fi servere de fișiere (vezi bara laterală „Protocoale de fișiere în NAS - CIFS , NFS ,DAFS"). Acest controler acceptă de obicei niveluri RAID standard pentru a îmbunătăți performanța sistemului și pentru a oferi toleranță la erori.

    Protocoale de fișiere pe NAS -- CIFS, NFS, DAFS CIFS (Common Internet File System) este un protocol standard care oferă acces la fișiere și servicii de pe computere la distanță (inclusiv Internet). Protocolul folosește un model de interacțiune client-server.

    Clientul creează o cerere către server pentru a accesa fișiere sau pentru a trimite un mesaj unui program care se află pe server. Serverul îndeplinește cererea clientului și returnează rezultatul muncii sale. CIFS este un standard deschis bazat pe SMB (Server Message Block Protocol) de la Microsoft, care a fost folosit în mod tradițional pe rețelele locale Windows pentru accesul și imprimarea fișierelor. Spre deosebire de acesta din urmă, CIFS este destinat utilizării și în rețelele distribuite - de exemplu, ia în considerare posibilitatea unor timeout-uri mari.

    CIFS utilizează TCP/IP pentru a transporta date. Oferă funcționalități similare cu FTP (File Transfer Protocol), dar oferă clienților un control îmbunătățit (de tip direct) asupra fișierelor. De asemenea, vă permite să partajați accesul la fișiere între clienți, folosind blocarea și restabilirea automată a comunicării cu serverul în cazul unei defecțiuni a rețelei.

    NFS (Network File System) este un standard IETF care include un sistem de fișiere distribuit și un protocol de rețea. NFS a fost dezvoltat de Sun și a fost utilizat inițial numai pe sisteme Unix. Mai târziu, implementările părților client și server s-au răspândit la alte sisteme.

    NFS, la fel ca CIFS, se bazează pe un model de comunicare client-server. Oferă acces la fișierele de pe un computer la distanță (server) pentru scriere și citire ca și cum ar fi pe computerul utilizatorului. În versiunile timpurii de NFS, protocolul UDP a fost folosit pentru a transporta date în versiunile moderne, a fost folosit TCP/IP. Pentru ca NFS să funcționeze pe Internet, Sun a dezvoltat protocolul WebNFS, care utilizează extensii de funcționalități NFS pentru a funcționa corect pe World Wide Web.

    DAFS (Direct Access File System) este un protocol standard de acces la fișiere care se bazează pe NFSv4. Permite aplicațiilor să transfere date ocolind sistemul de operare și spațiul său tampon direct către resursele de transport, păstrând semantica sistemelor de fișiere. DAFS profită de cele mai recente tehnologii de transfer de la memorie la memorie.

    DAFS a fost proiectat pentru baze de date care rulează continuu și o varietate de aplicații Internet în medii de cluster și server. Oferă cea mai scăzută latență pentru accesarea partajelor de fișiere și a informațiilor și, de asemenea, acceptă sisteme inteligente și mecanisme de recuperare a datelor, ceea ce îl face foarte atractiv pentru utilizarea în unitățile NAS de ultimă generație.



    De ce ATA Astăzi, diferența de cost pe unitate de volum al unităților ATA și SCSI mari este de peste șase ori, iar acest raport este destul de justificat. Unitățile SCSI scumpe sunt destinate în primul rând sistemelor de informații corporative și au, de obicei, performanțe mai mari atunci când procesează un număr mare de solicitări. Folosesc componente mai fiabile, sunt mai bine testate, iar responsabilitatea producătorului pentru aceste dispozitive este mult mai mare.

    Dar dacă costul datelor nu este atât de mare sau este nevoie doar de un dispozitiv intermediar pentru a le face backup, de ce să plătești de șase ori mai mult? Având în vedere că defecțiunea unuia dintre discurile matrice nu este critică, este destul de acceptabil să folosiți o unitate cu discuri ATA. Desigur, există o serie de contraindicații pentru utilizarea unităților ATA în sisteme mari de stocare a datelor, dar există și o serie de aplicații pentru care sunt perfecte.

    Dispozitivele IDE sunt cele mai comune în sistemele NAS entry-level. Când utilizați două sau patru discuri organizate într-o matrice RAID 1 sau 0+1, probabilitatea de defecțiune a întregului sistem este acceptabil de mică, iar performanța este suficientă - serverele de fișiere de nivel de intrare nu efectuează prea multe operațiuni de disc în fiecare secundă, dar fluxurile de date sunt limitate la interfețele externe Fast Ethernet sau Gigabit Ethernet.

    Acolo unde accesul blocat la date este necesar la un cost minim al soluției și numărul de operațiuni pe unitatea de timp nu este un parametru critic, sunt utilizate sisteme cu interfață externă paralelă SCSI sau Fibre Channel și discuri ATA în interior (Fig. 2) .

    Producătorii de top oferă astăzi unități ATA care sunt similare în toate caracteristicile, inclusiv MTBF, cu unitățile SCSI industriale. În același timp, costul lor devine comparabil și, în consecință, utilizarea unităților ATA oferă doar un mic câștig în prețul unităților.

    Pentru serverele și stațiile de lucru entry-level care stochează date destul de importante, utilizarea controlerelor PCI ATA ieftine, așa cum arată practica, nu dă întotdeauna rezultatul dorit datorită caracterului lor relativ primitiv și funcționalității scăzute. Utilizarea unor dispozitive de stocare externe costisitoare nu este întotdeauna justificată. În acest caz, puteți utiliza un dispozitiv ATA-to-ATA, care este o copie mai mică a unui sistem de stocare pe disc extern și este proiectat pentru doar două discuri cu o interfață ATA. Cu toate acestea, are un controler încorporat destul de de înaltă calitate și acceptă discuri care pot fi schimbate la cald (Fig. 3).


    Serial ATA - un nou suflu al interfeței ATA

    Odată cu apariția interfeței Serial ATA, ar trebui să existe mai multe sisteme de stocare a datelor pe discurile ATA. Aproape toți producătorii de unități entry-level vorbesc despre asta. Astăzi, noile lor modele sunt deja echipate cu o nouă interfață. De ce este interfața Serial ATA interesantă pentru producătorii de sisteme de stocare?

    Acceptă setul de instrucțiuni Native Command Queuing - controlerul analizează cererile I/O și optimizează ordinea de execuție a acestora. Adevărat, spre deosebire de Native Command Queuing tradițional în unitățile SCSI, care oferă o coadă de până la 256 de comenzi, Serial ATA va suporta o coadă de până la 32 de comenzi. „Schimbarea la cald” a unităților Serial ATA, care anterior necesita anumite trucuri tehnice, este acum specificată direct în standard, ceea ce va permite crearea de soluții de întreprindere la nivel destul de înalt. Noul design este, de asemenea, important: cablul din noua interfață a devenit rotund, iar conectorul său a devenit mic și îngust, ceea ce facilitează proiectarea și asamblarea sistemelor.

    În noile versiuni, performanța Serial ATA va crește și nu există nicio îndoială că ponderea soluțiilor ATA în sistemele de stocare entry-level va crește datorită noilor unități cu această interfață, în timp ce dezvoltarea Parallel ATA va încetini, deoarece a fost observat recent.

    RAID (Matrice redundantă de discuri independente) Unitățile entry-level folosesc de obicei nivelurile RAID 0, 1, 5 și combinații ale acestora.

    Striped Disk Array fără toleranță la erori. În acest caz, datele sunt împărțite în blocuri, scrise în paralel pe diferite discuri, care participă în comun la fiecare operație I/O.

    Avantajele acestei abordări sunt performanța ridicată pentru aplicațiile intensive I/O, ușurința de implementare și costul redus pe unitate de volum. Principalul dezavantaj este că nu este o soluție tolerantă la erori: eșecul oricărui disc implică pierderea tuturor datelor din matrice.

    Matrice de discuri cu duplicare. „Mirroring” este o modalitate tradițională de a crește fiabilitatea unei matrice de discuri mici. Cea mai simplă versiune folosește două discuri pe care sunt înregistrate aceleași informații. Dacă unul dintre ele eșuează, rămâne un duplicat, care continuă să funcționeze ca înainte.

    Avantaje: ușurință în implementare și recuperare a datelor, precum și performanță destul de ridicată pentru aplicații cu intensitate mare de solicitare. Dezavantaje - viteză scăzută de transfer de date la costul dublu pe unitatea de volum, deoarece există o redundanță de 100%. Cu un număr mai mare de discuri, în loc de RAID 1, puteți folosi RAID 0+1 sau RAID 10, combinații de RAID 0 și RAID 1, care vă permit să obțineți performanțe și fiabilitate mai bune a sistemului.

    RAID 5

    Matrice tolerantă la erori de discuri de date independente cu blocuri de paritate distribuite.

    Datele sunt defalcate la nivel de bloc. Fiecare bloc de date este scris pe un anumit disc și poate fi citit separat. Paritatea este calculată pentru blocurile de date și distribuită ciclic pe toate discurile din matrice. Dacă operațiunile de scriere sunt planificate corect, procesarea paralelă a până la N/2 blocuri devine posibilă, unde N este numărul de discuri din grup. Acest lucru crește performanța și este utilizat un singur disc redundant pentru a obține o matrice tolerantă la erori.

    RAID 5 oferă viteze mari de citire și scriere, ceea ce îmbunătățește performanța pentru cererile ridicate de citire/scriere, reducând în același timp suprasarcina de implementare a redundanței. Cu toate acestea, organizarea sa este destul de complexă, iar recuperarea datelor poate pune o anumită problemă.



    Interfața Serial Attached SCSISCSI are viteză și fiabilitate ridicate, dar astfel de soluții sunt destul de scumpe. SAS (Serial Attached SCSI) este o dezvoltare interesantă a SCSI și probabil va fi folosită și în sisteme de nivel de intrare și mediu cu costuri reduse.

    Astăzi, mulți producători de sisteme de stocare folosesc interfața Ultra 320 SCSI atunci când proiectează unități relativ simple. Această generație de interfețe SCSI paralele este în prezent ultima din linie. Unitățile cu interfața Ultra 640 SCSI anunțată anterior, cel mai probabil, nu vor fi produse în serie sau vor dispărea cu totul de pe scenă. La o întâlnire recentă cu partenerii, Seagate, lider în producția de hard disk-uri pentru sistemele de întreprindere, a anunțat că noile modele de unități pentru sistemele high-end vor fi echipate cu o interfață Fibre Channel, iar pentru sistemele întreprinderilor mai mici - Serial SCSI. În același timp, obișnuitul Ultra 320 SCSI paralel nu va dispărea imediat. Înlocuirea sa definitivă este așteptată nu mai devreme de cinci ani.

    Serial SCSI combină unele dintre caracteristicile Serial ATA și Fibre Channel. A fost dezvoltat pe baza specificațiilor Serial ATA și îmbunătățit. Astfel, nivelul semnalului a crescut, ceea ce vă permite să măriți în mod corespunzător lungimea maximă a cablului cu patru fire la 10 m Această interfață punct la punct cu două canale funcționează în modul full duplex, poate servi până la 4096 de dispozitive de disc. în domeniu și acceptă setul standard de comenzi SCSI la nivel de protocol.

    În același timp, în ciuda tuturor avantajelor sale, este puțin probabil ca Serial Attached SCSI să înlocuiască interfața paralelă convențională în viitorul apropiat. În lumea soluțiilor de întreprindere, dezvoltarea se realizează cu foarte multă atenție și, firește, mai mult decât pentru sistemele desktop. Și tehnologiile vechi nu dispar foarte repede, deoarece ciclul lor de viață este de câțiva ani. Primele dispozitive cu interfață SAS ar trebui să apară pe piață în 2004. Desigur, la început acestea vor fi în principal discuri și controlere PCI, dar și sistemele de stocare a datelor vor apărea destul de repede. Caracteristicile comparative ale interfețelor sunt prezentate în tabelul „Compararea interfețelor moderne de disc”.


    SAN -- rețele de stocare

    SAN-urile (vezi bara laterală „Clasificarea sistemelor de stocare a datelor – DAS/SAS, NAS, SAN”) bazate pe Fibre Channel vă permit să rezolvați aproape orice problemă de stocare a datelor și de acces la acestea. Dar există câteva dezavantaje care afectează negativ răspândirea acestor tehnologii, în primul rând costul ridicat al soluțiilor și complexitatea construirii sistemelor distribuite geografic.

    Există o dezbatere aprinsă despre utilizarea protocolului IP în SAN-uri ca transport pentru comenzi și date SCSI, dar toată lumea înțelege că soluțiile IP Storage își vor găsi cu siguranță nișa în domeniul sistemelor de stocare a datelor, iar așteptarea nu va fi lungă. .

    Ca parte a îmbunătățirii tehnologiilor de stocare în rețea, Internet Engineering Task Force (IETF) a organizat un grup de lucru și un forum IP Storage (IPS) în următoarele domenii:

    FCIP -- Fibre Channel over TCP/IP, un protocol tunel creat pe baza TCP/IP și conceput pentru a conecta SAN-uri FC la distanță geografică, fără niciun impact asupra protocoalelor FC și IP;

    IFCP -- Internet Fibre Channel Protocol, un protocol pentru conectarea sistemelor FC sau a rețelelor de stocare bazate pe TCP/IP, folosind infrastructura IP împreună cu sau în locul elementelor de comutare și rutare FC;

    ISNS -- Internet Storage Name Service, un protocol pentru suportarea numelor de stocare;

    ISCSI -- Internet Small Computer Systems Interface, un protocol bazat pe TCP/IP conceput pentru a comunica și gestiona sisteme de stocare, servere și clienți.

    Cea mai rapidă dezvoltare și cea mai interesantă dintre aceste domenii este iSCSI, care a devenit standard oficial la 11 februarie 2003. Dezvoltarea acestuia ar trebui să afecteze semnificativ răspândirea SAN-urilor în întreprinderile mici și mijlocii, datorită faptului că rețelele de stocare vor deveni mult mai ieftine. În ceea ce privește utilizarea iSCSI pe Internet, astăzi FCIP a prins deja destul de bine rădăcini aici, iar concurența cu acesta va fi destul de intensă, dar datorită abordării integrate ar trebui să funcționeze în favoarea iSCSI.

    Datorită tehnologiilor de stocare IP, inclusiv iSCSI, rețelele de stocare au creat noi oportunități pentru construirea de sisteme de stocare distribuite geografic. În plus, noile sisteme de stocare pentru care iSCSI va fi un protocol „nativ” vor oferi o mulțime de alte avantaje, cum ar fi suportul QoS, un nivel ridicat de securitate și capacitatea de a folosi specialiști Ethernet în întreținerea rețelei.

    Una dintre caracteristicile foarte interesante ale iSCSI este că, pentru a transfera date pe o unitate iSCSI, puteți utiliza nu numai medii, comutatoare și routere ale rețelelor LAN/WAN existente, ci și adaptoare de rețea Fast Ethernet sau Gigabit Ethernet obișnuite pe partea clientului. Dar, de fapt, din cauza unor dificultăți, este mai bine să folosiți echipamente specializate, ceea ce, ca urmare, va duce la faptul că costul soluțiilor va începe să ajungă din urmă cu SAN tradițional Fibre Channel.

    Dezvoltarea rapidă a rețelelor de stocare a devenit baza pentru formarea conceptului World Wide Storage Area Network. WWSAN prevede crearea unei infrastructuri care va oferi acces și stocare de mare viteză a datelor distribuite în întreaga lume.

    Comparația interfețelor moderne de disc

    Opțiuni Serial ATA SCSI SAS F.C.
    Numărul de dispozitive acceptate 16 16 4096 2 24
    Lungimea maximă a cablului, m 1 12 10 Cupru: 30
    Optică: 10.000*
    Topologii acceptate Punct la punct Obosi Punct la punct Inel**
    Punct la punct
    Performanță, MBps 150, 300 320 150, 300 100, 200, 400
    Full duplex - - + +
    Interfețe ATA, SCSI SCSI ATA, SCSI Independent***
    Suport pentru dispozitive cu două porturi - - + +

    * Standardul reglementează o distanță de până la 10 km pentru fibra optică monomodală există implementări pentru transmiterea datelor pe o distanță mai mare de 100 km.
    ** Hub-urile și comutatoarele FC funcționează în topologia inelului intern și există, de asemenea, implementări de comutatoare care oferă conectivitate punct la punct la orice dispozitiv conectat la acestea.
    *** Există implementări de dispozitive pentru interfețe și protocoale SCSI, FICON, ESCON, TCP/IP, HIPPI, VI.
    0