Pillanatonként sok millió bit adat kerül különféle tárolókba, és sok ezer bit tűnik el meghibásodások miatt. A virtuális gazdaság, a számítástechnika használatának és nem utolsósorban a mobiltelefonos tartalomszolgáltatás terjedése együtt jár a digitálisan rögzített információ mennyiségének exponenciális növekedésével. A mennyiségi változás mellett folyamatosan szigorodnak a minőségi követelmények: mindig és gyorsan kell az az adat, információ. A felhasználót nem érdekli, hogy elromlott a merevlemez, hogy elszakadt az üvegszál, neki akkor is kell az adat, és az informatikus nem tehet mást, mint hogy akceptálja ezt az igényt.
Egy nem régi IDC-tanulmányt idéz például a Sun Microsystems jelentése, mely szerint a lemezes tárolóeszköz piaca a következő években több mint évi tíz százalékkal bővül. Becslésük szerint a gyártók bevételei évente tizenkét százalékkal nőnek majd, és a bevételek az 1999-ben regisztrált 28,4 milliárdról 2004-re 53,3 milliárd dollárra nőnek, ami egyben azt is jelenti, hogy az adattárolás stratégiai területté válik az informatikai iparágon belül. Az IDC tárolóeszköz-piaccal foglalkozó igazgatója, Charlotte Rancourt úgy látja, a bővülés fő oka az internet térhódítása és a hálózatos tárolásra való egyre erőteljesebb átállás, a földrajzi és időkorlátok nélküli adathozzáférés egyre növekvő igénye.
Ha nagyon szigorúak akarunk lenni, már a merevlemez vagy a CD-író sem csak hardver — fizikai egység —, hiszen van rajta vezérlés. De nem is foglalkozunk ebben a cikkben mágnesszalaggal, merevlemezzel, CD-íróval, DVD-íróval, holografikus adattárolóval. Ezeket jól meghatározott adattárolási feladatok megoldására szolgáló alapegységeknek tekinthetjük. Érdeklődésünk homlokterében a nagy kapacitású dinamikus adattárolási megoldások, az önálló szekrényként megjelenő adattárak és azokat szervező szoftverek állnak. A logikai és fizikai tárolás közötti határt ott érdemes megvonni, hogy a felhasználói program tudja-e, hogy melyik lemezre ír. A vezérlőkártya és több merevlemez együttese által alkotott RAID esetében a lemez még éppen tudható. A RAID lényege, hogy több merevlemezre kerülnek az adatok, de úgy, hogy minden egyes adat két merevlemezen is ott van. Így ha valamelyik kiesik, miután kicserélték — ma már kötelezően kikapcsolás nélkül —, a tartalmát a többiből helyre lehet állítani, össze lehet szedni. Az egyszerű, kiszolgálóhoz épített RAID adattároló tömb elsősorban a kis és közepes kiszolgálók háttértáraként használatos. Nagyobb adattömeg tárolására már saját vezérlő számítógéppel felszerelt, tucatnyi vagy még több merevlemezt tartalmazó szekrényeket használnak. Ezekben is elfogadott a RAID, de már alárendelve egy magasabb szintű szervezésnek. Ebbe a kategóriába sorolhatjuk például az IBM Enterprise Storage Servert, a Sharkot és az EMC Symmetrixet. Közülük a Shark azért is érdekes termék, mert Magyarországon, Vácott gyártatja az IBM a Zollner Elektronik Kft.-vel. A Shark maximális nettó kapacitása huszonkét terabájt, évente négy-ötezer darab készül belőle. A sokféle RAID technika közül a RAID 5-tel dolgozik, vagyis minden adatot valamelyik, nyolc merevlemezből álló egységének lemezein teríti szét a vezérlő. Minden lemeznyolcason belül van egy kitüntetett lemez, amelyre a visszaállítást segítő ellenőrző összegek kerülnek. A RAID 5 előnye, hogy minden lemeznyolcasban az olvasófejek mozgása szinkronizálva van, így az egy adathoz tartozó szétterített egységek nagyon gyorsan, egyszerre, egy pozicionálással olvashatók be.
Annak, hogy a merevlemezeket ki lehessen venni a kiszolgálóból, és egy külön dobozban lehessen elhelyezni — mert végül is erről van szó —, két feltétele van. Az egyik, hogy a kiszolgáló és az adattároló doboz között legalább olyan gyors legyen az adatáramlás, mint amikor egy processzor közvetlenül az alaplapon, illetve az abba illesztett vezérlőkártyán keresztül fordul a merevlemezhez. A másik egy közvetítő berendezés, amely a doboz tárolókapacitását meg tudja osztani a hálózatban különféle kiszolgálókon futó alkalmazások között. (Elképzelhető ugyan, hogy egyetlen integrált ügyviteli rendszer, egy SAP vagy egy Movex, netán egy Scala egymagában megtölt adatokkal egy néhány terabájtos IBM Sharkot, de azért nem ez a tipikus.) Vagyis egy kapcsológép. Így áll elő a SAN, a Storage Area Network, vagyis tárolótömb-hálózat. Ebben a nagy Unix kiszolgálók, amelyeken a hatalmas adatbázisokat kezelő programok futnak, igen gyors közvetlen üvegszálas összeköttetésben vannak egy kapcsológéppel, és az az adattárral vagy adattárakkal. Ez az úgynevezett FibreChannel. A kiszolgáló nem adatállományt ír ki az adattárba, és nem is úgy olvas, hanem közvetlenül kezel blokkokat, adatbázislapokat. Amikor nagyon sok adattal kell dolgozni és nagyon gyorsan, mint például a telefontársaságok számlázási rendszereiben, ahol sok ezer beszélgetést könyvelnek egy időben, ott van jelentősége a SAN-nak.
A korszerű adatbázisok ugyanis lapokkal dolgoznak, nem rekordokkal. Bekéri a program a SAN-tól a lapot a rekorddal, amellyel dolga van, az bekerül a központi memóriába, és ott lehet belőle olvasni vagy módosítani. Ha szerencséje van a programnak, egyszerre vagy egymásután több kezelendő rekord — több előfizető adatsora — is rajta van ugyanazon a lapon, ha nincs, akkor villámgyorsan vissza kell írni a lemezre, és elővenni egy másikat. Az üvegszálas átviteli csatorna, a FibreChannel azért jó, mert az egész lapot nagyon gyorsan át lehet zúdítani egyik helyről a másikra, a SAN-ról az adatbázis-kiszolgálóra és vissza. A SAN egyszerre sok kérést tud teljesíteni, a vele üvegszálon összekapcsolt kiszolgálók ezért is tudják megosztani egymás között.
Más a helyzet a NAS, a Network Attached Storage esetében. Az ugyanis egy állománykiszolgáló, amely Windows-alkalmazásoktól fogad adatállományokat, illetve adja ki őket nekik. Teszi pedig mindezt a helyi hálózaton, nem pedig egy kitüntetett üvegszálason. Miután a gyors működés érdekében a Windows-alkalmazások mindegyikét érdemes külön hardverre telepíteni, és mindegyiknek szüksége van adattárra, minden szervezetnél gyorsan elszaporodnak a külön RAID rendszerekkel ellátott, jó nagy tartalék kapacitással felszerelt kiszolgálók, amelyeknél ráadásul még külön-külön kell gondoskodni a mentésekről is. Ha viszont az alkalmazáskiszolgálókról levesszük, és összegyűjtjük a lemezeket egy NAS-ban, akkor kisebb tartalék kapacitás is elég — kevesebb pénzt kell üres merevlemezekbe fektetni, és az adatmentés is leegyszerűsödik.
Nagyobb cégnél a SAN-t igénylő integrált ügyviteli rendszer, ügyfélnyilvántartás mellett lehetnek még kis kiszolgálók is, egy világháló-állomás, egy villámlevél-kezelő postahivatal, egy irattár. Ezekben úgy szokás gazdálkodni a merevlemezekkel, hogy sose teljenek be, az ugyanis katasztrófához vezethet. Ahány rendszer, annyi tartalék tárolókapacitás. Az adattárakat érdemes lehet konszolidálni, kiváltani az amúgy is meglévő SAN-nal. Ennek megvalósítását szolgálják a Janus-arcú NAS-átjárók, amelyek a kisebb alkalmazás felé állománykiszolgálóként jelennek meg, de a másik oldalon egy üvegszálon gyorsan továbblökik az adatállományt a SAN-nak. Úgy használják, mintha a saját beépített merevlemezük lenne.
Úgy is gondolkodhatunk, hogy nem megszüntetjük, hanem a NAS-ra kötjük a kisebb-nagyobb adatkiszolgálókat. Egy közepes vállalatnál is már tucatjával lehetnek adatállomány-kiszolgálók. Ha ezeket összeadjuk, akár sok száz gigabájtot is elérhet az a kapacitás, amit megvásárolt a cég, mert egyszer valamikor szükség lesz rá. Ráadásul ahány kiszolgáló, annyi külön-külön mentési-visszatöltési feladat. Ha viszont valamennyi adattárat — fizikailag ott hagyva a helyén — kivonnak a kiszolgáló közvetlen hatásköréből, és a NAS szoftver felügyelete alá helyezik, a kiszolgálót viszont a NAS-hoz utasítják, hogy ott keresse az adatállományokat, akkor a tartalék kapacitások összegeződnek, és a mentések is vezérelhetők, elvégezhetők egy központi helyről. Egy önálló NAS-kiszolgáló beállításával beindítható az informatikai rendszer háttértárolóinak konszolidációja. Első lépésként megvalósítható a központi kapacitásgazdálkodás, amikor az egyik helyen betelik az összes merevlemez, az adatállományt még mindig le lehet tenni valahol máshol a hálózatban. Amire pedig már valóban időszerűvé válik a bővítés, végig lehet gondolni, hogy hol, melyik rendszerre érdemes új merevlemezt rátenni, illetve ha olyan a helyzet, egy SAN beszerzésével megkezdődhet a fizikai szintű konszolidáció.
Nem mindig vagyunk azonban olyan szerencsések, hogy az adatokat közvetlenül használja fel ugyanaz a program, egyetlen kiszolgálóról. Mert ott van például az internet, az e-business, a virtuális tér, ahol sok százezer számítógépen futó milliónyi program és sok százezer merevlemezen tárolt trilliónyi adat között jönnek létre alkalmi kapcsolatok. De nem kell ennyire nagy számokkal dobálózni, egy intraneten belül is nagyon sokféle igényt kell kiszolgálni, egyre több és egyre nagyobb adattárból. Az esetek többségében megfizethetetlen, hogy minden egyes munkaállomás közvetlenül, csak erre szolgáló üvegszálas hálózaton kapcsolódjon a merevlemezekhez. Az viszont már járható út, hogy beállítunk az Ethernet hálózatba egy-két SAN-t, és rájuk alapozva kiépítünk egy NAS-t. A NAS-kiszolgáló fogadja, lemezszintre lefordítja, és nyalábolja az adatokra vonatkozó igényeket, majd az üvegszálas kapcsolatot kihasználva egyszerre sok kérést továbbít a SAN-hoz, ahonnan hasonló módon kötegelve kapja a válaszokat. Szétbontja őket, és ahogy jött, már megy is a válasz mindenkinek: kinek az intraneten, kinek az interneten. Sean Derrington, a Meta Group szakértője a NAS és a SAN konvergenciájának jó esélyeit taglaló tanulmányában úgy vélekedik, hogy öt éven belül megszűnik a kettő közötti különbségtétel, mert kialakul egy kombinált tárolóarchitektúra. 2005-ben szerinte már a több kiszolgálóval kapcsolatot tartani képes hálózati tárolók négyötöde bonyolít majd blokkszintű adatforgalmat (SAN-osodik), és mindössze egyötödük marad adatállomány-szintű.
Elsőként az EMC kombinálta a NAS-elérést (adatállomány-kezelés) a SAN-nal (blokkolt adatátvitel) a HighRoadban. De biztos jövő áll az IBM és a Cisco közösen kidolgozott új megoldása, az iSCSI előtt is. Ezt a FibreChannel kiváltására ajánlják a SAN-hoz. A lényege az, hogy internetes IP-protokoll szerinti adatcsomagokban visz át adatokat a tárolórendszer és a kiszolgálók között, a gigabit/másodperc sebességű Ethernet gerinchálózaton. Gigabit Ethernet gerincet előbb-utóbb mindenütt kiépítenek, és miután a gerinchálózatbeli berendezések, a kiszolgálókba való adapterkártyák sokcélúak, nemcsak adattárolásra valók, mint a FibreChannel üvegszálhálózata, egy iSCSI-s SAN-megoldás olcsóbb lehet, mint a hagyományos. Ráadásul a műhelyekben már készülnek, és talán már ebben az évben, de jövőre biztosan piacra kerülnek a nagy gyártóknál — például a 3Comnál — a 10 gigabit/másodperc sebességű Ethernet hálózati berendezések is, melyekkel iSCSI alkalmazásával a maihoz képest is megsokszorozható az adatátviteli sebesség a kiszolgálók és az adattárak között.
Az Ethernet hálózatbeli adatátvitel gyorsulása más adattároló-gyártók figyelmét is felkeltette, és az iSCSI mellett számos egyéb javaslat is van — egyelőre elfogadott standard még nincs —, köztük az FCIP, az iFCP, és a SoIP. Az FCIP Fibre Channel over IP, vagyis IP-vel szimulált üvegszál, az iFCP hasonló, csak a feloldása internet Fibre Channel Protocol, a SoIP pedig Storage over IP, vagyis IP-s adattárolás. Ezek azonban adatátviteli megoldások, a sebesség szempontjából fontosak, a digitális adatok megsokszorozódása miatti problémák leküzdése szempontjából viszont az adatkezelés szervezése a lényeges.
A fejlődés az adattárolás virtualizálódása irányába mutat. Egyre bonyolultabban szervezett, egyre nagyobb tárkapacitást kínáló, az adatvesztés esélyét egyre inkább a nullához közelítő megoldások alakulnak ki, eltűnik a közvetlen kapcsolat adat, adatállomány és merevlemez között: minden pusztába kiáltott szó, az internetre tárolási céllal bedobott adat visszhangra lel, bármikor visszakérhető.
A tárolás virtualizálása nem új találmány. Már húsz évvel ezelőtt virtuális mágneslemezekkel dolgoztak a nagy IBM számítógépek felhasználói, és egyes RAID vezérlőkártyákkal akár a lemezkötegben lévő merevlemezeknél nagyobb, sőt gyorsabban olvasható-írható logikai kötetet is ki lehet alakítani (Veritas Volume Manager). Ezek azonban homogén megoldások, és a virtuális adattárolás mai ígéretének tárgya a heterogén intraneten, illetve az interneten keresztül bárhonnan elérhető tár. Ami viszont csak akkor fog széles körben elterjedhetni, ha kialakulnak hozzá a minden gyártó által elfogadott szabványok. Ha elterjed, alapjaiban alakíthatja át a tárolási politikát. Lehetővé válik az adattárkapacitás-bérlet, ami az alkalmazások változását is maga után vonhatja. Az előnyök között ugyanis csak egy az, hogy nem kell mágneslemezeket vásárolni, felesleges kapacitásokat tartani tartalékban. Mentésről-visszatöltésről, műszaki ügyeletről sem kell többé gondoskodni, és az eltett anyagok integritásáért, a vírusfertőzés megakadályozásáért is a társzolgáltató felel majd.
Például az EMC TimeFinder egy olyan adattárolási megoldás, amely a háttérben működve hoz létre információtárolásra egymástól függetlenül címezhető úgynevezett Business Continuance Volumes (BCV) üzleti folytatás köteteket nagyszámítógépes, Unix vagy Windows környezetben.
A virtualizáció sokféle háttérmegoldást is igényel. Ezek egyike az olyan — már ma is létező — adatmentő szoftver, amely az alkalmazás működése közben, leállítás nélkül is képes átírni mágnesszalagra az adatokat. A Tivoli Storage Manager egyik ügynöke, a Tivoli Data Protection (TDP) for ESS rendszeresen menti az adattár tartalmát, de úgy, hogy annak tartalma eközben folyamatosan használható. A „mentés közben a munka zavartalanul folyik” megoldás az IBM ESS vállalati adattár egyik másoló szolgáltatását, a gyorsmásolót dolgoztatja. A FlashCopy néhány másodperc alatt sok száz gigabájtnyi adattömbről készít másolatot a SAN-on belül. Akár parancssorból is indítható. A leállás nélküli mentéshez tehát úgy konfigurálják rendszert, hogy két önálló csoport alakuljon ki, melyek egy SAN környezeten belül osztoznak az ESS mágneslemezein. A külvilág az ESS-kötetek egyik csoportját használja, miközben a mentőszoftver a többiből olvassa, és teszi át a mágnesszalag-kazettás tárolóra a TDP által korábban átpakolt adatokat. Mialatt a másolás, majd a kiolvasás és átadás zajlik, a tárolóhelyek mind írásra, mind olvasásra gyakorlatilag folyamatosan elérhetők. A mentés végeztével az átmeneti tárként használt kötetek felszabadulnak, és ismét használhatóvá válnak egy újabb gyorsmásoláshoz. Az egész mentési eljárást a TDP for ESS eljárás felügyeli. A Tivoli Data Protection programok zökkenőmentes kapcsolatot biztosítanak az e-business
Kitüntette az Oroszország oldalán harcoló katonákat Kim Dzsong Un
