Sok kicsi vagy egy nagy?

–
2002. 01. 28. 0:00
VéleményhírlevélJobban mondva - heti véleményhírlevél - ahol a hét kiemelt témáihoz fűzött személyes gondolatok összeérnek, részletek itt.

Érdekes, hogy nemcsak Magyarországon okoz gondot a vállalatoknak a kiszolgálópark áttekinthetőségének csökkenése, ahol pedig a rendszerek alulról fölfelé, a Commodore-tól jutottak el a nagy teljesítményű kiszolgálókig. A Gartner által megfigyelt nagy cégek Amerikában, Kanadában és Nyugat-Európában már vagy öt éve foglalkoznak azzal, hogy sok kis számítógépről egy nagyra tegyék át amit csak lehet. Egy tavalyi felmérés azt mutatta, hogy a Gartner ügyfeleinek harminc százaléka már vagy túl van rajta, vagy nyakig benne van a konszolidációban, negyvenöt százalékuk fontolgatja, és csak minden negyedikük nem látja szükségét. Ebbe persze olyan nagyszámítógépes adatközpontok is beleszámoltattak, ahol már vagy tíz éve folyamatos gyakorlat a konszolidáció, de azért a mostani hullám már elérte a különféle Unix-változatokat, a Novell NetWare és a Linux, sőt a VMS és az OS/400 operációs rendszert is. Vannak helyek, ahol párhuzamosan zajlik az osztott számítástechnikai megoldások bevezetése és a konszolidáció. Sok a kísérletezés, egyelőre nincsenek kiforrott megoldások, az informatikusok biztonságra törekszenek: ha egy alkalmazás működése kritikussá válik a cég szempontjából, akkor konszolidálják, átteszik a lehető legmegbízhatóbb, legjobban felügyelt környezetbe. No de mi is az, hogy a konszolidáció?
Sokféle projektre használják ezt a címkét. Szakértők három fő fajtáját különböztetik meg: van logikai, fizikai és racionalizáló konszolidáció. A logikai konszolidáció esetében a hardver marad a helyén, a cél közös folyamatok kialakítása, és a standard rendszerfelügyelő eszközök, eljárások bevezetése. A fizikai konszolidáció már a kiszolgálók egy-két helyre való átcsoportosításával jár, és végül a racionalizáció célja olyan kevésre leszorítani a kiszolgálók számát, amilyen kevésre csak lehet. Ebben az esetben, mivel ugyanarra a hardverre zsúfolják össze az alkalmazásokat, szükség van az erőforrások rugalmas megosztására, particionálására, valamint automatikus terheléselosztásra.
Mindenféle konszolidáció előnyeként tartják nyilván a megtakarításokat, amelyek jelentkezhetnek a hálózati, működtetési költségekben és a beruházás gyorsabb megtérülésében, nem is szólva a felhasználó életének könnyebbé tételéről. Nem szabad azonban elhallgatni, hogy kockázatai is vannak a folyamatnak. Minél nagyobb a változás, annál nagyobb a kockázat. Lehet, hogy a költségszámítások szerint érdemes egyetlen rendszert állítani sok kisebb helyébe, de mi történik, ha elvétik az üzembe helyezést? A Gartner szakértői óvatosságot és inkább lépésről lépésre történő megvalósítást ajánlanak.
Számos formát ölt a konszolidáció, a logikai és a fizikai megoldás kisebb kockázattal jár, mint a racionalizáció, viszont a haszna is kisebb. A tavalyi év fejleménye, hogy a particionálás és a terhelésmegosztás — ami előfeltétele annak, hogy sok különálló Unix kiszolgáló helyett egyetlen masinát lehessen beállítani — megjelent a Unix rendszerekben, az elsők között a HP a SuperDome-ban. Microsoft operációs rendszerhez egyelőre ígéretek vannak, a Unisys az ES7000-hez dolgozik egy Windows 2000 particionáláson, illetve a Hewlett-Packard ígéri 2003-ra a particionálható, Windows XP, valamint DotNet operációs rendszerrel dolgozni képes, hatvannégy bites Intel processzoros SuperDome-ot.
Idetartozik az adattárolás konszolidációja is, amit a SAN and NAS hálózati adattármegoldás kínál. A hálózati tárolással úgy tízszerezhető meg az áttekinthetően tárolt adatmennyiség, hogy az emberi felügyeletet nem kell növelni hozzá. Mivel a telepített adattárolási kapacitás évente akár meg is duplázódhat, a cégek a hálózati adattárolási megoldásokkal igyekeznek elkerülni a létszámnövekedést. Ez oda vezethet a Gartner kutatásai szerint, hogy a külső — vagyis nem közvetlenül a kiszolgálóban megvalósított — tárolásban a hálózati megoldások aránya 2004-re eléri a nyolcvan százalékot. A HP — másokkal együtt — a fizikai konszolidáció érdekes megoldását kínálja a pengevékony masinákkal, melyekből jó sokat be lehet zsúfolni egy keretbe.
A particionálás két megoldása között komoly különbség a dinamikus átkonfigurálás lehetősége, illetve hiánya, vagyis az, hogy átparticionáláshoz le kell-e állítani a programokat, ki kell-e kapcsolni a gépet vagy sem. A dinamikus megoldáshoz komoly hardver- és szoftverkapacitásra van szükség, hiszen valahol meg kell őrizni az átalakított rendszerben tovább dolgozó programokat és állapotukat.
Izgalmas tevékenységet végeznek a terhelésmegosztó, felügyelő megoldások. Egy időben több programot futtatnak, mint amenynyi egyszerre elfér a gépben, és a terhelésmegosztás feladata, hogy az előre megadott prioritások figyelembevételével minden taszknak, minden alkalmazásnak biztosítson annyi erőforrást, számítási kapacitást, amennyi a megfelelő szolgáltatási szint eléréséhez szükséges. A nehézséget az adja, hogy a terhelésmegosztási stratégiát mindig az éppen futó programokhoz és igényeikhez kell szabni, ráadásul bármikor befuthat egy olyan program, amely magas prioritásával felborítja a kialakult kényes egyensúlyt.

Ne maradjon le a Magyar Nemzet legjobb írásairól, olvassa őket minden nap!

Google News
A legfrissebb hírekért kövess minket az Magyar Nemzet Google News oldalán is!

Portfóliónk minőségi tartalmat jelent minden olvasó számára. Egyedülálló elérést, országos lefedettséget és változatos megjelenési lehetőséget biztosít. Folyamatosan keressük az új irányokat és fejlődési lehetőségeket. Ez jövőnk záloga.