Érdekes, hogy nemcsak Magyarországon okoz gondot a vállalatoknak a kiszolgálópark áttekinthetőségének csökkenése, ahol pedig a rendszerek alulról fölfelé, a Commodore-tól jutottak el a nagy teljesítményű kiszolgálókig. A Gartner által megfigyelt nagy cégek Amerikában, Kanadában és Nyugat-Európában már vagy öt éve foglalkoznak azzal, hogy sok kis számítógépről egy nagyra tegyék át amit csak lehet. Egy tavalyi felmérés azt mutatta, hogy a Gartner ügyfeleinek harminc százaléka már vagy túl van rajta, vagy nyakig benne van a konszolidációban, negyvenöt százalékuk fontolgatja, és csak minden negyedikük nem látja szükségét. Ebbe persze olyan nagyszámítógépes adatközpontok is beleszámoltattak, ahol már vagy tíz éve folyamatos gyakorlat a konszolidáció, de azért a mostani hullám már elérte a különféle Unix-változatokat, a Novell NetWare és a Linux, sőt a VMS és az OS/400 operációs rendszert is. Vannak helyek, ahol párhuzamosan zajlik az osztott számítástechnikai megoldások bevezetése és a konszolidáció. Sok a kísérletezés, egyelőre nincsenek kiforrott megoldások, az informatikusok biztonságra törekszenek: ha egy alkalmazás működése kritikussá válik a cég szempontjából, akkor konszolidálják, átteszik a lehető legmegbízhatóbb, legjobban felügyelt környezetbe. No de mi is az, hogy a konszolidáció?
Sokféle projektre használják ezt a címkét. Szakértők három fő fajtáját különböztetik meg: van logikai, fizikai és racionalizáló konszolidáció. A logikai konszolidáció esetében a hardver marad a helyén, a cél közös folyamatok kialakítása, és a standard rendszerfelügyelő eszközök, eljárások bevezetése. A fizikai konszolidáció már a kiszolgálók egy-két helyre való átcsoportosításával jár, és végül a racionalizáció célja olyan kevésre leszorítani a kiszolgálók számát, amilyen kevésre csak lehet. Ebben az esetben, mivel ugyanarra a hardverre zsúfolják össze az alkalmazásokat, szükség van az erőforrások rugalmas megosztására, particionálására, valamint automatikus terheléselosztásra.
Mindenféle konszolidáció előnyeként tartják nyilván a megtakarításokat, amelyek jelentkezhetnek a hálózati, működtetési költségekben és a beruházás gyorsabb megtérülésében, nem is szólva a felhasználó életének könnyebbé tételéről. Nem szabad azonban elhallgatni, hogy kockázatai is vannak a folyamatnak. Minél nagyobb a változás, annál nagyobb a kockázat. Lehet, hogy a költségszámítások szerint érdemes egyetlen rendszert állítani sok kisebb helyébe, de mi történik, ha elvétik az üzembe helyezést? A Gartner szakértői óvatosságot és inkább lépésről lépésre történő megvalósítást ajánlanak.
Számos formát ölt a konszolidáció, a logikai és a fizikai megoldás kisebb kockázattal jár, mint a racionalizáció, viszont a haszna is kisebb. A tavalyi év fejleménye, hogy a particionálás és a terhelésmegosztás — ami előfeltétele annak, hogy sok különálló Unix kiszolgáló helyett egyetlen masinát lehessen beállítani — megjelent a Unix rendszerekben, az elsők között a HP a SuperDome-ban. Microsoft operációs rendszerhez egyelőre ígéretek vannak, a Unisys az ES7000-hez dolgozik egy Windows 2000 particionáláson, illetve a Hewlett-Packard ígéri 2003-ra a particionálható, Windows XP, valamint DotNet operációs rendszerrel dolgozni képes, hatvannégy bites Intel processzoros SuperDome-ot.
Idetartozik az adattárolás konszolidációja is, amit a SAN and NAS hálózati adattármegoldás kínál. A hálózati tárolással úgy tízszerezhető meg az áttekinthetően tárolt adatmennyiség, hogy az emberi felügyeletet nem kell növelni hozzá. Mivel a telepített adattárolási kapacitás évente akár meg is duplázódhat, a cégek a hálózati adattárolási megoldásokkal igyekeznek elkerülni a létszámnövekedést. Ez oda vezethet a Gartner kutatásai szerint, hogy a külső — vagyis nem közvetlenül a kiszolgálóban megvalósított — tárolásban a hálózati megoldások aránya 2004-re eléri a nyolcvan százalékot. A HP — másokkal együtt — a fizikai konszolidáció érdekes megoldását kínálja a pengevékony masinákkal, melyekből jó sokat be lehet zsúfolni egy keretbe.
A particionálás két megoldása között komoly különbség a dinamikus átkonfigurálás lehetősége, illetve hiánya, vagyis az, hogy átparticionáláshoz le kell-e állítani a programokat, ki kell-e kapcsolni a gépet vagy sem. A dinamikus megoldáshoz komoly hardver- és szoftverkapacitásra van szükség, hiszen valahol meg kell őrizni az átalakított rendszerben tovább dolgozó programokat és állapotukat.
Izgalmas tevékenységet végeznek a terhelésmegosztó, felügyelő megoldások. Egy időben több programot futtatnak, mint amenynyi egyszerre elfér a gépben, és a terhelésmegosztás feladata, hogy az előre megadott prioritások figyelembevételével minden taszknak, minden alkalmazásnak biztosítson annyi erőforrást, számítási kapacitást, amennyi a megfelelő szolgáltatási szint eléréséhez szükséges. A nehézséget az adja, hogy a terhelésmegosztási stratégiát mindig az éppen futó programokhoz és igényeikhez kell szabni, ráadásul bármikor befuthat egy olyan program, amely magas prioritásával felborítja a kialakult kényes egyensúlyt.
A kínos baki után több balos mérőcég is elárulta: átverték az embereket
