Nie stać nas na nieefektywne zużycie energii

Data: 05-05-2013 r.

Wyzwaniem dla administratorów budynków i centrów danych w Polsce jest optymalizacja nieefektywnego (nadmiarowego) zużycia energii. Przez zastosowanie zautomatyzowanych systemów można sterować zużyciem energii w taki sposób, że kiedy nie będzie potrzebna klimatyzacja i oświetlenie w danym pomieszczeniu, to system automatycznie wyłączy lub ograniczy dopływ energii.

W skali miesiąca i lat, oszczędności z użycia takich rozwiązań będą znaczące – zarówno w wymiarze finansowym, jak i pod względem zmniejszania emisji CO2.

Warto podkreślić, że wydatki na energię elektryczną często stanowią największą część bieżących kosztów funkcjonowania lokalnej serwerowi – zauważa Maciej Sobiepanek, menedżer Windows Azure w Microsoft Polska.

Redukcja liczby maszyn

W większości firm pobór mocy przez urządzenia IT jest największy w godz. 8–17. Wieczory, noce, weekendy i święta to okresy mniejszego poboru przez serwery i urządzenia klimatyzacyjne. Różnica w poborze energii, w okresie wzmożonego użycia infrastruktury teleinformatycznej a okresem czuwania, może przekroczyć 50 proc. – przetwarzanie danych w sektorze bankowym, który następuje przeważnie w nocy, jest tego przykładem.

Znawcy rynku teleinformatycznego podkreślają, że w 2013 r. znacznie wzrośnie zapotrzebowanie na konsolidację zasobów IT i wirtualizację.

Średnie wykorzystanie mocy obliczeniowej serwera pełniącego wyłącznie jedną funkcję wynosi kilkanaście procent w ciągu roku. Jego wydajność jest jednak tak wyskalowana, by w przypadku największego obciążenia, które pojawia się kilka razy w roku, był on w stanie skutecznie zrealizować zadanie – objaśnia Maciej Sobiepanek.

Konsolidacja zasobów IT i wirtualizacja pozwalają rozwiązać ten problem. Zmiana polega na redukcji liczby serwerów, przez „dociążenie” ich aplikacjami z innych maszyn. Mówiąc w sposób zrozumiały dla osób nie zajmujących się IT na co dzień – redukując liczbę fizycznych serwerów i konsolidując ich pracę sprawiamy, że nasze serwery przestają się „nudzić” – tłumaczy.

 

Z kolei zdaniem Andrzeja Miłosza, dyrektora działu rozwiązań systemowych w Asseco Business Solutions, wirtualizacja serwerów stała się już standardem, zwłaszcza dla wdrożeń nowych i migracji dotychczas eksploatowanych rozwiązań do nowej infrastruktury. Odrębnym nurtem wirtualizacji jest partycjonowanie sprzętu serwerowego, tak by obsługiwał kilka rozwiązań systemowych naraz – dodaje Miłosz.

Konsolidacja środowiska IT i wirtualizacja zasobów sprawiają, że IT działa szybciej i sprawniej niż jeszcze kilka lat temu. Im większa firma, i im więcej serwerów, tym oszczędności są większe. Sam rodzaj serwerów jest również istotny. Urządzenia nowej generacji mają coraz większą moc obliczeniową, a zajmują mniej miejsca i pobierają mniej mocy – podkreśla Leszek Hołda.

Wzrost zachmurzenia

Konsolidacja zasobów IT i wirtualizacja napędzają koniunkturę na usługi oferowane z chmur obliczeniowych (cloud computing), które w 2013 r. będą najszybciej rosnącym segmentem rynku IT.

Firmy najpierw odkryły, że dzięki grupowaniu zasobów w pule, a następnie dynamicznemu ich przydzielaniu i zwalnianiu, w zależności od bieżącego zapotrzebowania – można skuteczniej wykorzystać posiadane zasoby. Niedługo potem zaczęły być kuszone propozycją przeniesienia tych zasobów do chmury obliczeniowej zewnętrznego usługodawcy. Wirtualizacja pozwoliła firmom szybko ograniczyć wydatki na sprzęt. Kiedy ten proces zaczął się kończyć dostawcy zaproponowali im optymalizację IT, w postaci udostępniania potrzebnych systemów, aplikacji i mocy obliczeniowych „od ręki”, w ustalonym czasie.

Co z przyrostem danych?

Według raportu IDC w 2011 r. rozmiar „cyfrowego wszechświata” przekroczył 1,8 zetabajta (1 ZB to 1021 bajtów), a już w 2016 r. osiągnie astronomiczny poziom 8 ZB. W sytuacji, gdy coraz więcej firm ma dostęp do tera– lub petabajtów informacji, zwykłe rozwiązania bazujące na hurtowniach danych przestają być efektywne. Z tego powodu na rynku pojawiła się nowa kategoria produktów i usług IT, określana mianem Big Data.

Pod tym terminem kryją się konkretne rozwiązania technologiczne. Systemy, które do niedawna wykorzystywane były wewnętrznie przez wąskie grono wyspecjalizowanych instytucji, teraz znalazły się w centrum uwagi firm z wielu segmentów rynku – od branży internetowej, przez sektor finansowy, aż po przemysł wydobywczy. Przetwarzanie, a także samo przesyłanie z miejsca na miejsce, tak ogromnych ilości danych, to duże wyzwanie – wyjaśnia Michał Żyliński, menedżer Windows Azure w Microsoft Polska.

Krzysztof Polak


Zobacz także:


Tagi: komputer

Zaloguj się, aby dodać komentarz

Nie masz konta? Zarejestruj się »

Zobacz także

Pięć pytań o ewidencję w BDO – poznaj odpowiedzi!

pobierz

Odpady opakowaniowe po środkach niebezpiecznych – jak je rozróżnić

pobierz

Nowe zasady dotyczące magazynowania odpadów

pobierz

Obowiązujące zasady audytu środowiskowego

pobierz

Polecane artykuły

Array ( [docId] => 24573 )
Array ( [docId] => 24573 )