Podczas Business Sync Hub Jacek Dobrowolski, dyrektor działu FinOps, Monitoring & AI w Cloudware Polska oraz Wojciech Cieślak, FinOps & Monitoring Consultant, opowiedzieli o tym, czym w praktyce jest „mądre IT”. Wbrew obiegowej opinii nie chodzi o kolejne narzędzie albo cięcie budżetów, ale o poukładany sposób zarządzania zasobami, który pozwala jednocześnie utrzymać stabilność aplikacji i realnie obniżyć koszty.
Skąd biorą się niepotrzebne koszty w infrastrukturze
Wojciech zaczął od obrazu dobrze znanego każdemu zespołowi IT. Firma rośnie, pojawiają się nowe aplikacje, środowiska i wdrożenia, a zespoły operacyjne… zwykle pozostają w tym samym składzie. Gdy przychodzi zgłoszenie: „potrzebujemy infrastruktury pod system X”, administrator często wie tylko tyle, że ma to być np. Linux. O tym, ile CPU, RAM czy jakiej klasy zasobów potrzeba, decyduje „na czuja”.
W praktyce zwykle wygrywa podejście „na zapas”: lepiej dać więcej, żeby nie było awarii, niż za mało i ryzykować problemy. To działa doraźnie, ale w dłuższej perspektywie prowadzi do marnowania zasobów i szybkiej rozbudowy infrastruktury – zarówno on‑premise, jak i w chmurze. Optymalizacja kosztów pojawia się dopiero wtedy, gdy zarząd pyta, dlaczego znów trzeba kupować kolejne serwery lub podnosić budżet na chmurę. Z drugiej strony, jeśli aplikacja zacznie obsługiwać większy niż zakładany ruch, nawet to „na zapas” może okazać się niewystarczające – pojawia się wtedy ryzyko braku zasobów, spadków wydajności i realnych awarii.
Jacek podkreślił, że w polskich organizacjach wciąż dominuje infrastruktura on‑premise, chmura częściej pojawia się w firmach mniejszych, międzynarodowych lub mniej regulowanych. Niezależnie od modelu, problem jest ten sam: brak systematycznego podejścia do przydzielania zasobów.
Application Resource Management: brakujące ogniwo między monitoringiem a kosztami
Odpowiedzią na ten chaos są rozwiązania klasy Application Resource Management (ARM). Jacek zwrócił uwagę na unikatowe w tym obszarze rozwiązania IBM, które Cloudware wykorzystuje w projektach klientów. ARM nie zastępuje monitoringu, ale idzie krok dalej.
Wojciech wyjaśnił różnicę: klasyczny monitoring zbiera metryki, ale to człowiek musi z nich wyciągnąć wnioski. ARM:
- integruje wiele warstw środowiska (aplikacje, bazy danych, wirtualizatory, Kubernetes, chmura publiczna i prywatna),
- tłumaczy dane na „uniwersalny język” do analizy,
- rekomenduje konkretne zmiany w przydziale zasobów, aby osiągnąć optymalny punkt: ani za dużo, ani za mało.
ARM łączy się też z narzędziami APM, które mierzą czasy odpowiedzi i zachowanie transakcji. Dzięki temu może proponować zmiany w infrastrukturze tak, aby aplikacja działała płynnie, bez kosztownego przewymiarowania.
Najczęstsze działania to:
- dodawanie lub odejmowanie CPU i RAM,
- lepsze rozmieszczenie maszyn wirtualnych na wirtualizatorach,
- korekta limitów i requestów w Kubernetes dla CPU i pamięci.
Co ważne, system potrafi nie tylko zaproponować zmiany, ale również przewidzieć ich efekt, np. jak zmieni się czas przetwarzania transakcji czy obciążenie środowiska.
Automatyzacja na miarę organizacji
Automatyzacja w ARM może być dopasowana do dojrzałości i komfortu zespołu:
- tryb tylko rekomendacyjny – system podpowiada, co warto zmienić, ale niczego nie robi sam,
- tryb z akceptacją – rekomendacje zamieniają się w akcje po zatwierdzeniu przez administratora,
- tryb automatyczny – działania wykonywane są zgodnie z ustalonymi politykami i harmonogramem.
Można też sprawić, by wybrane zmiany wykonywały się wyłącznie w oknach serwisowych, np. w nocy, dzięki czemu minimalizuje się ryzyko wpływu na pracę użytkowników. To szczególnie ważne w środowiskach o wysokiej dostępności.
Twarde liczby: ile można zaoszczędzić
Jacek podał bardzo konkretne przykłady z projektów:
- dla środowiska obejmującego ok. 1000 maszyn wirtualnych udało się „odzyskać” nawet 7 TB pamięci RAM,
- wdrożenie już 20% rekomendacji ARM przełożyło się na oszczędności rzędu kilkuset tysięcy złotych na CPU i RAM,
- dodatkowe oszczędności wynikały z optymalizacji licencji, szczególnie tych zależnych od liczby rdzeni i instancji.
To nie tylko mniej wydanych pieniędzy na sprzęt i oprogramowanie, ale też lepsza wydajność aplikacji i mniej przestojów. W zależności od skali środowiska i typu aplikacji, mówimy tu o oszczędnościach od tysięcy do milionów złotych.
Mądre przejście do chmury
Wojciech zwrócił uwagę, że ARM świetnie sprawdza się również w kontekście migracji do chmury. Jeśli przed migracją zoptymalizujemy zasoby on‑premise i na tej podstawie dobierzemy parametry instancji w chmurze, można:
- uniknąć „kopiowania” nadmiarowości do chmury,
- realnie obniżyć koszty chmurowe nawet o 30%,
- lepiej zaplanować budżet i negocjować warunki z dostawcą chmury.
Przy większej skali – setkach czy tysiącach instancji – przekłada się to na kwoty liczone w milionach.
Od „worka bez dna” do mądrego IT
Na koniec Jacek podkreślił, że najważniejsze są trzy rzeczy:
- Świadomość: dostrzeżenie, że zasoby nie są „stałe” i trzeba je optymalizować.
- Plan: uporządkowane podejście, rola zespołów, ustalone polityki, jasne cele.
- Narzędzia: takie jak ARM, które pozwalają przejść od ręcznych decyzji i „przeczuć” do ciągłej, zautomatyzowanej optymalizacji.
Wtedy IT przestaje być „workiem bez dna”, a staje się partnerem biznesu, który potrafi pokazać konkretne liczby: ile zaoszczędziliśmy, gdzie poprawiliśmy wydajność, jak zmniejszyliśmy ryzyko awarii.


