Mówi Pan, że 2026 r. będzie punktem zwrotnym dla IT. Co się zmieni?
Firmy zmniejszają tempo i zaczynają patrzeć na technologię przez pryzmat odporności operacyjnej. Po okresie szybkiej ekspansji i wdrażania trendów „bo rynek tak robi”, rośnie nacisk na bezpieczeństwo, stabilność oraz faktyczną kontrolę nad danymi. IT ma dziś dowozić przewidywalność, nie fajerwerki. Coraz częściej słyszę też, że projekty technologiczne muszą mieć jasno policzony wpływ na ryzyko, koszty i ciągłość działania.
Skąd ta korekta kursu właśnie teraz?
Z doświadczeń. Incydenty bezpieczeństwa, ransomware, błędy ludzkie, a także awarie u globalnych dostawców pokazały, że zbyt duża centralizacja buduje pojedyncze punkty awarii. Do tego dochodzi geopolityka i coraz bardziej wymagające otoczenie regulacyjne. W efekcie zarządy chcą wiedzieć, jak szybko firma podniesie się po incydencie, kto odpowiada za dane i jakie są scenariusze „na wypadek gdyby…”.
Co to oznacza dla relacji CIO z zarządem i CFO?
Coraz więcej twardych danych. Od działów IT oczekuje się dziś mapy ryzyk, jasno ustawionych priorytetów oraz konkretnych mierników takich jak dopuszczalny czas niedostępności systemów (RTO), maksymalna akceptowalna utrata danych (RPO) czy gwarantowany poziom dostępności usług (SLA). W obszarze cyberbezpieczeństwa równie istotne stają się wskaźniki czasu wykrycia incydentu i czasu reakcji. Projekty określane jako „innowacyjne” nadal będą realizowane, ale tylko wtedy, gdy będą bezpośrednio powiązane z biznesem. Jeśli mówimy o sztucznej inteligencji, to w procesach, w których da się zmierzyć realny efekt. Jeśli o chmurze - z jasną odpowiedzią na pytania o jurysdykcję danych, zakres dostępu oraz możliwy scenariusz wyjścia.
Dlaczego „rezydencja danych” jest dziś tak ważna?
Rezydencja danych to już nie tylko pytanie „gdzie stoją serwery”. Biznes coraz częściej pyta: „czyja to chmura i jaki reżim prawny ją obejmuje”. To różnica między komfortem a ryzykiem, zwłaszcza w branżach regulowanych. Dane mogą fizycznie być w Europie, ale kluczowe jest, jakie prawo i jakie relacje właścicielskie mają wpływ na dostęp do nich, audyty czy obowiązki raportowe.
Czy widać zwrot w stronę dostawców regionalnych?
Tak. Gartner wskazuje, że 61% CIO i liderów IT w Europie Zachodniej planuje zwiększyć wykorzystanie lokalnych i regionalnych dostawców chmury pod wpływem czynników geopolitycznych, a 53% uważa, że geopolityka ograniczy ich przyszłe wykorzystanie globalnych chmur publicznych. To sygnał, że decyzje cloudowe stają się częścią strategii ryzyka, a nie tylko kalkulacją kosztów. W praktyce firmy chcą większej przewidywalności, krótszych łańcuchów zależności i łatwiejszego audytu.
Wspomniał Pan o „strategii wyjścia” z chmury globalnej. To brzmi jak herezja dla wielu firm.
Coraz częściej jest to element profesjonalnego zarządzania ryzykiem. Strategia wyjścia nie oznacza natychmiastowej migracji, lecz przygotowanie konkretnego planu: wskazanie krytycznych danych i aplikacji, określenie sposobu ich przeniesienia, ram czasowych oraz kosztów, a także ograniczenie trwałego uzależnienia od jednego dostawcy. W 2026 r. dojrzałe organizacje będą traktowały takie scenariusze podobnie jak dziś traktują plany awaryjne w łańcuchu dostaw.
Kolejnym trendem jest cyberbezpieczeństwo jako usługa. Co pcha rynek w tym kierunku?
Skala zagrożeń rośnie szybciej niż zasoby wewnętrzne firm. Według Verizon DBIR 2025 w 44% naruszeń był komponent ransomware, a ok. 60% incydentów inicjował czynnik ludzki. Żeby skutecznie bronić środowiska, trzeba działać 24/7, mieć kompetencje, narzędzia, procedury i zdolność szybkiej reakcji. Dla wielu organizacji bardziej sensowne jest powierzenie tego wyspecjalizowanym zespołom niż budowanie wszystkiego samodzielnie, zwłaszcza przy deficycie specjalistów.
Czy to oznacza, że „Security as a Service” przestanie być dodatkiem?
Dokładnie. SaaS stanie się element infrastruktury, tak jak monitoring czy kopie zapasowe. Firmy będą oczekiwać, że bezpieczeństwo jest wbudowane w usługę, a nie dokładane na końcu. W praktyce to przesuwa dyskusję z punktu „czy inwestujemy w bezpieczeństwo” do „jaki poziom bezpieczeństwa kupujemy i jak go weryfikujemy”. Weryfikacja to m.in. testy, raporty, symulacje i jasne procedury eskalacji.
A sztuczna inteligencja? Mówi Pan o wyhamowaniu hype’u.
AI zostaje, ale dojrzewa. Zamiast obietnicy, że zastąpi pracę człowieka, będzie narzędziem wspierającym konkretne procesy. Gartner wskazywał, że jedynie 48% inicjatyw cyfrowych osiąga zakładane cele biznesowe, więc presja na mierzalne efekty rośnie. W 2026 r. AI będzie rozliczana z wartości: czasu, jakości, redukcji ryzyka lub kosztu, a nie z liczby projektów. Do tego dojdą kwestie danych treningowych, zgodności i odpowiedzialności za decyzje algorytmów.
Jak te trendy przekładają się na chmury suwerenne?
Wzmacniają je. Gartner prognozuje, że do 2030 r. ponad 75% przedsiębiorstw spoza USA wdroży strategie cyfrowej suwerenności, w tym rozwiązania typu sovereign cloud. Z biznesowego punktu widzenia chodzi o przewidywalność regulacyjną i możliwość wykazania zgodności: kto ma dostęp, gdzie są dane, jak wygląda kontrola. W 2026 r. to będzie coraz częściej warunek udziału w przetargach lub współpracy w łańcuchach dostaw.
Kto wygra 2026 r.?
Organizacje, które przestaną gonić za nowością, a zaczną wybierać to, co bezpieczne, zgodne i pod realną kontrolą. Wygrają ci, którzy mają uporządkowaną architekturę, jasno zdefiniowane odpowiedzialności i plan działania na wypadek incydentu. Przewaga będzie wynikać ze stabilności, a nie z mody.
Co powinien zrobić dziś przedsiębiorca, który czuje, że „utknął” między globalną chmurą a wymaganiami regulacyjnymi?
Zacząć od inwentaryzacji: które dane i usługi są krytyczne oraz jakie mają wymagania prawne. Drugi krok to architektura hybrydowa z jasno opisanym podziałem odpowiedzialności, bo nie wszystko musi być w jednym miejscu. Trzeci to ćwiczenia: testy odtwarzania, symulacje incydentów i sprawdzenie, czy dostawcy faktycznie dowożą deklarowane SLA.
Jednym zdaniem: jaka będzie dewiza IT w 2026 r.?
„Najpierw kontrola i bezpieczeństwo, potem tempo”. To dobra wiadomość dla rynku w Polsce.
Partnerem publikacji jest Exea Data Center
