Biznes w erze AI: jak chronić dane i reputację, nie hamując innowacji.

Banner na bloga (3)

Podczas konferencji Business Sync Hub Grzegorz Drabik, specjalista ds. danych w IBM Polska, opowiedział o tym, jak wdrażać sztuczną inteligencję w organizacjach tak, aby łączyć innowacyjność z odpowiedzialnością. W centrum wystąpienia znalazły się zagadnienia AI governance, AI security oraz data governance, które razem tworzą fundament bezpiecznych i skutecznych projektów AI.

Od pasji do lekcji dla biznesu

Grzegorz rozpoczął od osobistej historii, pokazując, jak doświadczenia z paralotniarstwa, szybownictwa i nurkowania jaskiniowego przekładają się na podejście do projektów AI. W paralotniarstwie szybki awans, pomijanie podstaw i treningu skończyły się poważnymi kontuzjami, w tym złamanym kręgosłupem. To metafora organizacji, które „pędzą” w kierunku AI bez fundamentów w postaci procesów i bezpieczeństwa.

Powrót do latania na szybowcu i późniejsze, bardzo świadome wejście w nurkowanie jaskiniowe pokazały inną drogę: ciągłe szkolenie, rozwój, procedury i gotowość na trudne sytuacje. To dojrzałe podejście jest dokładnie tym, czego wymagają dzisiejsze wdrożenia AI w przedsiębiorstwach – mniej spontanicznej „samowolki”, więcej przemyślanych reguł, narzędzi i treningu zespołów.

AI w biznesie: potencjał i nowe ryzyka

IBM od kilkudziesięciu lat rozwija rozwiązania oparte na sztucznej inteligencji i wykorzystuje je wewnętrznie praktycznie we wszystkich obszarach: od HR, przez finanse, po IT i wsparcie techniczne. Już w 2011 roku firma pokazała komputer odpowiadający na pytania w języku naturalnym, a dziś dostarcza rozwiązania AI dla przedsiębiorstw, w tym platformy do analizy danych i nowoczesne systemy generatywne.

Eksplozja zainteresowania generatywną AI po pojawieniu się ChatGPT sprawiła, że praktycznie każdy pracownik może korzystać z modeli językowych w codziennej pracy, często poza kontrolą działów IT i bezpieczeństwa. Grzegorz porównał ten etap do „bomby atomowej”: technologia ma ogromny potencjał, ale bez regulacji, zasad i narzędzi może doprowadzić do poważnych incydentów, szczególnie w obszarze danych i reputacji.

Dwa skrajne scenariusze wdrożeń AI

Bez wewnętrznych procedur i jasno zdefiniowanego AI governance organizacje często wpadają w jedną z dwóch skrajności. Pierwsza to całkowite „zamykanie” AI w małej komórce, z bardzo ograniczonym dostępem do danych. Taka platforma staje się narzędziem czysto deweloperskim, a deweloperzy stają się wąskim gardłem między biznesem a technologią. Biznes nie ma bezpośredniego kontaktu z AI i nie wykorzystuje jej w procesach operacyjnych.

Druga skrajność to niekontrolowane otwarcie AI na wszystkie dane firmowe. Wtedy rośnie ryzyko wycieku informacji, naruszeń RODO i reputacyjnych kryzysów. Firmy mogą narażać się na wysokie kary finansowe i utratę zaufania klientów, jeśli nie wiedzą, jakie dane są wykorzystywane przez modele i jak są one zabezpieczone.

AI governance i AI security jako jedna całość

Kluczem do uniknięcia obu skrajności jest połączenie AI governance i AI security w jeden spójny program. Governance określa, kto, do czego i w jaki sposób może używać AI, jakie dane są dopuszczalne, jakie są zasady walidacji wyników i jak dokumentowane są decyzje. Security zapewnia techniczne zabezpieczenia dostępu, ochronę danych wrażliwych oraz mechanizmy audytu i reagowania na incydenty.

Grzegorz podkreślił, że wdrożenie AI to nowy rodzaj dostępu do baz danych. Modele potrafią łączyć i interpretować informacje z wielu systemów, dlatego organizacja potrzebuje narzędzi, które rozumieją kontekst zapytań, potrafią wyjaśnić źródło odpowiedzi i archiwizują pełną historię interakcji. To szczególnie ważne w sektorze finansowym, gdzie naruszenia muszą być szybko zgłaszane i udokumentowane, często w zaledwie 48 godzin.

Data governance – największy grzech organizacji

Bez solidnego data governance nawet najlepsza platforma AI nie przyniesie oczekiwanych rezultatów. W wielu firmach te same pojęcia w różnych bazach danych oznaczają coś innego, a dane są rozproszone i niespójne. To utrudnia analizy, zwiększa ryzyko błędnych wniosków i utraty kontroli nad tym, jakie informacje trafiają do modeli AI.

Grzegorz zwrócił uwagę, że najpierw trzeba wiedzieć, gdzie znajdują się dane wrażliwe, jak są klasyfikowane, kto ma do nich dostęp i jak są wykorzystywane w procesach. Dopiero na takim fundamencie można bezpiecznie budować rozwiązania oparte na dużych modelach językowych i innych technikach uczenia maszynowego.

IBM i narzędzia do zarządzania danymi w świecie AI

Na koniec prelegent omówił, jak IBM podchodzi do obszaru data governance i integracji danych. Firma oferuje zestaw narzędzi obejmujących klasyczne hurtownie danych, wirtualizację oraz nowoczesne rozwiązania typu WatsonX Data, które łączą zalety data lake i hurtowni w jednej platformie. Celem jest zapewnienie organizacjom spójnego, centralnego podejścia do danych, gotowego na wymagania AI.

Takie podejście pomaga nie tylko w analityce, ale też w spełnianiu wymogów regulacyjnych, raportowaniu i ochronie danych osobowych. Dzięki temu sztuczna inteligencja może być wykorzystywana szeroko w biznesie, a nie tylko w pojedynczych, zamkniętych projektach.

AI w firmach: technologia, która dojrzewa od lat

W podsumowaniu prowadzący przypomniał, że sztuczna inteligencja nie powstała trzy lata temu. To kilkanaście lat rozwoju algorytmów, które od dawna są obecne w naszych urządzeniach, od odkurzaczy po pralki. Nowością jest skala, dostępność i możliwości generatywnej AI oraz dużych modeli językowych w środowisku biznesowym.

To, czy AI stanie się dla firmy realnym wsparciem, czy źródłem problemów, zależy od sposobu wdrożenia. Wystąpienie Grzegorza Drabika podczas Business Sync Hub pokazało, że odpowiedzialna strategia AI wymaga połączenia governance, security, świadomego zarządzania danymi i zrozumienia kontekstu regulacyjnego, w tym RODO i innych przepisów dotyczących ochrony danych.

O autorze

admin

Dział Marketingu Cloudware Polska

Podobne artykuły