17.09.2013 Views

Nowa twarz Business Intelligence

Nowa twarz Business Intelligence

Nowa twarz Business Intelligence

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>Nowa</strong> <strong>twarz</strong><br />

<strong>Business</strong><br />

<strong>Intelligence</strong><br />

1


2<br />

Spis treści<br />

Liczba na torturach Robert Jesionek<br />

Excel Rulez! Luiza Warno, Orange, Paryż<br />

Od BI do „Big Data” Tomasz Słoniewski, IDC CEMA<br />

Subiektywny przegląd rynku BI i jego przyszłość Rafał Gabinowski, INFOVIDE-MATRIX<br />

Szybciej, więcej, dalej, czyli: dokąd zmierza <strong>Business</strong> <strong>Intelligence</strong><br />

Andrzej Miktus i Wojciech Wronka, Infovide-Matrix SA<br />

Najnowsze trendy w <strong>Business</strong> <strong>Intelligence</strong> Marcin Choiński, BI.PL<br />

BI in-memory - nie wszystko złoto co się świeci Marek Grzebyk, Hogart <strong>Business</strong> <strong>Intelligence</strong><br />

Big Data – Quick Start Guide Patryk Choroś, SAS Institute<br />

W krainie OSBI Marek Ziętek i Sławomir Folwarski, Carrywater<br />

Dane to nie tylko liczby Paweł Wróblewski, Findwise<br />

Drodzy CEO - użyjcie wiedzy o kliencie, którą macie w systemach informatycznych!<br />

Jacek Czernuszenko i Michał Możdżonek, REISS Group<br />

Być w 15% Sławomir Folwarski i Mateusz Ossowski, Carrywater<br />

Revenue <strong>Intelligence</strong> sposobem na zwiększenie rentowności<br />

Monika Kacprzyk i Michał Jaślan, ATOS<br />

Czynniki ryzyka wdrażania projektu BI oczami praktyka Małgorzata Korycka-Purchała<br />

System BI w GRUPIE ATLAS Robert Korn, SAS Institute<br />

ZOZ na poziomie biznesowym Jacek Jaworski, TETA BI CENTER<br />

Skuteczne wdrożenie systemów CRM – rola doradcy Biser Jorgow, Pentegy<br />

Efektywne modelowanie biznesu wg Kimball Lifecycle Marcin Choiński, BI.PL<br />

<strong>Business</strong> <strong>Intelligence</strong> w komentarzach menedżerów<br />

BI nowej generacji Biser Jorgow, manager, Pentegy S.A.<br />

Rozwiązania <strong>Business</strong> <strong>Intelligence</strong> Marek Martofel, EMC Poland<br />

Rola CRM w zmiennej rzeczywistości Michał Jackowiak, CEO, JADE, A Bull Group Company<br />

Rozwiązania klasy BI Paweł Gajda, <strong>Business</strong> Solution Consultant SAP Polska<br />

3<br />

4<br />

8<br />

14<br />

20<br />

26<br />

36<br />

40<br />

46<br />

54<br />

60<br />

64<br />

70<br />

76<br />

84<br />

92<br />

98<br />

104<br />

108<br />

110<br />

111<br />

113


Liczba na torturach<br />

Nie sposób polemizować z Misiem Yogi, który powiedział, że trudno jest coś przewidzieć, zwłaszcza<br />

jeśli chodzi o przyszłość. A jednak przewidywać trzeba. Dobra prognoza to więcej, niż połowa sukcesu<br />

i wie o tym każdy, kto choć raz musiał przygotować np. plan sprzedaży. Dlatego menedżerowie lubią<br />

raporty. Lubią czytać cyfry i między cyframi, choć sami nie cierpią tych raportów przygotowywać.<br />

Mówią, że od tego powinien być właściwy system <strong>Business</strong> <strong>Intelligence</strong>. Jednak nie zawsze są skorzy<br />

do inwestowania w nowoczesne narzędzie tego typu. Przed CIO często więc stoi dylemat: lobbować<br />

za kupnem wysokiej jakości systemu BI, czy wyciągnąć z legendarnego i wszystkoliczącego arkusza<br />

ile się da? Oczywiście kryterium wyboru znów mogą być cyfry, choć znajdą się tacy, którzy powiedzą,<br />

że liczba skutecznie torturowana w Excelu przyzna się do wszystkiego...<br />

Tę publikację otwieram tekstem Luizy Warno, jak zwykle niepokornej i myślącej niezależnie, która<br />

po kilku latach publicystycznego milczenia powraca w świetnej formie. Jej tekst jest prowokacyjny,<br />

nie dla wszystkich poprawny, dla niektórych może wręcz nie do przyjęcia, ale nikogo nie pozostawiający<br />

w obojętności wobec (realnych) realiów rynku – właśnie o takie „teksty otwarciowe” walczą redaktorzy.<br />

Mam zresztą nadzieję, że cała publikacja, w której znalazły się artykuły bardzo mądre i nie zazdrosne<br />

o dostęp do unikalnej, często bardzo osobistej wiedzy, okaże się dla Państwa ważna. Dlaczego?<br />

Bo światli menedżerowie wyraźnie dostrzegają konkretne wartości w biznesowej inteligencji –<br />

jakąkolwiek miałaby ona postać. A jednak, spora część z nich wciąż potrzebuje mocnych argumentów ZA.<br />

Wierzę, że „<strong>Nowa</strong> <strong>twarz</strong> <strong>Business</strong> <strong>Intelligence</strong>” okaże się dla nich przydatna w poszukiwaniu odpowiedzi<br />

na wiele ich pytań.<br />

Zaproszenie do współtworzenia tego projektu przyjęli naprawdę Mądrzy Ludzie, których bardzo cenię.<br />

Jestem im bardzo wdzięczny za otwartość w dzieleniu się swoją wiedzą.<br />

Redaktor<br />

3


4<br />

Excel Rulez!<br />

Luiza Warno, Orange, Paryż<br />

Czasy się szybko zmieniły i nasza zdolność do adaptacji musi być taka, jak przystało<br />

na kameleona. Niestety, firmy z obszaru BI kameleonami nie są, więc pole do popisu pozostaje<br />

dla szybko myślących CIO.<br />

Już nie pamiętam jak dawno temu napisałam<br />

tekst pod tytułem „Biznesowa Indolencja –<br />

czy sposób na inteligentne zarządzanie”*,<br />

ale z pewnością minęło ładnych kilka lat. Wtedy<br />

całkiem naturalnie wierzyłam w tzw. „power of<br />

terabytes”, czyli moc terabajtów. Wtedy też świat<br />

wydawał się stać otworem przed rozwiązaniami<br />

klasy <strong>Business</strong> <strong>Intelligence</strong>, bo tak woleliśmy<br />

nazywać super drogie rozwiązania w obszarze<br />

hurtowni danych. Dzisiaj już nikt prawie nie<br />

używa nazwy BI. Bo BI się przeżył zanim<br />

zdołał dorosnąć.<br />

Na początku lat 2000-ych (właściwie, to<br />

jak mamy je nazywać? lata osiemdziesiąte<br />

i dziewięćdziesiąte - to proste, a ten 2000<br />

jakoś taki niewygodny…) propagowałam<br />

mocno koncept BI i rozwiązania z tego obszaru.<br />

To były czasu boom-u rozwiązań z obszaru<br />

obsługi klienta. Te całe masy danych, które<br />

trzeba było przetworzyć, aby lepiej raportować<br />

co się dzieje w firmie i z klientami firmy.<br />

Boom był rzeczywiście wielki. Fundusze też,<br />

więc zaczęły wyrastać wielkie długo-terminowe<br />

projekty w obszarze BI. Wielkie hurtownie<br />

danych z wysokim poziomem terabajtów.<br />

No i oczywiście wysokimi kosztami. Jeszcze wtedy<br />

nikt nie myślał o real time ale w drugiej połowie<br />

lat 2000-ych już tak. Tylko, że tak naprawdę<br />

ten real time w BI nigdy nie zdołał się w pełni<br />

rozwinąć,... bo przyszły ciężkie czasy. Klienci<br />

zrobili się kapryśni. Zaczęli zmieniać dostawców<br />

(i nie mam tutaj na myśli tylko klientów<br />

firm telekomunikacyjnych) jak przysłowiowe<br />

rękawiczki. Kto oferował taniej, ten był Królem.<br />

Trochę przeszkadzały te dwuletnie kontrakty<br />

na początek, ale też dawało się to znieść.<br />

Ja sama, będąc jeszcze poza macierzystą firmą,<br />

zrezygnowałam z przedłużenia kontraktu<br />

(prywatnego!) z Orange Polska, bo Pani która<br />

mnie do tegoż przedłużenia namawiała dzwoniła<br />

do mnie dzień w dzień przed 8 rano i pomimo<br />

tego, że ją szczerze namawiałam do telefonów<br />

w porach po-południowych ... nie dawała za<br />

wygraną. Poza tym, jej ton głosu był raczej<br />

nad wyraz rozkazujący, niż mile radzący więc<br />

... podziękowałam Orange Polska! Później się<br />

u nich zatrudniając…<br />

Obsługa klienta jest bardzo bliska memu sercu<br />

i dlatego dzisiaj już nie wierzę w te założenia<br />

BI, o których tak gorąco dyskutowaliśmy<br />

na początku .... XXI wieku (brzmi znacznie<br />

lepiej, nieprawdaż?!) Czasy się szybko zmieniły.<br />

Na przełomie 2007-2008 zaczęły się dziać<br />

dziwne rzeczy na rynkach finansowych,<br />

niezrozumiałe dla większości zjadaczy chleba.<br />

Spowodowało to, iż firmy zaczęły tracić na<br />

wartości (nie wiedzieć dokładnie czemu) i zaczęły<br />

przyglądać się dokładnie temu, jak zarabiają<br />

pieniądze i jak je wydają. Klienci czyli normalni<br />

ludzie, również zaczęli patrzeć na co i ile<br />

wydają. A w szczególności na rachunki z firm<br />

telekomunikacyjnych, nieważne czy chodziło<br />

o telefon w domu, czy o komórkę. Zaczął się<br />

kryzys gospodarczy, o którym nadal tak głośno,<br />

a który tak naprawdę oznacza, że zwykli<br />

zjadacze chleba (mam nadzieje, że nikogo nie<br />

obrażam) po prostu chcą płacić mniej za rzeczy,<br />

które są dla nich coraz bardziej dostępne.<br />

W tym szczególnie telefony komórkowe.


Mamy dzisiaj dwa światy. Świat tzw. rozwijający<br />

się (gdy byłam w szkole podstawowej, to<br />

uczyli nas o krajach Trzeciego Świata, jakoś nie<br />

zauważyłam kiedy ta nazwa zniknęła) i świat<br />

rozwinięty. W kontekście puenty, do której<br />

mam nadzieje nadal zmierzam, trzeba te dwa<br />

światy rozróżnić pod katem jak najbardziej<br />

konsumenckim. Otóż, dzisiaj w krajach takich jak<br />

Chiny czy Indie, czy chociażby kraje południowej<br />

Ameryki, telefon jest artykułem prawie tak<br />

ważnym jak woda. Możesz nie mieć miski ryżu<br />

do zjedzenia (i mam nadzieje że nie zostanę<br />

za to stwierdzenie pognębiona), ale telefon<br />

komórkowy musisz = chcesz mieć. Dlatego<br />

w tamtych krajach karty SIM sprzedają się<br />

jak świeże bułeczki. Nawet się je tam rozdaje.<br />

Bo tam jest rynek nowego klienta.<br />

W świecie tzw. rozwiniętym telefon komórkowy<br />

jest już dobrem zastanym. Nowych klientów<br />

nie ma, chyba że odejdą od konkurencji.<br />

Tego klienta trzeba teraz utrzymać, czarując<br />

go nowymi ofertami, super obsługą etc.<br />

Dlaczego więc w Europie tak rzadko mówimy<br />

o <strong>Business</strong> <strong>Intelligence</strong>? Dlatego, że ten<br />

kryzys i myślenie o kosztach spowodował,<br />

że drogie w utrzymaniu rozwiązania BI tracą<br />

na popularności. Nie dostarczają już value<br />

for money. Dzisiaj, kiedy trzeba ciąć koszty<br />

operacyjne IT, każdy CIO patrzy najpierw<br />

na hurtownie, gdzie wydaje dużo pieniędzy,<br />

a nie jest w stanie uzasadnić potrzeby<br />

biznesowej. Już dawno przekonywałam moich<br />

kolegów z dużej firmy BI (nie wspomnę<br />

nazwy, aczkolwiek większość czytelników<br />

się domyśli), że nie sztuką jest sprzedawać<br />

firmie drogie serwery+licencje+utrzymanie.<br />

Sztuką jest przekonać firmę do rozwiązań, które<br />

będą tę niesamowicie drogą infrastrukturę<br />

wykorzystywały dla korzyści biznesowych,<br />

dla przynoszenia przychodów i budowania<br />

wartości. Dla oczarowania klienta, który<br />

powinien pozostać wierny i nie myśleć<br />

o przejściu do np. tańszej konkurencji.<br />

Niestety, rozbiły się moje idee o ścianę.<br />

Dzisiaj nikt z ludzi odpowiadających za<br />

marketing i sprzedaż nie woła „dajcie mi dane<br />

i to najlepiej w real time”. Dzisiaj wyzwania<br />

biznesowe są takie, że w krajach rozwiniętych<br />

saturacja, czyli nasycenie rynku jest powyżej,<br />

albo blisko 100%. Szwajcaria jest na poziomie<br />

140%, Polska nieco poniżej 100. Nikt w Europie<br />

nie walczy już o nowego klienta. Każdy walczy<br />

o utrzymanie „starego”. Czy rozwiązania BI<br />

wdrożone w ostatnich 10 latach są w stanie nam<br />

to zapewnić? Nie, absolutnie nie. I przyznaję<br />

się do tego, jako naczelny propagator tych<br />

rozwiązań. Czasy się bardzo szybko zmieniły<br />

i nasza zdolność do adaptacji musi być taka,<br />

jak przystało na kameleona. Niestety, firmy<br />

z obszaru BI kameleonami nie są, więc pole<br />

do popisu pozostaje dla szybko myślących<br />

CIO. Aczkolwiek przyznam, że syndrom dużych,<br />

drogich i długo-terminowych projektów z<br />

obszaru BI nadal dotyka wielu CIO z dużym ego.<br />

W mojej roli jako Europe CIO podróżuję dużo<br />

po krajach starej Europy, ale też i nowej,<br />

bo Armenia i Mołdawia są w Europie zgodnie<br />

z udziałem w Eurowizji (konkurs piosenki).<br />

Zawsze nalegam na wizytę w Call Center<br />

i w sklepie na głównej ulicy miasta.<br />

Zawsze rozmawiam z ludźmi. Staram się robić to<br />

ad hoc, żeby żadna z osób nie była odpowiednio<br />

przygotowana na wizytę kogoś z tzw. centrali.<br />

Słucham i zadaję pytania. Wszędzie problemy<br />

są takie same. Zbyt wiele systemów. Zbyt wolno<br />

działają. Dlaczego osoba obsługująca klienta<br />

nie może mieć jednego ekranu z kilkoma<br />

funkcjami do obsłużenia? Dlaczego to jest takie<br />

skomplikowane? Pozostawię te pytania bez<br />

odpowiedzi, bo dzisiaj znacząca większość CIO<br />

w dużych telekomach nie jest przygotowana<br />

5


6<br />

do otwartej, szczerej dyskusji, często bolesnej.<br />

Nie tylko w Polsce, ale i w starej Europie, Francji<br />

nie wyłączając.<br />

Byłam ostatnio w ramach mojej funkcji na<br />

Dominikanie. Dyrektor ds. marketingu perorował<br />

przez ponad 2 godziny, ile to ma fantastycznych<br />

idei, których IT nie potrafi wdrożyć. IT odpierało<br />

że Marketing to marzyciele i nie potrafią nawet<br />

narysować roadmapy, zamiast tego robią zdjęcia<br />

rysunków z tablicy (to akurat prawda, sama<br />

widziałam). A nowy CEO, czyli Prezes napierał<br />

że chce sprzedawać i robić revenue, czyli dochód.<br />

I jak tu teraz z tego wyjść? Mają na Dominikanie<br />

hurtownię danych, która spełnia podstawowe<br />

zadania operacyjne: klient zapłacił, nie<br />

zapłacił, przekroczył limit etc. Tylko że tymi<br />

raportami się biznesu nie wygra. Na rynku<br />

jest konkurencja, która proponuje fajne nowe<br />

telefony, taryfy, opcje etc. Jak więc być lepszym?!<br />

Jako CRM używają tam rozwiązania o nazwie<br />

Clementine, które przez ostatnie kilka lat zostało<br />

w ogromnym stopniu lat skastomizowane.<br />

Jak coś się zmienia w jednym miejscu, to im<br />

się zepsuje w innym. Moja natychmiastowa<br />

sugestia była taka: wymieńcie to narzędzie<br />

jak najszybciej! Żeby zrobić wszystko wg<br />

korporacyjnych sugestii, tzn. wybrać nowy<br />

system - 6 miesięcy, wynegocjować umowę<br />

– kolejne 6 miesięcy, wdrożyć nowy system,<br />

utrzymując przy tym stary – kolejne 2 lata.<br />

No i mamy 3 lata z głowy. W tym czasie pewnie<br />

nadejdzie nowy CEO i historia znowu nabierze<br />

nowego wiatru w żagle. A ja mówię im tak:<br />

wyłączcie stary system, zróbcie wysiłek obsługi<br />

klienta i sprzedaży w oparciu o Excel i wdróżcie<br />

nowe rozwiązania bez kastomizacji, porządkując<br />

przy tym swoje procesy w 6 miesięcy! W firmie<br />

zatrudniającej 400 osób i obsługującej<br />

3 mln klientów to chyba jest możliwe?<br />

Tylko, że nikt nie ma odwagi pójść tą ryzykowna<br />

droga.<br />

Wracając więc do puenty, dlaczego ten<br />

„excel rulez”. Miałam przyjemność w ostatnim<br />

tygodniu (upalne dni w Londynie to unikat)<br />

zjeść lunch z miłym, młodym człowiekiem<br />

o imieniu Arjun. Spotkaliśmy się jakieś<br />

4 lata wcześniej przy projekcie o nazwie<br />

„central decisioning”, który dzisiaj nazywa się<br />

Compass już po pełnym wdrożeniu. Arjun był<br />

architektem tego rozwiązania jako konsultant.<br />

Potem poszedł do Nokii i tam po 2,5 latach<br />

... znów jest konsultantem. Opowiedział mi<br />

ciekawą historię. Nokia w czasach początku<br />

XXI wieku zainwestowała ogromne pieniądze<br />

w technologie BI ... (nie wspomnę z nazwy<br />

ale wszyscy się domyślą). Niestety po 2010 r.<br />

rozwiązania te okazały się kompletnie nie<br />

adekwatne do zmian na rynku. Arjun jeździł<br />

dużo po Indiach i Chinach, oczywiście jako<br />

reprezentant korporacyjnej Nokii. Odkrył<br />

tam dość szybko, że aby reagować na rynek,<br />

a zwłaszcza potrzeby klienta, nikt nie potrzebuje<br />

dyrektyw napływających z fińskiej korporacji.<br />

W Indiach, przypomnijmy że tam jest dużo<br />

potencjalnych nowych klientów, sprzedawcy<br />

mają problem z dostępem do danych, bo kilka<br />

razy na dzień następują cięcia w dopływie<br />

energii elektrycznej. A sprzedawać trzeba dalej.<br />

Arjun miał pomóc hinduskim sprzedawcom,<br />

jak mieć dostęp do danych z hurtowni offline,<br />

ale nadal dostępnych w kostce/cube. Bez prądu<br />

i często bez dostępu do sieci dane miały być<br />

dostępne na telefonach z systemem Symbian.<br />

Sprawdzali ze wszystkimi dostawcami BI.<br />

I udało im się to z ... Excelem. Koszt rozwiązania<br />

poniżej 200 tys. USD, co oczywiście było nie<br />

w smak szefowi IT na Global Nokia.<br />

Arjun już nie pracuje w Nokia. Jest konsultantem<br />

w Anglii, ale poszukuje nowych wyzwań.<br />

Gdyby ktoś był zainteresowany. Zapraszam.<br />

Szczerze mogę go polecić.


Mam nadzieje, ze puenta nasuwa się sama.<br />

Czasy wielkich i drogich rozwiązań pod egidą<br />

BI się skończyły. Dzisiaj biznes telekomowy<br />

wymaga innego podejścia: elastycznego,<br />

pragmatycznego, łatwo realizowalnego.<br />

Dlaczego nie Excel? Logika tam jest.<br />

Wystarczy wiara. Tylko trzeba wielkie ego<br />

zostawić w domu.<br />

* Artykuł, o którym wspomina Autorka ukazał się w „CIO Magazyn Dyrektorów IT” w grudniu 2005 roku.<br />

Wywołał on dyskusję i kontrowersje nie tylko na łamach miesięcznika. Przez długi czas niektórzy konsultanci<br />

powoływali się na niego w swoich wystąpieniach biznesowych.<br />

Luiza Warno<br />

Od stycznia 2010 r. jest CIO na Europę w Grupie Orange, obejmując swą działalnością Polskę, Hiszpanię, Belgię, Rumunię<br />

i Słowację, a także: Armenię, Mołdawię, Republikę Dominikany. Zanim została CIO, od sieprnia 2008 dowodziła <strong>Business</strong><br />

<strong>Intelligence</strong> Domain, z sukcesem scentralizowała Data Warehouse Solution Grid. Analizy biznesowe są jej najsilniejszą<br />

dziedziną. Wcześniej pracowała w Telekomunikacji Polskiej SA, jako części Grupy Orange właśnie w roli Dyrektora<br />

Działu Analiz. Pracowała także w Pepsico Int. jako dyrektor na Europę Środkową ds. IT. W tym czasie skutecznie włączała<br />

do firmowego biznesu nowo przejmowane firmy i wspierała rozwijający się rynek rosyjski. Jej zaplecze edukacyjne jest<br />

zróżnicowane. Swoje lata studiów spędziła na Uniwersytecie Warszawskim i w Wlk. Brytanii. Ma dyplom magistra prawa<br />

Uniwersytetu Leicester. Obecnie mieszka i pracuje w Paryżu. Angażuje się w działania The European Network for Women<br />

in Leadership.<br />

7


8<br />

Od BI do „Big Data”<br />

Tomasz Słoniewski, IDC CEMA<br />

Wartość, to zdecydowanie najistotniejsza cecha wyróżniająca dla Big Data – zarówno<br />

w kontekście kosztu pozyskania technologii, jak i korzyści, jakie organizacje mogą uzyskać<br />

w wyniku jej stosowania.<br />

Gdy w listopadzie 2003 roku rozpoczynaliśmy cykl<br />

konferencji pod szyldem „IDC <strong>Business</strong> <strong>Intelligence</strong><br />

Roadshow”, na sali zgromadziła się garstka<br />

entuzjastów i praktyków oraz duża grupa osób<br />

zainteresowanych tym nowym, w tamtym czasie,<br />

zjawiskiem na rynku IT. Liczba firm oferujących<br />

usługi wdrożeniowe tych systemów była niewielka,<br />

większość dużych dostawców nie posiadała jeszcze<br />

systemów BI w swojej ofercie – fala przejęć<br />

specjalizowanych firm miała ruszyć dopiero<br />

trzy lata później. Spośród naszych ówczesnych<br />

partnerów tylko trzy firmy wciąż działają na rynku<br />

pod swoim szyldem – to Microsoft, Microstrategy<br />

i SAS Institute. Cognos i Hyperion funkcjonują<br />

za to z powodzeniem w strukturach odpowiednio:<br />

IBM i Oracle.<br />

Naszym głównym celem w tamtym czasie<br />

była edukacja – zapoznać jak największą ilość<br />

managerów IT oraz osób odpowiedzialnych<br />

za analitykę z nowymi technologiami,<br />

możliwościami jakie daje analiza danych<br />

z systemów transakcyjnych oraz właściwym<br />

wyważeniem potrzeb biznesu i zastosowanych<br />

technologii. Próbowaliśmy pokazać, że analiza<br />

danych przydaje się nie tylko w wielkich bankach<br />

czy firmach telekomunikacyjnych, ale że praktycznie<br />

każda firma o pewnym potencjale danych<br />

źródłowych może odnieść wymierne korzyści<br />

z wdrożenia BI.<br />

Od tamtych czasów minęła prawie dekada.<br />

Systemy <strong>Business</strong> <strong>Intelligence</strong> (nazywane przez<br />

IDC <strong>Business</strong> Analytics) stały sie powszechnie<br />

znanym i wykorzystywanym narzędziem. Wiele<br />

firm, nawet relatywnie małych, dostrzega korzyści<br />

z zastosowania narzędzi BI i aplikacji analitycznych.<br />

Wiedza wdrożeniowa i biznesowo-analityczna<br />

jest również dużo bardziej dostępna. Światowy<br />

rynek analityki biznesowej ma się wciąż świetnie<br />

– prognoza opublikowana w raporcie IDC<br />

z czerwca 2012 pt. „Worldwide <strong>Business</strong> Analytics<br />

Software 2012–2016 Forecast and 2011 Vendor<br />

Shares” mówi o średniorocznym 10% wzroście<br />

na przestrzeni kolejnych 5 lat.<br />

Czy jednak firmy wykorzystały w pełni potencjał<br />

tkwiący w BI? Wydaje się, że nie zawsze i nie<br />

do końca. I według mnie nie jest to ich wina<br />

– po prostu narzędzia, które dotychczas były<br />

w użyciu miały określone ograniczenia. Wiele z nich<br />

było natury technicznej (wolne prze<strong>twarz</strong>anie,<br />

słaba jakość danych, ograniczona ilość źródeł), inne<br />

natury biznesowej (ograniczony krąg odbiorców<br />

analiz, opór zarządów przed wykorzystywaniem<br />

danych). Wreszcie – systemy BI skupiały się głównie<br />

na kwestiach finansowych, tylko w niektórych<br />

przypadkach schodziły na inne pola, takie jak<br />

systemy billingowe, czy CRM. W wielu przypadkach<br />

dane zawarte w systemach analitycznych nie mogły<br />

być w pełni wykorzystane ze względu na czas<br />

potrzebny na ich przetworzenie i analizę.<br />

Z wyżej wymienionych powodów wiele ciekawych<br />

trendów, zjawisk gospodarczych czy zachowań<br />

klientów umykało uwadze analityków, czy osób<br />

zarządzających firmami. Lekarstwo na te<br />

przypadłości pojawiło się wraz z nadejściem idei<br />

„Big Data” – czyli rozwiązań do prze<strong>twarz</strong>ania<br />

wielkich woluminów danych. Cechą wyróżniającą<br />

Big Data jest idea czterech V: Volume (ilość<br />

danych), Variety (różnorodność analizowanych<br />

danych i informacji), Velocity (prze<strong>twarz</strong>anie<br />

w czasie rzeczywistym) i Value – czyli wartość<br />

jaką możemy uzyskać z połączenia wszystkich<br />

poprzednio wymienionych czynników.


Big Data: The ”Four Vs”<br />

Terabytes Data volume<br />

Structured<br />

Batch<br />

$<br />

Source: IDC, 2011<br />

Volume czyli ilość danych<br />

Data variety<br />

Data velocity<br />

Value<br />

Gdy myślimy o ilości danych, powinniśmy<br />

zdawać sobie sprawę, że jest to pojęcie<br />

względne. Dla niektórych sektorów, albo firm<br />

dużą ilością będą tera i petabajty, podczas<br />

gdy dla innych może to być o rząd wielkości<br />

więcej (np. dla biznesów internetowych<br />

o dużej skali czy instytucji badawczych).<br />

Wiele zależy również od charakteru danych<br />

jakie przychodzi nam analizować. Informacje<br />

zawarte w ustrukturyzowanych bazach danych<br />

mogą być dużo większe w rozmiarze niż<br />

np. archiwa poczty elektronicznej, a mimo to<br />

ich przeszukiwanie i analiza będą dużo szybsze<br />

i mniej skomplikowane. W wielu przypadkach<br />

to jednak informacje zawarte w poczcie są<br />

dużo bardziej wartościowe dla firmy: mogą<br />

zawierać informacje o niezadowolonych<br />

klientach, kontrakty, oferty, projekty techniczne<br />

itp.). Jednocześnie przeszukiwanie i analiza<br />

takich danych potencjalnie nastręcza najwięcej<br />

problemów i wymaga relatywnie największej<br />

mocy obliczeniowej.<br />

Petabytes+<br />

Unstructured<br />

Streaming<br />

$$$$$<br />

Variety czyli różnorodność danych<br />

Różnorodność danych poddawanych analizie<br />

nie ogranicza się jedynie do podłączenia<br />

wielu systemów transakcyjnych. W Big Data<br />

chodzi o połączenie wielu typów danych –<br />

wspomnianych wcześniej ustrukturyzowanych<br />

i nieustrukturyzowanych, wewnętrznych<br />

i zewnętrznych, historycznych i aktualnych.<br />

Mieszanina taka może być bowiem bardzo<br />

interesująca z analitycznego punktu widzenia.<br />

Dobrym przykładem mogą być analizy<br />

ustrukturyzowanych danych z systemu<br />

ERP połączone z danymi geograficznymi<br />

i demograficznymi oraz danymi ze strony<br />

internetowej. Dzięki temu analityk jest w stanie<br />

nie tylko zidentyfikować źródła przychodu<br />

i wydajność poszczególnych oddziałów<br />

firmy w perspektywie historycznej, ale może<br />

zobaczyć dane w szerszym tle: potencjału<br />

gospodarczego regionu, statystyk sieciowych<br />

i popularności konkretnych produktów na<br />

stronie firmowej. Dodatkowo, jeśli system<br />

działa w czasie rzeczywistym, biznes może<br />

9


10<br />

stosować określone promocje w celu poprawy<br />

wyników, tudzież promować określone towary<br />

na stronie internetowej firmy. Kolejnym<br />

przykładem takich połączeń jest choćby<br />

analiza danych pogodowych – a zatem danych<br />

ustrukturyzowanych ze stacji pogodowych<br />

i danych geograficzno-klimatycznych,<br />

pochodzących z obserwacji satelitarnych.<br />

Możliwość dołączenia tego typu analiz jest<br />

jednym z podstawowych kryteriów rozróżnienia<br />

między Big Data a klasyczną analityką.<br />

Velocity – czyli szybkość analizy danych<br />

Prze<strong>twarz</strong>anie danych w organizacjach odbywa<br />

się wciąż na różne sposoby – od prze<strong>twarz</strong>ania<br />

wsadowego (batch processing) – gdzie dane<br />

ładowane są do systemu w określonych<br />

interwałach, do ciągłego przepływu danych<br />

z systemów transakcyjnych do systemów<br />

analitycznych. Chociaż pierwszy ze sposobów<br />

jest charakterystyczny dla klasycznych systemów<br />

opartych na hurtowniach danych, to w świecie<br />

Big Data również jest mocno obecny – właśnie<br />

tak dostarczane są dane do przetworzenia<br />

w środowisko Hadoop. Podobnie jest<br />

w przypadku np. danych pochodzących<br />

z inteligentnych liczników energii – porcje<br />

danych ładowane są do systemu zazwyczaj<br />

co kwadrans. Z kolei ciągły dopływ danych,<br />

to domena systemów typu CEP (Complex<br />

Event Processing), które są odpowiedzialne za<br />

reagowanie na określone zdarzenia, systemów<br />

do analizy tekstu i wyszukiwania i innych<br />

rozwiązań dedykowanych do automatycznej<br />

reakcji na zdarzenia i procesy w środowisku<br />

informatycznym (np. wykrywanie nadużyć<br />

w bankowości). Kluczami do oceny potrzeb<br />

w zakresie szybkości analizy Big Data są procesy<br />

biznesowe i wymagania użytkowników. Dobrym<br />

przykładem są np. fundusze hedgingowe<br />

inwestujące na rynkach światowych –<br />

w ich przypadku znaczenie mają ułamki<br />

sekund. Z drugiej strony wyszukiwarki sieciowe<br />

muszą często „przerobić” ogromne woluminy<br />

danych, jednak nie musi to się dokonywać<br />

w czasie rzeczywistym. Podsumowując –<br />

w Big Data liczy się właściwa informacja<br />

dostarczona we właściwym czasie i z właściwym<br />

poziomem dokładności.<br />

Value czyli wartość<br />

Wartość, to zdecydowanie najistotniejsza<br />

cecha wyróżniająca dla Big Data – zarówno<br />

w kontekście kosztu pozyskania technologii,<br />

jak i korzyści jakie organizacje mogą<br />

uzyskać w wyniku jej stosowania. Koszt<br />

technologii jest bardzo istotną różnicą<br />

w porównaniu z systemami z przeszłości,<br />

ponieważ poszczególne elementy układanki<br />

Big Data istniały od lat – tyle, że nie były<br />

powszechnie dostępne dla przeciętnej<br />

firmy. Wielkie hurtownie danych istniały<br />

w sektorze finansowym, telekomunikacyjnym,<br />

czy handlu detalicznym. Monitorowanie<br />

w czasie rzeczywistym również było obecne<br />

na rynku – chociażby w usługach finansowych<br />

(trading), przewidywaniu zjawisk pogodowych,<br />

czy wykrywaniu nadużyć. Analiza danych<br />

nieustrukturyzowanych w zakresie analizy tekstu<br />

również nie jest najnowszym wynalazkiem,<br />

podobnie jak superkomputery do zastosowań<br />

naukowych. To co wyróżnia obecną<br />

sytuację, to znacząco niższy koszt pozyskania<br />

wysokowydajnych technologii obliczeniowych<br />

i analitycznych. Jest to efekt spadających cen<br />

sprzętu komputerowego o wysokich parametrach<br />

oraz dostępności oprogramowania open source<br />

w „chmurze”.<br />

Wartość odnosi się również do korzyści, jakie<br />

osiągają firmy i organy administracji w wyniku<br />

implementacji Big Data:


• Redukcja kosztów kapitałowych -<br />

oprogramowanie, sprzęt i inne<br />

• Wydajność operacyjna – oszczędności<br />

w kosztach pracy wynikające z bardziej<br />

efektywnych metod integracji danych,<br />

zarządzania, analiz i dostarczania<br />

do użytkownika<br />

• Udoskonalenie procesów biznesowych –<br />

zwiększenie obrotów i/lub zysku dzięki<br />

nowym lub lepszym sposobom prowadzenia<br />

biznesu w zakresie usprawnienia transakcji,<br />

zarządzania społecznościami klientów<br />

czy właściwej dystrybucji usług publicznych<br />

(zdrowotnych, edukacyjnych lub społecznych)<br />

Nieporozumienia związane z Big Data<br />

Podobnie jak w przypadku chmury, istnieje<br />

wiele nieporozumień dotyczących pojęcia Big<br />

Data. Wielu dostawców technologii i usług<br />

próbuje wykorzystać marketingowo to pojęcie<br />

przyczyniając się do stworzenia szeregu<br />

mitów na jego temat. Najpopularniejsze<br />

z nieporozumień to:<br />

- Relacyjne bazy danych (RDBMS) mają<br />

ograniczenia skalowalności i dlatego nie są<br />

częścią koncepcji Big Data<br />

- Hadoop (czy też inne środowiska oparte<br />

na koncepcji MapReduce), to najlepszy wybór<br />

w zakresie technologii Big Data niezależnie<br />

od obciążeń i zastosowania<br />

- Epoka usystematyzowanych baz danych<br />

dobiegła końca, schematy tylko przeszkadzają<br />

we wdrożeniach Big Data<br />

- Wdrożenia Big Data potrzebne są tylko w celu<br />

prze<strong>twarz</strong>ania analitycznego<br />

- Analityka oparta na Big Data, to coś zupełnie<br />

nowego i innego, co nie było dostępne do<br />

czasu stworzenia obecnych technologii<br />

To prawda, że bazy NoSQL zyskują na<br />

popularności we wdrożeniach Big Data, jednak<br />

standardowe bazy relacyjne nadal grają ważną<br />

rolę na tym rynku. Hadoop jest oczywiście<br />

najczęściej wymienianym środowiskiem, ale<br />

nie jest ani jedyną formą zarządzania danymi,<br />

ani jedyną formą implementacji funkcji<br />

MapReduce. Wreszcie – sama idea Big Data<br />

jako czegoś zupełnie nowatorskiego jest<br />

fałszywa. Koncepcje wykorzystania wielkich<br />

woluminów danych były wykorzystywane od<br />

wielu lat. Tym, co rzeczywiście się zmieniło, to<br />

dostępność tej technologii dzięki spadającym<br />

cenom oraz możliwości odkrywania zależności<br />

między wielkimi zbiorami różnych typów danych<br />

pochodzących z szerokiego spektrum systemów<br />

źródłowych.<br />

Co dalej?<br />

Big Data to wciąż młody i rozwijający się rynek.<br />

Podobnie jak na rynku <strong>Business</strong> <strong>Intelligence</strong> w<br />

jego początkach, napędzany jest on przez rzeszę<br />

małych, innowacyjnych firm, które próbują<br />

poszerzyć i przyspieszyć możliwości działania<br />

wielkich woluminów danych. Ich głównymi<br />

obszarami działalności są; organizacja<br />

i zarządzanie danymi, analizy i wyszukiwanie<br />

informacji. W Big Data zaangażowane są<br />

również wielkie międzynarodowe koncerny,<br />

które postrzegają Big Data jako kolejny czynnik<br />

wzrostu ich biznesu. Dodatkowo duże znaczenie<br />

dla rynku Big Data mają inicjatywy takie jak<br />

Hadoop czy NoSQL, które rzucają wyzwanie<br />

tradycyjnym podejściom, obecnym na rynku<br />

często już od ponad 30 lat. Ich właściwością<br />

jest także to, że umożliwiają społeczności<br />

przeprowadzanie operacji, które wydawało<br />

się, że nie będą nigdy możliwe bez wysoce<br />

wyspecjalizowanego oprogramowania i sprzętu.<br />

11


12<br />

Przed rynkiem Big Data stoi jednak wiele<br />

wyzwań. Aby w pełni się rozwinął, jego<br />

uczestnicy będą musieli trafnie odpowiedzieć<br />

na większość z nich. Do najważniejszych zaliczane<br />

są niedobory kadrowe – brak wystarczającej<br />

ilości osób z wysokimi umiejętnościami<br />

w zakresie zaawansowanych analiz.<br />

Uniwersytety i inne placówki naukowe starają<br />

się odpowiedzieć na to wyzwanie, zwiększając<br />

ilość miejsc na kierunkach powiązanych<br />

z zaawansowana statystyką i naukami<br />

matematycznymi. Niedostatek umiejętności<br />

wśród załóg przedsiębiorstw będzie prowadził<br />

do prac nad rozwojem jednolitych platform<br />

dostępu do danych, które będą pozwalać nawet<br />

mniej obeznanym osobom na przeprowadzanie<br />

analiz na podstawie wielu źródeł – tak<br />

tradycyjnych jak i nieustrukturyzowanych.<br />

Intuicyjność jego obsługi będzie kluczem dla<br />

sukcesu rynkowego – tuż obok zaufania do<br />

jakości danych generowanych przez taki system.<br />

Firmy, które zainwestują w rozwój infrastruktury<br />

Big Data dostaną szansę nie tylko na<br />

poprawienie działania swoich dotychczasowych<br />

linii biznesowych, ale także stworzenia nowych,<br />

opartych na nowych informacjach o trendach<br />

konsumenckich lub oferowaniu dostępu<br />

do takich zbiorów innym podmiotom. Wiele firm,<br />

zwłaszcza w branżach o wielkich ilościach<br />

danych pochodzących od klientów (finanse,<br />

telekomunikacja, handel detaliczny, ochrona<br />

zdrowia, administracja państwowa) może<br />

w znaczący sposób podnieść wydajność swojej<br />

działalności i zmodyfikować procesy biznesowe,<br />

bazując na trendach uzyskanych z repozytoriów<br />

Big Data.<br />

W kontekście samego rynku IT, w najbliższym<br />

czasie możemy spodziewać się kolejnej fali<br />

przejęć. W latach 2006-2007 producenci<br />

narzędzi BI Cognos, <strong>Business</strong> Objects i Hyperion<br />

zostali kupieni przez wielkich dostawców<br />

rozwiązań IT – odpowiednio: IBM, SAP<br />

i Oracle. Podobne zjawisko może nastąpić<br />

już wkrótce – obiektami przejęć będą firmy,<br />

które zademonstrują innowacyjne mechanizmy<br />

powiązane z Big Data, staną się liderami<br />

swoich rynków i wykażą się dobrą dynamiką<br />

przychodów. Klienci takich firm będą poszukiwali<br />

rozwiązań, które przybliżą ich do ideału analiz<br />

w czasie rzeczywistym. Zainteresowanie będzie<br />

ukierunkowane na oprogramowanie<br />

umożliwiające monitorowanie, powiadamianie,<br />

analizę i inteligentną automatykę procesów.<br />

Jednocześnie kontynuowana będzie presja<br />

na dostawców serwerów, pamięci masowych<br />

i urządzeń – klienci będą oczekiwali dalszego<br />

spadku cen przy jednoczesnej poprawie<br />

wydajności tak, aby być w stanie analizować<br />

coraz szybciej i coraz lepiej. Wielu użytkowników<br />

systemów <strong>Business</strong> <strong>Intelligence</strong> twierdzi,<br />

że powodują one w organizacji coraz większy<br />

„głód danych” – wśród użytkowników<br />

pojawia się coraz więcej potrzeb na coraz<br />

bardziej skomplikowane raporty i analizy.<br />

W przypadku Big Data zjawisko to zapewne<br />

ulegnie znacznemu nasileniu. Systemy <strong>Business</strong><br />

<strong>Intelligence</strong> wciąż będą w firmach potrzebne<br />

– zaryzykuję stwierdzenie, że będzie ich coraz<br />

więcej, zarówno pod względem ilości firm jak<br />

i procentu pracowników mających do nich<br />

dostęp. Jednak prawdziwa transformacja biznesu<br />

będzie wynikała z właściwego wykorzystania<br />

możliwości, jakie daje nam Big Data.


W niniejszym artykule wykorzystany został raport IDC „IDC’s Worldwide Big Data Taxonomy, 2011”, October<br />

2011, IDC#231099. W celu uzyskania dostępu do tego raportu i innych z zakresu <strong>Business</strong> <strong>Intelligence</strong>,<br />

Big Data i analityki biznesowej prosimy o kontakt z Pawłem Olechowskim, Account Managerem IDC Polska<br />

(polechowski@idc.com, +48 22 548 40 53).<br />

20 września w Warszawie odbędzie się konferencja „IDC Big Data and <strong>Business</strong> Analytics Forum<br />

2012”. Serdecznie zapraszamy do udziału w tym wydarzeniu! Rejestracja: www.events.idc-cema.com<br />

lub www.idcpoland.pl, zakładka „Konferencje”.<br />

Tomasz Słoniewski<br />

Dołączył do zespołu IDC CEMA w styczniu 2003 roku. Pracuje w dziale zajmującym się oprogramowaniem, przygotowując<br />

raporty na temat tego rynku w Polsce i regionie Europy Środkowej i Wschodniej. Brał udział w wielu projektach<br />

konsultingowych, w ramach których badał wiele obszarów funkcjonalnych oprogramowania komputerowego.<br />

Publikował artykuły w prasie branżowej w Polsce m.in. na temat oprogramowania bezpieczeństwa, systemów ERP,<br />

oraz rozwiązań <strong>Business</strong>s <strong>Intelligence</strong>. Jest regularnie cytowany w polskiej prasie; występuje jako prelegent na wielu<br />

konferencjach, omawiając zagadnienia związane z rynkiem IT.<br />

Przed dołączeniem do IDC, Tomasz Słoniewski pracował jako specjalista ds. dokumentacji w firmie dostarczającej<br />

oprogramowanie medyczne na rynek amerykański. Posiada tytuł magistra uzyskany w Instytucie Stosunków<br />

Międzynarodowych Uniwersytetu Warszawskiego.<br />

13


Subiektywny przegląd rynku BI<br />

i jego przyszłość<br />

14<br />

Rafał Gabinowski, INFOVIDE-MATRIX<br />

Cały obszar związany z pozyskaniem, kolekcjonowaniem, analizą i współdzieleniem wiedzy<br />

dojrzał już na tyle, aby z centrum uwagi zniknęła technologia BI, a zastąpiła ją zdolność<br />

organizacji do wykorzystania danych i informacji.<br />

W ciągu kilkunastu ostatnich miesięcy na<br />

światowym rynku popularność zdobywa kilka<br />

innowacyjnych, technologicznych rozwiązań,<br />

pozwalających gromadzić, prze<strong>twarz</strong>ać<br />

i udostępniać wciąż rosnącą ilość danych.<br />

Największą świeżość do nieco skostniałej<br />

oferty rynkowej wnoszą niezależni dostawcy,<br />

którzy dostrzegli ociężałość innowacyjną<br />

w istniejących i modernizowanych od lat<br />

platformach BI dużych dostawców.<br />

Wydaje się, że BI jest ostatnią ważną technologią,<br />

która migruje z modelu „ciężkiej wagi”. Model ten<br />

opiera się na dokonaniu jednorazowego wyboru,<br />

zakupie, instalacji i późniejszej eksploatacji<br />

technologii. Większość systemów zarządczych klasy<br />

ERP/CRM/SCM funkcjonuje w takim modelu, który<br />

dla IT i użytkowników już w krótkiej perspektywie<br />

czasu staje się kosztowny i mało elastyczny.<br />

Głównymi bodźcami zmian na rynku technologii BI,<br />

które warto wymienić są:<br />

• konieczność obsługi zwiększającego się<br />

wolumenu danych i różnorodności ich źródeł<br />

(minimalizacja czasu pozyskania zestawień),<br />

• skrócenie time-to-market (udostępnienie danych<br />

lub tematu analitycznego),<br />

• minimalizacja TCO (Total Cost of Ownership),<br />

• wzrost znaczenia rozwiązań wspierających<br />

eksplorację danych lub specjalistyczną analizę,<br />

• wykorzystanie wiedzy zawartej w danych<br />

procesach operacyjnych (pętla zwrotna wiedzy,<br />

automatyzacja decyzji),<br />

• narzędzia dla końcowego użytkownika muszą<br />

być proste, mobilne i „przyjazne”.<br />

Niewielka innowacyjność dużych rozwiązań<br />

wzmacniana jest przez niechęć IT do wdrażania<br />

rozwiązań innowacyjnych. Związane jest to głównie<br />

z wyolbrzymianym ryzykiem organizacyjnym<br />

oraz trudnościami w obszarze integracji z już<br />

funkcjonującą w organizacji architekturą.<br />

Rozwiązania BI powinno się rozpatrywać<br />

przynajmniej z dwóch perspektyw:<br />

• perspektywa IT - jest to konkretna technologia,<br />

wymagająca konkretnych kompetencji<br />

w rozwoju i utrzymaniu. Istotną jest kwestia<br />

architektury (w skrócie zgodności ze<br />

standardami w organizacji, otwartości),<br />

• perspektywa użytkowników - BI jest kolejnym<br />

rozwiązaniem informatycznym (platformą,<br />

czasami aplikacją), za pośrednictwem którego<br />

otrzymują standardowe raporty, mają możliwość<br />

analizy danych. Najważniejszymi aspektami jest<br />

prostota użycia, dostępność, atrakcyjna<br />

i czytelna forma wizualizacji.<br />

Nadal podstawą skutecznych rozwiązań BI<br />

(wsparcie w podejmowaniu decyzji) jest<br />

posiadanie odpowiedniej jakości danych.<br />

Wydaje się, że ten obszar jeszcze długo nie<br />

znajdzie lepszej formy, niż scentralizowane<br />

rozwiązanie. W tym miejscu warto nadmienić,<br />

że nie chodzi o jedną monolityczną platformę,<br />

a o federację dedykowanych komponentów,<br />

zarządzanych i rozwijanych w modelu<br />

centralnym. Federacja w tym ujęciu wymaga<br />

od poszczególnych komponentów otwartości,<br />

rozumianej jako możliwość interakcji, zarówno<br />

na wejściu (np. dostarczenie danych), jak i na<br />

wyjściu komponentu (pobranie/przesłanie<br />

przetworzonych danych). Hermetyczność rozwiązań


do niedawna powodowana była ograniczeniami<br />

technologicznymi lub licencyjnymi, które bardzo<br />

utrudniały możliwość zbudowania rozwojowej<br />

architektury. Do niedawna, ponieważ presja<br />

rynkowa powoduje rozluźnienie takiej polityki<br />

dostawców.<br />

Kluczowe aktywności – procesy związane<br />

ze świadczeniem usługi<br />

Opierając się na naszym doświadczeniu<br />

zauważamy, iż skutecznie działający BI powinien<br />

uwzględniać podejście usługowe. Przykładowe<br />

usługi, które obsługiwane są przez BI w organizacji<br />

to:<br />

• raportowanie obligatoryjne,<br />

• raportowanie operacyjne,<br />

• raportowanie zarządcze,<br />

• analiza danych,<br />

• budżetowanie i prognozowanie,<br />

• zapewnienie jakości danych,<br />

• zapewnienie jakości informacji,<br />

• pozyskiwanie danych, w tym ze źródeł<br />

dla organizacji zewnętrznych,<br />

• silnik obliczeniowy/regułowy,<br />

• udostępnienie danych do innych systemów.<br />

Każda z wyżej wymienionych usług powinna być<br />

realizowana optymalnie do potrzeb i możliwości<br />

organizacji (nawet poszczególnych działów,<br />

czy kluczowych użytkowników). Określenie każdej<br />

z usług np. w ujęciu biznesowym (np. The <strong>Business</strong><br />

Model Canvas – Alexander Osterwalder), pozwala<br />

efektywnie zarządzać inwestycjami, rozwojem<br />

architektury BI i podnosić efektywności organizacji.<br />

15


16<br />

Każda z usług funkcjonuje w istotnym otoczeniu,<br />

które charakteryzuje się poniższymi cechami:<br />

• usługa (oferta) – to:<br />

– interaktywność – sposób wykorzystania/pracy<br />

z usługą, np. statyczny raport, drążenie danych,<br />

eksploracja danych,<br />

– responsywność – sposób uruchamiania,<br />

np. na żądanie, wg harmonogramu,<br />

– time to market – aktualność danych,<br />

np. po zamknięciu okresu, real time,<br />

– jakość danych – globalnie spójne lub „as is”,<br />

– złożoność – dane (nieprzetworzone), informacja<br />

(dane przetworzone algorytmami - wyliczenia),<br />

wiedza,<br />

• klienci – użytkownicy, odbiorcy danych<br />

i informacji,<br />

• kanały – sposoby dystrybucji i dostarczania<br />

informacji,<br />

• relacje, SLA – zasady dostarczania usług,<br />

parametry jakościowe,<br />

• kluczowe zasoby – niezbędne komponenty<br />

systemowe i kompetencje osób.<br />

W zaawansowanym środowisku technicznobiznesowym,<br />

w którym działają złożone usługi,<br />

kluczowe jest znalezienie złotego środka,<br />

pozwalającego na szerokie i samodzielne działanie<br />

użytkowników, przy jednoczesnej spójnej kontroli<br />

bezpieczeństwa i stabilności działania systemów.<br />

Z naszej wieloletniej praktyki wynika, że stosowanie<br />

zbyt dużych ograniczeń powoduje szukanie przez<br />

użytkowników rozwiązań zastępczych, które<br />

z reguły nie spełniają korporacyjnych standardów<br />

i mogą stać się przeszkodą w rozwijaniu<br />

kultury BI. Znalezienie właściwej kombinacji<br />

łączącej elastyczność i funkcjonalność oraz<br />

skoordynowanego rozwoju w gromadzeniu,<br />

prze<strong>twarz</strong>aniu i monitorowaniu użycia danych<br />

jest więc dziś głównym wyzwaniem. Platformy<br />

korporacyjne na pewno nie stracą na znaczeniu<br />

i nadal ich rola w organizacji będzie rosła.<br />

Lecz dodatkowe, indywidualne narzędzia,<br />

realizujące wybrane funkcjonalności, w naturalny<br />

sposób przyspieszające realizację zadania,<br />

będą stawały się standardem. Przed IT stoi<br />

wyzwanie konsolidacji platform i narzędzi,<br />

które daleko wykracza poza obecne standardy<br />

architektury. Kwestia otwartości poszczególnych<br />

komponentów stanie się bardzo istotna, a IT musi<br />

na taką przyszłość być przygotowane.<br />

Perspektywa IT<br />

Od wielu lat dostępne są mniej lub bardziej<br />

dedykowane bazy danych i nic nie wskazuje na to,<br />

aby w krótkim czasie w obszarze przechowywania<br />

danych zaszła jakaś radykalna zmiana.<br />

W tej chwili dostępne są*:<br />

• Bazy relacyjne (np. Oracle, IMB DB2, Microsoft<br />

SQL, Sybase ASE),<br />

• Bazy kolumnowe (np. HP Vertica, ParAccel,<br />

Sybase IQ, Infobright),<br />

• Bazy wielowymiarowe (np. Microsoft Analysis<br />

Services, IBM TM1, Oracle Essbase),<br />

• In-memory (np. Microsoft PowerPivot,<br />

QlikView, Tableau, Tibco Spotfire, SAP HANA,<br />

oraz rozszerzenia do baz relacyjnych Oracle -<br />

TimesTen, IBM – solidDB, MySQL),<br />

• Inverted index DBMS (jak Attivio, Endeca),<br />

• Bazy asocjacyjne (jak Saffron Technology<br />

i Splunk),<br />

• Bazy typu NoSQL (jak MongoDB, Cassandra,<br />

CouchDB),<br />

* wśród wymienionych produktów znajdują się<br />

takie, które łączą kilka klas.<br />

Wartym odnotowania faktem jest wzbogacenie<br />

oferty rynkowej przez rozwiązania wspierające<br />

potrzebę prze<strong>twarz</strong>ania równoległego na masową<br />

skalę. Są to rozwiązania łączące elementy<br />

sprzętowe oraz programowe (ang. Data Warehouse<br />

Appliance). Obecnie wielu wiodących dostawców


systemów zarządzania bazami danych posiada takie<br />

specjalizowane rozwiązania. Oprócz pionierskiej<br />

Teradaty dostępne są Oracle Exadata, IBM<br />

Netezza, Microsoft Parallel Datawarehouse czy<br />

EMC Greenplum. Data Warehouse Appliance są<br />

rozwiązaniami kosztownymi, co pozycjonuje je<br />

do dużych firm i korporacji.<br />

Klienci o mniej zasobnym portfelu lub z mniejszymi<br />

wymaganiami wydajnościowymi mogą już<br />

skorzystać z technologii w modelu „usługa jako<br />

serwis” (ang. Software as a Service) lub chmury.<br />

Usługi w tych modelach świadczą m.in. takie<br />

firmy jak Microsoft, SAP, Microstrategy. Mimo<br />

ich atrakcyjności w stosunku do zakupu<br />

oprogramowania i budowy własnej infrastruktury,<br />

można je traktować jako wartą rozważenia<br />

alternatywę dla specyficznych, punktowych<br />

zastosowań.<br />

Z wartych odnotowania technologii<br />

przechowywania i prze<strong>twarz</strong>ania danych warto<br />

podkreślić coraz intensywniej eksponowane<br />

rozwiązania specjalizujące się w wykorzystaniu<br />

pamięci operacyjnej (in-memory). Mimo, iż takie<br />

rozwiązania dostępne są już od dłuższego czasu,<br />

za sprawą nieznanych do niedawna produktów<br />

takich jak QlikView czy Tableau, również Microsoft<br />

udostępnił swoje ciekawe rozwiązanie w produkcie<br />

PowerPivot.<br />

W kontekście analityki czasu rzeczywistego,<br />

gdzie mamy do czynienia z przeogromną ilością<br />

danych wejściowych, klasyczne rozwiązania są<br />

niewystarczające. Sukces firmy Google oparty<br />

na paradygmacie MapReduce jest obecnie<br />

rozwijany w projekcie open-source’owym<br />

fundacji Apache – Apache Hadoop (framework).<br />

Mimo ogromnego potencjału tego modelu<br />

co do równoległego prze<strong>twarz</strong>ania wsadowego<br />

danych, model ten nie jest w stanie spełnić<br />

wymagań związanych z transakcyjnością,<br />

aktualizacją danych w czasie rzeczywistym oraz<br />

działań na zbiorach danych (skomplikowanych<br />

łączeń). W przypadku potrzeby analizy danych<br />

napływających strumieniem (np. miliona zdarzeń<br />

na sekundę) i oczekiwanego wyniku analizy<br />

w ciągu kilku sekund, niezbędna jest odpowiednia<br />

architektura przepływu danych. Rozwiązanie<br />

VoltDB w połączeniu z Hadoop jest już w stanie<br />

konkurować z dedykowanym rozwiązaniem,<br />

np. Cloudscale, które uwolniło się od wsadowego<br />

prze<strong>twarz</strong>ania danych. W takich zastosowaniach<br />

jak detekcja nadużyć (fraud detection),<br />

reklama mobilna, usługi lokalizacyjne,<br />

czy platformy handlowe (trade) mamy szansę<br />

skutecznie zrealizować.<br />

Perspektywa użytkownika<br />

Wspomniane wyżej produkty QlikView i Tableau,<br />

w szczególnie efektywny sposób realizują<br />

postulaty użytkowników związanych z samodzielną<br />

eksploracją danych oraz przyjaznych i niezwykle<br />

responsywnych narzędzi. Mimo ich „niedostatków”<br />

pod względem architektury korporacyjnej<br />

(szybko uzupełniane przez producentów),<br />

są rewelacyjną propozycją dla dedykowanych,<br />

tematycznych aplikacji analitycznych. Aplikacje<br />

takie wyróżniają się zaawansowaną wizualizacją<br />

danych oraz interakcją z użytkownikiem.<br />

17


18<br />

Bogactwo form, umożliwiające lepszą percepcję<br />

danych, pozwala na pogrupowanie prezentacji<br />

w formie znanych z dużych platform BI kokpitów<br />

informacyjnych/zarządczych.<br />

Rozwiązania takie coraz częściej stają się<br />

komponentem wdrażanym w organizacjach jako<br />

uzupełnienie dużych platform BI. Dodatkowym,<br />

bardzo ważnym atutem, jest ich „lekkość”, związana<br />

z błyskawicznym (w stosunku do dużych platform)<br />

cyklem wdrażania i dostarczania wymiernych<br />

korzyści użytkownikom.<br />

W dobie upowszechniania się dostępu do internetu<br />

oraz rosnącej błyskawicznie wydajności urządzeń<br />

mobilnych (smartfony i tablety), każdy liczący<br />

się dostawca udostępnia swoje wersje rozwiązań,<br />

czy to z poziomu przeglądarki WWW, czy aplikacji<br />

uruchamianych bezpośrednio na urządzeniach<br />

(np. Microstrategy).<br />

Dostęp z urządzeń mobilnych, w naszym<br />

przekonaniu, powinien być podyktowany<br />

ewidentnymi korzyściami biznesowymi, budującymi<br />

przewagę konkurencyjną (np. dla pracowników<br />

w terenie dane są potrzebne tu i teraz, a nie gdy<br />

wrócę do biura) lub wspierającymi interakcję<br />

z odbiorcą produktów, czy usług firmy na skalę<br />

masową. Ciekawym przykładem tendencji<br />

w tym obszarze jest np. rozwiązanie RoamBI.<br />

Źródłem danych dla tego rozwiązania może być<br />

arkusz kalkulacyjny (lub korporacyjna platforma<br />

BI), który w atrakcyjnej formie jedynie wizualizuje<br />

udostępnione dane.<br />

Na zakończenie<br />

Przyszłość BI, a w szczególności efektywność<br />

wykorzystania danych, aby stały się użyteczną<br />

informacją i wiedzą w organizacji, w dużej mierze<br />

zależy od samych organizacji. Oferta rynkowa<br />

na pierwszy rzut oka wydaje się naprawdę bogata.<br />

Stąd bardzo ważną kwestią jest, aby umiejętnie<br />

wybrać z tego bogactwa. W wyborze na pewno<br />

pomoże zdefiniowanie i określenie usług wraz<br />

ze sprecyzowaniem oczekiwanej funkcjonalności.<br />

Nie należy bać się różnorodności technologii<br />

wspierającej pracę użytkowników. Należy zadbać<br />

o poprawność oraz otwartość architektury.


W najbliższym czasie należy się spodziewać,<br />

że najwięksi dostawcy dostosują się z ofertą<br />

funkcjonalną i licencyjną do potrzeb rynku<br />

(w reakcji na wdzierające się innowacyjne<br />

rozwiązania) oraz, że nastąpi dalsza ekspansja<br />

rozwiązań wspierających użytkowników<br />

w samodzielności i eksploracji danych.<br />

Rafał Gabinowski<br />

Przyzwyczajenia użytkowników, płynące ze stylu<br />

jaki wprowadził Google ze swoją wyszukiwarką<br />

(błyskawiczna odpowiedź na zapytania), będzie<br />

co raz bardziej wspierana przez wzrost wydajności<br />

technologii lub wykorzystanie nowoczesnych<br />

i dostosowanych silników baz danych<br />

i pamięci operacyjnej.<br />

Jest starszym konsultantem w Grupie Kapitałowej INFOVIDE-MATRIX, ekspertem w dziedzinie rozwiązań <strong>Business</strong> <strong>Intelligence</strong>.<br />

Powyższy artykuł powstał przy merytorycznym udziale konsultantów Infovide-Matrix S.A. i CTPartners S.A.<br />

19


Szybciej, więcej, dalej, czyli: dokąd<br />

zmierza <strong>Business</strong> <strong>Intelligence</strong><br />

20<br />

Andrzej Miktus i Wojciech Wronka, Infovide-Matrix SA<br />

Wyobraźmy sobie sytuację, w której wchodzimy do centrum handlowego, gdzie wita nas<br />

najnowszy utwór ulubionego wykonawcy, a na telebimach widzimy oferty ubrań w naszym<br />

rozmiarze i ulubionej kolorystyce. Dodatkowo, na ekranie naszego smartfona pojawia się<br />

oferta wymarzonej wycieczki, której szukamy już od tygodnia. Patrząc na dostępne dzisiaj<br />

na rynku rozwiązania możemy się spodziewać, że w ciągu kilku najbliższych lat wdrożenie<br />

podobnych rozwiązań, stanie się faktem.<br />

<strong>Business</strong> <strong>Intelligence</strong> to termin określający<br />

klasę rozwiązań informatycznych, służących<br />

do prze<strong>twarz</strong>ania danych, pochodzących<br />

z różnorodnych źródeł (np. systemów<br />

billingowych, sprzedażowych i systemów<br />

obsługi klienta) w spójne informacje mające<br />

znaczenie biznesowe (np. – segmentacja<br />

klientów, rentowność produktów, czy efektywność<br />

procesów). Ktoś złośliwy mógłby powiedzieć,<br />

że BI, to informatyczny sposób rozwiązywania<br />

problemów, które stworzyła informatyka, takich<br />

jak niespójność danych prze<strong>twarz</strong>anych w różnych<br />

systemach, czy trudność stworzenia systemów<br />

zdolnych sprostać wymaganiom związanym<br />

z automatyzacją procesów operacyjnych<br />

i jednocześnie spełniających zaawansowane<br />

potrzeby dotyczące analizy danych w procesach<br />

podejmowania decyzji. To jednak byłoby dużym<br />

uproszczeniem. W istocie, na BI należy patrzyć<br />

jako na dyscyplinę służącą budowaniu „przewagi<br />

informacyjnej”, czyli podnoszenia konkurencyjności<br />

przedsiębiorstwa dzięki wytworzeniu i zastosowaniu<br />

w procesach biznesowych wiedzy pozwalającej<br />

podejmować trafniejsze decyzje, we właściwym<br />

miejscu organizacji i we właściwym czasie.<br />

Ten strategiczny wymiar <strong>Business</strong> <strong>Intelligence</strong><br />

nabiera szczególnego znaczenia dziś, kiedy<br />

informacje wpływające na działania organizacji<br />

pochodzą coraz częściej nie tylko z ich „wnętrza”.<br />

Źródłem wartościowej wiedzy pozwalającej<br />

sprawniej obsługiwać klientów, lepiej<br />

dopasowywać ofertę do ich potrzeb i skuteczniej<br />

realizować procesy innowacyjne, staje się otoczenie<br />

organizacji tworzące jej „ekosystem biznesowy”.<br />

Te nowe okazje dla rozwoju organizacji idą w parze<br />

z rozwojem technologii, która coraz lepiej radzi<br />

sobie z prze<strong>twarz</strong>aniem wielkich wolumenów<br />

danych, analizą tekstów, dźwięków, obrazów<br />

i ludzkiej mowy.<br />

Tak więc, w chwili obecnej kierunki rozwoju<br />

narzędzi klasy BI wyznaczają dwa najważniejsze<br />

trendy: z jednej strony stale zwiększająca się ilość<br />

informacji, którą można zbierać i prze<strong>twarz</strong>ać,<br />

z drugiej -innowacje technologiczne pozwalające<br />

je udostępniać, prze<strong>twarz</strong>ać i analizować.<br />

W ciągu ostatnich kilku lat rozpowszechnienie<br />

urządzeń przenośnych, takich jak tablety, smartfony<br />

oraz aparaty cyfrowe, poprzedzone istotnym<br />

rozwojem internetu i serwisów społecznościowych,<br />

spowodowało wygenerowanie niespotykanej<br />

dotąd ilości informacji, niosących ze sobą duży<br />

potencjał oraz istotną wartość dla wielu organizacji.<br />

Niestety w dużej mierze mają one charakter<br />

nieustrukturalizowany. Jeśli potrafilibyśmy<br />

wszystkie te informacje zebrać i przetworzyć,<br />

stworzylibyśmy nowe perspektywy dla wielu firm.<br />

Wyobraźmy sobie sytuację, w której wchodzimy<br />

do centrum handlowego, gdzie wita nas<br />

najnowszy utwór naszego ulubionego wykonawcy,<br />

a na ekranach telebimów widzimy oferty ubrań


w naszym rozmiarze i ulubionej kolorystyce.<br />

Dodatkowo, na ekranie naszego smartfona pojawia<br />

się oferta wymarzonej wycieczki, której szukamy<br />

już od tygodnia, czekającej jedynie na zamówienie<br />

w biurze podróży, które znajduje się tuż za rogiem.<br />

Rodzi się pytanie, czy taka perspektywa to jedynie<br />

futurystyczna wizja, będąca spełnieniem marzeń<br />

każdego marketera, czy też obraz niedalekiej<br />

przyszłości? Patrząc na dostępne już dzisiaj<br />

na rynku rozwiązania możemy się spodziewać,<br />

że w ciągu kilku najbliższych lat wdrożenie<br />

podobnych rozwiązań, stanie się po prostu faktem.<br />

Narzędzia<br />

Rozpoczynając przegląd technologii BI,<br />

w pierwszym rzędzie musimy zająć się zbieraniem,<br />

przechowywaniem i prze<strong>twarz</strong>aniem informacji.<br />

Należy mieć na uwadze również to, że w ciągu<br />

ostatnich dwóch lat zgromadzono większą ilość<br />

danych niż w całej dotychczasowej historii,<br />

a według analityków IDC, w ciągu najbliższej<br />

dekady, ilość przechowywanych danych<br />

może wzrosnąć nawet pięćdziesięciokrotnie.<br />

Pytanie zatem, skąd taki trend? W warunkach<br />

wzmożonej konkurencji firmy chcą wiedzieć jak<br />

najwięcej o swoich klientach, a globalna sieć<br />

i wszechobecne urządzenia elektroniczne oraz nowe<br />

technologie, znacznie to ułatwiają. Dlatego też,<br />

ten szeroki strumień danych telemetrycznych,<br />

oplatający swoim zasięgiem niemal cały glob,<br />

zaczyna płynąć i zasilać w informacje firmy<br />

z całkiem nowych w tym obszarze branż.<br />

Zagadnienia związane z jej prze<strong>twarz</strong>aniem<br />

najczęściej określa się terminem „Big Data”.<br />

Praktycznie każdy liczący się na rynku producent<br />

baz danych, ma w swojej ofercie rozwiązania<br />

dedykowane do prze<strong>twarz</strong>ania ogromnych<br />

wolumenów danych oraz pozyskiwania informacji<br />

z danych, które nie są uporządkowane w żaden<br />

sposób, np. z komentarzy umieszczonych<br />

pod towarami w sklepach internetowych.<br />

21


22<br />

Ważne jest jednak to, że mimo znaczącego<br />

postępu, jaki dokonał się w obszarze rozwoju<br />

technologii budowy procesorów, pamięci,<br />

czy dysków, klasyczne urządzenia okazują się<br />

za mało wydajne, by sprostać stawianym obecnie<br />

wyzwaniom w zakresie ilości danych. Dlatego<br />

też konieczna jest zmiana sposobu myślenia,<br />

wyznaczającego nowy kierunek w stronę<br />

prze<strong>twarz</strong>ania równoległego na masową skalę.<br />

Koncepcja takich rozwiązań nie została wymyślona<br />

dziś. Obecnie jednak da się zaobserwować bardzo<br />

szybki rozwój rozwiązań takiej klasy, nazywanych<br />

Data Warehouse Appliance. Rozwiązanie<br />

to łączy elementy sprzętowe i systemowe,<br />

zoptymalizowane do równoległego prze<strong>twarz</strong>ania<br />

danych. Pionierem w tej dziedzinie była Teradata,<br />

która już 1984 roku, jako pierwsza stworzyła<br />

tak zaprojektowane narzędzie. Obecnie wielu<br />

wiodących dostawców systemów zarządzania<br />

bazami danych posiada w swojej ofercie Data<br />

Warehouse Appliance. Oprócz wzmiankowanej<br />

Teradaty istnieją jeszcze rozwiązania, takie jak<br />

Oracle Exadata, Microsoft Parallel Datawarehouse,<br />

IBM Netezza czy EMC Greenplum. W większości<br />

z nich wykorzystana jest architektura Sharred<br />

Nothing, której założenia sformułował w 1986 roku<br />

Michael Stonebraker. Bazują one na zasadzie,<br />

iż duże zadania łatwiej zrealizować, jeżeli podzieli<br />

się je na mniejsze i wykona w odpowiedniej<br />

kolejności. Oczywiście w nurcie prze<strong>twarz</strong>ania<br />

równoległego, duże prze<strong>twarz</strong>anie dzieli się na<br />

małe części, a następnie wykonuje prze<strong>twarz</strong>anie<br />

wszystkich na raz. Zaletami takich urządzeń jest ich<br />

wysoka wydajność oraz skalowalność, jednak ze<br />

względu na ewentualne koszty są to rozwiązania<br />

skierowane do dużych firm i korporacji.<br />

Chmura obliczeniowa<br />

Dla małych i średnich firm stworzenie infrastruktury<br />

do samodzielnego zbierania i prze<strong>twarz</strong>ania dużej<br />

ilości danych, związane jest często ze zbyt dużymi<br />

nakładami finansowymi. Naprzeciw potrzebom<br />

sektora MSP wychodzą jednak firmy, które<br />

świadczą coraz modniejsze na rynku usługi typu<br />

„cloud computing”. Najpopularniejszy model<br />

takiego prze<strong>twarz</strong>ania polega na wykorzystaniu<br />

aplikacji <strong>Business</strong> <strong>Intelligence</strong>, przechowywanej<br />

i udostępnianej przez dostawcę za pomocą<br />

internetu. Taki model, nazywamy SaaS, czyli<br />

oprogramowanie jako usługa. Usługi takie<br />

świadczą m.in. Microsoft, SAP, Microstrategy.<br />

W modelu tym, całość zagadnień związanych<br />

z zarządzaniem środowiskiem, aktualizacją<br />

oprogramowania i sprzętu, wydajnością<br />

i ciągłością działania środowiska spada na<br />

dostawcę. Model ten może być bardzo korzystny<br />

i atrakcyjny dla wielu firm, należy jednak pamiętać,<br />

że nie jest to rozwiązanie pozbawione wad,<br />

czy ryzyka. Jak pokazały ostatnie wydarzenia na<br />

krajowym rynku usług oferowanych w „chmurze”,<br />

kiedy jeden z dostawców w jej wyniku odnotował<br />

spektakularną awarię, duża część użytkowników<br />

straciła istotne dane.<br />

Przechowywanie i prze<strong>twarz</strong>anie danych<br />

Dla skutecznego podejmowania decyzji, konieczne<br />

jest, aby informacje oparte były na prawdziwych<br />

danych, obrazujących aktualną rzeczywistość.<br />

Ponadto, uzyskanie pełnego obrazu danych<br />

wymaga częstego analizowania ich pod różnym<br />

kątem oraz w różnych przekrojach. Równie ważny<br />

jest czas przeznaczony na analizę, który powinien<br />

być maksymalnie krótki, a co za tym idzie szybki.<br />

Dzięki rozwojowi rynku hardware, możliwe jest<br />

dzisiaj wyposażenie serwerów prze<strong>twarz</strong>ających<br />

dane w takie ilości, aby analizy prowadzone nawet<br />

na gigabajtach danych, mogły być prowadzone<br />

w całości w pamięci komputera. Rozwiązania<br />

tego typu nazywane są obecnie „in memory”,<br />

a ich popularyzacji sprzyja dostępność dużej<br />

ilości taniej pamięci komputerowej i specjalne<br />

algorytmy kompresji danych. Pozwalają one<br />

uzyskać kompresję rzędu pięć do dziesięciu razy.<br />

Oznacza to, że dla każdych 10 gigabajtów danych,


przechowywanych w pamięci dyskowej, rozwiązanie<br />

typu „in memory” potrzebuje 1 - 3 gigabajtów<br />

pamięci RAM.<br />

W chwili obecnej na rynku są dwie grupy rozwiązań<br />

tego typu. Pierwsza grupa, której przedstawicielem<br />

jest rozwiązanie firmy SAP – HANA, jest<br />

odpowiednikiem tradycyjnej bazy danych.<br />

Dane są trzymane w postaci ustrukturyzowanej<br />

w pamięci RAM specjalnego serwera, stworzonego<br />

na potrzeby SAP - HANA i udostępniane za<br />

pomocą różnych aplikacji stanowiących warstwę<br />

raportową. Rozwiązanie takie gwarantuje szybkość<br />

prze<strong>twarz</strong>ania i udostępnienia informacji.<br />

Druga grupa narzędzi reprezentowana np. przez<br />

QlikView, to narzędzia które integrują w jednej<br />

aplikacji przechowywanie i prze<strong>twarz</strong>anie oraz<br />

wizualizację danych. Ich dużą zaletą jest to, że nie<br />

wymagają specjalnie skonstruowanych serwerów,<br />

w tym przypadku do ich instalacji wystarczy<br />

zwykły serwer z dużą ilością pamięci RAM.<br />

Narzędzia te pozwalają stworzyć w krótkim czasie<br />

aplikację, pozwalającą w bardzo intuicyjny sposób<br />

analizować dane. Rozwiązanie takie ze względu<br />

na koszty wdrożenia i łatwość użytkowania<br />

wydaje się idealne dla małych i średnich firm.<br />

W przypadku dużych organizacji, gdzie każdy<br />

dział ma inne potrzeby informacyjne, należałoby<br />

tworzyć oddzielne aplikacje dla każdego zespołu.<br />

Takie podejście w organizacji, w której zachodzą<br />

częste zmiany, może spowodować trudności<br />

w utrzymaniu spójności danych, przechowywanych<br />

w różnych aplikacjach, co będzie skutkować<br />

znanym problemem chaosu informacyjnego<br />

- raporty z różnych działów dotyczące tego<br />

samego zagadnienia biznesowego będą w sposób<br />

znaczący różne.<br />

Należy pamiętać, że końcowy użytkownik<br />

rozwiązania typu <strong>Business</strong> <strong>Intelligence</strong> widzi dane<br />

poprzez narzędzia raportowe. Do chwili obecnej<br />

na ogół oglądał on raporty w postaci samej tabelki<br />

lub połączonej z wykresem, pozwalającej na edycje.<br />

23


24<br />

Dzisiaj wzrost mocy obliczeniowej procesorów<br />

oraz większa wydajność baz danych pozwala<br />

na przedstawienie informacji w taki sposób,<br />

który ułatwia zrozumienie i analizę danych.<br />

Na rynku zaczynają dominować rozwiązania<br />

umożliwiające kontekstową analizę, tzw. „kokpity”,<br />

kiedyś nazywane menadżerskimi, a teraz dostępne<br />

dla większości użytkowników. Niewątpliwą<br />

zaletą kokpitów, czy aplikacji analitycznych jest<br />

prezentacja powiązanych ze sobą zagadnień<br />

biznesowych w jednym widoku, w wyjątkowo<br />

czytelny i atrakcyjny sposób, co zwiększa<br />

użyteczność prezentowanych danych.<br />

Proste raporty w formie tabelek i wykresów powoli<br />

są wypierane przez rozwiązania eksponujące<br />

dane w sposób atrakcyjny wizualnie, wyposażone<br />

w różnego rodzaju kontrolki, wskaźniki, alerty itp.<br />

Silna konkurencja wymusiła sytuację, w której<br />

praktycznie każdy producent oprogramowania<br />

raportowego ma w swojej ofercie tzw. „dashbordy”.<br />

Obecnie patrząc na końcową aplikację użytkownika<br />

ciężko jest powiedzieć, w jakiej technologii jest<br />

wykonana, ponieważ dostępne funkcjonalności<br />

tych narzędzi są najczęściej bardzo podobne.<br />

Mobilny BI<br />

Firmy oferujące produkty BI od dłuższego czasu<br />

usiłowały zainteresować mobilnych użytkowników<br />

swoją ofertą. Niestety, ograniczenia technologiczne<br />

związane z przesyłaniem, magazynowaniem<br />

i prezentacją danych na niewielkim ekranie<br />

telefonu powodowały, że nie były to rozwiązania<br />

zbyt interesujące. Jednak pojawienie się na<br />

rynku smartfonów i tabletów oraz technologii<br />

umożliwiających bezprzewodowe przesyłanie<br />

danych, diametralnie zmieniło sytuację.<br />

Prezentacja najbardziej złożonych raportów<br />

przestała być problemem, ponieważ dzięki<br />

urządzeniom mobilnym, klient otrzymuje<br />

atrakcyjnie wizualnie i równie czytelne informacje,<br />

jak te prezentowane na ekranie komputera.<br />

Dlatego można przypuszczać, że większość<br />

producentów BI w przeciągu najbliższego roku,<br />

jeśli jeszcze tego nie zrobiła, to już wkrótce<br />

udostępni oprogramowanie umożliwiające<br />

przeprowadzenie takich samych analiz na ekranie<br />

smartfona, tabletu jak i „zwykłego” komputera.<br />

Zbieranie i prze<strong>twarz</strong>anie ogromnych ilości<br />

informacji, ich analiza i prezentacja w czasie<br />

rzeczywistym są coraz bardziej realne.<br />

Możliwości technologiczne są coraz większe<br />

i już wkrótce możemy spodziewać się spełnienia<br />

futurystycznych wizji twórców fantastyki<br />

naukowej. Dlatego bardzo prawdopodobnym jest,


że w niedalekiej przyszłości systemy informatyczne<br />

będą nam podpowiadać na podstawie naszych<br />

dotychczasowych zakupów i informacji zawartych<br />

na nasz temat w serwisach społecznościowych,<br />

o tym co i kiedy kupić. Dodatkowo, narzędzie<br />

takie pomoże również zadbać o nasze zdrowie,<br />

prze<strong>twarz</strong>ając informacje o przebytych chorobach,<br />

czy stosowanej diecie. Już dzisiaj jedna z brytyjskich<br />

firm ubezpieczeniowych, specjalizująca się<br />

w ubezpieczeniach samochodowych, stworzyła<br />

unikalny produkt przeznaczony dla najbardziej<br />

ryzykownej grupy klientów – młodzieży w wieku<br />

poniżej 30 lat. Istotnym elementem całego<br />

rozwiązania są urządzenia telemetryczne,<br />

montowane w ubezpieczanych autach.<br />

Narzędzie to rejestruje przebytą drogę, gromadząc<br />

Andrzej Miktus<br />

informacje nie tylko o przebytych kilometrach,<br />

rejonach, w których samochód się poruszał ale<br />

również o prędkości i stylu jazdy. Tego typu<br />

informacje są poddane zaawansowanej obróbce<br />

analitycznej i pozwalają stworzyć bardzo precyzyjny<br />

rating ryzyka dla każdego ubezpieczonego, oparty<br />

na rzeczywistych danych zbieranych dzień po dniu.<br />

Ponadto możliwość wykonywania ratingu<br />

na bieżąco oraz zapewnienie ubezpieczonym<br />

dostępu do tych informacji poprzez dedykowany<br />

portal, czyni cały proces interaktywnym.<br />

System nie tylko pozwala efektywnie przyznawać<br />

zniżki tym kierowcom, którzy jeżdżą bezpiecznie,<br />

ale wręcz motywuje kierowców do zmiany stylu<br />

jazdy na bezpieczniejszy.<br />

***<br />

W artykule są zamieszczone ilustracje pochodzące z firm SAP oraz QlickTech prezentujące przykładowe kokpity.<br />

Ekspert w Dziale systemów <strong>Business</strong> <strong>Intelligence</strong> Infivide-Matrix. Posiada kilkunastoletnią praktykę w projektowaniu<br />

i budowie złożonych systemów Hurtowni Danych, a zwłaszcza duże doświadczenia w zakresie analizy, w tym m.in.: analiza<br />

wymagań użytkownika, analiza procesów biznesowych, przygotowanie i prezentacja prototypów, umiejętność i doświadczenie<br />

w wykonywaniu analiz danych oraz analiz jakości danych. Szeroka znajomość tematyki biznesowej firm telekomunikacyjnych.<br />

Specjalizuje się w systemach raportowych od identyfikacji potrzeb użytkowników do wdrożenia gotowego rozwiązania.<br />

Jest ekspertem od rozwiązania SAP <strong>Business</strong>Objects. W ramach Infovide-Matrix jest odpowiedzialny za kompetencje<br />

w zakresie systemów <strong>Business</strong> <strong>Intelligence</strong>.<br />

Wojciech Wronka<br />

Manager w Dziale Technologii Hurtownianych, odpowiedzialny za dydaktykę i rozwój kompetencji związanych z budową<br />

Hurtowni Danych, prze<strong>twarz</strong>aniem i integracją danych. Od czternastu lat bierze czynny udział w projektowaniu warstw<br />

zasilania, kształtowaniu architektury rozwiązań oraz budowaniu strategii rozwoju Hurtowni Danych dla klientów z branży<br />

Telco. Specjalizuje się budowie rozwiązań w obszaru sterowania zasilaniem, integracji narzędzi ETL, narzędzi kontroli i poprawy<br />

jakości danych, zarządzania meta-danymi. Szczególne miejsce w obszarze zainteresowań zajmują zagadnienia związane<br />

z prze<strong>twarz</strong>aniem równoległym i rozwiązania klasy Data Warehouse Appliance (Teradata, Microsoft Parallel Data Warehouse,<br />

IBM Netezza czy Oracle Exadata).<br />

25


Najnowsze trendy w <strong>Business</strong><br />

<strong>Intelligence</strong> – z czym to się je,<br />

jak czytać menu i co zamówić?<br />

26<br />

Marcin Choiński, BI.PL<br />

<strong>Business</strong> Analytics, Big Data, Mobile BI, Cloud BI, Collaborative BI – to tylko niektóre<br />

z lansowanych w ostatnim czasie trendów na rynku rozwiązań <strong>Business</strong> <strong>Intelligence</strong>.<br />

Czy to jedynie nowe ‘buzzwords’, kreowane celem zwiększenia sprzedaży vendorów<br />

rozwiązań BI, czy może użyteczne technologie? W niniejszym materiale postaram się<br />

po krótce opowiedzieć skąd się wzięły, czego dotyczą oraz kto i kiedy powinien zastanowić<br />

się nad ich wykorzystaniem.<br />

<strong>Business</strong> Analytics - nowe „stare” <strong>Business</strong><br />

<strong>Intelligence</strong> i Performance Management<br />

Podczas Gartner BI Summit 2012 w Londynie,<br />

Gartner rozpoczął na dobre lansowanie nowego<br />

terminu - <strong>Business</strong> Analitics (BA), w miejsce<br />

starego, poczciwego <strong>Business</strong> <strong>Intelligence</strong><br />

(BI). W czym zatem BA jest inne (lepsze?)<br />

od BI? Z definicji termin ten ma pokrywać<br />

zarówno aspekty związane z dostarczaniem<br />

kompleksowych narzędzi analitycznych<br />

(BI i Data Warehousing), jak i ich metodycznym<br />

i skutecznym wykorzystaniem, celem lepszego<br />

przekładania strategii (planowanie, monitorowanie,<br />

optymalizacja) na realne działania i wydajność<br />

organizacji (Performance Management).<br />

Czy ma to jakiekolwiek znaczenie dla samej<br />

dziedziny, czy biznesowych zastosowań analityki?<br />

Oczywiście praktyczne żadne, poza nową<br />

nomenklaturą i kolejnym terminem, którego<br />

precyzyjnej definicji nikt do końca nie będzie<br />

w stanie podać i każdy będzie miał jego własne<br />

rozumienie. Podobnie jest obecnie z terminem<br />

<strong>Business</strong> <strong>Intelligence</strong>, który jedni rozumieją jako<br />

rozwiązania do raportowania i analizy danych, inni<br />

włączają w jego zakres również aspekty związane<br />

z dziedziną Hurtowni Danych (Data Warehousing),<br />

a jeszcze inni rozumieją przez niego również<br />

praktyczne wykorzystanie analityki w celach<br />

biznesowych, czyli dokładnie to, co pod terminem<br />

<strong>Business</strong> Analytics definiuje Gartner.<br />

Jak stare jest <strong>Business</strong> <strong>Intelligence</strong>?<br />

Skoro mamy mówić o nowościach w BI, to warto<br />

też zwrócić uwagę na to, co było kiedyś.<br />

Żeby jednak mówić o BI i jego początkach,<br />

przytoczę najpierw jedną (z wielu) definicji tego<br />

terminu, którą uważam za najbardziej odpowiednią<br />

i kompleksową.<br />

„<strong>Business</strong> <strong>Intelligence</strong> to zbiór praktyk, metodyk,<br />

narzędzi i technologii informatycznych służących<br />

do zbierania i integrowania danych, w celu<br />

dostarczania właściwej wiedzy i informacji<br />

do właściwych osób we właściwym czasie.”<br />

Jeżeli przyjmiemy takie rozumienie BI, to okaże się<br />

(z niewielkim przymrużeniem oka), że już starożytne<br />

cywilizacje skutecznie stosowały analitykę<br />

i monitorowały pewne kluczowe wskaźniki<br />

wydajności. Ponad pięć tysięcy lat temu Egipcjanie<br />

budowali pierwsze tzw. nilomierze, które pozwalały<br />

im śledzić stan wód Nilu oraz, na podstawie<br />

odpowiednich odczytów, prognozować stan<br />

rzeki w kolejnych miesiącach. Dzięki tym danym<br />

byli oni w stanie przewidzieć, jakie plony będą<br />

w danym roku, a co za tym idzie, jakie podatki<br />

mogą zostać nałożone na pospólstwo. Gdyby tylko<br />

mieli dostępną technologię monitoringu, to być<br />

może jeden z kokpitów menadżerskich głównego<br />

ekonoma Egiptu, wyglądałby jak przedstawiono<br />

na Rysunku 1.


Dużo bardziej współcześnie wyglądające<br />

zestawienia i raporty powstawały już w XVIII wieku.<br />

Przykładem może być swoisty data mashup,<br />

prezentujący na jednym zestawieniu kilka<br />

różnych informacji w kontekście kilku wymiarów<br />

(Rysunek 2). Stworzył je w 1821 roku szkocki<br />

inżynier, grawer i pasjonat polityki gospodarczej<br />

– William Playfair. Prezentuje ono porównanie<br />

cen kwartału pszenicy z wynagrodzeniem dobrego<br />

mechanika w perspektywie czasu (lata 1565-1821)<br />

zobrazowanej panowaniem poszczególnych<br />

władców w Anglii, którego celem było pokazanie,<br />

że pszenica jeszcze nigdy nie była tak tania<br />

względem przeciętnych wynagrodzeń.<br />

Inne przykłady innowacyjnych form wizualizacji<br />

z czasów, kiedy o komputerach jeszcze nikt<br />

nawet nie marzył (przedstawione na Rysunku 3.),<br />

to bogata wizualizacja kampanii napoleońskiej<br />

z wieloma wymiarami na jednym zestawieniu,<br />

wykres mapowy (oba autorstwa francuskiego<br />

inżyniera Charlesa Josepha Minarda), czy<br />

wykres radarowy autorstwa Williama Farra<br />

(wszystko XVIII w.).<br />

Oczywiście wraz z rozwojem technologii<br />

informacyjnych dotarliśmy w ostatnich latach<br />

do momentu, gdzie analityka biznesowa<br />

danych jest ściśle związana z rozwiązaniami<br />

informatycznymi, które utożsamiamy z pojęciem<br />

<strong>Business</strong> <strong>Intelligence</strong>. Kojarzy się nam ona bardziej<br />

z kokpitem informacyjnym, jak na Rysunku 4.,<br />

niż z kamiennymi schodkami na brzegu Nilu.<br />

(Kluczowe) zmiany, zmiany, zmiany<br />

Nie trudno zauważyć, że jednym z kluczowych<br />

czynników odpowiedzialnych za rozwój<br />

w dziedzinie analityki biznesowej (jako szeroko<br />

rozumianego <strong>Business</strong> <strong>Intelligence</strong>), jest<br />

postęp technologiczny (ale również kulturowy<br />

i cywilizacyjny). Poniżej omówione zostały kluczowe<br />

zmiany, jakie zaszły w ostatnich dziesięcioleciach<br />

i latach, które miały kluczowy wpływ na rozwój<br />

dziedziny <strong>Business</strong> <strong>Intelligence</strong> i jej najnowsze<br />

trendy.<br />

Rysunek 1. Hipotetyczny kokpit menadżerski głównego<br />

ekonoma Egiptu sprzed kilku tysięcy lat<br />

Rysunek 2. Data mashup - William Playfair 1821 rok.<br />

Rysunek 3. Przykłady zaawansowanych form wizualizacji<br />

danych z XVIII w.<br />

Rysunek 4. Przykładowy kokpit menadżerski<br />

27


28<br />

Rysunek 5. Kość pamięci ferrytowej<br />

Rysunek 6. Taktowanie zegarów w komputerach<br />

z lat 90-tych<br />

Rysunek 7. Popularny modem transmisji danych<br />

z prędkością 56 kbit/s<br />

Coraz więcej coraz tańszej pamięci<br />

W końcu lat czterdziestych ubiegłego wieku<br />

wynaleziono magnetyczną pamięć ferrytową,<br />

która byłą jedną z pierwszych nie-mechanicznych<br />

form przechowywania informacji. Pamięci tego<br />

typu stosowane były do końca lat 70-tych.<br />

Przedstawiona na Rysunku 5. kość, ma wielkość<br />

strusiego jaja i może pomieścić zaszczytne<br />

28 672 bajty (4096 56-bitowych słów, czyli<br />

229 376 bitów, gdzie każdy bit to jeden<br />

rdzeń ferrytowy).<br />

Prawo Moore’a, mówiące o podwajaniu się<br />

liczby tranzystorów w pojedynczym układzie<br />

scalonym co dwa lata, ma zastosowanie również<br />

dla pamięci (zarówno operacyjnej, jak i dysków<br />

twardych). Dodatkowo pamięć ta jest coraz<br />

tańsza. W 1956 roku 1 megabajt dysku twardego<br />

kosztował bagatela $10 000, w latach 80-tych<br />

koszt ten spadł już do $200. W roku 2010<br />

za 1 centa można było dostać ponad 100<br />

megabajtów. Spada również czas dostępu do<br />

pamięci (patrz ostatnia rewolucja związana<br />

z dyskami SDD).<br />

Coraz szybsze prze<strong>twarz</strong>anie danych<br />

Jeszcze w latach 90-tych, w erze popularyzacji<br />

komputerów klasy PC, mieliśmy do czynienia<br />

z zegarami procesorów taktowanymi z prędkością<br />

20 MHz. Kto nie pamięta przycisku „Turbo”<br />

(Rysunek 6.) np. na komputerach 486, które<br />

pozwalały zmienić taktowanie zegara z 20<br />

na 40 MHz, celem zapewnienia zgodności<br />

wstecz z programami, które działały w oparciu<br />

o wolniejsze zegary. Kilka lat temu doszliśmy<br />

do fizycznych granic możliwości technologii<br />

półprzewodnikowych, gdzie przy taktowaniu<br />

zegara na poziomie 4GHz prąd był w stanie<br />

przebyć całe 8 m. Oznacza to, że pamięć nie<br />

mogła być fizycznie dalej, jak 4 cm od procesora,<br />

aby prąd zdążył do pamięci dotrzeć i wrócić<br />

z wynikami do procesora w czasie jednego taktu.<br />

Fakt ten, wraz z problemami z chłodzeniem<br />

tak szybko działających układów sprawił,<br />

że posiadanie np. 4 rdzeni procesora jest obecnie<br />

cechą najzwyklejszych komputerów klasy PC,<br />

a nie rozwiązań serwerowych.<br />

Coraz większa prędkość transmisji danych<br />

Dwa miesiące temu firma IBM przeprowadziła<br />

testy łącza, pozwalającego na transmisję danych<br />

z prędkością 1 Tbit/s, a jeszcze tak niedawno<br />

korzystaliśmy z modemów i łączy klasy dial-up,


działających z prędkością 56 kbit/s. Obecnie<br />

jesteśmy w stanie przesyłać olbrzymie ilości danych<br />

praktycznie w czasie rzeczywistym.<br />

Postęp technologiczny w pigułce<br />

Obraz podobno wart tysiąca słów. Rysunek 8.<br />

przedstawia postęp technologiczny ostatnich<br />

dziesięcioleci w pigułce. Współczesne pralki mają<br />

obecnie lepsze procesory i więcej pamięci niż sonda<br />

Apollo 11, która pozwoliła Neilowi Armstrongowi<br />

stanąć na Księżycu i bezpiecznie wrócić na Ziemię.<br />

Nie tylko technologia się zmienia<br />

Zmiany, z którymi mamy obecnie do czynienia,<br />

tyczą się nie tylko aspektów technologicznych.<br />

Na rynku pojawia się obecnie nowa klasa<br />

pracowników, a co za tym idzie użytkowników<br />

biznesowych systemów IT, którzy mają zupełnie<br />

inne kompetencje oraz zupełnie inne oczekiwania<br />

wobec rozwiązań informatycznych. Przeciętny<br />

użytkownik facebooka potrafi publikować<br />

różnego rodzaju treści, zarządzać uprawnieniami<br />

do swoich publikacji, definiować grupy<br />

użytkowników i przypisywać im odpowiednie role<br />

i uprawnienia – do niedawna była to domena<br />

jedynie administratorów systemów IT. Przeciętny<br />

użytkownik iGoogle za to, potrafi zbudować<br />

swój własny, interaktywny kokpit menadżerski.<br />

Rzesze osób o profilu biznesowym budują własne<br />

strony internetowe i blogi w oparciu i silniki<br />

CMS, takie jak WordPress, a dane o ruchu na nich<br />

analizują w rozwiązaniach typu Google Analytics.<br />

Big Data Analytics<br />

Jednym z głównych trendów w zakresie<br />

<strong>Business</strong> <strong>Intelligence</strong> jest obecnie tzw. Big Data.<br />

Oczywiście, jak jest to w przypadku większości<br />

aspektów związanych z BI, brak jest jednej<br />

i powszechnie uznanej definicji tego terminu.<br />

Biorąc pod uwagę samą nazwę, która wskazuje<br />

Rysunek 8. Co ma p...ralka do Apollo 11?<br />

Rysunek 9. <strong>Nowa</strong> klasa użytkowników biznesowych<br />

na duże ilości danych, możemy mówić<br />

o zbiorach danych o rozmiarach, których<br />

analiza i prze<strong>twarz</strong>anie przekracza możliwości<br />

standardowych systemów baz danych oraz narzędzi<br />

analitycznych. Takie podejście oznacza oczywiście<br />

płynną granicę, która obecnie powinna znajdować<br />

się w granicach setek terabajtów, czy petabajtów.<br />

Termin Big Data nie jest jednak związany<br />

jedynie z ilością danych, jakie prze<strong>twarz</strong>amy<br />

analitycznie. Jednym z kluczowych aspektów<br />

jest tutaj różnorodność tychże danych. Dawniej<br />

analizowaliśmy, głównie ze względu na dostępne<br />

dane źródłowe i możliwości technologiczne,<br />

zagregowane dane dotyczące kluczowych transakcji<br />

dla danego biznesu (np. pozycje z faktur, czy<br />

paragonów). Z czasem i postępem technologicznym<br />

byliśmy w stanie gromadzić i analizować dane<br />

na poziomie poszczególnych transakcji (dla różnych<br />

procesów biznesowych w organizacji). Technologia<br />

RFID, czy popularyzacja sklepów internetowych,<br />

pozwoliły nam na analizę tzw. sub-transakcji,<br />

czyli zdarzeń, które doprowadziły do transakcji<br />

(np. obejrzenie przez klienta produktów A, B<br />

i C, przed wybraniem i zakupem produktu B).<br />

29


30<br />

Rysunek 10. Big Data Analytics<br />

Obecnie (i jest to fakt rynkowy, a nie badania<br />

akademickie) analizuje się również zdarzenia, które<br />

doprowadziły do sub-transakcji (tzw. light-touch<br />

data fragments) – np. poprzez analizę ścieżek (dane<br />

GPS), jakimi poruszają się klienci i to kiedy i w jaki<br />

sposób odwiedzają poszczególne sklepy.<br />

Można powiedzieć, że obecnie Big Data odnosi<br />

się do rozwiązań, które pozwalają w sposób<br />

zintegrowany śledzić wszelkie możliwe dane na<br />

temat interakcji¬ klientów z naszym biznesem.<br />

Na poziomie biznesowym jest to swoisty transfer<br />

technologii, z tej zorientowanej na analizę<br />

transakcji, na zorientowaną na analizę interakcji.<br />

Od strony technologicznej, Big Data nie jest nową<br />

klasą systemów, a raczej zbiorem różnorodnych<br />

rozwiązań i technologii, które wykorzystywane są<br />

do analityki dużych zbirów danych. Wśród nich<br />

możemy wyróżnić:<br />

• Data Warehouse Appliances – zintegrowane<br />

rozwiązania obejmujące z reguły<br />

prekonfigurowany sprzęt, system operacyjny,<br />

system zarządzania bazą danych, referencyjny<br />

model danych, aplikacje analityczne;<br />

• Rozwiązania in-memory – narzędzia<br />

pozwalające na analizę dużej ilości danych<br />

w pamięci operacyjnej, często na maszynie<br />

użytkownika końcowego. Z reguły są to<br />

rozwiązania klasy Data Discovery, zapewniające<br />

dużą swobodę użytkownikom biznesowym,<br />

kosztem większych problemów z zarządzaniem<br />

i utrzymaniem rozwiązania;<br />

• Kolumnowe bazy danych – technologia<br />

bazodanowa oparta o przechowywanie<br />

danych na dyskach w ułożeniu kolumnowym,<br />

a nie wierszowym (klasyczne RDBMS<br />

przechowują w sąsiednich komórkach pamięci<br />

dane wiersza tabeli). Technologia jest znana<br />

od dawna, jednak została spopularyzowana<br />

w ramach rozwiązań analitycznych, gdzie<br />

ze względu na specyfikę dostępu do danych<br />

(odczyty dużej ilości danych w oparciu<br />

o filtrowanie po wartości wybranych kolumn),<br />

przy przechowywaniu i kompresowaniu kolumn<br />

danych, możliwa jest optymalizacja ilości<br />

odczytów z dysku (w dzisiejszych czasach<br />

jest to najbardziej znaczące wąskie gardło).<br />

Problemem tego typu rozwiązań jest<br />

odpowiednia konfiguracja, celem wykorzystania<br />

potencjały technologii;<br />

• Dedykowane rozwiązania – systemy szyte na<br />

miarę, pod konkretne zastosowania biznesowe;<br />

• Optymalizacja – przy analityce dużych<br />

zbirów danych wciąż nieoceniona jest klasyczna<br />

optymalizacja, czyli m. in. partycjonowanie,<br />

kompresja danych, indeksowanie (np. indeksy<br />

bitmapowo-złączeniowe), tabele zorganizowane<br />

indeksowo, materializacja (systemy widoków<br />

zmaterializowanych dla wybranych<br />

tzw. cuboidów), query rewrite itp.<br />

W praktyce, w szczególności w Polsce, niewiele<br />

firm może i w praktyce korzysta z tak dużych<br />

zbiorów danych i będą to z reguły telekomy, banki,<br />

ubezpieczenia i instytucje finansowe, czy duże<br />

sieci handlowe. Zanim zdecydujemy się zapłacić<br />

za analizy „Big Data”, zweryfikujmy czy nasze dane<br />

są rzeczywiście „Big”, czy mamy odpowiednie dane<br />

źródłowe oraz czy mamy odpowiednią potrzebę<br />

oraz business-case.


Mobile BI – analityka w kieszeni analityka<br />

Od kilku lat mobilne aplikacje BI znajdują się<br />

w czołówkach prognoz na przyszłość sposobu<br />

korzystania z rozwiązań BI. Wydaje się być to<br />

w pełni uzasadnionym i logicznym trendem,<br />

biorąc pod uwagę rosnące wykorzystanie tabletów<br />

i smartfonów oraz ich coraz większe możliwości<br />

technologiczne. Parametry takie jak 800 MHz,<br />

64 GB, ekran 960x640 px, 17 milionów kolorów,<br />

są obecnie dostępne dla przeciętnego użytkownika<br />

smartfona, a jeszcze relatywnie niedawno były<br />

nieosiągalne dla klasycznych komputerów.<br />

Dodatkowo o powszechności wykorzystania<br />

urządzeń mobilnych może świadczyć fakt,<br />

że wg danych Apple w 2012 roku 92% firm z listy<br />

Fortune 500 przetestuje lub wdroży iPady.<br />

Mimo to, wg raportu BARC „The BI Survay<br />

10”, tylko 8% firm przyznaje się do korzystania<br />

z mobilnego dostępu do swoich raportów i analiz.<br />

Faktem jest, że głównymi zainteresowanymi<br />

są wysocy rangą menadżerowie i członkowie<br />

zarządów, którzy z reguły oczekują gotowych<br />

informacji na życzenie od swoich analityków.<br />

Z drugiej strony prawie 30% respondentów<br />

BARC potwierdziło plany wdrożenia mobilnego<br />

BI, a Gartner prognozuje wzrost wykorzystania<br />

tego typu rozwiązań w tempie 40% CAGR.<br />

Na rynku już od paru lat jest dostępnych wiele<br />

mobilnych aplikacji analitycznych (w szczególności<br />

rozwiązania zintegrowane z wiodącymi platformami<br />

BI, czy rozwiązania takie jak RoamBI). Z pewnością<br />

wiele pracy jest jeszcze do wykonania w obszarze<br />

form wizualizacji danych, które powinny być lepiej<br />

dopasowane do możliwości urządzeń mobilnych<br />

– w szczególności rozmiarów ich ekranów<br />

oraz interfejsów.<br />

Na pewno warto rozważyć skorzystanie<br />

z mobilnego BI, ale jedynie w przypadku<br />

gdy istnieje dla tego typu rozwiązań odpowiednie<br />

uzasadnienie i business case w naszej organizacji.<br />

Cloud BI – bujanie w obłokach,<br />

czy praktyczne rozwiązania<br />

Coraz więcej firm w Polsce i na świecie decyduje<br />

się na rozwiązania „w chmurze”, czy w modelu<br />

SaaS (Software as a Service). Rozwiązania te<br />

z pewnością dają możliwość zredukowania kosztów<br />

i swoistego outsourcingu infrastruktury (również<br />

BI) w skali dopasowanej do aktualnych potrzeb<br />

organizacji. Mimo to, nie są to jeszcze rozwiązania<br />

w naszym kraju bardzo popularne, a stosowanie<br />

ich nabiera największego sensu w chwili, gdy<br />

pełna infrastruktura systemów informatycznych<br />

organizacji znajduje się w chmurze (prywatnej<br />

lub publicznej).<br />

W teorii rozwiązania oparte o chmurę są coraz<br />

bardziej stabilne, wydajne, bezpieczne i godne<br />

zaufania. Przeczy temu jednak fakt, że awaria<br />

jednego z głównych dostawców rozwiązań<br />

cloudowych w Polsce sprawiła, że kilka<br />

popularnych serwisów internetowych na pewien<br />

czas przestało działać, a część ich danych została<br />

bezpowrotnie utracona.<br />

Decydując się na rozwiązanie BI „w chmurze” warto<br />

zwrócić szczególną uwagę na aspekty integracyjne.<br />

Praktyczne zastosowanie mają obecnie głównie<br />

chmury prywatne. Rozwiązania BI dostępne jako<br />

typowy SaaS to wciąż jeszcze nisza.<br />

Rysunek 11. Mobile <strong>Business</strong> <strong>Intelligence</strong> -<br />

wodotyrysk, czy użyteczna technologia<br />

Rysunek 12. Cloud <strong>Business</strong> <strong>Intelligence</strong><br />

31


32<br />

BI dla mas, czyli rozpowszechnienie<br />

zastosowania BI<br />

Wg danych TDWI, w 2009 roku adopcja rozwiązań<br />

<strong>Business</strong> <strong>Intelligence</strong> (liczona jako użytkowników<br />

korzystających z BI co najmniej raz w tygodniu<br />

do wszystkich mających licencje) była na poziomie<br />

24%. Dane te nie uległy znaczącej poprawie<br />

w ostatnich latach, co oznacza, że jest bardzo<br />

wiele do zrobienia w obszarze rozpowszechnienia<br />

wykorzystania BI. Jest to kluczowe, ponieważ<br />

wartość jaką generują tego typu rozwiązania,<br />

powstaje właśnie w momencie, w którym<br />

użytkownik biznesowy podejmuje lepszą decyzję,<br />

dzięki dostępowi do odpowiedniej informacji.<br />

Aby zwiększyć adopcję BI należy wziąć pod uwagę<br />

nowe oczekiwania użytkowników biznesowych i to<br />

jak się oni zmieniają.<br />

Self-service, DIY (Do It Yourself), czyli więcej<br />

władzy w rękach użytkownika<br />

Użytkownicy biznesowi mają coraz większe<br />

wymagania, ale także coraz większe umiejętności,<br />

które warto zutylizować. Jak już wspomniałem<br />

wcześniej, opisując nową generację użytkowników<br />

biznesowych, ich umiejętności i kompetencje<br />

kształtują takie rozwiązania jak facebook (nazywam<br />

to efektem facebooka). Ich oczekiwania względem<br />

dostępu do informacji kształtują za to takie<br />

rozwiązania jak Google, gdzie z wykorzystaniem<br />

jednego pola tekstowego (obecnie nie musimy<br />

przecież nawet wciskać „Szukaj”) każdy może<br />

przeszukać cały Internet pod kątem wybranych<br />

słów kluczowych, czy zapytań w ciągu ułamka<br />

sekundy. Oczekiwania względem intuicyjności<br />

i ergonomii interfejsów użytkownika oparte<br />

są o standardy wyznaczane przez takie firmy,<br />

jak Apple. Coraz popularniejsze jest ostatnio<br />

stwierdzenie „proste jak Apple, szybkie jak Google”.<br />

Mamy do czynienia ze swoistą demokratyzacją<br />

informacji, gdzie tak naprawdę każdy może być<br />

i staje się tzw. Chief Data Officerem. Trend ten<br />

wspierają narzędzia klasy Data Discovery,<br />

które dają olbrzymią swobodę użytkownikom<br />

biznesowym w analizę danych. Korzystając z tego<br />

typu rozwiązań, warto jednak uważać na sytuację,<br />

w której każdy ma swojego przysłowiowego<br />

„excela” i swoją wersję prawdy.<br />

Social media i Collaborative BI<br />

Social Media pojawia się w ujęciu trendów BI<br />

w dwóch kontekstach. Jeden z nich to analiza<br />

danych na temat aktywności społeczności,<br />

związanych z naszą organizacją i jej produktami.<br />

W szczególności w USA, konta firm na serwisach<br />

społecznościowych, takich jak twitter, czy facebook<br />

są kopalnią wiedzy i powstają dedykowane<br />

rozwiązania do analizy tego typu danych.<br />

Zanim jednak zdecydujemy się na wdrożenie tego<br />

typu narzędzia, warto zweryfikować, czy posiadamy<br />

odpowiednie dane do analizy.<br />

Inny obszar BI, gdzie pojawia się kontekst<br />

Socia Media, to sama konstrukcja narzędzi<br />

klasy analitycznych, która powinna zachęcać<br />

do współpracy i dzielenia się wiedzą pomiędzy<br />

użytkownikami (tzw. collaborative BI, social<br />

BI), tak jak robią to portale społecznościowe.<br />

Coraz więcej narzędzi BI korzysta z koncepcji<br />

zaczerpniętych z Web 2.0 (tworzenie treści,<br />

komentarze, ocena wartości treści, wiki, fora,<br />

ankiety, itp.) i warto ewaluować narzędzie pod<br />

tym kątem przed zakupem.<br />

Consumerization of Enterprise Software<br />

Dawniej rozwiązania klasy Enterprise,<br />

a w szczególności ich interfejsy użytkownika,<br />

były bardzo skomplikowane i złożone.<br />

Odwrotna sytuacja miała miejsce w przypadku<br />

rozwiązań sprzedawanych użytkownikom<br />

domowym, gdzie przede wszystkim liczyła się<br />

prostota i intuicyjność rozwiązania, tak aby


każdy mógł sobie z nim poradzić. Obecnie mamy<br />

do czynienia (nie tylko w kontekście <strong>Business</strong><br />

<strong>Intelligence</strong>) z trendem upraszczania interfejsów<br />

w rozwiązaniach dla biznesu, które stają się coraz<br />

łatwiejsze w obsłudze. Jeszcze raz można tutaj<br />

powtórzyć „szybkie jak Google, proste jak Apple”.<br />

Nowe wymagania dla systemów BI<br />

w zmiennym środowisku<br />

Nie tylko sami użytkownicy i ich wymagania się<br />

zmieniają, ale zmiany dotyczą także praktycznie<br />

wszystkich innych aspektów kontekstu biznesowego<br />

działania systemów <strong>Business</strong> <strong>Intelligence</strong>.<br />

Need for speed & Agilty<br />

Coraz ważniejszy dla użytkowników końcowych<br />

jest szybki i elastyczny dostęp do aktualnych<br />

informacji i analiz. Rośnie również zaawansowanie<br />

i poziom skomplikowania generowanych<br />

zapytań. Dodatkowo, mamy do czynienia z coraz<br />

większą ilością i różnorodnością analizowanych<br />

danych. <strong>Business</strong> <strong>Intelligence</strong> staje się częścią<br />

codziennego biznesu, gdzie kluczową rolę gra<br />

ciągłe planowanie, monitorowanie i optymalizacja,<br />

zgodnie z zasadami zarządzania wydajnością<br />

(Performance Management).<br />

Odpowiedzią na konieczność wykorzystania BI<br />

w czasie rzeczywistym są architektury on-demand,<br />

czy rozwiązania klasy Real-Time Data Warehousing.<br />

Ponieważ klasyczne rozwiązania BI są trudne<br />

w utrzymaniu, a ich rozwój często jest kosztowny<br />

i czasochłonny, potrzebne jest zdefiniowanie<br />

dla nich nowego cyklu życia. Potrzebny jest<br />

także odpowiedni i zrównoważony rozwój, gdyż<br />

rozwiązanie BI to nie tylko system informatyczny,<br />

ale przede wszystkim procesy z nim związane oraz<br />

ludzie, ich kompetencje oraz kultura organizacyjna<br />

(Rysunek 14).<br />

„Nowe” dane<br />

Rysunek 13. BI dla mas<br />

Rysunek 14. Składowe rozwiązania BI<br />

Wspomniane już coraz to nowe typy danych, jakie<br />

są analizowane, dotyczą m. in.:<br />

• danych, które pozwalają na modelowanie<br />

powiązań i sieci społecznych wśród klientów<br />

(np. dane telekomunikacyjne) – coraz szerzej<br />

stosowane są analizy sieci społecznych - SNA<br />

(ang. Social Network Analysis);<br />

• danych geolokalizacyjnych, pozwalających<br />

łączyć klasyczne analizy danych lokalizacyjnych<br />

z analizami klasy GIS (tzw. rozwiązania Location<br />

<strong>Intelligence</strong>);<br />

• danych nieustrukturalizowanych oraz<br />

danych częściowo ustrukturalizowanych, takich<br />

jak dokumenty tekstowe, wiadomości e-mail,<br />

publikacje w Internecie, komentarze na forach;<br />

• danych zewnętrznych dla organizacji – dane<br />

demograficzne, dane branżowe (benchmarking),<br />

dane lokalizacyjne;<br />

• danych o zachowaniach i preferencjach klientów<br />

– np. tzw. clickstreams ze stron WWW i sklepów<br />

internetowych.<br />

33


34<br />

Rysunek 15. Nowe dane<br />

Rysunek 16. Współpraca biznesu i IT<br />

Współpraca biznesu i IT<br />

Bardzo ważną kwestią dla współczesnych rozwiązań<br />

BI jest zapewnienie płynnej współpracy biznesu<br />

oraz IT. IT powinno mieć możliwie szerokie<br />

rozumienie działań biznesu oraz jego potrzeb.<br />

Biznes powinien być za to w pełni świadomy<br />

wpływu wymagań, które są definiowane, na<br />

skomplikowanie i koszt działań po stronie IT.<br />

Dobrą praktyką jest przekazywanie możliwie<br />

szerokich kompetencji na styku biznesu i IT stronie<br />

biznesowej. Zaangażowanie biznesu w budowę<br />

rozwiązania sprawia, że będzie ono lepiej<br />

odpowiadało na jego potrzeby, a jako współautor,<br />

biznes będzie mniej skory do narzekania, a bardziej<br />

nastawiony na konstruktywną pracę. Ze względu<br />

na opisane wcześniej zmiany w charakterze nowych<br />

użytkowników biznesowych, coraz większa ich<br />

liczba przejmuje kompetencje BI, które wcześniej<br />

były w rękach IT, który to trend powinien być<br />

w pełni wspierany przez IT. Jak najlepszą praktyką<br />

jest budowanie centrów kompetencji BI (BICC),<br />

które ze względu na swą naturę integrują osoby<br />

zarówno o profilu biznesowym, jak i IT, zapewniając<br />

ich (możliwie) efektywną współpracę.<br />

Praca u podstaw<br />

Ze względu na wiele zmian i pojawiających się<br />

nowych, często zaawansowanych koncepcji,<br />

tym bardziej należy zadbać o podstawy systemów<br />

analitycznych, czyli wysokiej jakości dane.<br />

Kluczowe jest tutaj dbanie o jakość systemów<br />

źródłowych oraz procesów biznesowych<br />

i rozwiązywanie problemów możliwie blisko<br />

źródła, a nie na etapie integracji danych.<br />

Dobrą praktyką jest wdrażanie rozwiązań do<br />

zarządzania kluczowymi danymi referencyjnymi<br />

w organizacji - systemy klasy MDM (ang. Master<br />

Data Management). Dbać należy również o jakość<br />

samych aplikacji <strong>Business</strong> <strong>Intelligence</strong>, jako że<br />

to właśnie one są interfejsem dla użytkowników<br />

biznesowych.<br />

Co jest tak naprawdę najważniejsze?<br />

Rynek rozwiązań <strong>Business</strong> <strong>Intelligence</strong> idzie do<br />

przodu i odpowiada na coraz to nowe wymagania<br />

biznesu. Warto jednak zwrócić uwagę, że często<br />

nowe trendy i nazwy rozwiązań są definiowane<br />

przez vendorów tylko po to, aby ich klienci,<br />

którzy zawsze idą z duchem innowacji i muszą<br />

mieć wszystkie „nowości”, wydali jeszcze więcej<br />

pieniędzy na ich rozwiązania.<br />

W ferworze doboru nowych narzędzi analitycznych<br />

dla naszego biznesu pamiętajmy przede wszystkim<br />

o naszym business-case i tym, czy inwestycja<br />

spina się biznesowo. Aby wdrożyć zaawansowane<br />

rozwiązanie musimy być też pewni, że posiadamy<br />

odpowiednio zaawansowane kompetencje.<br />

Dobry analityk jest w stanie docierać do<br />

zaawansowanych informacji z wykorzystaniem<br />

najprostszych narzędzi i zaawansowana


technologia z pewnością wesprze jego działania.<br />

Z drugiej strony słabemu analitykowi nie pomoże<br />

nawet najbardziej zaawansowane rozwiązanie.<br />

Warto odwołać się tutaj do przykładu<br />

XIX-wiecznego francuskiego fizyka Armanda<br />

Fizeau, który w 1849 roku, przy wykorzystaniu<br />

prymitywnych elementów, takich jak szkło, lustro<br />

(zwierciadło), źródło światła i koło zębate był<br />

w stanie obliczyć prędkość światła (pomylił się tylko<br />

o 2%). Jego doświadczenie (Rysunek 17.) polegało<br />

na „puszczaniu zajączka” na oddalone o niecałe<br />

10 km lustro (zwierciadło) poprzez szczelinki<br />

w kole zębatym. Następnie rozkręcał on koło<br />

do takiej prędkości, przy której „zajączek” znikał<br />

(dla obserwatora za kołem zębatym), ponieważ<br />

światło, które przeszło przez szczelinkę, odbiło<br />

Marcin Choiński<br />

Rysunek 17. Doświadczenie Fizeau<br />

się od zwierciadła i wróciło, robiło to w takim<br />

czasie, że trafiało już nie w szczelinkę, a wypustek<br />

koła zębatego, które wykonało część obrotu.<br />

Znając wielkość szczelinki i wypustka, prędkość<br />

obrotu koła oraz odległość lustra, Fizeau obliczył<br />

prędkość światła – bez żadnej skomplikowanej<br />

technologii, za to z genialnym pomysłem.<br />

Pasjonat wszystkiego co związane z Hurtowniami Danych, <strong>Business</strong> <strong>Intelligence</strong> (BI) oraz zaawansowaną analizą i odkrywaniem<br />

wiedzy w danych. Człowiek, który wierzy, że światy biznesu i IT da się pogodzić, a nawet zapewnić pomiędzy nimi synergię.<br />

Doświadczenie zdobywał m.in. prowadząc projekty wdrożeń Hurtowni Danych i systemów <strong>Business</strong> <strong>Intelligence</strong>, w tym duży<br />

projekt dla znaczącego, zagraniczonego operatora telekomunikacyjnego, kierując pracami w międzynarodowym projekcie<br />

badawczym z zakresu Data Mining, czy kierując rozwojem kilku produktów klasy BI. Założyciel i redaktor naczelny portalu<br />

BI.PL, wiceprezez w firmie Innotion Sp. z o. o. Prywatnie pasjonat futbolu amerykańskiego, zawodnik drużyny Warsaw Eagles.<br />

35


BI in-memory - nie wszystko złoto<br />

co się świeci<br />

36<br />

Marek Grzebyk, Hogart <strong>Business</strong> <strong>Intelligence</strong><br />

Zasadnicza zmiana na rynku BI stała się faktem, także w Polsce. Sukces innowacyjnych<br />

platform analitycznych opartych o technologie prze<strong>twarz</strong>ania w pamięci stał się tak<br />

jaskrawy, że coraz więcej dostawców tradycyjnego BI chce opatrzyć swoje produkty znakiem<br />

„in-memory”. Jednak nie wszystko złoto co się świeci. Tradycyjne narzędzia analityczne,<br />

już często uzbrojone w prze<strong>twarz</strong>anie w RAMie, dynamiką wzrostu i satysfakcją klienta<br />

wciąż nie mogą dorównać pionierom nowej generacji BI. Czy sama technologia „in-memory”<br />

jest rzeczywiście lekiem na wszystkie bolączki tradycyjnego BI?<br />

Dziś bez wątpienia można powiedzieć,<br />

że ostatnie lata światowego rynku BI stały pod<br />

znakiem zasadniczej przemiany w stosowanych<br />

technologiach oraz w świadomości i poziomie<br />

oczekiwań użytkowników biznesowych.<br />

Śledząc publikacje branżowe i teksty<br />

marketingowe dostawców BI rzadkością są<br />

dziś materiały, które nie wspominałyby choć<br />

na marginesie o „in-memory”, czy trendzie<br />

Data Discovery. Znamienne jest to, że bardzo<br />

często są to wypowiedzi firm, które jeszcze<br />

kilka lat temu deprecjonowały znaczenie<br />

i możliwość szerokiego stosowania właśnie<br />

tych technologii. Ta zmiana stanowiska jest<br />

bezpośrednią konsekwencją światowego<br />

sukcesu takich produktów jak np. QlikView<br />

oraz faktu, że są one coraz częściej przyjmowane<br />

przez użytkowników BI jako nowy standard<br />

jakości oraz nowy wzorzec koncepcji systemów<br />

analitycznych w przedsiębiorstwie. Ponadto, grono<br />

użytkowników nowego BI rośnie w ogromnym<br />

tempie. Dla przykładu QlikView działa obecnie<br />

w ponad 25 tys. firm w 100 krajach. Nie bez<br />

znaczenia jest fakt, że do tego grona zaliczają się<br />

też największe światowe koncerny. To najlepszy<br />

dowód, że przełom już nastąpił, a zmiana jest<br />

nieodwracalna. W tej sytuacji dostawcom narzędzi<br />

i usług z epoki OLAP pozostaje jedynie nie<br />

odstawać zbytnio od nowych trendów poprzez<br />

lepsze lub gorsze naśladownictwo.<br />

W ostatnim czasie widzimy wiele informacji<br />

prasowych, artykułów, tematów konferencji<br />

branżowych poświęconych wprowadzeniu bądź<br />

planom wprowadzenia przez dostawców BI<br />

nowych produktów, modułów, funkcjonalności,<br />

a prawie wszystko to spod znaku „in-memory”.<br />

Niestety coraz częściej można odnieść wrażenie,<br />

że mamy do czynienia z naśladownictwem<br />

nieudolnym, bo sprowadzającym się do<br />

skopiowania tylko jednej, najbardziej dostrzegalnej<br />

cechy oryginalnej koncepcji, nie zwracając przy<br />

tym uwagi na wszystkie inne ważne cechy.<br />

Efekt bardzo często można porównać z przykrym<br />

wrażeniem rozczarowania, jaki towarzyszy<br />

zakupowi taniej podróbki, która z zewnątrz<br />

wygląda jak produkt oryginalny, ale po<br />

bliższym spojrzeniu ujawnia słabą jakość,<br />

a czasami nawet brak podstawowej oczekiwanej<br />

funkcjonalności. W przypadku BI „in-memory”<br />

tą najbardziej widoczną, spektakularną cechą,<br />

która jest najchętniej „podrabiana”, to prosty<br />

fakt przeniesienia składowania danych lub ich<br />

prze<strong>twarz</strong>ania z dysków do pamięci operacyjnej.<br />

Oczywiście każdy ma prawo na swój sposób<br />

definiować termin „in-memory” (nie jest on<br />

opatentowany), ale warto sobie uświadamiać,<br />

które cechy, technologie i funkcjonalności były<br />

powodem sukcesu wiodących narzędzi BI nowej<br />

generacji, a które są tylko marketingową etykietką<br />

naklejaną na tradycyjne podejście do BI. Proste<br />

przeniesienie prze<strong>twarz</strong>ania danych z dysku<br />

do pamięci z pewnością przyspiesza działanie<br />

wybranych funkcji systemu. Należy tu jednak<br />

postawić dwa pytania. Czy samo przyspieszenie<br />

reakcji systemu na zapytania użytkowników daje


gwarancję powodzenia projektu BI i zadowolenia<br />

użytkowników? Oraz czy zastosowana technologia<br />

BI przyspiesza cały cykl projektowania,<br />

prze<strong>twarz</strong>ania i analizy danych, czy tylko daje<br />

lepszy komfort pracy użytkownika końcowego<br />

podczas gdy zasilanie i prze<strong>twarz</strong>ania danych jest<br />

wciąż długotrwałe i nieelastycznie.<br />

Według Jamesa Richardsona - analityka rynku<br />

BI z Gartner Group - w przepisie na nowoczesne<br />

i skuteczne platformy analityczne, czyli takie które<br />

przynoszą przełom we współczesnym BI, koniecznie<br />

muszą wyróżniać się trzy najważniejsze cechy:<br />

• Wydajność rozumiana jako szybkość odpowiedzi<br />

oraz szybkość prze<strong>twarz</strong>ania dużych wolumenów<br />

danych bez eskalacji wymagań sprzętowych<br />

(zapewniana przede wszystkim przez asocjacyjne<br />

bazy „in-memory” zdolne do przechowywania<br />

dużych wolumenów gęsto skompresowanych<br />

danych);<br />

• Elastyczność rozumiana jako bardzo wysoka<br />

zdolność narzędzia do szybkiego zaadoptowania<br />

zmian wymagań i przebudowy zarówno sposobu<br />

wizualizacji danych jak i modelu pobierania<br />

i prze<strong>twarz</strong>ania danych. Elastyczność powinna<br />

występować zarówno w fazie projektowej,<br />

jak i w trakcie produkcyjnego użytkowania<br />

systemu, umożliwiając stosowanie zwinnych<br />

metodyk wdrożeniowych, tzw. agile;<br />

• Prostota rozumiana jako łatwość użytkowania<br />

i projektowania systemu, przejrzystość<br />

i atrakcyjność interfejsu graficznego,<br />

nakierowanie na użytkownika biznesowego,<br />

m.in. dostosowanie do wdrożeń tzw. self-service;<br />

Pominięcie któregokolwiek z tych „sekretnych”<br />

składników powoduje, że cała „magiczna” mikstura<br />

nie działa. Duża szybkość działania aplikacji,<br />

jaką daje prze<strong>twarz</strong>anie w pamięci, sama w sobie<br />

po prostu nie wystarcza do osiągnięcia<br />

pełnego sukcesu. Te trzy proste kryteria dobrze<br />

tłumaczą zmienne powodzenie dostawców BI<br />

w usprawnianiu posiadanych narzędzi poprzez<br />

samo turbodoładowanie technologią „in-memory”.<br />

Powolne działanie, mała podatność na zmiany oraz<br />

trudność użytkowania to model tradycyjny, oparty<br />

o OLAP, dający najmniejsze szanse na pełen sukces<br />

inicjatywy BI.<br />

System szybki i wydajny, ale nieelastyczny<br />

i trudny w obsłudze, to z dużą pewnością<br />

przepis na spektakularną (i szybką!) porażkę.<br />

Użytkownicy nielubiący korzystać z systemu,<br />

porzucą go bardzo szybko, gdy okaże się,<br />

że nie można go także dostosować w przyszłości<br />

do ich nowych potrzeb. System szybki, wydajny<br />

i elastyczny, ale trudny w obsłudze przy odrobinie<br />

szczęścia, skończy jako skomplikowane i zapewne<br />

bardzo kosztowne narzędzie do eksportu danych<br />

do Excela, którym użytkownicy będą woleli się<br />

posługiwać w ostatnich etapach prezentacji<br />

i analizy. Kolejna kombinacja, to dobra wydajność<br />

i prostota obsługi, ale nie idący z nimi w parze brak<br />

elastyczności. W takiej konfiguracji użytkownicy<br />

z czasem będą zmuszeniu do tworzenia dużej<br />

liczby raportów nadrabiających braki elastyczności<br />

modelu. Koszt utrzymania i poziom zadowolenia<br />

użytkowników nie będą najprawdopodobniej<br />

zadowalające.<br />

Z powyższego zestawienia możliwych scenariuszy<br />

widać, jak duże znaczenie poza szybkością<br />

działania, wynikającą wprost z technologii<br />

„in-memory”, mają pozostałe wymagane<br />

cechy. Elastyczność i prostotę można uzyskać<br />

przede wszystkim z jakości projektu i koncepcji<br />

narzędzia analitycznego. Dlatego obecność<br />

wszystkich wymaganych cech najłatwiej uzyskać<br />

w oprogramowaniu projektowanym od samego<br />

początku z wykorzystaniem architektury<br />

asocjacyjnych baz „in-memory”, od początku<br />

zakładającym, że jest przeznaczone przede<br />

wszystkim dla użytkownika biznesowego,<br />

a nie wyłącznie dla programisty SQL.<br />

37


38<br />

Obserwując dostępne narzędzia i usługi BI<br />

warto bacznie przyglądać się szczególnie tym,<br />

które właśnie teraz ulegają swoistej medialnej<br />

transformacji - od koncepcji OLAP do tej<br />

nowoczesnej. Trwa swoisty marketingowy wyścig<br />

dostawców BI w kategorii systemów „najbardziej<br />

in-memory”. Warto nie zadowalać się prostymi<br />

Marek Grzebyk<br />

Dyrektor Zarządzający HOGART BUSINESS INTELLIGENCE<br />

stwierdzeniami, a weryfikować opisywane<br />

rozwiązania odnoszące się do „prze<strong>twarz</strong>ania<br />

w pamięci” właśnie pod kątem elastyczności,<br />

prostoty, kosztów posiadania najlepiej w długim<br />

horyzoncie czasowym. Pozwoli to łatwo<br />

odróżnić rzeczywistych liderów innowacji w BI<br />

od nieudolnych naśladowców.<br />

Zarządza w Grupie Hogart pionem rozwiązań <strong>Business</strong> <strong>Intelligence</strong> opartym o najnowszą generację narzędzi analitycznych<br />

QlikView. Współtworzył koncepcję wprowadzenia produktu QlikView na polski rynek, definiował strategię sprzedaży<br />

dla tego rozwiązania, a także doprowadził do podpisania kilku najpoważniejszych kontraktów wdrożeniowych QlikView<br />

w Polsce. Związany z Grupą Hogart od 1996, początkowo kierował działem rozwoju oprogramowania i wsparcia<br />

technicznego dla produktów Oracle/JDEdwards. Zyskał wieloletnie doświadczenie w zarządzaniu projektami IT<br />

w firmach polskich i międzynarodowych, a także w dziedzinie rozwoju aplikacji oraz narzędzi analityczno-raportowych.<br />

Absolwent Wydziału Zarządzania Akademii Ekonomicznej w Krakowie.


Nikt w Europie nie walczy już o nowego<br />

klienta. Każdy walczy o utrzymanie „starego”.<br />

Czy rozwiązania BI wdrożone w ostatnich<br />

10 latach są w stanie nam to zapewnić?<br />

Nie, absolutnie nie. I przyznaję się do tego,<br />

jako naczelny propagator tych rozwiązań.<br />

Luiza Warno, Orange<br />

39


40<br />

Big Data – Quick Start Guide<br />

Patryk Choroś, SAS Institute<br />

Na silnie nasyconym rynku, gdzie klient ma realną możliwość wyboru, umiejętność zwiększenia<br />

trafności podejmowanych decyzji zaledwie o pojedyncze procenty może decydować o sukcesie<br />

lub porażce.<br />

Czym jest „Big Data”?<br />

W świecie analityki pojawiło się nowe pojęcie,<br />

nowy kierunek – „big data”. W skrócie pojęcie to<br />

oznacza tendencję do poszukiwania i wykorzystania<br />

wartości biznesowej, drzemiącej w dostępnych<br />

coraz większych wolumenach danych.<br />

Pochodzą one z niezliczonej liczby miejsc, często<br />

spoza organizacji, z obszarów do tej pory zupełnie<br />

niekwalifikowanych jako źródła informacji istotnych<br />

dla podejmowania właściwych decyzji biznesowych<br />

(jak np. media społecznościowe). To naturalna kolej<br />

rozwoju biznesu i ewolucja, której de facto należało<br />

się spodziewać. W publikacjach i literaturze<br />

odnaleźć możemy także dodatkowe określenie<br />

równoważne w wielu aspektach z ideą „big data” –<br />

jest to High Performance Analytics.<br />

W przeszłości wystarczała wiedza o działaniu<br />

organizacji, poszukiwaliśmy przewag biznesowych<br />

w dobrej organizacji procesów biznesowych<br />

(np. produkcyjnych) poprzez wdrożenia<br />

systemów ERP oraz raportowanie operacyjne.<br />

Kolejnym krokiem było poszukiwanie trendów<br />

w posiadanych zbiorach danych, analizowanie<br />

przyczyn zachodzących wydarzeń – tak rozwijał się<br />

obszar wdrożeń systemów <strong>Business</strong> <strong>Intelligence</strong><br />

i tak powstawały pierwsze hurtownie danych.<br />

Wiązało się to także z ewolucją platform baz<br />

danych i zaczęły powstawać specjalizowane<br />

narzędzia analityczne służące odkrywaniu<br />

takich wzorców.<br />

Wtedy wkroczyliśmy w erę konkurowania analityką<br />

(ang. „competing on analytics”). Zaczęliśmy<br />

przewidywać zachowania naszych klientów<br />

(np. prognozowanie prawdopodobieństwa odejścia<br />

klienta, tzw. churn) oraz optymalizować nasze<br />

działania, szczególnie łańcuchy logistyczne oraz<br />

działania marketingowe oraz cenniki naszych usług<br />

i produktów. To jednak we współczesnym świecie<br />

nie wystarcza. Pojawiają się nowe trendy, gdzie<br />

analizie poddajemy także dane niestrukturalne<br />

- przykładem jest tzw. „text mining” lub analiza<br />

wizerunku w mediach społecznościowych, które<br />

znacząco rozszerzają zakres wiedzy niezbędnej do<br />

podejmowania właściwych decyzji biznesowych.<br />

Ze względu na złożoność systemów ekonomicznych,<br />

w których funkcjonują największe firmy trzeba<br />

zauważyć, że łańcuch wartości, jaki chcą one<br />

dostarczać klientom znacząco się wydłuża.<br />

W tej chwili zwykłe promowanie produktu już nie<br />

wystarcza. Poszukujemy ciągłego wznoszenia się<br />

w piramidzie identyfikowanej przez „experience<br />

economy” 1 zmierzając w kierunku dostarczania nie<br />

tylko usług i produktów, ale kompletnego zestawu<br />

doświadczeń, które pozwalają na oczekiwanie<br />

wyższych marż i lojalności od naszych klientów.<br />

Takie rozbudowanie łańcucha wartości rozszerza<br />

zakres informacji, z którymi na co dzień musimy się<br />

zmierzyć w procesie podejmowaniu decyzji.<br />

Z drugiej strony oferta, którą kierujemy<br />

na rynek, produkt lub usługa, jest coraz<br />

bardziej złożona, ulega silnej personalizacji, jest<br />

wynikiem współpracy wielu ludzi i podmiotów.<br />

Złożony produkt i usługa opracowywana<br />

w spersonalizowany sposób to także dodatkowy<br />

1 „Experience economy” autorstwa Josepha Pine II<br />

oraz Jamesa H. Gilmore


Identyfikacja/nazwanie<br />

problemu<br />

aspekt zwiększający ilość informacji z tym<br />

związanych. Dodatkowo pamiętajmy, że informacje<br />

te nie pochodzą tylko z wnętrza naszej organizacji<br />

(gdzie teoretycznie możemy nad nią zapanować,<br />

wpływać na jej strukturę i proces pozyskiwania),<br />

ale także spoza firmy. Trzeba umieć do nich się<br />

dostosować, jeżeli chcemy z nich skorzystać.<br />

Podsumujmy nasze nowe środowisko<br />

funkcjonowania:<br />

• wysoki wolumen danych wynikający ze<br />

złożoności procesów, personalizacji oferty<br />

i tendencji dopasowania oferty nawet<br />

do najmniejszych grup klientów,<br />

• nieznane pochodzenie, struktura i zawartość<br />

danych, których będziemy chcieli użyć<br />

w analizach,<br />

• duża zmienność danych w czasie wiążąca się<br />

z dynamiką i złożonością modeli ekonomicznych,<br />

w jakich funkcjonują przedsiębiorstwa.<br />

Pojawia się jeszcze jedno zjawisko – analiza<br />

informacji i danych jest już powszechna<br />

w organizacjach. W dowolnym miejscu<br />

podejmowania decyzji pracownicy biznesowi<br />

oczekują możliwości analizy szerokiego zakresu<br />

danych, oczekują zaawansowanych metod<br />

analitycznych i umieją z nich skorzystać.<br />

Czy warto? Tak.<br />

Zebranie<br />

danych<br />

Wzrasta liczba świadczeń pomocy<br />

medycznej. Czemu?<br />

Czy wzrost bezrobocia jest przyczyną<br />

wzrostu liczby roszczeń?<br />

Jakie są konsekwencje zjawiska dla<br />

wyników finansowych udzielonych<br />

polis?<br />

Na silnie nasyconym rynku, gdzie klient<br />

ma realną możliwość wyboru, umiejętność<br />

zwiększenia trafności podejmowanych decyzji<br />

zaledwie o pojedyncze procenty (bez względu<br />

jak rzeczywiście wskaźnik ten zostanie obliczony)<br />

Eksploracja<br />

danych<br />

Transformacje &<br />

wybór danych<br />

Budowa<br />

modelu<br />

Należy poddać analizie wszystkie<br />

roszczenia z hurtowni danych.<br />

Czy lokalne programy pomocy<br />

powodują migracje populacji?<br />

Czy wystąpiły jakieś zjawiska<br />

środowiskowe?<br />

Copyright © 2012, SAS Institute Inc. All rights reserved.<br />

Ocena<br />

modelu<br />

może decydować o sukcesie lub porażce.<br />

Firmy muszą być przygotowane do tego, aby na<br />

każdym kroku poszukiwać dodatkowych korzyści,<br />

oszczędności lub przewag. Źródłem niezbędnej<br />

wiedzy są i będą bardzo duże wolumeny<br />

danych z wielu nieskorelowanych źródeł –<br />

dodatkowo, czego nauczyliśmy się już wspierając<br />

systemami informatycznymi zaawansowaną<br />

analitykę, nie mogą to być dane zagregowane.<br />

Właściwą wiedzę uda się pozyskać tylko<br />

z danych detalicznych.<br />

Prześledźmy przykładowy proces wnioskowania<br />

– jest on osadzony w standardowym przepływie<br />

od sformułowania problemu, poprzez zebranie<br />

koniecznych danych, przygotowanie modelu<br />

analitycznego i ocenę wniosków z niego<br />

wynikających.<br />

Uruchomienie<br />

modelu<br />

Jak widać na przykładzie powyżej przeprowadzenie<br />

skutecznego wnioskowania wspierającego<br />

rozwiązanie sformułowanego na początku<br />

problemu biznesowego wiąże się z jednej strony<br />

z wykorzystaniem szeregu informacji, wymaga<br />

możliwości poszukiwania korelacji pomiędzy<br />

zbiorami danych nigdy dotąd nie krzyżowanymi<br />

oraz jest procesem często zmieniającym stawiane<br />

hipotezy i wymagającym częstego opracowywania<br />

nowych zestawów danych wspierających analizę<br />

danego scenariusza.<br />

Istniejące środowiska hurtowni danych, analityczne<br />

i raportowe są w stanie wspierać ten proces, lecz<br />

dynamika jaką są w stanie dostarczyć nie będzie<br />

dla pracowników biznesowych wystarczająca.<br />

Wkraczamy w erę „big data” i należy się do niej<br />

przygotować.<br />

Ocena<br />

wyników<br />

Przeprowadźmy analizę w odniesieniu<br />

do zmian populacji. Może wzrost jest<br />

pochodną przyrostu naturalnego?<br />

Czy dostęp do świadczeń<br />

determinuje liczbę roszczeń?<br />

Czy bieżąca sytuacja kryzysu<br />

ekonomicznego może mieć<br />

wpływ?<br />

Źródło: SAS Institute<br />

41


42<br />

Uruchomienie<br />

modelu<br />

Ocena<br />

wyników/<br />

wnioski<br />

Ocena<br />

modelu<br />

t © 2012, SAS Institute Inc. All rights reserved.<br />

Źródło: SAS Institute<br />

Oczekiwania użytkowników<br />

Każde działanie mające na celu rozbudowę<br />

lub rozwój środowisk informatycznych powinno<br />

być realizowane w świetle korzyści, jakie<br />

dane rozwiązanie ma dostarczać organizacji.<br />

Bezpośrednio powinno oddziaływać na procesy<br />

biznesowe oraz użytkowników, a pośrednio<br />

dodatnio przekładać się na realizację strategii firmy<br />

i osiąganie przez nią wzrostu.<br />

Wiemy już w jaki sposób zmienia się sposób pracy<br />

pracowników biznesowych firm. Ale jakie są ich<br />

szczegółowe oczekiwania? Jako punkt wyjścia<br />

należy przeanalizować, w jaki sposób zmienia się<br />

ich oczekiwanie dotyczące interakcji z informacjami<br />

i danymi.<br />

Standardowe podejście do procesu analitycznego<br />

nie zmienia się i nadal składa się z następujących<br />

po sobie kroków zamkniętych w cykl.<br />

Identyfikacja/<br />

nazwanie<br />

problemu<br />

Budowa<br />

modelu<br />

Zebranie<br />

danych<br />

Transformacja &<br />

wybór danych<br />

Eksploracja<br />

danych<br />

Kolejno formułowane jest zagadnienie biznesowe<br />

lub hipoteza, dla której szukać będziemy<br />

potwierdzenia. Następnie identyfikowane<br />

i przygotowywane są dane, które zostaną<br />

wykorzystane do analizy, budowany jest model<br />

analityczny. Po jego ocenie i uruchomieniu<br />

następuje zebranie wniosków i może to<br />

bezpośrednio prowadzić do sformułowania<br />

kolejnych hipotez, jak pokazuje to przytoczony<br />

wcześniej przykład.<br />

Mapując pokazany proces na rzeczywiste<br />

zaangażowanie zasobów ludzkich i sprzętowych<br />

znacząca część zużywana jest na cykliczne<br />

powtarzanie iteracji w obszarze zbierania<br />

i przygotowania danych do budowy modelu.<br />

Na etapie jego oceny dochodzimy do wniosków,<br />

że konieczne jest zrezygnowanie z zastosowanych<br />

agregacji (wykorzystanie danych detalicznych),<br />

rozszerzenie wybranej próbki danych do<br />

uruchomienia modelu, dołączenie nowych miar<br />

i wymiarów dla poprawienia spodziewanej jakości<br />

przeprowadzanej analizy. W aktualnie istniejących<br />

środowiskach hurtowni danych i systemów<br />

analitycznych zamknięcie takiej iteracji jest<br />

pracochłonne i wymaga czasu. Na to w bieżącej<br />

sytuacji nie można sobie pozwolić.<br />

Główną potrzebą i celem użytkowników<br />

biznesowych jest przeniesienie ilości realizowanych<br />

iteracji w obszar budowy modelu i wnioskowania<br />

na jego podstawie (czyli patrząc na przytoczony<br />

diagram przeniesienie ciężaru działań z prawej<br />

na lewą stronę cyklu). To w tych etapach cyklu<br />

analitycznego znajduje się wartość biznesowa<br />

i to na tych etapach pracownicy firm pozyskują<br />

unikalną, nieznaną dotychczas, wiedzę<br />

o funkcjonowaniu biznesu, zjawiskach na niego<br />

się przekładających i czynnikach koniecznych<br />

do uwzględnienia w przyszłych działaniach.<br />

Oczekiwaniem analityków jest z jednej strony<br />

możliwość nieograniczonego testowania swoich


hipotez, ale także dostęp do szerokiego zestawu<br />

funkcji i narzędzi analitycznych. Kadra pracownicza,<br />

która jest odpowiedzialna za podejmowanie<br />

decyzji biznesowych i jest wykształcona w zakresie<br />

analityki, statystyki i pracy ze zbiorami danych –<br />

oczekuje, że firma (potencjalnie dział IT) dostarczy<br />

im możliwość wykorzystania nabytych umiejętności<br />

z korzyścią dla efektów swojej pracy. Oczekują<br />

natychmiastowej reakcji wykorzystywanych<br />

narzędzi na stawiane przed nimi zadania:<br />

• włączania nowych danych do analiz<br />

bez względu na ich wolumen<br />

• możliwości wykorzystania w analizie danych<br />

detalicznych (w końcu nie jest znany czynnik<br />

biznesowy, którego poszukują analitycy)<br />

• praktycznie natychmiastowego odpowiadania<br />

na stawiane pytania, wyników uruchamianych<br />

analiz i możliwości oceny wniosków<br />

wynikających ze zbudowanych modeli<br />

Podsumowując można powiedzieć, że analitycy<br />

i pracownicy biznesowi organizacji oczekują<br />

przeniesienia ciężaru z pracy z danymi na pracę<br />

koncepcyjną – i taka idea przyświeca budowie<br />

środowisk realizujących koncepcję „big data”.<br />

Nieograniczonej swobody w analizie danych.<br />

Jest jeszcze jedna nowa tendencja wkraczająca<br />

do świata biznesu wymagająca zaadresowania<br />

– użytkownicy oczekują dostępu do informacji<br />

i analiz w każdym miejscu i o każdym czasie.<br />

Jest to powodowane upowszechnieniem<br />

mobilnego dostępu do sieci komputerowych<br />

i pojawieniem się rozwiniętych urządzeń<br />

mobilnych (smartphone, tablet). Jeżeli chcemy,<br />

aby użytkownicy byli zadowoleni z dostarczonego<br />

dla nich środowiska analitycznego zadbajmy<br />

także o ten aspekt i dokonajmy wyboru narzędzi<br />

dających synergię dostępu do analiz bez względu<br />

na wykorzystywane do tego urządzenie – komputer<br />

stacjonarny, laptop, tablet lub telefon.<br />

Składniki środowiska „big data”<br />

Powyżej omówiliśmy perspektywę użytkowników<br />

środowisk realizujących koncepcję „big<br />

data”. Warto zagadnieniu przyjrzeć się także<br />

z perspektywy działów IT odpowiedzialnych<br />

za zapewnienie istnienia i sprawnego<br />

funkcjonowania takiego środowiska.<br />

Aktualnie IT jest równoprawnym partnerem dla<br />

pracowników biznesowych w budowaniu przewag<br />

konkurencyjnych przedsiębiorstwa i partycypuje<br />

w odpowiedzialności za osiąganie przez nie zysków.<br />

Dzięki podejmowaniu działań optymalizacyjnych<br />

w aspekcie kosztowym, efektywności systemów<br />

i usług, przyszłościowym planowaniu rozwoju<br />

infrastruktury sprzętowej i systemowej oraz<br />

doświadczeniu merytorycznym pracowników,<br />

dział IT nie jest tylko jednostką usługową,<br />

ale wchodzi w skład arsenału strategicznego<br />

na coraz bardziej konkurencyjnym rynku.<br />

Zagadnienia i aspekty obrazujące oczekiwania<br />

analityków można poddać strukturalizacji<br />

i wyodrębnić 4 główne role w pętli procesu<br />

analitycznego:<br />

• manager w obszarze biznesowym –<br />

podejmuje decyzje na bazie wniosków<br />

z analiz, ocenia procesy i określa potencjał<br />

korzyści biznesowych,<br />

• eksplorator danych – odpowiada za procesy<br />

udostępnienia danych dla procesów analizy,<br />

ewentualnie wzbogaca dane o dodatkowe<br />

wyliczane miary, definiuje powiązania pomiędzy<br />

zbiorami danych pozwalające na ich<br />

korelowanie w trakcie analiz,<br />

• analityk biznesowy – formułuje i testuje<br />

hipotezy biznesowe; odpowiada za<br />

zbudowanie, uruchomienie i ocenę działania<br />

modelu analitycznego lub badania<br />

statystycznego prowadzonego na danych;<br />

wyciąga wnioski z uzyskanej wiedzy,<br />

43


44<br />

• projektant analityk – przygotowuje<br />

wizualizacje i raporty ułatwiające uzyskanie<br />

wymaganych informacji z analiz, korzysta<br />

z wyników pracy analityków biznesowych<br />

tworząc cyklicznie wykonywane analizy<br />

na potrzeby wsparcia procesów biznesowych.<br />

Zwróćmy uwagę, że rolę eksploratora danych<br />

z powodzeniem realizować może departament<br />

odpowiedzialny za IT w organizacji. De facto<br />

coraz częściej okazuje się, że w zadaniach tej<br />

klasy kluczowe jest doświadczenie informatyczne<br />

i znajomość narzędzi transformacji i składowania<br />

danych uzupełnione wiedzą o systemach<br />

źródłowych.<br />

Budowa systemu informatycznego realizującego<br />

koncepcję „big data” powinna być realizowana<br />

w świetle powyższych ról. System analityczny<br />

powinien posiadać narzędzia adresujące<br />

poszczególne z powyższych ról i spełniające ich<br />

specyficzne potrzeby, między innymi:<br />

• być efektywny i elastycznych w zakresie<br />

ładowania dużych wolumenów danych<br />

oraz wykonywania na nich złączeń<br />

i wzbogacania (eksplorator danych)<br />

• posiadać komplet funkcji analitycznych<br />

będących narzędziami w pracy analityków<br />

biznesowych<br />

• szybko odpowiadać na zadawane pytania<br />

i realizowane analizy usprawniając pracę<br />

analityków i projektantów<br />

• umożliwiać tworzenie interaktywnych analiz<br />

danych dostarczanych także na urządzenia<br />

mobilne (projektant analityk)<br />

Z perspektywy rozwiązań technologicznych<br />

aktualnie dostępne na rynku są narzędzia<br />

realizujące trzy koncepcje:<br />

• prze<strong>twarz</strong>anie danych w pamięci<br />

(ang. in-memory)<br />

• prze<strong>twarz</strong>anie danych realizowane przez silnik<br />

bazy danych (ang. in-database)<br />

• prze<strong>twarz</strong>anie równoległe realizowane przez sieć<br />

komputerów (ang. grid computing)<br />

Każde z powyższych rozwiązań skupia się na<br />

maksymalizacji korzyści z jednego, konkretnego<br />

aspektu stosowanej architektury, a co za tym idzie<br />

ma swoje mocne i słabe strony. Prze<strong>twarz</strong>anie<br />

w pamięci potencjalnie dostarcza większą<br />

wydajność i krótsze czasy przeliczania zadań<br />

i modeli, za to realizacja analityki w powiązaniu<br />

z bazą danych (szczególnie w przypadku<br />

dedykowanego sprzętu bazodanowego,<br />

tzw. ang. appliance) daje optymalizację<br />

wykorzystania mocy sprzętu równocześnie<br />

dla prze<strong>twarz</strong>ania danych oraz ich analizy.<br />

Pamiętajmy także, że wiele dostawców rozwiązań<br />

wspierających ideę „big data” oferuje swoje<br />

produkty w powiązaniu z konkretnym dostawcą<br />

sprzętu, niekiedy będąc nim równocześnie.<br />

Zbudowanie systemu analitycznego na bazie takich<br />

rozwiązań to strategiczna decyzja uzależniająca<br />

organizację od jednego dostawcy sprzętu<br />

i równocześnie uniemożliwiająca skorzystanie<br />

z już posiadanej infrastruktury. Tu także musimy<br />

pamiętać o przeprowadzeniu oceny zdolności<br />

środowiska do elastycznego skalowania i ocenić<br />

koszty jego rozbudowy.<br />

Oferta SAS łączy korzyści wszystkich wskazanych<br />

strategii technologicznych, dając możliwość<br />

zarówno wykorzystania mocy serwerów do<br />

wykonywania obliczeń bezpośrednio w ich pamięci,<br />

jak i skorzystania z udostępnianych przez serwery<br />

baz danych funkcji analitycznych. W odniesieniu<br />

do rozwiązań SAS warto zwrócić uwagę<br />

na dodatkowy aspekt – jest to możliwość budowy<br />

węzłów prze<strong>twarz</strong>ania danych z wykorzystaniem<br />

sieci komputerów (ang. grid computing).<br />

Daje to możliwość dowolnego skalowania<br />

rozwiązania wraz ze zmianami potrzeb biznesowych


oraz dodatkowo gwarantuje odporność środowiska<br />

na ewentualne awarie. Wszystkie te strategie<br />

złączone zostały w jedną spójną architekturę,<br />

przez co możliwe jest dostarczenie użytkownikom<br />

końcowym jednego systemu analitycznego<br />

odpowiednio wykorzystującego mocne strony<br />

każdej ze strategii prze<strong>twarz</strong>ania dla zwiększenia<br />

wydajności platformy.<br />

Skuteczny pomost pomiędzy IT a biznesem<br />

Wszystkie przedstawione powyżej zagadnienia<br />

należy wziąć pod uwagę w momencie<br />

konstruowania strategii dostarczenia w organizacji<br />

systemu analitycznego wspierającego nowe<br />

podejście do analizy danych – „big data”.<br />

Departament IT może wykorzystać posiadane<br />

doświadczenie z budowy i utrzymania istniejących<br />

systemów analitycznych w formowaniu tej strategii.<br />

Powstające platformy powinny uzupełniać<br />

korporacyjne hurtownie danych. Ich architektura<br />

Patryk Choroś<br />

Senior Account Executive, SAS Institute<br />

logiczna, wykorzystane do ich budowy narzędzia<br />

oraz procesy biznesowe związane z zarządzaniem<br />

zmianą w tych środowiskach wymagają dobrze<br />

zaplanowanej i przemyślanej rozbudowy,<br />

aby móc skutecznie realizować wymaganie<br />

dynamicznego analizowania nowych hipotez<br />

biznesowych. Systemy „big data” służące analizie<br />

wielkich wolumenów danych wzbogacą istniejące<br />

hurtownie o nowe funkcjonalności udostępniane<br />

użytkownikom. Ich zalążki już znajdują się<br />

w organizacjach w formie rozproszonych<br />

repozytoriów tworzonych bezpośrednio przez<br />

analityków. To co należy teraz zrobić, to dostarczyć<br />

im wysokiej klasy rozwiązanie informatyczne, aby<br />

mogli utylizować z jego pomocą drzemiący w nich<br />

potencjał kreacji nowych rozwiązań biznesowych.<br />

IT może z powodzeniem dostarczyć tą wartość,<br />

tworząc unikalny pomost między technologią<br />

a biznesem i rozbudowując istniejące architektury<br />

hurtowni danych o nowe komponenty realizujące<br />

ideę „big data”.<br />

Studiował na Politechnice Warszawskiej na kierunku Systemy Informatyczne Wspomagania Decyzji. Zagadnieniami <strong>Business</strong><br />

<strong>Intelligence</strong> zajmuje się od 2004 roku, zdobywając doświadczenie w kierowaniu projektami wdrożeń hurtowni danych.<br />

W latach 2009-2011 był odpowiedzialny za zespół wdrożeniowy systemów <strong>Business</strong> <strong>Intelligence</strong> w Infovide-Matrix.<br />

Aktualnie zajmuje się budowaniem strategii wdrożeń systemów analitycznych dla kluczowych klientów SAS Institute.<br />

SAS Institute jest światowym liderem w zakresie analityki biznesowej oraz największym niezależnym dostawcą<br />

oprogramowania <strong>Business</strong> <strong>Intelligence</strong>. Firma istnieje od 1976 r. i zatrudnia ponad 13 000 pracowników na całym świecie.<br />

Z rozwiązań SAS korzysta 60 000 przedsiębiorstw i instytucji w ponad 130 krajach. W Polsce SAS Institute działa od 1992 r.,<br />

obecnie zatrudnia ponad 200 osób. Rozwiązania i oprogramowanie SAS adresowane są do wszystkich sektorów gospodarki,<br />

m.in. bankowości, ubezpieczeń, telekomunikacji, energetyki, przemysłu, handlu oraz sektora administracji publicznej.<br />

www.sas.com/poland<br />

45


46<br />

W krainie OSBI<br />

Marek Ziętek i Sławomir Folwarski, Carrywater<br />

Głównym powodem słabego rozpowszechnienia narzędzi klasy <strong>Business</strong> <strong>Intelligence</strong> opartych<br />

o licencję Open Source (OSBI), nie są braki w funkcjonalnościach tego oprogramowania<br />

– jest nim obawa przed nowym, nie do końca poznanym rozwiązaniem, które nie posiada<br />

ustabilizowanego ekosystemu wsparcia w Europie Środkowo Wschodniej, w tym oczywiście<br />

w Polsce. Nagrodą za pokonanie strachu i wybór rozwiązań OSBI są nie tylko realne<br />

oszczędności finansowe, lecz również laur innowatora, który nie boi się nowych wyzwań.<br />

Podejmowanie decyzji stanowi krwioobieg<br />

każdej organizacji – dotyka wszystkich komórek<br />

i wpływa na całościowe funkcjonowanie<br />

firmy. Tlenem, niezbędnym pierwiastkiem<br />

do prawidłowego funkcjonowania układu krążenia<br />

są aktualne, skategoryzowane dane, ilustrujące<br />

w przejrzysty sposób szanse i zagrożenia na<br />

drodze rozwoju organizacji. Systemy BI w tej<br />

analogii odpowiedzialne są za dostarczanie tlenu<br />

do przedsiębiorstwa. Porcje świeżego powietrza<br />

organizacje mogą zdobywać na kilka sposobów.<br />

Wielkie koncerny informatyczne proponują<br />

organizacjom dostarczenie „tlenu” w takich<br />

ośrodkach jak Saint-Tropez, Cannes, Baden Baden,<br />

czy Aspen – pełne wsparcie, wygoda, relaks, Prestiż<br />

(przez duże P), oczywiście wszystko za odpowiednią<br />

stawkę. Mimo olbrzymiego wsparcia, rozwiązania<br />

te mają też wady – stosunkowo niską elastyczność<br />

w dostosowaniu do indywidualnych potrzeb<br />

organizacji, stosunkowo długi czas pomiędzy<br />

kolejnymi wersjami, powolną reakcję na zgłaszane<br />

przez użytkowników błędy lub propozycje<br />

usprawnień. Ofertę komercyjną uzupełniają<br />

rozwiązania BI klasy ośrodków Interlaken, Planica<br />

czy Zakopane – gdzie również trzeba płacić,<br />

ale już nie tak słono: przede wszystkim prestiż jest<br />

mniejszy, czasami ograniczone są funkcjonalności.<br />

Najpoważniejszą barierą w tym przypadku wydaje<br />

się być brak gwarancji (niezależnie od zapewnień<br />

dostawców) dalszego, dynamicznego rozwoju<br />

oprogramowania tej klasy.<br />

Alternatywą jest wypoczynek z OSBI, który<br />

może mieć charakter dwojaki: albo decydujemy<br />

się na organizację wycieczki z przewodnikiem,<br />

który dokładnie wie „co i jak” i przeprowadzi nas<br />

bezpiecznie przez wszystkie etapy, na których<br />

będziemy go potrzebować (wariant COSS –<br />

Commercial Open Source Software 1 ), albo<br />

ruszamy na wyprawę samodzielnie (wybór<br />

FOSS – Free Open Source Software) – gdzie<br />

ryzyko jest znacznie większe, niektóre szlaki są<br />

nieoznaczone, a w razie gdy się zgubimy niełatwo<br />

o pomoc. W wariancie FOSS możemy odkryć<br />

więcej - ale tylko dzięki własnej determinacji,<br />

sporemu poświęceniu i przy pełnej świadomości,<br />

że wybór ten w finalnym rozliczeniu może być<br />

droższy niż COSS np. gdy nasze wewnętrzne zasoby<br />

informatyczne wdrażające rozwiązania są droższe<br />

niż konsultanci zewnętrzni lub po prostu czas<br />

poświęcony na naukę i rozpoznanie jest długi.<br />

Krystaliczne powietrze tajgi syberyjskiej na wyspie<br />

Olchon, płaskowyż Roraima w sercu Wenezuelskiej<br />

dżungli, czy okolice lodowego jeziora Jökulsárlón<br />

są wstanie dostarczyć powietrza, co najmniej takiej<br />

samej jakości, przy bardzo podobnym ryzyku<br />

(w przypadku COSS), jak rozwiązania w pełni<br />

1 Szczegółowe różnice między pojęciami Commercial<br />

Open Source Software, a Free Open Source Software zostały<br />

opisane i zestawione na str. 48


komercyjne. Strach przed wyprawą zawsze istnieje,<br />

szczególnie do miejsc, o których wcześniej nie<br />

słyszeliśmy. Jednak pomoc możemy odnaleźć<br />

w community, grupie ludzi, którzy rozwiązują<br />

problemy z pasji – dla samej chęci ich rozwiązania.<br />

Communities mają różne wielkości, schematy<br />

funkcjonowania, czy warunki dostępu do efektów<br />

swoich prac. Ich fenomen to immanentna<br />

cecha oprogramowania Open Source, który<br />

często ma olbrzymi potencjał i równie często<br />

nie jest doceniany. W przypadku FOSS nie ma<br />

gwarantowanych czasów usunięcia błędów i SLA,<br />

jednak często błędy/braki traktowane są jako<br />

wyzwania, a czasy ich usuwania pozostawiają<br />

daleko w tyle komercyjne rozwiązania. Zawsze też<br />

możemy wynająć płatnych przewodników<br />

(w wariancie COSS) – wtedy, gdy czeka nas<br />

przebycie trudniejszego szlaku, gdzie nasz dział<br />

IT nie jest w stanie poradzić sobie z problemem<br />

lub nie jest w stanie go rozwiązać w zadanym<br />

ograniczeniu czasowym.<br />

Wybór rozwiązania<br />

Nie bez znaczenia przy wyborze oprogramowania<br />

Open Source jest postać mentora - osoby/<br />

firmy, która zna rynek rozwiązań i potrafi<br />

pomóc w wyborze optymalnej ścieżki. Mentor<br />

(z wewnątrz lub z otoczenia organizacji) pomaga<br />

w zmianie paradygmatu postrzegania rozwiązań<br />

opartych o Open Source – wskazuje wybór, który<br />

wypełni potrzeby organizacji, a także spełni<br />

narzucone limity czasowe i finansowe. Pomocnym<br />

czynnikiem w wyborze OSBI jest również wysoka<br />

elastyczność dostosowania do indywidualnych<br />

potrzeb organizacji – wyrażona np. w łatwości<br />

integracji z już używanymi systemami IT lub liczbie<br />

spersonalizowanych dodatków, które ułatwiają<br />

korzystanie z narzędzi finalnym odbiorcom. Mając<br />

świadomość tych ograniczeń możemy śmiało<br />

rozpoczynać fascynującą i umiarkowanie tanią<br />

podróż w świat systemów BI opartych na licencji<br />

Open Source.<br />

Zaangażowanie całej organizacji istotnym<br />

czynnikiem sukcesu<br />

Przygoda z OSBI może wymagać dużego<br />

zaangażowania organizacji w proces wdrożenia<br />

i rozwoju tego oprogramowania. OSBI zazwyczaj<br />

wymagają większego zaangażowania informatyków<br />

danej organizacji, w opozycji do rozwiązań<br />

w pełni komercyjnych – gdzie znaczą część<br />

implementacji przejmują zewnętrzni konsultanci.<br />

Z doświadczeń Carrywater wynika że, odpowiednie<br />

zaangażowanie ze strony organizacji w proces<br />

rozwoju systemu IT pomaga we właściwym<br />

wdrożeniu i pełnym wykorzystaniu możliwości,<br />

jakie daje oprogramowanie. Takie podejście<br />

samo w sobie stanowi sporą gwarancję sukcesu.<br />

Inne czynniki sukcesu opisane są w drugim naszym<br />

artykule „Być w 15%”. Potrzebę współpracy na linii<br />

biznes-IT, szczególnie w rozwiązaniach związanych<br />

z BI podkreślono w raporcie „10 najważniejszych<br />

trendów w BI w 2012 r.”:<br />

„IT and business users continue to dance around<br />

“alignment” Companies with enlightened IT<br />

staffs and business leaders who recognize the<br />

business impact of IT are achieving spectacular<br />

results from BI projects. In these organizations,<br />

IT no longer tries to squash business-driven BI<br />

projects, they’re asking how they can support<br />

and improve them. These organizations will<br />

continue to see gains from their alignment<br />

efforts. But in less enlightened environments,<br />

BI still represents a battleground for control.<br />

And, unfortunately, IT just isn’t in a position<br />

to win.”<br />

(źródło: Raport Tableau: Top 10 Trends in <strong>Business</strong><br />

<strong>Intelligence</strong> for 2012)<br />

COSS (POSS) vs. FOSS<br />

O ile w przypadku komercyjnych rozwiązań<br />

rodzajów licencji są dziesiątki, w przypadku OSBI<br />

sposoby licencjonowania możemy podzielić<br />

na dwie główne grupy:<br />

47


48<br />

A. Commerical Open Source Software, zwane<br />

również Prioperitary Open Source Software<br />

(COSS lub POSS, nie funkcjonuje jeszcze<br />

utarte tłumaczenie na język polski tego sposobu<br />

licencjonowania, więc na potrzeby niniejszego<br />

artykułu posiłkować będziemy się<br />

skrótem COSS). Ten sposób licencjonowania<br />

gwarantuje wsparcie wdrożenia i utrzymania<br />

poprzez wyspecjalizowane firmy, najczęściej<br />

posiadające prawa kodu oprogramowania.<br />

Są to płatne rozwiązania, których koszt jest<br />

jednak niewspółmiernie niższy w porównaniu<br />

do rozwiązań w pełni komercyjnych.<br />

Cechy COSS/POSS FOSS<br />

Koszt Co do zasady oprogramowanie<br />

jest bezpłatne, jednak<br />

obowiązują opłaty tzw. support<br />

fee<br />

Wsparcie wdrożeniowe<br />

i utrzymaniowe<br />

Można skorzystać z pomocy<br />

wyspecjalizowanych firm<br />

Rozwój oprogramowania Software rozwijany dość<br />

regularnie, wraz z potrzebami<br />

użytkowników biznesowych<br />

Dodatkowe funkcjonalności Bardzo dużo dodatkowych<br />

funkcjonalność zwiększających<br />

atrakcyjność rozwiązania<br />

B. Free and Open Source Software (FOSS) –<br />

licencja w pełni otwarta, rzadziej występująca<br />

(przynajmniej dla systemów BI). Rozwiązania<br />

w tym wariancie nie mają zagwarantowanego<br />

wsparcia, nie występują żadne koszty związane<br />

z licencjonowaniem. Zdecydowanie się na FOSS<br />

wiąże się z koniecznością posiadania zasobów IT<br />

zdolnych do obsługi takich rozwiązań.<br />

Nomenklatura użyta w nazewnictwie<br />

licencjonowania może być nieco myląca. Wiąże się<br />

to z tym, że źródeł COSS należy szukać w modelach<br />

rozwoju oprogramowania typu shareware lub FOSS<br />

właśnie.<br />

Oprogramowanie jest<br />

bezpłatne, nie ma opłat support<br />

fee, bo taka usługa nie jest<br />

dostępna w tym modelu<br />

Wdrożenia i utrzymania<br />

dokonuje się siłami własnych<br />

zasobów<br />

Software rozwijany raczej<br />

samorzutnie, niekoniecznie<br />

w sposób kontrolowany –<br />

funkcje biznesowe dostępne<br />

z opóźnieniami<br />

Ograniczony dostęp do<br />

interesujących funkcjonalności,<br />

chociaż istnieje możliwość<br />

dokupienia rozwiązań opartych<br />

na COSS<br />

Dokumentacja Pełna, rzetelna Lakoniczna, często niepełna


Kluczowe korzyści: oszczędności<br />

Głównym powodem, który skłania organizacje do<br />

wyboru narzędzi Open Sourcowych (nie tylko BI)<br />

są koszty, a dokładniej - potrzeba ich ograniczenia.<br />

Należy wyraźnie podkreślić, że narzędzia BI oparte<br />

na licencjach Open Source (nawet FOSS) nie są<br />

darmowe – tak, jak w przypadku produktów<br />

komercyjnych istotne pozostają koszty sprzętu,<br />

wdrożenia, utrzymania, rozwoju, i wsparcia.<br />

Zdecydowaną przewagą rozwiązań BI opartych<br />

na Open Source stanowi niższy koszt łączny,<br />

wynikający przede wszystkim z braku opłat<br />

licencyjnych. Korzyści takie, jak szybkość<br />

eliminowania błędów w oprogramowaniu<br />

i wdrażaniu nowych funkcjonalności – dzięki<br />

rozbudowanym communities są widoczne i cenne,<br />

jednak w znacznie mniejszym stopniu przyczyniają<br />

się do rosnącej pozycji OSBI.<br />

W przypadku rozwiązań komercyjnych stopień<br />

skomplikowania modeli finansowych opisujących<br />

sposoby licencjonowania często uniemożliwia ich<br />

rzetelną analizę, nawet gdy porównaniu podlegają<br />

tylko dwa parametry funkcjonalność i cena.<br />

Trochę inaczej rzecz się ma w przypadku OSBI.<br />

Poszukujący rozwiązania informatycznego<br />

duże<br />

średnie<br />

małe<br />

$87 000<br />

$87 000<br />

$310 257<br />

$30 000<br />

$66 592<br />

typu Open Source nie musi poświęcać czasu<br />

na analizy cen, typów, okresów, czy też<br />

marketingowo „podkręcanych” pakietów licencji.<br />

Porównuje tylko funkcjonalności, które de facto<br />

są wystandaryzowane. Dzięki temu można<br />

oszczędzić czas potrzebny do wyboru optymalnego<br />

rozwiązania. Jest to oszczędność trochę<br />

ukryta, często nie brana pod uwagę, a jednak<br />

przygotowanie RFP, a w szczególności analiza<br />

i porównanie ofert potrafią mocno obciążyć budżet<br />

departamentu IT.<br />

Rozwiązania oparte na licencjach Open Source,<br />

w tym OSBI, mają coraz większe znaczenie<br />

w możliwościach redukcji kosztów związanych<br />

z IT. Dynamikę i powagę zmian w tym kierunku<br />

podkreślają najwięksi światowi gracze – na przykład<br />

IBM, który w tym roku zrezygnował z rozwiązań<br />

ORACLE Siebel implementując Open Source’owy<br />

SugarCRM.<br />

Jak ilustruje wykres z raportu Lowering the<br />

Cost of the <strong>Business</strong> <strong>Intelligence</strong> with Open<br />

Source przygotowanego przez Third Nature,<br />

największe oszczędności wynikające z wdrożenia<br />

OSBI ujawniają się wraz ze skalą wykorzystania<br />

systemu. Na wykresie zestawiono średnie koszty<br />

rozwiązań oferowanych przez czterech głównych<br />

$1 586 826<br />

$0 $500 000 $1 000 000 $1 500 000 $2 000 000<br />

Źródło: Raport Lowering the Cost of the <strong>Business</strong> <strong>Intelligence</strong> with Open Source Third Nature<br />

3-letni średni koszt opensource<br />

3-letni średni koszt komercyjny<br />

49


50<br />

dostawców komercyjnych z kosztami Pentaho<br />

(jednego z liderów OSBI). W przypadku gdy<br />

licencje wykorzystywane są przez 25 użytkowników<br />

(wdrożenie małe) oszczędności w horyzoncie<br />

3-letnim kształtują się na poziomie 50%, ale dla<br />

organizacji z 500 użytkownikami (wdrożenie duże)<br />

oszczędności są piętnastokrotne!<br />

Nawet przy założeniu identycznych nakładów<br />

na wdrożenia rozwiązań BI komercyjnych i Open<br />

Source’owych największy spadek kosztów widać<br />

wraz ze wzrostem liczby użytkowników. Przewaga<br />

ta jest niejako oczywista, bo bierze się z braku<br />

opłat za pojedyncze licencje, przez to wraz ze<br />

wzrostem liczby użytkowników koszt krańcowy<br />

maleje dynamicznie.<br />

Liderzy OSBI<br />

Na rynku istnieje kilkanaście ciekawych rozwiązań<br />

<strong>Business</strong> <strong>Intelligence</strong> działających w oparciu<br />

o licencję Open Source. Spośród nich na szczególną<br />

uwagę zasługują:<br />

Pentaho<br />

Najbardziej rozpowszechnione rozwiązanie<br />

klasy OSBI. Jest już na tyle dojrzałe, że zaczęło<br />

pojawiać się w prestiżowych porównaniach<br />

software’u, np. w „magic quadrant” Gartnera.<br />

Szczególną zaletą jest niska cena licencji i – co za<br />

tym idzie – niskie TCO. Klienci Pentaho są<br />

zadowoleni z działania rozwiązania i dostrzegają<br />

ciągłą poprawę jakości. Oprogramowanie jest<br />

stale rozwijane, ostatnio np. wzbogaciło się<br />

o możliwości raportowania zoptymalizowanego<br />

pod iPady. Pentaho to jeden z liderów OSBI<br />

dostrzegający przyszłe trendy i wpisujący je<br />

w swoje rozwiązania. Tak było gdy dostarczył<br />

funkcjonalności dla integracji własnego ETL i BI<br />

z Hadoop, uzupełniając rozwiązania o obsługę baz<br />

NoSQL, – wszystko po to, aby zapewnić wsparcie<br />

dla analizy danych pochodzących z dużych<br />

i różnorodnych źródeł.<br />

Jaspersoft<br />

To kolejna ciekawa propozycja platformy BI z rynku<br />

open source. Podobnie jak w przypadku Pentaho,<br />

zaimplementowano tu rozwiązania Apache Hadoop<br />

(ze wsparciem dla baz NoSQL) oraz HTML-5 dla<br />

środowiska iOS, w szczególności dla iPadów.<br />

Od 2010 roku Jaspers umożliwił dostęp do swoich<br />

usług w chmurze w modelach SaaS i PaaS.<br />

SpagoB<br />

Dostawcą platformy SpagoB jest włoska firma<br />

konsultingowa Engineering Group, która na jej<br />

bazie tworzy rozwiązania dostosowane do potrzeb<br />

konkretnych organizacji. Oprogramowanie to<br />

jest przeważnie używane w małych środowiskach<br />

– średnio 50 użytkowników, baza danych<br />

o pojemności 50 GB.<br />

Dla kogo OSBI?<br />

Wydaje się, że szczególną uwagę na narzędzia<br />

Open Source’owe powinny zwrócić instytucje<br />

ze sfery budżetowej, w których najważniejszym<br />

kryterium w przetargu jest cena oraz organizacje<br />

pozarządowe, które od zawsze muszą się troszczyć<br />

w wyjątkowy sposób o koszty.<br />

Naturalnym odbiorcą OSBI są też oczywiście<br />

przedsiębiorstwa, szczególnie te, w których<br />

presja na zdobycie przewag konkurencyjnych jest<br />

duża, a budżety podlegają znacznym redukcjom.<br />

Jak pokazują zestawienia, przy wdrożeniu OSBI<br />

oszczędza się na jednostkowym koszcie na<br />

użytkownika – im większe wdrożenie, tym większe<br />

oszczędności.<br />

Open Source’owe rozwiązania BI mają dobre<br />

perspektywy rozwoju. Dynamikę wzrostu liczby<br />

ich wdrożeń na świecie potwierdza wiele<br />

międzynarodowych raportów. Źródeł takiej<br />

sytuacji można upatrywać nawet w zmianach<br />

makroekonomicznych w skali globalnej: obserwuje<br />

się wzrost zainteresowania OSBI w Chinach


i Indiach gdzie “zachodnie” prawa autorskie nie<br />

są przyjaźnie odbierane, a rzeszom informatyków<br />

łatwiej jest pracować na rozwiązaniach opartych<br />

na otwartym dostępie do kodu. Kryzys, choć dalecy<br />

jesteśmy od nadużywania tego pojęcia, w sposób<br />

znaczący odciska piętno na budżetach wielu<br />

departamentów IT, co w naturalny sposób skłania<br />

je do wyboru rozwiązań mniej kapitałochłonnych<br />

– opartych na modelach OSBI i SaaS.<br />

Problemy we wdrażaniu OSBI<br />

Jak wynika z analiz przeprowadzonych przez<br />

Carrywater, korzyści wynikające z zastosowania<br />

rozwiązań OSBI nie są w pełni uświadomione<br />

członkom zarządów przedsiębiorstw podejmujących<br />

kluczowe decyzje dotyczące infrastruktury<br />

IT. Powodów takiego stanu rzeczy jest kilka:<br />

agresywna polityka sprzedażowa firm oferujących<br />

komercyjne rozwiązania i ich “historyczna”<br />

obecność, przywołany na wstępie strach przed<br />

brakiem odpowiedniego wsparcia czy dalszego<br />

rozwoju oprogramowania lub propagowana<br />

– pozornie niższa wiarygodność OSBI. Przeciwnicy<br />

rozwiązań Open Source’owych mają kilka<br />

argumentów. Większość z nich zamyka się<br />

w ironicznej, anglosaskiej maksymie: “You get what<br />

you pay for” – jakoby niska cena wpływała na<br />

jakość. Nic bardziej mylnego – rynki dynamicznie<br />

ewoluują, a z nimi modele kształtujące<br />

oprogramowanie. Coraz więcej niskokosztowych<br />

modeli biznesowych udowadnia przydatność<br />

oferowanych rozwiązań – oferując więcej za mniej,<br />

zachowując przy tym wysoką jakość.<br />

Kolejną przeszkodą dla popularyzacji OSBI jest<br />

system wynagradzania dyrektorów IT. Szefowie<br />

departamentów IT uważnie analizują możliwości<br />

dalszego rozwoju i ścieżki awansu wewnątrz<br />

i na zewnątrz organizacji. Najczęstszym pytaniem<br />

kolejnego pracodawcy jest: „Portfelem,<br />

o jakim budżecie zarządzał Pan ostatnio?”.<br />

Jest to najłatwiejszy krok kategoryzacji kandydatów.<br />

Zakłada się, że im większy budżet, tym większy<br />

stopień skomplikowania środowiska, skumulowana<br />

odpowiedzialność i często to właśnie ta odpowiedź<br />

determinuje proponowany poziom stanowiska<br />

oraz wynagrodzenia. Między innymi dlatego,<br />

rzadko który manager IT chce zarządzać mniejszym<br />

budżetem. Wdrożenie OSBI jednoznacznie<br />

implikuje chudszy portfel do kontrolowania.<br />

Tajemnicą poliszynela jest, że większy budżet<br />

danego projektu, czy departamentu przekłada<br />

się na większą „władzę” organizacyjną. Pochodną<br />

wynagradzania jest też stopień realizacji planu.<br />

Bardzo często niewykonanie budżetu traktowane<br />

jest jako błąd w planowaniu. Ułatwieniem dla OSBI<br />

byłby odwrotny sposób wynagradzania, w którym<br />

wdrażanie mniej kapitałochłonnych rozwiązań<br />

(nawet w stosunku do planu) jest nagradzane.<br />

W kontekście tak funkcjonujących systemów<br />

motywacyjnych, nie dziwi fakt, że na biurkach<br />

zarządu najczęściej lądują przygotowane przez<br />

dyrektorów IT propozycje kurortów na Malediwach<br />

czy plażach Barbadosu, oczywiście w wersji<br />

all inclusive z przelotem prywatnym odrzutowcem.<br />

Zmiana orientacji na wybór niskokosztowych<br />

rozwiązań i premiowanie takich wyborów jest<br />

szansą na wzrost dynamiki rozwoju OSBI, a tym<br />

samym na zauważalne obniżenie kosztów<br />

działalności IT.<br />

****<br />

Szersze zastosowanie narzędzi opartych o licencję<br />

Open Source możliwe jest tylko dzięki zmianie<br />

mentalności decydentów. To ambitne zadanie,<br />

często wymagające od organizacji zaangażowania<br />

podmiotów zewnętrznych. Stąd też zauważalny<br />

jest popyt na usługi polegające na tak zwanym<br />

podwójnym sprawdzaniu (double check).<br />

Zarząd zgłaszający się do integratora lub<br />

firmy konsultingowej z potrzebą zbadania<br />

alternatywnych rozwiązań niż te zaproponowane<br />

przez departament IT to już nie egzotyczna usługa.<br />

51


52<br />

Cel wdrożenia systemu BI jest jeden – zdobycie<br />

danych, które w ustrukturyzowanej formie<br />

pozwolą na uzyskanie przewag konkurencyjnych.<br />

Preferencje każdej organizacji są unikatowe,<br />

różny stopień akceptacji ryzyka, różne budżety,<br />

Marek Ziętek (Marek.Zietek@carrywater.com)<br />

Sławomir Folwarski (Slawomir.Folwarski@carrywater.com)<br />

etc. To od kluczowych decydentów zależy,<br />

czy firma zdecyduje się na drogi ośrodek SPA,<br />

czy wyprawę niskokosztową, przynoszącą te same –<br />

drogocenne dane, dodatkowo zapewniającą opinię<br />

“odkrywców” wśród zaprzyjaźnionych firm.<br />

Carrywater Group S.A. jest firmą konsultingową, która od ponad 15 lat skutecznie wspiera organizacje w definiowaniu<br />

i osiąganiu celów strategicznych. Doradzamy w obszarze biznesowym i IT. Prowadząc projekty doradcze wykorzystujemy<br />

kompetencje zarządzania projektami – wysokiej jakości produkty dostarczamy szybko i efektywnie. Firma poszukuje<br />

nowych rozwiązań i inwestuje w innowacyjne przedsięwzięcia zarówno zachęcając pracowników do zgłaszania pomysłów,<br />

jak i proponując Klientom współpracę w modelu Ventures.


Światowy rynek analityki biznesowej<br />

ma się wciąż świetnie – prognoza<br />

opublikowana w raporcie IDC z czerwca 2012<br />

pt. Worldwide <strong>Business</strong> Analytics Software<br />

2012–2016 Forecast and 2011 Vendor<br />

Shares mówi o średniorocznym 10% wzroście<br />

na przestrzeni kolejnych 5 lat.<br />

Tomasz Słoniewski, IDC<br />

53


54<br />

Dane to nie tylko liczby<br />

Paweł Wróblewski, Findwise<br />

Ogromna większość informacji składowanych w firmach nie pochodzi z baz danych.<br />

Są to raczej dokumenty zawierające tekst, który często jest bardzo istotny. Nie ma jednak<br />

najmniejszego sensu składowanie tak dużych ilości tekstu, jeżeli z wiedzy w nim zgromadzonej<br />

nie da się korzystać.<br />

<strong>Business</strong> <strong>Intelligence</strong> wielu kojarzy się<br />

jedynie z prze<strong>twarz</strong>aniem na ogromną skalę<br />

różnorodnych liczb. W większości podręczników,<br />

prezentacji i przykładów dominują wyniki<br />

sprzedaży w podziale na różne segmenty,<br />

kraje, sprzedawców, sklepy, regiony i tak<br />

dalej. Surowe dane podlegają agregacji pod<br />

kątem różnych kryteriów, przeprowadzana jest<br />

analiza statystyczna: wyliczenia sum pośrednich<br />

i całkowitych, wyliczanie procentowych<br />

udziałów w całości, mierzenie średnich, median,<br />

odchyleń standardowych, budowanie modelów<br />

predykcyjnych z wykorzystaniem liniowej lub<br />

wielomianowej regresji. I to wszystko na małą,<br />

średnią oraz naprawdę ogromną skalę. Od wielu<br />

lat mechanizmy i algorytmy, systemy i rozwiązania<br />

są skutecznie rozwijane tak, że już mało kto<br />

podważa wiarygodność stwierdzenia, że nie ma<br />

podejmowania świadomych i dobrych decyzji bez<br />

skutecznej analizy danych. Jednak należałoby zadać<br />

sobie pytanie, czy ten matematyczny świat cyfr,<br />

liczb i wyliczeń daje właściwy obraz rzeczywistości,<br />

czy z całą pewnością możemy stwierdzić, że przy<br />

podejmowaniu decyzji wzięliśmy pod uwagę pełen<br />

zakres dostępnej dla nas informacji?<br />

Tymczasem z każdą sekundą przybywa informacji<br />

w formie elektronicznej. Dokumenty, prezentacje,<br />

umowy, raporty, emaile, zdjęcia, czy filmy<br />

wprost wylewają się z naszych komputerów.<br />

W listopadzie ubiegłego roku odbyło się<br />

sympozjum organizowane przez Gartnera dotyczące<br />

zarządzania informacją w firmach. W głównym<br />

materiale konferencyjnym znalazło się następujące<br />

stwierdzenie:<br />

„Do roku 2015, organizacje zdolne do zintegrowania<br />

wysoce wartościowych, różnorodnych i nowych<br />

typów danych w spójnej infrastrukturze zarządzania<br />

informacją osiągną o 20% lepszy wynik finansowy<br />

od swoich konkurentów w danej branży.” 1<br />

Bum. Jest to bardzo mocne stwierdzenie.<br />

Nie sposób teraz polemizować z tą treścią, ani<br />

wnikać w sposoby wyliczenia takiej wartości.<br />

Przyjmijmy więc zatem roboczo, że tak może być,<br />

co zresztą intuicyjnie zgadza się z przekonaniem,<br />

że bez analizy różnorodnych danych i informacji<br />

trudno o podejmowanie dobrych decyzji, bo niby<br />

na jakiej podstawie? Przecież ignorując całą treść<br />

wytworzoną przez kolegów i koleżanki z firmy<br />

i próbując wyważyć dawno otwarte drzwi poprzez<br />

robienie wszystkiego samemu, mnoży się koszty<br />

i nie osiąga wysokiej jakości pracy. To wszystko,<br />

jak kamyczek do kamyczka przekłada się na<br />

nieefektywność całej organizacji, która zaczyna<br />

się topić w oceanie wytworzonych przez siebie<br />

i gromadzonych informacji.<br />

Marzenie o świecie idealnym<br />

Czytając ten wstęp można pomyśleć sobie,<br />

że fajnie tak sobie napisać o integracji wysoce<br />

wartościowych i nowych typów danych, ale jak<br />

1 Ted Friedman, Regina Casonato: A Framework for<br />

Creating Value From Information Assets: The Key to<br />

Information Management Success;<br />

Gartner Symposium Nov 2011;


to zrobić? Proponuję zatem na początku trochę<br />

pomarzyć. Zacznijmy od prostego spostrzeżenia,<br />

że z różnorodną treścią w sposób naturalny radzi<br />

sobie Internet. Czyż do Facebooka nie da się<br />

wrzucić właściwie wszystkiego? Nie ważne czy<br />

jest to link do fajnego artykułu, czy zaproszenie<br />

na jakieś wydarzenia, czy zdjęcie, filmik czy plik.<br />

W sposób naturalny szybko zorientujemy się kto<br />

co lubi, czego nie lubi i sami chcący lub niechcący<br />

wciągamy się w wir wymiany wysoce wartościowych<br />

i nowych typów danych. Dlaczego nie miałoby tak<br />

być w przedsiębiorstwie?<br />

Z drugiej strony tak przyzwyczailiśmy się do<br />

wyszukiwarki w Internecie, że nie słyszałem,<br />

aby ktoś skarżył się, że czegoś nie można tam<br />

znaleźć. Nawet, jeżeli istnieje coś takiego, to raczej<br />

bylibyśmy skłonni winą za to obarczyć daną<br />

stronę internetową, że została nieprofesjonalnie<br />

przygotowana, ponieważ wyszukiwarka jej<br />

„nie łyka”. Tutaj przypomina mi się historia<br />

starszej pani, już po 70-ce, której tłumaczyłem<br />

jak do przeglądarki internetowej wprowadzić<br />

prosty adres strony, którą była zainteresowana.<br />

Kiedy to wytłumaczyłem, nie kryła szczerego<br />

zdziwienia, ponieważ do tej pory sądziła, że aby<br />

mieć dostęp do jakichkolwiek stron internetowych,<br />

to w miejscu adresu należy koniecznie wpisać<br />

google.pl.<br />

Zatem, jeżeli w Internecie świat wygląda tak<br />

ślicznie i tam świetnie radzimy sobie z różnorodną<br />

informacją codziennie wykorzystując ją w naszej<br />

pracy, to dlaczego nie miałoby tak być wewnątrz<br />

firmy, w świecie za firewallem? Czy nie byłoby<br />

lepiej, gdyby istniał tam nie tylko tradycyjny<br />

intranet, ale cała galaktyka różnych stron<br />

i serwisów z wyszukiwarką na czele?<br />

Brutalna rzeczywistość<br />

Pomimo tego, że mamy już drugą dekadę<br />

XXI wieku, to mentalnie wiele firm tkwi jeszcze<br />

w poprzednim stuleciu. Portal intranetowy<br />

traktowany jest jako nowa forma słupa<br />

ogłoszeniowego, planszy na której dział<br />

komunikacji wewnętrznej, kadry i zarząd<br />

publikuje swoje odezwy do pracowników.<br />

Pliki przechowywane są na nieśmiertelnych<br />

udziałach sieciowych, gdzie każdy dokument<br />

ma przynajmniej 20 różnych wersji. Często<br />

odnalezienie istotnych informacji wymaga<br />

nie lada ekwilibrystyki współpracy z kilkoma<br />

różnymi systemami, z których każdy ma długie<br />

i skomplikowane formularze do wypełnienia, zanim<br />

wyrzuci istotne dla nas wyniki. A najtrudniejsze jest<br />

to, że aby coś odnaleźć najpierw należy wiedzieć,<br />

gdzie to może być. Zupełnie odwrotnie niż<br />

w Internecie!<br />

Firma Findwise w tym roku przeprowadziła ankietę<br />

na temat wyszukiwania w przedsiębiorstwach,<br />

jej wyniki na podstawie odpowiedzi ponad<br />

500 respondentów z całego świata 2 pokazują,<br />

że firmy nie są przygotowane do wprowadzenia<br />

tego typu zmian. Nie ma co tutaj narzekać na<br />

polskie warunki, po prostu w tej chwili, choć<br />

wiele o tym się mówi (75% uznaje wyszukiwanie<br />

jako krytyczny element sukcesu), to jednak<br />

nie podejmowane są konkretne działania.<br />

Brak strategii, budżetu i ludzi, którzy mieliby<br />

się zająć tym zadaniem. Ale nie będziemy<br />

przecież rezygnować z naszych marzeń, tylko<br />

dlatego, że w tej chwili nie jest zbyt wesoło!<br />

Zatem zaczynami krok po kroku.<br />

Po pierwsze – strategia<br />

Rozmawiając o strategii musimy mieć świadomość,<br />

że działalność każdego zdrowego przedsiębiorstwa<br />

można podsumować jako maksymalizacja zysku<br />

2 Raport jest przygotowany do ściągnięcia ze strony<br />

http://blog.findwise.com/the-enterprise-search-andfindability-report-2012-is-ready/<br />

55


56<br />

przy minimalizacji kosztów. Zatem zadaniem<br />

najważniejszym będzie dla nas opracowanie<br />

i wyliczenie, ile da się zyskać na wprowadzeniu<br />

proponowanych przez nas zmian.<br />

Sprawa prosta nie jest, ponieważ, żeby pokazać,<br />

ile można poprawić, trzeba najpierw zacząć<br />

mierzyć skuteczność i wydajność poszczególnych<br />

procesów biznesowych. W zależności od specyfiki<br />

prowadzonego biznesu przykładów można mnożyć<br />

wiele i tak dla procesu sprzedaży można mierzyć<br />

ile czasu dziennie pracownicy szukają informacji<br />

o kliencie i produktach w systemach firmy, aby móc<br />

skutecznie połączyć jedno z drugim; ile średnio<br />

czasu potrzebuje pracownik call centre, żeby<br />

odnaleźć informacje o które pyta klient; jak długo<br />

pracownicy szukają konkretnego dokumentu<br />

w intranecie.<br />

Dobra strategia powinna zawierać w odniesieniu<br />

do zidentyfikowanych procesów biznesowych nasze<br />

cele: zwiększenie sprzedaży o 15% poprzez lepiej<br />

celowane oferty handlowe, zwiększenie satysfakcji<br />

użytkownika o 5% poprzez szybszą i dokładniejszą<br />

obsługę telefoniczną, odnalezienie informacji<br />

w intranecie w 75% przypadków poprzez<br />

wprowadzenie maksymalnie dwuczłonowego<br />

zapytania i trzy kliknięcia. Koniec końców<br />

te procenty powinny oznaczać bardzo konkretne<br />

pieniądze do zdobycia. No, oczywiście znacznie<br />

większe pieniądze niż inwestycja we wprowadzane<br />

zmiany.<br />

Kolejnym niezbędnym elementem strategii<br />

jest plan. Dlatego poza celami dobrze jest<br />

wyznaczyć sobie drogę poprzez bardzo konkretne<br />

krótkoterminowe projekty, usprawniające działanie<br />

organizacji oraz bardziej długoterminowe<br />

inicjatywy, które zapewnią rozwój i ciągłą<br />

poprawę organizacji w zakresie ogarniania<br />

naszych informacji. Nieodłącznie wiąże się z tym<br />

planowanie zasobów i budżetu na realizację<br />

nakreślonych wizji wraz z mechanizmami<br />

pozwalającymi na monitorowanie i kontrolę<br />

przebiegu wprowadzanych zmian. Oczywiste?<br />

To dlaczego tak nie jest?<br />

Po drugie – informacje<br />

Termin zarządzania informacją nie dla<br />

wszystkich jest jasny i nie zawsze dokładnie<br />

wiadomo, o co w nim tak naprawdę chodzi.<br />

Dlatego proponuję przyjrzeć się podstawowym<br />

elementom.<br />

Najważniejszą rzeczą w zarządzaniu jest …<br />

zarządzanie. A to oznacza, że trzeba pochylić<br />

się nieco nad sposobem, w jaki organizujemy<br />

informację w firmie. W wielu miejscach<br />

pojawiło się już stanowisko CIO, co w polskich<br />

warunkach można przełożyć na członka zarządu<br />

odpowiedzialnego za prze<strong>twarz</strong>anie informacji.<br />

I to właśnie od CIO powinno wymagać się<br />

strategicznych wizji i określenia kierunku<br />

rozwoju organizacji odpowiadając na wymogi<br />

współczesności.<br />

Idąc dalej, trzeba powiedzieć, że CIO powinien<br />

mieć silną ekipę, która już na nieco niższym<br />

poziomie jest w stanie przekuwać strategię na<br />

konkretne posunięcia w poszczególnych obszarach<br />

zarządzania informacją. Tutaj na pierwszym planie<br />

wysuwają się procesy biznesowe, czyli de facto<br />

podział ról i obowiązków w firmie, zdefiniowanie<br />

kolejności wykonywania zadań przy prze<strong>twarz</strong>aniu,<br />

dostępie i analizie danych. Także w tym obszarze<br />

ważną rolą wydaje się być Information Manager<br />

(a jakże!), który powinien podejmować kluczowe<br />

decyzje co do bardzo konkretnych zmian<br />

zachodzących w tym mikro-świecie. Niezawodnym<br />

kryterium dla niego winno być zawsze zgodność<br />

ze strategią rozwoju, do której zresztą powinien<br />

skutecznie wnosić o niezbędne zmiany i korekty,<br />

bo świat się szybko zmienia.<br />

W kontekście zarządzania informacją nie sposób<br />

nie wspomnieć o bezpieczeństwie. Zwykle dzieje<br />

się tak, że nie wszyscy powinni wszystko wiedzieć,


chociaż bardzo by chcieli. Dlatego muszą<br />

istnieć polityki dostępu do informacji, czyli kto<br />

co ma obejrzeć. Jednak żeby to było możliwe<br />

musimy zdefiniować przynajmniej dwie rzeczy:<br />

role użytkowników i klasy dokumentów/<br />

informacji. O ile nie tak trudno jest posegregować<br />

użytkowników pod katem pełnionych przez nich ról,<br />

o tyle znacznie trudniej jest dokonać klasyfikacji<br />

rodzaju prze<strong>twarz</strong>anej treści. Polityka zabezpieczeń,<br />

to w najprostszym wydaniu to połączenie w pary<br />

ról użytkowników i klas dokumentów, nadając<br />

tym parom prawa do odczytu, zapisu, usuwania<br />

lub w ogóle pozbawiając dostępu.<br />

Wychodząc od klasyfikacji prze<strong>twarz</strong>anej<br />

treści warto pokusić się o pójście kilka kroków<br />

dalej i zbudować firmowy model metadanych<br />

i taksonomię. Chociaż brzmi to groźnie,<br />

to tak naprawdę polega na zdefiniowaniu,<br />

jakie dodatkowe informacje powinny być<br />

dołączone do prze<strong>twarz</strong>anej treści, żeby lepiej<br />

ją analizować, wyszukiwać i w końcu lepiej ją<br />

zrozumieć. Warto też się przyłożyć do zbudowania<br />

słownictwa, które pozwoli nam na lepszą<br />

komunikację wewnątrz firmy, bez niepotrzebnych<br />

nieporozumień.<br />

Po trzecie - technologia<br />

Tak naprawdę, dopiero posiadając określoną<br />

wizję strategiczną oraz mając pod kontrolą<br />

źródła informacji można przystąpić do wdrażania<br />

systemów informatycznych, bo generalnie<br />

zarządzanie bałaganem powoduje jeszcze większy<br />

bałagan. Tutaj nie jestem w stanie pohamować<br />

pokusy i napiszę, że nader często jest to<br />

ignorowane. Z reguły bowiem napięte terminy,<br />

budżety, brak ludzi sprawia, że przystępuje się<br />

do prostego wdrażania wyszukiwarki, które ma<br />

za zadanie zadośćuczynić ambicji bycia firmą,<br />

która w nowoczesny sposób prze<strong>twarz</strong>a różnorodne<br />

informacje. Jednak nie odrobione lekcje i tak trzeba<br />

będzie nadrobić i szybko się można przekonać,<br />

że albo pojawi się niezadowolenie z zawiedzionych<br />

ambicji, albo rzeczywiście zaczniemy podchodzić<br />

do całego zagadnienie trochę bardziej poważnie.<br />

Od jakiegoś już czasu czołowi dostawcy technologii<br />

<strong>Business</strong> <strong>Intelligence</strong> dostrzegają konieczność<br />

pochylenia się nad danymi tekstowymi, lub inaczej<br />

niestrukturalnymi. I tak SAS wykupił firmę<br />

Teragram, dzięki której do swojej gamy<br />

rozwiązań wprowadził ciekawe narzędzia analizy<br />

lingwistycznej. IBM posiada swój Content<br />

Analytics oraz od niedawna produkty przejętej<br />

firmy Vivisimo, Microsoft oferuje zaawansowane<br />

narzędzie do wyszukiwania pod marką FAST<br />

Search Server for SharePoint 2010. HP też<br />

próbuje wejść w tę niszę poprzez oferowanie<br />

rozwiązań Autonomy, brytyjskiej firmy, którą nabył<br />

w zeszłym roku za niebagatelną kwotę 11 mld<br />

dolarów. Oracle także nie chce zostać w tyle<br />

i poza swoim dotychczasowym produktem Secure<br />

Enterprise Search można skorzystać z platformy<br />

Endeca, która także niedawno została przejęta.<br />

Mówiąc o wyszukiwaniu nie można nie wspomnieć<br />

o Google, który także ma produkt do indeksowania<br />

i wyszukiwania różnorodnych danych wewnątrz<br />

przedsiębiorstw – Google Search Appliance.<br />

Jeżeli dodamy do tego cały pakiet dojrzałych już<br />

rozwiązań klasy open source, jak SolR czy Elastic<br />

Search, to można się nieco pogubić w całej tej<br />

ofercie. Jednak każde z tych rozwiązań ma swoje<br />

mocne i słabsze strony, a wybór może związać<br />

z danym dostawcą na dłuższy czas. Dlatego ważny<br />

to wybór.<br />

Właściwie każdy z wymienionych wyżej produktów<br />

da się wbudować w infrastrukturę informatyczną<br />

przedsiębiorstw na zasadzie usług. Można pokusić<br />

się nawet o nową redefinicję SaaS – Search as<br />

a Service. W ten sposób technologia wyszukiwania<br />

może być wpięta niejako w tle do różnorodnych<br />

aplikacji biznesowych tak, że użytkownicy nie<br />

będą mieli pojęcia, że jest to silnik wyszukiwania.<br />

Ważna tutaj jest pewna zmiana myślenia o tych<br />

technologiach. Nie jest to tylko pole z zapytaniem,<br />

57


58<br />

przycisk szukaj i lista wyników. Aplikacje mogą<br />

w tle zadawać bardziej lub mniej skomplikowane<br />

zapytania, a szybkość odpowiedzi poniżej 1s<br />

sprawi, że widok poszczególnych elementów ekranu<br />

użytkownika może uzyskać spersonalizowany,<br />

atrakcyjny graficznie i dynamiczny charakter.<br />

Jest to technologia bardzo wdzięczna, dające<br />

spore pole do popisu dla tych, którzy potrafią<br />

ją skutecznie wdrażać.<br />

Lingwistyka<br />

Pracując z danymi tekstowymi nie sposób uciec<br />

od zagadnień lingwistycznych. Po prostu, żeby<br />

móc syntetyzować wiedzę zawartą w dokumencie,<br />

trzeba umieć ten tekst najpierw zrozumieć.<br />

Lingwistyka komputerowa to już dojrzała dziedzina<br />

wiedzy, dzięki której jesteśmy w stanie wydobywać<br />

z tekstu słowa kluczowe, imiona i nazwiska ludzi,<br />

nazwy firm lub miejscowości, daty itd. Jesteśmy<br />

w stanie wyszukiwać z uwzględnieniem form<br />

fleksyjnych wyrazów, z wykorzystaniem prostych<br />

relacji pomiędzy pojęciami, jak synonimy lub<br />

bardziej skomplikowanych z wykorzystaniem<br />

taksonomii dziedzinowych lub ontologii. Wiedza<br />

zawarta w dokumentach może być klasyfikowana<br />

automatycznie jak również automatycznie<br />

tagowana wraz z wykryciem tonu wypowiedzi<br />

(np. pozytywna, negatywna, neutralna), a wszystko<br />

po to, żeby lepiej odnajdywać interesujące<br />

nas informacje.<br />

Ciekawym rozwiązaniem jest także możliwość<br />

zadawania zapytań w języku naturalnym,<br />

co w połączeniu z systemami rozpoznającymi mowę<br />

może nam dać w efekcie inteligentnego bota,<br />

serwującego nam żądaną informację.<br />

Rzecz ostatnia, acz najważniejsza –<br />

użytkownicy<br />

Każdy użytkownik Internetu wie, że są strony co<br />

wyglądają źle i takie co wyglądają dobrze. Z tych<br />

pierwszych szybko uciekamy, a na tych drugich<br />

z przyjemnością pozostajemy. Nie ma absolutnie<br />

żadnego powodu, żeby portale firmowe<br />

zniechęcały swoim wyglądem i mechanizmami<br />

dostępu do korzystania z nich!<br />

Tymczasem dział wiedzy dotyczący użyteczności<br />

serwisów internetowych już jest dość dojrzały<br />

z pewną ilością specjalistów w tej branży.<br />

Lata doświadczeń i badań sprawiły, że nie jest<br />

wiedzą tajemną jak dobierać kolory przycisków,<br />

jak budować układ strony, gdzie umieszczać<br />

podstawowe elementy sterowania stroną. Jeżeli<br />

będziemy chcieli skorzystać z dobrodziejstw tego<br />

obszaru wiedzy praktycznej, to zyskamy wiele<br />

i zwiększymy bardzo modny ostatnio i ważny<br />

współczynnik „adopcji” (ang. „system adoption”)<br />

rozwiązania informatycznego i zmiany w firmie.<br />

Findability = Odnajdywalność<br />

Ogromna większość informacji składowanych<br />

w firmach nie pochodzi z baz danych. Są to raczej<br />

dokumenty zawierające tekst, który często jest<br />

bardzo istotny. Nie ma jednak najmniejszego<br />

sensu składowanie tak dużych ilości tekstu,<br />

jeżeli z wiedzy w nim zgromadzonej nie da się<br />

korzystać. A bez odpowiednich narzędzi po prostu<br />

staje się to niemożliwe. Ale wydaje mi się, że nie<br />

w narzędziach tkwi sekret sukcesu, ale w sposobie<br />

ich wykorzystywania. Można przecież do upadłego<br />

biegać z młotkiem i gwoździami starając się<br />

zbudować dom, ale bez planu, umiejętności,<br />

środków, zasobów staje się to mało realne.<br />

Doświadczenie Findwise w pracy z ponad<br />

100 klientami nad projektami związanymi<br />

z wyszukiwaniem pokazuje, że niezbędnymi<br />

elementami sprawnego nawigowania<br />

po oceanie informacji to przede wszystkim<br />

myślenie strategiczne i długoterminowe o tym<br />

przedsięwzięciu, sprawne zarządzanie informacją,<br />

umiejętne wdrożenie technologii wyszukiwania<br />

z elementami dostosowania mechanizmów


lingwistycznych oraz dbałość o przejrzystość<br />

i użyteczność interfejsu aplikacji. Wszystko to<br />

razem nosi dość prostą nazwę Findability –<br />

czyli Odnajdywalność po naszemu.<br />

Paweł Wróblewski<br />

Dlatego życzę, aby do 2015 roku wszyscy<br />

osiągnęli o 20% lepszy wynik finansowy od<br />

swoich konkurentów z branży poprzez lepszą<br />

Odnajdywalność informacji!<br />

Ups! Wszyscy nie mogą być lepsi, bo niby od kogo? :-)<br />

Od przeszło 8 lat zajmuje się rozwiązaniami informatycznymi z zakresu wyszukiwania i analizy informacji<br />

tekstowej. Jest jednym z pierwszych propagatorów zastosowania mechanizmów lingwistyki komputerowej<br />

w analizie danych w przedsiębiorstwach i instytucjach związanych z bezpieczeństwem publicznym. Od stycznia<br />

2012 roku odpowiada za rozwój szwedzkiej firmy Findwise na terenie polski, której celem jest dostarczanie<br />

usług konsultingowych i wdrożeniowych w celu usprawniania procesu świadomego podejmowania decyzji<br />

wykorzystując najnowocześniejsze narzędzia wyszukiwania i analizy danych tekstowych. Prywatnie szczęśliwy<br />

mąż Anny pracującej jako adiunkt na Politechnice Warszawskiej, z którą udaje się nie tylko wychowywanie trzech<br />

córek, ale także współpraca na gruncie innowacyjnych rozwiązań opartych na wyszukiwaniu.<br />

59


Drodzy CEO - użyjcie wiedzy<br />

o kliencie, którą macie<br />

w systemach informatycznych!<br />

Jacek Czernuszenko i Michał Możdżonek, REISS Group<br />

60<br />

Zrealizowane w ostatnich dwóch dekadach<br />

wdrożenia systemów informatycznych klasy ERP<br />

przyniosły w wielu firmach poprawę zarządzania<br />

procesami biznesowymi i zarządzania finansami.<br />

Potem przyszła fala wdrożeń systemów CRM, które<br />

miały usprawnić zarządzanie relacjami z klientami<br />

i potencjalnym klientami. Firmy zaczęły gromadzić<br />

bardzo wiele danych operacyjnych i używać ich<br />

do podejmowania decyzji operacyjnych. Pojawiły<br />

się systemu DSS (Decision Support Systems) i<br />

MIS (Management Information System), które<br />

miały wspierać Zarządy w podejmowaniu decyzji<br />

strategicznych.<br />

Od hurtowni danych do <strong>Business</strong><br />

<strong>Intelligence</strong><br />

Od wielu lat wiodące przedsiębiorstwa wdrażają<br />

u siebie hurtownie danych zbierające dane<br />

z różnych systemów i umożliwiające spojrzenie<br />

na firmę oraz klienta w wielu różnych wymiarach.<br />

Niestety w wielu przypadkach CEO nie uzyskują<br />

za pomocą tych narzędzi informacji, które są<br />

dla nich tak krytyczne do zarządzania firmą.<br />

Dane dalej pozostają danymi, a nie zostają<br />

przekształcone w informację umożliwiającą<br />

podejmowanie strategicznych decyzji.<br />

Stąd też pojawiły się narzędzia wspierające<br />

<strong>Business</strong> <strong>Intelligence</strong>, które umożliwiają analitykom<br />

prze<strong>twarz</strong>ać zgromadzone dane w wiedzę<br />

i znajdować odpowiedzi na pytania Zarządu, np.<br />

• w telekomunikacji: Gdzie należy rozbudowywać<br />

sieć telefonii komórkowej? Czy klient zamierza<br />

rozwiązać umowę?<br />

• w ubezpieczeniach: Jacy klienci i w jakich<br />

sytuacjach generują najwięcej szkód<br />

wymagających wypłaty odszkodowania?<br />

• w bankowości: Jak klienci zarządzają swoimi<br />

finansami? Jakie produkty należy im<br />

zaoferować? Czy można udzielić kredytu<br />

nowemu klientowi?<br />

• w przemyśle: Które urządzenia są największą<br />

przyczyną awarii?<br />

• w ochronie zdrowia: jakie choroby<br />

i w jakich sytuacjach wymagały w danym<br />

szpitalu specjalistycznego leczenia?<br />

• w e-commerce: w jakich momentach klient<br />

rezygnuje z zakupu w moim sklepie<br />

internetowym?<br />

<strong>Business</strong> <strong>Intelligence</strong> - zbędny wydatek<br />

czy inwestycja konieczna w kryzysie<br />

W wielu branżach i w wielu firmach ponoszone<br />

są wielomilionowe inwestycje w projekty, których<br />

efekt często nie znajduje uznania w oczach<br />

obecnych i przyszłych klientów danej firmy.<br />

Narzędzia <strong>Business</strong> <strong>Intelligence</strong> pozwalają przed<br />

rozpoczęciem prac wdrożeniowych np. nad nowym<br />

produktem ocenić potencjalną skalę używania<br />

danego produktu przez klienta. Szczególnie<br />

istotne jest to w bankowości, ubezpieczeniach,<br />

telekomunikacji czy e-commerce.<br />

Nim rozpoczniemy prace nad nowymi projektami<br />

lub produktami warto sięgnąć do danych<br />

gromadzonych w firmie. A danych w każdej firmie<br />

generowanych jest niezwykle dużo.<br />

Ciągłe prośby działów informatyki o konieczność<br />

zakupu kolejnych dysków czy macierzy dyskowych


do hurtowni danych wprawia wielu CEO i CFO<br />

w irytację, gdyż w kryzysie liczy się każda wydatek.<br />

A cóż dopiero konieczność poniesienia znacznie<br />

większych inwestycji w rozwiązania <strong>Business</strong><br />

<strong>Intelligence</strong>. Może należy spojrzeć na ten fakt<br />

z nieco innej strony, bo ...<br />

<strong>Business</strong> <strong>Intelligence</strong> pozwalają rozumieć<br />

biznes<br />

Narzędzia <strong>Business</strong> <strong>Intelligence</strong> pozwalają nam<br />

sięgać głęboko w dane i analizować różne<br />

scenariusze na podstawie dotychczasowych<br />

danych zebranych w firmie. Uzyskane informacje<br />

na temat zachowania klientów, wykorzystania<br />

sieci telekomunikacyjnej czy energetycznej, itp.<br />

umożliwiają firmom zwiększyć ich przychody<br />

jak i też zmniejszyć koszty operacyjne czy też<br />

ograniczyć inwestycje.<br />

Może się też zdarzyć, że firma nie chce pozyskać<br />

ryzykownych klientów wtedy też modele<br />

predykcyjne pozwalają nam szybko określić ryzyko<br />

udzielenia kredytu danej osobie, czy też sprzedania<br />

mu subsydiowanego smartfonu. Dzięki temu firma<br />

unika wielomilionowych strat.<br />

Bez <strong>Business</strong> <strong>Intelligence</strong> nie wchodź<br />

w e-commerce czy media społecznościowe<br />

(<strong>Business</strong> <strong>Intelligence</strong> szczególnie<br />

cenne w e-commerce czy mediach<br />

społecznościowych)<br />

Nowe elektroniczne kanały kontaktu z klientami<br />

stawiają przed CEO zupełnie nowe wyzwania.<br />

Z jednej strony obecni i potencjalni klienci<br />

zostawiają wiele “śladów” swojej obecności<br />

i swoich poszukiwań na stronach internetowych<br />

czy “facebookowych” firm czy też w sklepach<br />

internetowych, ale z drugiej strony trzeba dane<br />

poprawnie zebrać i umiejętnie skorzystać.<br />

Ilość gromadzonych danych wzrosła wielokrotnie,<br />

ale wartość tych danych jest nieoceniona.<br />

Wyzwaniem stało się przeprowadzenie obliczeń<br />

na dużych ilościach danych i czas pozyskania<br />

informacji. Aby sprostać temu w <strong>Business</strong><br />

<strong>Intelligence</strong> pojawiły się zupełnie nowe koncepcje<br />

takie jak Big Data czy technologia Hadoop, które<br />

mają na celu pomóc zmierzyć się firmom z zupełnie<br />

nowymi realiami.<br />

CEO i jego liczby<br />

Najczęściej zwykło się łączyć CFO z liczbami,<br />

które w firmie są przygotowywane i analizowane.<br />

Jednakże głównym właścicielem i użytkownikiem<br />

tych informacji powinien być CEO. To dane zebrane<br />

w różnych systemach operacyjnych, przetworzone<br />

i udostępnione w narzędziach <strong>Business</strong> <strong>Intelligence</strong><br />

dają CEO niezwykłe narzędzie i krytyczne<br />

informacje “wywiadowcze” do walki o klienta.<br />

Zarządzanie <strong>Business</strong> <strong>Intelligence</strong><br />

Nic tak nie irytuje każdego CEO niż sprzeczne<br />

dane otrzymane z różnych części organizacji<br />

np. z pionu finansów i z pionu sprzedaży dane<br />

dotyczące aktywacji, liczby nowych klientów.<br />

Na zadane pytanie o przyczynę rozbieżności CEO<br />

zwykle uzyskują informację, że poszczególne<br />

komórki organizacyjne przyjmują różne definicje<br />

klienta, czy też produktu. Dojrzałość zarządzania<br />

danymi w firmie możemy podzielić na kilka<br />

poziomów rozwoju <strong>Business</strong> <strong>Intelligence</strong>:<br />

• Poziom 0: Chaosu - Poszczególne osoby<br />

przygotowują własne dane wg własnych<br />

definicji<br />

• Poziom 1: Podstawowych danych - Organizacja<br />

rozumie poszczególne dane z systemów<br />

operacyjnych<br />

• Poziom 2: Analiz - Rozproszone zespoły umieją<br />

wyciągać z danych informacje o sytuacji<br />

biznesowej<br />

61


62<br />

• Poziom 3: Zarządzany - Organizacja stosuje<br />

wspólne definicje informacji i posiada strategię<br />

business intelligence<br />

• Poziom 4: Biznes oparty na narzędziach<br />

<strong>Business</strong> <strong>Intelligence</strong> - Główne decyzje<br />

biznesowe podejmowane są na podstawie analiz<br />

opartych o dane posiadane przez firmę.<br />

Kroki do osiągnięcia dobrej jakości<br />

informacji w oparciu o <strong>Business</strong><br />

<strong>Intelligence</strong>.<br />

Wielu CEO zadaje sobie pytanie: co musi<br />

w firmie się stać, abym otrzymywał informacje<br />

niezbędne do zarządzania firmą. Warto określić<br />

cele i strategię business intelligence,<br />

które chcemy zrealizować.<br />

1. Strategia <strong>Business</strong> <strong>Intelligence</strong><br />

Pierwszym krokiem powinno być określenie<br />

Strategii <strong>Business</strong> <strong>Intelligence</strong>, która musi być<br />

strategią pomocniczą dla strategii realizowanej<br />

przez firmę i Zarząd. Musimy określić, jaki poziom<br />

szczegółowości analiz i przewidywań jest dla firmy<br />

konieczny, aby można było efektywnie tą firmą<br />

zarządzać. Strategia powinna też wziąć pod uwagę<br />

rozwój wiedzy organizacji w obszarze BI.<br />

2. Zasady Governance <strong>Business</strong> <strong>Intelligence</strong>:<br />

Kolejnym krokiem do osiągnięcia dobrego<br />

poziomu dojrzałości <strong>Business</strong> <strong>Intelligence</strong> w firmie<br />

jest wdrożenie zasad governance dla business<br />

intelligence. Jedna z komórek organizacyjnych<br />

w firmie np. controlling, czy dział analiz, powinna<br />

zostać odpowiedzialna za przygotowanie<br />

i utrzymywanie definicji poszczególnych danych<br />

w firmie np. aktywny klient, jak liczymy udział<br />

klienta B2B w całkowitej sprzedaży firmy,<br />

jakie koszty bierzemy pod uwagę w kosztach<br />

nowego produktu.<br />

Ujednolicenie definicji spowoduje znaczne<br />

zmniejszenie nieporozumień nawet na poziomie<br />

zarządu oraz zmniejszy koszt wielokrotnego liczenia<br />

tych samych danych i ich wzajemnego uzgadniania.<br />

Jednakże najważniejsze jest zachowanie spójności<br />

danych i możliwość analizy trendów.<br />

3. Centralizacja przechowywania danych<br />

i informacji<br />

Kolejnym krokiem do osiągnięcia dobrego poziomu<br />

<strong>Business</strong> <strong>Intelligence</strong> jest wdrożenie centralnej<br />

hurtowni danych do której będą trafiały dane<br />

z wielu różnych źródeł (systemów). Właściwe<br />

zaprojektowanie hurtowni pozwoli dokonywać<br />

bardzo złożonych analiz w różnych przekrojach.<br />

Dla każdego CEO kluczowy jest fakt,<br />

że zgromadzone w hurtowni danych dane<br />

i informacje są unikalne dla tej firmy i żadnej<br />

jej konkurent nie jest w stanie tych danych<br />

pozyskać i nie jest w stanie przewidywać działań<br />

podejmowanych przez daną firmę.<br />

4. Wspólne narzędzia do <strong>Business</strong><br />

<strong>Intelligence</strong><br />

Kiedy już rozpoczniemy budowę hurtowni danych<br />

warto od razu zastanowić się nad narzędziami<br />

do <strong>Business</strong> <strong>Intelligence</strong>, które w firmie będą<br />

wykorzystywane. Niestety w wielu firmach często<br />

się zdarza, że controlling kupuje własne narzędzia<br />

do <strong>Business</strong> <strong>Intelligence</strong>, dział informatyki<br />

kupuje inne narzędzia, a dział analiz biznesowych<br />

kupuje odpowiadające im systemy. W firmach<br />

wiele licencji na oprogramowanie duplikuje się,<br />

gdyż nikt w firmie nie skoordynował zakupów<br />

narzędzi BI. Wydatki te są w większości przypadków<br />

znaczące, ale Zarządy nie mają wystarczającej<br />

wiedzy, aby podjąć decyzję o narzędziach BI.<br />

Warto wskazać jedną osobę/jedną jednostkę<br />

organizacyjną, która posiada wiedzę i może podjąć


decyzję o właściwych narzędziach (biorąc też pod<br />

uwagę oczekiwania innych użytkowników BI).<br />

5. Centrum Kompetencji <strong>Business</strong><br />

<strong>Intelligence</strong><br />

W obszarze <strong>Business</strong> <strong>Intelligence</strong> najczęściej<br />

odchodzi się od podziału na zespoły biznesowe<br />

zajmujące się danym obszarem biznesowym<br />

i zespoły informatyki odpowiedzialne za systemy<br />

z danego obszaru biznesowego. Obszar <strong>Business</strong><br />

<strong>Intelligence</strong> wymaga bowiem wiedzy zarówno<br />

biznesowej jak również technologicznej. Jest to<br />

jeden z najbardziej wymagających obszarów,<br />

gdzie bez wiedzy technicznej ani też bez wiedzy<br />

biznesowej nie da się efektywnie pracować.<br />

To do tych ludzi CXO powinni zwracać<br />

się z nurtującymi pytaniami dotyczącymi<br />

np. zyskowności klientów czy produktów,<br />

zachowań klientów, efektywności sieci sprzedaży.<br />

W tym obszarze można też spojrzeć w przyszłość<br />

i z modeli predykcyjnych przewidzieć ryzyko<br />

odejścia klienta, przewidzieć ryzyko fraudu<br />

przy sprzedaży do nowego nieznanego klienta.<br />

Te wszystkie analizy biorą swój początek<br />

w milionach bajtów zapisanych danych w hurtowni<br />

i dzięki wykorzystaniu narzędzi matematycznych<br />

zaimplementowanych w systemach business<br />

intelligence pozwalają odkrywać i przewidywać.<br />

Jacek Czernuszenko i Michał Możdżonek<br />

Podsumowanie: Świadomość celów<br />

i wykorzystywanie informacji i wiedzą<br />

w firmie będzie kluczowe do sukcesu firmy<br />

w trudnych czasach.<br />

Przez ostatnie dwie dekady przyzwyczailiśmy<br />

się do ciągłych wzrostów sprzedaży i nowych<br />

biznesów. Kryzys, którego teraz doświadczamy<br />

będzie wymagał od firm podejmowania właściwych<br />

decyzji. Decyzji świadomie podejmowanych<br />

na podstawie realnych danych o produktach<br />

i klientach każdej z firm. W takich sytuacjach<br />

pomoc przynosi <strong>Business</strong> <strong>Intelligence</strong>. Dzięki nim<br />

CXO są w stanie podejmować dobre decyzje<br />

i prowadzić firmę bezpiecznie przez trudny czas.<br />

Istotne jest też, aby CEO stawiali organizacji<br />

jasne cele i dzielili się swoją wiedzą z resztą<br />

pracowników. Ludzie potrzebują rozumieć<br />

zarówno cel dokąd firma zmierza, jak i informacje<br />

operacyjne i analizy, oparte o unikalne dane,<br />

które są ogromną rozwiniętych firm.<br />

Tych informacji nie ma konkurent - chętnie<br />

by je poznał, ale najważniejsze, aby CXO<br />

z tych informacji sami często korzystali.<br />

<strong>Business</strong> <strong>Intelligence</strong> to kompas, który pokazuje<br />

CEO kierunek nawet przy najgorszej pogodzie.<br />

Są doświadczonymi konsultantami w dziedzinie <strong>Business</strong> <strong>Intelligence</strong>, zarządzania programami oraz zarządzania<br />

zmianą w zakresie procesów biznesowych oraz technologii. Prowadzili wiele projektów oraz programów<br />

w sektorach telekomunikacji, nowych technologii, energetyki oraz ochrony zdrowia. Można się z nimi<br />

skontaktować pod adresem: jacek.czernuszenko@reissgroup.eu oraz michal.mozdzonek@reissgroup.eu<br />

63


64<br />

Być w 15%<br />

Sławomir Folwarski i Mateusz Ossowski, Carrywater<br />

Około 70% wdrożeń systemów <strong>Business</strong> <strong>Intelligence</strong> (BI) kończy się niepowodzeniem.<br />

Z pozostałych 30% po upływie roku tylko połowa jest używana. 1 Właściwe przygotowanie<br />

wdrożenia systemu BI i dobre zarządzanie projektem pozwoli być w 15%.<br />

Krok 0 - jak uzasadnić, że to się opłaca<br />

Wdrażając system BI – jak w przypadku każdego<br />

innego rozwiązania IT – przedsiębiorstwa liczą<br />

na zwrot z inwestycji. Kluczem do wykazania<br />

odpowiedniej stopy zwrotu jest umiejętność<br />

obliczenia wartości informacji, które będą<br />

pozyskiwane dzięki wdrożonemu systemowi.<br />

Jest kwestią bezdyskusyjną, że dostęp do dobrej<br />

jakości i uporządkowanej informacji pozwala<br />

lepiej i sprawniej prowadzić biznes: zwiększyć lub<br />

utrzymać przychody firmy (np. przez obniżenie<br />

retencji klientów), jeszcze częściej obniżyć koszty<br />

(np. poprzez optymalizację kosztów marketingu<br />

czy wykrycie fraudów). Problematyczne w wielu<br />

firmach jest wykazanie możliwych korzyści<br />

i powiązanie ich z wdrożeniem systemu BI oraz<br />

przeliczenie tego na pieniądze. Przy odpowiednich<br />

założeniach możliwe jest oszacowanie wartości<br />

informacji przede wszystkim poprzez wskazanie,<br />

które procesy w firmie będą funkcjonowały<br />

sprawniej – dzięki szybszym i trafniejszym decyzjom<br />

podejmowanym w oparciu informacje dostarczane<br />

na czas i w odpowiedniej formie.<br />

Lepiej szybciej, niż dokładnie<br />

Gdy decyzja o wdrożeniu rozwiązania BI zostanie<br />

podjęta należy skoncentrować się na analizie<br />

potrzeb, które system ma zaspokajać, a następnie<br />

przekuć je w precyzyjne wymagania. Niestety<br />

użytkownik biznesowy często nie posiada wiedzy<br />

dotyczącej możliwości systemów, co gorsze, nie do<br />

końca jest też świadomy, jakie funkcjonalności są<br />

mu potrzebne. Najczęściej najlepsze wymagania<br />

biznesowe spływają dopiero na etapie testów<br />

akceptacyjnych, gdyż zwykle dopiero wtedy<br />

użytkownik widzi system i zaczyna rozumieć<br />

co mógłby dostać, gdyby wcześniej wiedział<br />

jak to działa. Doświadczenia Carrywater pokazują<br />

także, że należy z rezerwą podchodzić, do tego,<br />

co oferenci prezentują na etapie wyboru narzędzia.<br />

Jeden ze znanych nam wyników Proof of Concept<br />

(PoC) pokazał, że rozwiązanie, które na etapie<br />

prezentacji ofert wyrastało na lidera, było zupełnie<br />

niedopracowane. System pracował niestabilnie,<br />

a przy większej ilości danych zupełnie się zawieszał<br />

(nawet do tego stopnia, że wymagał reinstalacji).<br />

Inne rozwiązania poddane PoC także dawały<br />

wydajność kilkukrotnie niższą niż obiecywana<br />

w ofertach.<br />

Z powyższych względów rekomendujemy<br />

podzielenie wdrożenia na etapy i to najlepiej<br />

poprzedzone pilotażem, czy choćby Proof of<br />

Concept. Wymierne korzyści przynosi uruchomienie<br />

systemu, którego zakres działania jest ograniczony,<br />

ale który pracuje w realnych (charakterystycznych<br />

dla danej organizacji) warunkach i na prawdziwych<br />

danych.<br />

1 Poniższy materiał oparty został na doświadczeniach autorów z różnych wdrożeń, w których mieliśmy okazję<br />

uczestniczyć od samego początku do momentu zakończenia, a później obserwować ich losy po kilku miesiącach<br />

i kilku latach.


W efekcie, przeprowadzana następnie analiza<br />

szczegółowa, a w szczególności zebrane<br />

wymagania są dużo bardziej wartościowe,<br />

gdyż odnoszą się do doświadczeń z realnym<br />

systemem. Co ważne, szczegółowa analiza<br />

powinna objąć tylko kolejny, nieduży etap,<br />

po którym powinna nastąpić weryfikacja<br />

efektów. Na tej samej zasadzie cały zakres<br />

wdrożenia powinien być realizowany w możliwie<br />

krótkich etapach.<br />

Kolejnym ważnym elementem jest udostępnianie<br />

użytkownikom rozwiązania nawet, gdy<br />

nie zostało zrealizowane 100% danego<br />

etapu. Do takiego – wydawać by się mogło,<br />

niezgodnego z „zasadami sztuki” – podejścia<br />

skłaniają nas doświadczenia, które pokazują, że:<br />

• testując i dopracowując rozwiązanie tracony<br />

jest cenny czas, w trakcie którego zmienia się<br />

otoczenie i jest coraz bardziej<br />

prawdopodobne, że uruchomimy coś,<br />

co świetnie działa, ale jest już nieaktualne,<br />

• nie ma lepszego testu i nauki jak rzeczywista<br />

praca z danym narzędziem, po kilku dniach<br />

pracy użytkownicy mają wiele pomysłów<br />

na usprawnienia i modyfikacje,<br />

• czasem problemy, nad którymi długo pracuje<br />

się na etapie budowy rozwiązania, okazują się<br />

mało istotne przy rzeczywistej pracy.<br />

Jakość danych jest zawsze w zakresie<br />

Spiesząc się z wdrożeniami nie można zapomnieć<br />

o najważniejszym, naszym zdaniem elemencie<br />

systemów BI – jakości danych. Każdy, kto<br />

otrzyma raport, analizę czy wykres, które nawet<br />

bez wchodzenia w szczegóły będą budziły<br />

wątpliwości czy pokazują prawdę, szybko zrazi<br />

się do systemu i nie będzie chciał go używać.<br />

Z drugiej strony systemy BI zawsze integrują<br />

dane i pokazują je użytkownikom z różnych<br />

działów i dyskusja o tym czyja prawda jest<br />

prawdziwsza jest nieunikniona. Z tych powodów<br />

zawsze dużo czasu i energii trzeba poświecić<br />

na poprawę jakości danych oraz precyzyjne<br />

ujednolicenie definicji podstawowych pojęć<br />

(jak choćby sprzedaż, klient). Zignorowanie tej<br />

kwestii może sprawić, iż użytkownicy systemu<br />

zostaną ofiarami zasady GIGO (garbage in,<br />

garbage out). Warto jednak pamiętać, że nie<br />

da się doprowadzić danych do stanu idealnej<br />

jakości oraz, że nie opłaca się doprowadzać<br />

danych do prawie idealnej jakości, gdyż koszty<br />

przejścia z jakości danych na poziomie 99% do<br />

99,9% są niewspółmiernie wyższe niż uzyskania<br />

jakości na poziomie 99%, gdy startujemy<br />

z poziomu 90%.<br />

Czarne skrzynki mogą być puste<br />

Bogactwo rozwiązań klasy BI jest obecnie<br />

ogromne: od systemów dostarczanych przez<br />

największych graczy, jak Oracle, IBM, SAP, czy<br />

Microsoft, przez mniejsze firmy jak Informatica,<br />

SAS, QlikView, do zupełnie niszowych rozwiązań.<br />

Od tradycyjnego modelu licencjonowania<br />

per CPU/Core przez Cloud Computing, SaaS<br />

(software as a service) po rozwiązania open<br />

source. Zawsze można też w oparciu o bazę<br />

danych zlecić budowę dedykowanego systemu<br />

BI od podstaw.<br />

Nie ma tu jednej złotej rady, każdy potrzebuje<br />

czegoś trochę innego, każda firma ma zastaną<br />

pewną architekturę, określony model współpracy<br />

z dostawcami, jakoś zorganizowane utrzymanie<br />

systemów oraz ułożone relacje IT-Biznes.<br />

Ale właśnie analiza tych elementów powinna<br />

stanowić punkt wyjścia do wyboru rozwiązania.<br />

Z doświadczeń Carrywater jednoznacznie wynika,<br />

że bez względu na to, która oferta zostanie<br />

wybrana, system BI musi być otwarty na częste<br />

zmiany i to zarówno te, których nadejścia<br />

spodziewamy się w dalszej przyszłości, jak i takie,<br />

65


66<br />

które w momencie wdrażania nie są brane pod<br />

uwagę. Zdecydowanie odradzamy systemy,<br />

do których z jednej strony wprowadzane są<br />

dane, a z drugiej wychodzi gotowy model<br />

dataminingowy lub wręcz gotowa decyzja<br />

i nie wiadomo co się dzieje w środku (czarna<br />

skrzynka). Generalnie najlepiej sprawdzają się<br />

rozwiązania które:<br />

• będzie można rozwijać we własnym zakresie<br />

lub przekazać do rozwoju innemu dostawcy,<br />

• łatwo dają się rozszerzyć o nowe moduły<br />

czy nowe elementy zwiększające wydajność,<br />

• pozwalają organizacji na w miarę<br />

samodzielną konfigurację lub zmiany<br />

działania (posiadają dokumentację),<br />

• pozwalają na integrację z dowolnymi innymi<br />

systemami.<br />

Wybierając System BI warto wziąć pod uwagę<br />

powyższe postulaty. Rozwiązania, które je<br />

spełniają, a są niedoceniane w Polsce, to systemy<br />

Commercial Open Source, które dodatkowo<br />

są tanie (opisujemy je dokładniej w naszym<br />

artykule: “W krainie OSBI”).<br />

O procesie wyboru dostawcy, negocjacjach<br />

i umowie można by napisać osobny artykuł<br />

lub książkę. W trakcie jednych z negocjacji,<br />

w których Carrywater pełniło rolę doradcy, dzięki<br />

dobremu przygotowaniu do rozmów udało się<br />

doprowadzić do podpisania umowy z dostawcą,<br />

której wartość była niższa o ok. 50% od<br />

pierwotnej oferty, a zakres pozostał praktycznie<br />

bez zmian.<br />

Kiedy umowa?<br />

Wszystkie wyżej wymienione zagadnienia<br />

powinny służyć do przygotowania RFP. Określa<br />

ono zakres i funkcjonalności systemu, podział<br />

wdrożenia na etapy i kolejność ich realizacji<br />

oraz preferowane technologie (jedną lub kilka).<br />

Równolegle warto też przygotować kryteria<br />

oceny i projekt umowy.<br />

Dlaczego należy mieć projekt umowy gdy<br />

nie ma jeszcze RFP, nie została wybrana lista<br />

potencjalnych dostawców, nie ma pytań do RFP<br />

i odpowiedzi, nie spłynęły oferty, nie została<br />

przeprowadzona ewaluacja ofert, nie wybrano<br />

krótkiej listy dostawców, nie negocjowano ceny,<br />

nie wybrano dostawcy i nie zaczęto uzgadniać<br />

z nim umowy. Jeśli proces wyboru oferty zostanie<br />

przeprowadzony tak, że do negocjacji treści<br />

umowy dochodzi na końcu, wtedy to dostawca<br />

ma silniejszą pozycję negocjacyjną i nie<br />

musi godzić się np. na trudne zapisy umowy<br />

o karach, warunkach odbioru, warunkach<br />

odstąpienia itp. W Carrywater zwykle umowę<br />

załączamy do RFP i zaznaczamy, iż musi być ona<br />

zaakceptowana, aby można było złożyć ofertę.<br />

Ktoś zaprotestuje – przecież elementem umowy<br />

jest zakres, cena i harmonogram, a to będzie<br />

znane dopiero jak skończy się wybór i negocjacje<br />

ofert. Tak, ale cena to jedna tabela, a zakres<br />

i harmonogram, to załączniki. Umowy mogą<br />

liczyć kilkadziesiąt stron bez załączników,<br />

gdyż muszą zawierać opis wszystkich<br />

niezbędnych warunków, praw i obowiązków.<br />

Zagrożenia dla systemów BI po wdrożeniu<br />

Warto pamiętać, że samo wdrożenie systemu BI<br />

nie oznacza osiągnięcia sukcesu. Jest niezmiernie<br />

ważne, aby o niego odpowiednio dbać, bo<br />

często w przedsiębiorstwach zdarza się, że<br />

użytkownicy systemu z czasem przestają go<br />

używać. Przyczyn takiego stanu rzeczy może być<br />

kilka:<br />

• „psucie” danych w systemach źródłowych<br />

lub „drobne” zmiany,<br />

• nasycenie danymi,


• brak wiedzy wśród użytkowników,<br />

• powstawanie systemów „podbiurkowych”.<br />

„Psucie” źródła<br />

Specyfiką systemów BI jest to, iż spływają<br />

do nich dane ze wszystkich innych systemów<br />

IT funkcjonujących w przedsiębiorstwie. Jeśli<br />

więc dane wejściowe będą niskiej jakości (np.<br />

niespójne) system BI będzie generował błędne<br />

raporty, a jego użytkownicy będą się zniechęcać<br />

do korzystania z niego. Niestety, zawsze<br />

pojawiają się zmiany w systemach źródłowych,<br />

przy który zapomniano o BI. Dla przykładu:<br />

• zmieniło się biznesowe znaczenie jakiegoś<br />

pola (np. w polu nr. stacjonarny zaczęliśmy<br />

wpisywać nr GG, a zapomniano, że pewne<br />

analizy opierały się o strefy numeracyjne –<br />

dawne numery kierunkowe),<br />

• dodano nowe informacje – bez zmiany<br />

starych (np. pomocnicze pole „podtyp<br />

zamówienia”, na którym bazuje wyznaczenie<br />

kanału sprzedaży).<br />

Projektując procesy IT w firmie należy pamiętać,<br />

by proces zarządzania zmianą zawierał krok<br />

polegający na weryfikacji wpływu każdej<br />

zmiany w systemach źródłowych na systemy<br />

BI. Miejsce tego etapu w procesie oraz jego<br />

przebieg zależy od zasad panujących w danym<br />

przedsiębiorstwie. Warto jednak rozważyć<br />

dwuetapową analizę wpływu zmiany na system<br />

BI. Pierwszy etap to weryfikacja, czy zmiana<br />

w systemach źródłowych może wpłynąć<br />

negatywnie na funkcjonowanie systemu BI<br />

poprzez jego awarię lub utratę jakości danych.<br />

Drugi etap to analiza, jakie korzyści biznesowe<br />

można uzyskać dostosowując system BI do zmian<br />

w systemach źródłowych.<br />

Nasycenie danymi<br />

Jest silna tendencja do wprowadzania do<br />

systemów BI wszystkich możliwych danych bez<br />

względu na to czy są potrzebne, jak długo są<br />

potrzebne, na jakim poziomie są potrzebne<br />

(detaliczne czy zagregowane). Systemy stają się<br />

przeładowane danymi, ociężałe, a użytkownicy<br />

gubią się lub nie mogą doczekać na wyniki<br />

raportów lub analiz. Należy o tym pamiętać przy<br />

analizie wymagań funkcjonalnych, uważając<br />

by wymagania miały uzasadnienie, czyli by<br />

nie skupiać się na tym co jest potrzebne<br />

użytkownikom, ale także do czego to jest<br />

potrzebne. Ponadto, definiując wymagania<br />

niefunkcjonalne warto zadbać o mechanizmy<br />

retencji danych, dzięki którym wraz z upływem<br />

lat system pozbywa się najstarszych danych<br />

detalicznych, ewentualnie pozostawiając<br />

dane zagregowane.<br />

Brak wiedzy wśród użytkowników<br />

Brak wiedzy wśród użytkowników dotyczący<br />

możliwości systemów BI jest powszechny.<br />

Co gorsze, to choroba nieuleczalna, której<br />

objawy powracają co pewien czas. Użytkownicy<br />

się zmieniają lub szybko zapominają jaka<br />

była pełna funkcjonalność ich systemu, gdyż<br />

w bieżącej pracy użytkują zwykle jedynie<br />

część dostępnych możliwości. Ciekawym<br />

pomysłem, który pozwala temu zapobiec są<br />

cykliczne szkolenia dla biznesu organizowane<br />

najlepiej przez IT lub dostawcę rozwiązania.<br />

Nie chodzi o szkolenie z narzędzia, ale szkolenie<br />

z tego, co jest dostępne w systemie i jak<br />

z tego korzystać.<br />

Rozwiązania „podbiurkowe”<br />

Gdy w przedsiębiorstwie pojawia się choćby<br />

jeden z powyższych problemów, system BI<br />

przestaje spełniać swoją rolę i działy biznesowe<br />

67


68<br />

organizacji pozbawione są odpowiedniej<br />

jakości danych, których jednak nie przestają<br />

potrzebować. Często więc zdarza się, że biznes<br />

tworzy sobie własne „podbiurkowe” rozwiązania<br />

do raportowania i analiz danych. By tego<br />

uniknąć, każde wdrożenie, każda zmiana<br />

powinna być komunikowana użytkownikom,<br />

co więcej, niezbędne jest pokazanie planów<br />

na przyszłość (roadmapy).<br />

Sławomir Folwarski (Slawomir.Folwarski@carrywater.com)<br />

Mateusz Ossowski (Mateusz.Ossowski@carrywater.com)<br />

****<br />

Wierzymy, że zastosowanie przedstawionych tu<br />

dobrych praktyk znacznie pomoże we właściwym<br />

przygotowaniu wdrożenia systemu BI oraz<br />

w dobrym zarządzaniu projektem, jak również<br />

pozwoli uniknąć niektórych problemów<br />

pojawiających się już po wdrożeniu systemu.<br />

Carrywater Group S.A. jest firmą konsultingową, która od ponad 15 lat skutecznie wspiera organizacje w definiowaniu<br />

i osiąganiu celów strategicznych. Doradzamy w obszarze biznesowym i IT. Prowadząc projekty doradcze wykorzystujemy<br />

kompetencje zarządzania projektami – wysokiej jakości produkty dostarczamy szybko i efektywnie. Firma poszukuje<br />

nowych rozwiązań i inwestuje w innowacyjne przedsięwzięcia zarówno zachęcając pracowników do zgłaszania pomysłów,<br />

jak i proponując Klientom współpracę w modelu Ventures.


Współczesne pralki mają obecnie lepsze<br />

procesory i więcej pamięci, niż sonda<br />

Apollo 11, która pozwoliła Neilowi<br />

Armstrongowi stanąć na Księżycu<br />

i bezpiecznie wrócić na Ziemię.<br />

Marcin Choiński, BI.pl<br />

69


Revenue <strong>Intelligence</strong> sposobem na<br />

zwiększenie rentowności<br />

70<br />

Monika Kacprzyk i Michał Jaślan, ATOS<br />

Analizując współzawodnictwo firm na rynku, niezależnie od branży, obserwuje się działania<br />

mające na celu usprawnienie finansowej i operacyjnej efektywności przedsiębiorstw. Dzieje się<br />

tak dlatego, iż posiadanie nowoczesnego pakietu produktów i usług dopasowanych do potrzeb<br />

klientów nie jest wystarczające do utrzymania pozycji na rynku.<br />

Panujące na rynkach kryzysowe nastroje powodują,<br />

że managerowie reorganizują procesy i struktury<br />

szukając oszczędności. Wsparcie dla tych działań<br />

stanowią systemy klasy business intelligence<br />

umożliwiające dokładny pomiar kondycji<br />

procesów biznesowych, precyzyjne kalibrowanie<br />

strategii oraz wszelkiego rodzaju analizy. Jednym<br />

z nich, nakierowanym na operacyjną działalność<br />

przedsiębiorstw są systemy Revenue Assurance.<br />

Mają one za zadanie podniesienie efektywności<br />

procesów w firmie poprzez eliminację lub<br />

zmniejszenie strat do akceptowalnego przez<br />

organizację poziomu.<br />

Zgodnie z definicją Telemanagement Forum<br />

Revenue Assurance to “Metody podnoszące jakość<br />

danych i procesów, wpływające na zwiększenie<br />

zysków, przychodów oraz przepływów pieniężnych”.<br />

Według metodyki wykorzystywanej w Atos<br />

poprzez Revenue Assurance (RA) rozumiane są<br />

wszelkie wykonywane przez podmiot czynności<br />

zmierzające do zapewnienia, iż procesy, operacje<br />

i procedury prowadzą do maksymalizacji<br />

przychodu. Podejście takie opiera się na<br />

powiązaniu zagadnień dotyczących struktury<br />

organizacyjnej firmy, realizowanych procesów<br />

i wykorzystanej technologii (systemów IT). (Rys.1)<br />

Tylko takie ujęcie umożliwia dokładne zrozumienie<br />

i kontrolowanie całego procesu generowania<br />

przychodów. Sukces w zwiększaniu zysków lub,<br />

inaczej mówiąc, zmniejszanie skali możliwej utraty<br />

przychodów, jest możliwy gdy narzędzia, procesy,<br />

zmiany w organizacji i inne działania będą ze<br />

sobą skorelowane, a nie realizowane w sposób<br />

niezależny od siebie.<br />

Oczywiście zagadnienie Revenue Assurance<br />

w przypadku firm telekomunikacyjnych nie jest<br />

nowością. Większość z telekomów zatrudnia<br />

zespół ekspertów, którzy realizują zadania<br />

związane z zabezpieczeniem przychodów,<br />

chociaż są one inaczej interpretowane przez różne<br />

zespoły. Mimo obecności Revenue Assurance<br />

w organizacji utrata przychodów wynosi średnio<br />

1% całkowitych przychodów firmy (zgodnie<br />

z badaniami Telemanagment Forum z 2008 roku<br />

przeprowadzonych u 14 operatorów). Utrata<br />

była zidentyfikowana na podstawie rzeczywistych<br />

danych. Inne badania przeprowadzone przez<br />

Telemanagment Forum w roku 2010 pokazują<br />

między innymi, że średnio 1,12 % przychodów nie<br />

może być zafakturowane (maksymalna wartość<br />

to aż 6,42%).<br />

Concept<br />

RA Org<br />

SLA<br />

Tooling<br />

Hardware<br />

Processes<br />

RA V.Org<br />

Rys. 1. Elementy implementacji Revenue Assurance


W aktualnej sytuacji rynkowej realizacja<br />

podstawowych funkcji zabezpieczenia<br />

przychodów to za mało. W czasach kryzysu<br />

i ciągłej tendencji obniżania kosztów niezbędne<br />

jest rozszerzenie zakresu Revenue Assurance<br />

o nowe funkcjonalności: monitorowanie i analiza<br />

nowych obszarów utraty przychodów związanych<br />

ze zmianą modelu biznesowego, kreowaniem<br />

złożonych ofert wykorzystujących coraz bardziej<br />

zaawansowane technologie. Jednocześnie, lojalność<br />

klientów maleje wprost proporcjonalnie do<br />

wzrostu oczekiwań i percepcji praw; klienci chcą<br />

decydować o sposobie konstrukcji pakietu usług,<br />

sposobie zapłaty, warunkach obowiązywania usług.<br />

Dla telekomów, przy istniejącej konkurencji oraz<br />

saturacji rynku, aktualne oczekiwania klientów<br />

są wysokie, a w przyszłości będą jeszcze wyższe.<br />

Konieczne jest więc tworzenie nowych ofert<br />

poprzez połączenie usług typu data, voice i video<br />

zarówno w stacjonarnej i komórkowej ofercie oraz<br />

zachęcanie klientów do aktywnego korzystania<br />

z nowych propozycji. Powszechność internetu<br />

oraz popularność portali społecznościowych jest<br />

źródłem ogromnego popytu na mobilne usługi<br />

Per type of service<br />

Per type of customer<br />

Voice Pre-paid<br />

Data Pre-paid<br />

From... ...To<br />

Rys. 2. Zmiana produktu wymuszona oczekiwaniami klientów<br />

Voice Postpaid<br />

Per Network, Per Service<br />

Data Postpaid<br />

Mobile Fixed Internet<br />

Increase Flexibility<br />

Reduce Costs<br />

transmisji danych dostępne zawsze niezależnie<br />

od miejsca i czasu. Firmy więc potrzebują<br />

360-stopniowego widoku na przychody, koszty<br />

i marże oraz proaktywnych działań w całej<br />

organizacji. Przy takim podejściu wymagane są<br />

działania takie jak:<br />

• minimalizacja strat wynikających ze słabej<br />

integralności danych,<br />

• optymalizacja zależności pomiędzy systemami,<br />

• wsparcie relacji z klientem, lepsze<br />

ukierunkowanie na jego potrzeby,<br />

• monitorowanie i ściślejsza kontrola w czasie<br />

rzeczywistym wszystkich aspektów związanych<br />

z procesami generowania przychodów,<br />

• minimalizacja zagrożeń związanych<br />

z bezpieczeństwem sieci i zastosowanymi<br />

rozwiązaniami,<br />

• minimalizacja zagrożeń związanych<br />

z kanibalizacją już oferowanych usług<br />

• obniżenie kosztów operacyjnych<br />

i wyeliminowanie przestojów serwisowych.<br />

Pre-paid / Postpaid billing<br />

Triple-Play services<br />

Real-Time Payment<br />

Mobile, Fixed or Internet<br />

Multi-Network, Multi-Service<br />

All Services<br />

All users<br />

71


72<br />

Nowe technologie wchodzące na rynek<br />

telekomunikacyjny niosą ze sobą potencjalne<br />

zagrożenia utraty przychodów. Zespoły<br />

odpowiedzialne za Revenue Assurance mając<br />

dostęp do narzędzi oraz danych (wymaganie<br />

krytyczne!), wykorzystując sprawdzone standardy<br />

oraz praktyczne doświadczenia, powinny realizować<br />

nie tylko funkcje monitorowania i raportowania,<br />

ale także proaktywnego udziału w realizacji<br />

procesów biznesowych oraz szerzenia wiedzy<br />

w organizacji. Przykładowe wyzwania stawiane<br />

przed Revenue Assurance to:<br />

• Aktywny udział w definiowaniu usług,<br />

dopasowanie oferowanych usług do profilu<br />

klienta, wsparcie przy określeniu rentowności<br />

lub zmiany modelu biznesowego.<br />

• Wsparcie w zarządzaniu kanałami sprzedaży.<br />

Według różnych badań szacowane jest,<br />

że operatorzy wydają około 10-15% swojego<br />

budżetu na wszelkie prowizje dla pośredników<br />

oraz płatności związane z obsługą sprzedaży.<br />

W tej sytuacji każdy drobny błąd w procesie<br />

może prowadzić do znacznej utraty przychodów.<br />

• Monitorowanie on-line procesów generowania<br />

przychodów w przypadku świadczenia usług<br />

rozliczanych w trybie rzeczywistym (usługi<br />

konwergentne). W tym przypadku wyzwaniem<br />

dla Revenue Assurance jest złożone<br />

środowisko, interfejsy oraz realizowane procesy,<br />

dynamicznie zmieniająca się charakterystyka<br />

usług, kontrolowanie zmian na koncie klienta,<br />

brak możliwości odzyskania utraconych lub<br />

błędnych transakcji.<br />

• M-payments/E-commerce. Aktywny udział<br />

w procesie generowania przychodów z tytułu<br />

korzystania przez klientów z usług (np. ściąganie<br />

muzyki, płatności za parkingi/usługi, bankowe<br />

aplikacje na smartfony) poprzez uzyskiwanie<br />

części dochodów z transakcji.<br />

Zgodnie z metodyką Revenue Assurance<br />

(wykorzystywaną przez Atos) procesy są<br />

analizowane pod kątem utraconych korzyści, które<br />

mogą przyjmować poniższe formy:<br />

• Rzeczywiste straty – pojawiają się wtedy,<br />

gdy klient wykorzystał dostarczoną usługę<br />

i nie został za nią odpowiednio obciążony,<br />

np. błędy w systemach wyceniających usługę<br />

na podstawie złożonego systemu taryf i promocji.<br />

• Niewykorzystane możliwości – strata<br />

potencjalnego dochodu spowodowana<br />

niedostarczeniem, nieaktywnością usługi/<br />

serwisu. Przykładem może być tu zwłoka<br />

w aktywacji dostępu do usług.<br />

• Zwiększone koszty sprzedaży – koszty<br />

wynikające z błędnego wyliczania opłat<br />

należnych firmie z tytułu udostępniania<br />

swojej infrastruktury. W przypadku firm<br />

telekomunikacyjnych takie ryzyko pojawia się<br />

dla usług roamingowych i interconnect.<br />

W celu identyfikacji powyższych luk Revenue<br />

Assurance implementuje mierniki/wskaźniki<br />

wewnątrz oraz równolegle do procesów<br />

biznesowych. Ich wyniki przekładane są na<br />

konkretne wartości pieniężne, co z jednej strony<br />

jest silnym impulsem motywującym do usuwania<br />

luk w procesach, z drugiej strony jest solidnym<br />

uzasadnieniem dla obecności inicjatywy<br />

w przedsiębiorstwie.<br />

Inicjatywa Revenue Assurance musi objąć swoim<br />

zasięgiem całe przedsiębiorstwo, zaczynając od<br />

najważniejszych dla biznesu domen organizacji,<br />

tak aby objąć cały proces generowania dochodu<br />

– od wytworzenia produktu, poprzez jego sprzedaż<br />

i fizyczne dostarczenie, kończąc na zapewnieniu<br />

uzyskania płatności. Jako punkt wyjścia<br />

rozpatrywane są:<br />

• Finanse – obsługa finansowo księgowa (księga<br />

główna), celem jest dostarczenie w wymaganym<br />

czasie dokładnej, pełnej i poprawnej informacji<br />

o dochodzie i kosztach do księgi głównej.<br />

• Działania operacyjne – bezpośredni kontakt<br />

z klientem, przyjmowanie zamówień, wszelkiego


odzaju zgłoszeń, aktywacja usług, ocena<br />

wiarygodności klienta (ocena ryzyka nie<br />

uzyskania opłaty za usługi), współpraca z innymi<br />

firmami (interconnect, roaming, content).<br />

• Marketing – budowa ofert.<br />

• Technologia – dostarczenie usługi,<br />

dokumentacja aktywności klienta, dostarczanie<br />

logów aktywności do systemów<br />

odpowiedzialnych za wyliczanie obciążeń,<br />

fakturowanie.<br />

Wyznaczenie celów Revenue Assurance jest<br />

zależne od rynku, na którym działa organizacja,<br />

dojrzałości organizacji, a także wytycznych zarządu.<br />

Przykładowo, rozwijające się rynki posiadające<br />

duży potencjał rozwoju (możliwość zdobywania<br />

nowych klientów) charakteryzują się tym,<br />

że działające na nich firmy nastawione są na jak<br />

najszybsze dostarczenie usług na jak największą<br />

skalę. Na drugi plan schodzą procesy i jakość<br />

systemów implementujących usługi dla klienta.<br />

Rachunek ekonomiczny dyktuje inne wymagania<br />

dla rynków dojrzałych, nasyconych produktem,<br />

gdzie oferta jest zwykle bardzo złożona, wtedy<br />

większy nacisk kładziony jest na zmniejszanie<br />

kosztów operacyjnych, co skutkuje koniecznością<br />

podniesienia jakości procesów wewnętrznych.<br />

Z oceny rynku, sytuacji przedsiębiorstwa<br />

na tle konkurentów oraz jego strategii<br />

wynikają cele dla zespołu Revenue Assurance.<br />

Są one implementowane jako wątki w globalnie<br />

zarządzanym procesie. Każdy z wątków jest<br />

inicjowany, a potem utrzymywany przez cztery<br />

cyklicznie następujące po sobie fazy.<br />

• Projektowanie – zgodnie z ustalonymi<br />

globalnie w skali przedsiębiorstwa priorytetami<br />

modelowane są kontrole. Rozumie się przez<br />

to przede wszystkim ustalenie celu kontroli<br />

– czyli wykrywanie błędów „post factum”,<br />

zapobieganie ich wystąpienia lub poprawa.<br />

Przekłada się to na podejście do realizacji<br />

samej kontroli. Możliwe są tu między innymi<br />

porównanie danych (odzwierciedlających<br />

konkretną aktywność) uzyskanych z różnych<br />

węzłów procesu prze<strong>twarz</strong>ania<br />

(tzw. rekoncyliacja) lub analiza trendów.<br />

Inne, bardziej pro-aktywne techniki to<br />

definiowanie reguł i polityk oraz wprowadzenie<br />

nadzoru – prowadzony przez wykwalifikowany,<br />

świadomy zagrożeń zespół. Dobrze<br />

zaprojektowana kontrola musi dostarczać<br />

komplet informacji niezbędnych do rozpoczęcia<br />

działań naprawczych. Poza specyfikacją<br />

problemu powinna dostarczać informacje o jego<br />

skali, uciążliwości, co pozwoli określić priorytet<br />

problemu i wymagane środki do jego<br />

rozwiązania. Określany jest również tryb pracy<br />

kontroli – częstotliwość, zakres danych<br />

(wielkość próbki).<br />

• Implementacja – powinna rozpocząć się razem<br />

z implementacją usługi, która ma być<br />

oferowana w przyszłości klientowi.<br />

• Działanie operacyjne – uruchomienie kontroli<br />

powinno nastąpić tuż przed lub najpóźniej<br />

w momencie uruchomienia usługi dla klienta.<br />

• Monitorowanie – odbywa się w kliku<br />

przestrzeniach. Po pierwsze poziom ryzyka<br />

utraty korzyści dla całego przedsiębiorstwa<br />

określany na podstawie wyników<br />

poszczególnych kontroli. Następnie skuteczność<br />

samej kontroli oraz skuteczność usuwania<br />

zagrożeń przez nią zidentyfikowanych<br />

w systemach i procesach. Na podstawie tych<br />

wskaźników można wyestymować rentowność<br />

inicjatywy Revenue Assurance.<br />

Proces koordynowany jest przez dedykowany zespół<br />

ekspertów. W zależności od wielkości organizacji<br />

może zajmować się tylko zadaniami Revenue<br />

Assurance, bądź może być wirtualną jednostką<br />

skupiającą specjalistów, którzy pełnią role zgodne z<br />

metodyką Revenue Assurance, przynależąc<br />

jednocześnie w strukturze organizacyjnej do<br />

zespołów operacyjnych. Do obowiązków zespołu<br />

poza wspomnianymi aktywnościami należy również<br />

publikowanie wyników, rozpowszechnianie dobrych<br />

praktyk poprzez fora czy centra kompetencyjne.<br />

73


74<br />

Przykład implementacji technicznej<br />

kontroli dla firmy telekomunikacyjnej<br />

Rynek głosowej telefonii bezprzewodowej kształtuje<br />

się w Polsce od początku lat 90. Rynek jest bardzo<br />

nasycony, toteż w celu budowania wyśrubowanych<br />

ofert przedsiębiorstwo musi nieustannie dążyć do<br />

minimalizacji kosztów związanych z dostarczaniem<br />

usługi. Rozpatrując taki scenariusz, zespół Revenue<br />

Assurance zarekomendowałby uszczelnienie<br />

Rys. 4. Uproszczony szkic architektury infrastruktury<br />

w firmie telekomunikacyjnej<br />

Jak widać topologia infrastruktury sieciowej,<br />

na której opiera się biznes przedsiębiorstwa<br />

telekomunikacyjnego jest złożona. Jest ona<br />

utrzymywana przez zespoły specjalistów, z których<br />

każdy odpowiedzialny jest za jeden z etapów<br />

prze<strong>twarz</strong>ania lub generowania informacji.<br />

Dostarczanie wysokiej jakości usługi przez każdy<br />

z zespołów nie gwarantuje, że każde z połączeń<br />

zostanie poprawnie odwzorowane na fakturze.<br />

Globalna kontrola nad całym procesem przepływu<br />

i generowania informacji jest jednym ze sposobów<br />

procesu generowania i procesowania zdarzeń<br />

związanych z połączeniami głosowymi.<br />

Poniżej znajduje się uproszczony szkic architektury<br />

odpowiedzialnej za generowanie i prze<strong>twarz</strong>anie<br />

zdarzeń reprezentujących połączenia głosowe.<br />

podniesienia wiarygodności systemu. Jest ona<br />

implementowana poprzez definiowanie punktów<br />

kontrolnych. Ich ideą jest zbieranie informacji,<br />

które następnie są transformowane do postaci<br />

umożliwiającej porównanie ich ze sobą (połączenia<br />

głosowe, przesył danych, czas trwania, wolumeny<br />

przesłanych danych). Uproszczony schemat powyżej<br />

pozwala zdefiniować 7 punktów kontrolnych<br />

(oznaczone na rysunku na zielono) i co najmniej<br />

6 kontroli polegających na rekoncyliacji danych<br />

między punktami. W rzeczywistości liczba


kontroli jest większa. Zarządzanie nimi i analiza<br />

wyników przez nie dostarczanych musi być<br />

dobrze zaplanowana i wspierana technologicznie.<br />

System zabezpieczenia przychodów powinien<br />

dostarczać wielowymiarową perspektywę na wyniki<br />

działania punktów kontroli, umożliwiającą ogólną<br />

weryfikację kondycji procesów oraz identyfikację<br />

błędów i późniejszą analizę mającą na celu<br />

znalezienie źródła błędów. Dodatkowo monitoring<br />

musi odbywać się w trybie Real Time lub Near Real<br />

Time, co pozwala na szybką reakcję naprawczą.<br />

Stanowi to duże wyzwanie dla technologii,<br />

Monika Kacprzyk<br />

Od ponad 12 lat zajmuje się implementacją oraz utrzymaniem systemów wykorzystywanych przez operatorów<br />

telekomunikacyjnych, od 5 lat pracuje w Atos. W tym czasie uczestniczyła w projektach implementacji i utrzymania systemów<br />

Revenue Assurance, <strong>Business</strong> <strong>Intelligence</strong>, Analytical CRM. Dysponuje doświadczeniem oraz wiedzą z zakresu: procesów<br />

biznesowych obszaru rozliczeń realizowanych w firmach telekomunikacyjnych, zarządzania zespołami rozwoju i utrzymania<br />

funkcjonalności, rozwoju systemów zarówno w definiowaniu wymagań biznesowych jak i systemowych a także wdrażaniu<br />

systemów.<br />

Michał Jaślan<br />

ponieważ każdy z elementów sieciowych generuje<br />

duże wolumeny danych dokumentujących<br />

zdarzenia.<br />

Implementacja skutecznego systemu Revenue<br />

Assurance to dobra inwestycja, gwarantująca<br />

szybki zwrot poniesionych nakładów. Pozwala<br />

identyfikować niedoskonałości w istniejących<br />

procesach oraz eliminować błędy na początkowym<br />

etapie budowania nowych. Wartością dodaną<br />

z projektów w tym zakresie jest aktualna wiedza<br />

na temat najważniejszych systemów i procesów<br />

w przedsiębiorstwie.<br />

Architekt rozwiązań <strong>Business</strong> <strong>Intelligence</strong>. Posiada wieloletnie doświadczenie w pracy w międzynarodowych zespołach.<br />

Zajmował kluczowe role w projektach dla firm z sektora telekomunikacyjnego i FMCG. Obecnie prowadzi projekt wdrażający<br />

rozwiązanie Revenue Assurance w jednej z firm telekomunikacyjnych. Pracuje w Atos od 2 lat.<br />

Według danych firmy Gartner, Atos to jedna z największych spółek świadczących usługi informatyczne w Europie. Atos<br />

posiada w swoim portfolio wszystkie elementy rozwiązania biznesowego obejmujące projekt, budowę i uruchomienie<br />

oraz utrzymanie systemu. Podstawą podejścia biznesowego Atos jest ustanawianie długoterminowych więzów partnerskich<br />

przyczyniających się do sukcesu dzięki uzyskiwaniu wzajemnych korzyści. Roczne przychody spółki wynoszą około 8,7 mld euro,<br />

a firma zatrudnia ponad 74 tys. pracowników w 48 krajach. Baza przychodów firmy w 60% ma charakter powtarzalny<br />

i stabilny – pochodzą one z wieloletnich kontraktów z zakresu outsourcingu i konserwacji aplikacji.<br />

Współpraca z Atos to bezpieczne rozwiązanie na przyszłość, oparte na wieloletnim doświadczeniu międzynarodowej<br />

firmy, stosującej wyłącznie najwyższej klasy technologie. Możliwość korzystania z wiedzy specjalistów z całego świata<br />

i wykorzystywania sprawdzonych metodyk pozwala z powodzeniem realizować nawet najbardziej złożone projekty.<br />

Revenue Assurance jest bardzo istotnym elementem oferty dla rynków telekomunikacyjnych. Usługi proponowane przez Atos<br />

obejmują takie zagadnienia jak Revenue Assurance, zarządzanie nadużyciami (Fraud Management), zarządzanie ryzykiem,<br />

wsparcie przy analizie nowych modeli biznesowych, analizę cen i marży (Marging Analitycs), analizę kanałów sprzedaży<br />

i umów z partnerami/dilerami, analizę powiązanych procesów biznesowych i architektury technicznej systemów.<br />

75


Czynniki ryzyka wdrażania projektu<br />

BI oczami praktyka<br />

76<br />

Małgorzata Korycka-Purchała<br />

Wdrażanie BI można porównać do nawigowania po rzece informacji. Poszczególne źródła<br />

zasilające główny nurt pozwalają coraz szybciej płynąć, jednak tylko dokładne zaplanowanie<br />

trasy pozwoli na ominięcie mielizn i niebezpiecznych wirów.<br />

Celem wdrożenia <strong>Business</strong> <strong>Intelligence</strong> (BI) jest<br />

zapewnienie władzom firmy oraz upoważnionym<br />

grupom odbiorców uporządkowanej, aktualnej<br />

i pełnej informacji, a także promowanie metod<br />

i narzędzi do pozyskiwania danych i zarządzania<br />

nimi.<br />

W dużych korporacjach trudno wyobrazić sobie<br />

wdrożenie BI bez Hurtowni Danych. Hurtownia<br />

umożliwia wykonywanie przekrojowych<br />

analiz na danych zestandaryzowanych<br />

i przetransformowanych w wielowymiarową bazę,<br />

zebranych z różnych informatycznych systemów<br />

dziedzinowych, obsługujących poszczególne<br />

czynności operacyjne, niejednokrotnie również<br />

ze źródeł zewnętrznych. BI ma być lekarstwem<br />

na mizerię informacyjną towarzyszącą bogactwu<br />

danych umiejscowionych w różnych systemach.<br />

Wdrażanie BI w firmie to przedsięwzięcie złożone,<br />

długofalowe i z tego powodu obarczone dużym<br />

ryzykiem.<br />

Według mnie głównymi czynnikami ryzyka projektu<br />

BI są:<br />

1. Brak strategii BI<br />

2. Jakość danych<br />

3. Rozwiązania organizacyjne<br />

4. Konieczność współpracy z różnymi pionami<br />

firmy<br />

Strategia BI<br />

Pomyślne wdrażanie inteligencji korporacyjnej<br />

wymaga opracowania strategii, aby mając<br />

sprecyzowaną wizję sposobu wspomagania<br />

przez BI różnorodnych potrzeb biznesowych<br />

firmy, wdrażać ją małymi krokami, dostarczając<br />

poszczególnym działom gotowych funkcjonalności.<br />

Wdrażanie Bi można porównać do nawigowania<br />

po rzece informacji. Poszczególne źródła zasilające<br />

główny nurt pozwalają coraz szybciej płynąć,<br />

jednak tylko dokładne zaplanowanie trasy pozwoli<br />

na ominięcie mielizn i niebezpiecznych wirów.<br />

Należałoby przestrzec przed budowaniem<br />

ogromnego modelu danych obejmującego<br />

wszystkie istniejące dane w firmie. Będzie to proces<br />

bardzo pracochłonny i jednocześnie zbyt trudny<br />

do implementacji wobec wciąż zmieniających<br />

się wymagań biznesowych i dokonywanych<br />

przeobrażeń organizacyjnych. Wydaje się,<br />

że dobrym rozwiązaniem jest podejście hybrydowe,<br />

tzn. budowanie tematycznych hurtowni danych,<br />

ale w reżimie określonych wymagań pozwalających<br />

na łatwe włączenie ich do docelowego modelu.<br />

W przypadku, kiedy hurtownia korporacyjna<br />

jest już dojrzała architektonicznie i narzędziowo,<br />

budowa niezależnych hurtowni powinna być<br />

sporadyczna i wynikać tylko z nadzwyczajnych<br />

okoliczności biznesowych.<br />

Strategiczną decyzją jest rozpoczęcie prac nad<br />

stworzeniem słowników, mogących wypełniać<br />

rolę wymiarów w modelu gwiazdy lub płatka<br />

śniegu w hurtowni, o ile w firmie nie został jeszcze<br />

zaimplementowany Master Data Management<br />

(MDM).


Jakość Danych<br />

Nie można przecenić wagi zagadnienia jakości<br />

danych zasilających Hurtownię Danych.<br />

Zaniechanie prac nad zarządzaniem jakością<br />

danych w początkowym okresie trwania projektu<br />

może stać się przyczyną błędnych raportów,<br />

a w konsekwencji braku zaufania do dostarczanych<br />

informacji i tym samym przyczyną niepowodzenia<br />

projektu. A skala zagrożenia jest ogromna.<br />

Jakość danych – MDM<br />

Każda firma posiada ogromną ilość danych<br />

w systemach ERP, finansowo księgowych,<br />

na wszystkich PC-tach w firmie, niepowiązanych<br />

systemowo serwerach, dyskach sieciowych,<br />

być może rozproszonych gdzieś w chmurze.<br />

Jednym z większych zagrożeń dla projektu<br />

budowy BI w firmie jest korzystanie z różnych<br />

technologii, standardów, definicji i procesów<br />

w różnych systemach informatycznych. Sytuacja<br />

komfortowa ma miejsce, jeżeli BI zasilane jest<br />

z jednego systemu dziedzinowego. Jeżeli jednak BI<br />

wykorzystuje dane z kilku miejsc, niejednokrotnie<br />

z kilkudziesięciu systemów - wtedy problemy<br />

spójności danych i ujednolicania słowników<br />

narastają lawinowo. Zazwyczaj spotykamy się<br />

z sytuacją, w której niepowiązane relacyjnie<br />

systemy korzystają ze swoich własnych, różnych<br />

od siebie, słowników jednostek organizacyjnych,<br />

produktów, klientów, itd. Problem pojawia się<br />

jednak, gdy chcemy połączyć informacje z różnych<br />

systemów - wtedy pojawia się konieczność<br />

przemapowania poszczególnych słowników<br />

na jeden „wzorcowy”. Będzie on znacząco różny<br />

od tych używanych w systemach dziedzinowych,<br />

ponieważ absorbuje w sobie wszystkie potrzeby<br />

poszczególnych systemów dziedzinowych<br />

i dodatkowo uwzględnia potrzeby Hurtowni<br />

Danych. Cechy wymagane od takiego wzorcowego<br />

słownika to<br />

1. Aktualność<br />

2. Zmienność w czasie<br />

3. Relacyjność (hierarchiczność), np. dla słownika<br />

jednostek oznacza to informację o jednostce<br />

nadrzędnej<br />

4. Przejrzystość – jasne kryteria<br />

poszczególnych danych<br />

5. Standaryzacja zapisu na poziomie<br />

haseł słownika<br />

6. Rozbudowane informacje dodatkowe<br />

(np. informujące w słowniku produktów<br />

o numerze konta, na którym odnotowane<br />

zostaną przychody ze sprzedaży tego produktu).<br />

Takich informacji dodatkowych może być<br />

bardzo dużo.<br />

Pojawia się pytanie, dlaczego systemy dziedzinowe<br />

nie mogłyby korzystać z takiego “wzorcowego”<br />

słownika? Oczywiście jest to podejście jak<br />

najbardziej uzasadnione, ponieważ wtedy<br />

wszystkie systemy korzystałyby z identycznych<br />

słowników, niezależnie, czy byłby to system<br />

klasy ERP, czy system analityczny. Nazwijmy<br />

te słowniki danymi referencyjnymi. W dojrzałych<br />

organizacjach podejmowane są próby wdrażania<br />

centralnej bazy danych referencyjnych.<br />

Dodatkowym ważnym zadaniem takiej bazy jest<br />

pilnowanie spójności pomiędzy poszczególnymi<br />

słownikami. Wiele firm konsultingowych całość<br />

zagadnień związanych z zarządzaniem centralną<br />

bazą danych referencyjnych (wraz z narzędziami<br />

informatycznymi, procesami utrzymania oraz<br />

wskazaniem odpowiedzialności za poszczególne<br />

kategorie biznesowe) nazywa Master Data<br />

Management (MDM).<br />

Korzyści wynikające z wdrożenia MDM<br />

są bezdyskusyjne, m.in.:<br />

1. Zdefiniowana odpowiedzialność biznesowa<br />

za poszczególne dane referencyjne<br />

77


78<br />

2. Identyczne dane w systemach dziedzinowych<br />

i analitycznych, co wpływa na łatwiejszy<br />

proces integracji danych z różnych systemów,<br />

a to przekłada się zarówno na jakość danych<br />

w systemach analitycznych, jak również<br />

na szybkość dostarczania analiz biznesowych<br />

przez systemy analityczne.<br />

3. Centralne zarządzanie bazą danych<br />

referencyjnych i ich dystrybucją do wszystkich<br />

systemów informatycznych w firmie oznacza<br />

łatwiejsze procedury i optymalizację zasobów,<br />

które byłyby potrzebne do utrzymania wielu<br />

słowników w wielu systemach.<br />

4. Spójność pomiędzy słownikami<br />

5. Łatwiejsze wdrażanie nowych systemów<br />

Jakość danych – reguły kontroli<br />

Podczas zasilania hurtowni danymi należy<br />

wprowadzić ich kontrolę. Dobrym rozwiązaniem<br />

jest wprowadzenie słownika reguł poprawności<br />

danych. Słownik ten powinien być aktualizowany<br />

przez biznesowych właścicieli danych.<br />

Wprowadzenie słownika reguł kontrolnych<br />

wykorzystywanego w procesie zasilania hurtowni<br />

ma następujące zalety:<br />

1. Może być aktualizowany przez właściciela<br />

danych, a więc przez osoby najlepiej znające<br />

zagadnienie od strony biznesowej,<br />

2. Słownik może być wykorzystywany przez<br />

systemy dziedzinowe, staje się częścią MDM<br />

3. Uwalnia administratorów hurtowni<br />

od żmudnego i kosztownego aktualizowania<br />

reguł w procesach ETL<br />

4. Sformalizowanie reguł pozwala na<br />

zautomatyzowanie wykonywania statystyk<br />

błędnych danych i tworzenia z nich struktur<br />

wielowymiarowych podczas zasilania hurtowni<br />

5. Umożliwia stworzenie mechanizmów<br />

pozwalających na automatyczne zwracanie<br />

do operatorów systemów dziedzinowych<br />

informacji o błędnie wprowadzonych danych<br />

z żądaniem ich poprawy.<br />

Podczas zasilania hurtowni przeprowadza się nie<br />

tylko reguły kontrolne dotyczącej jednego pola,<br />

ale także badania kontekstowe dotyczące powiązań<br />

danych jednego zdarzenia z danymi dotyczącymi<br />

innego zdarzenia. Ma to miejsce, gdy systemy<br />

dziedzinowe nie współpracują ze sobą i dane mogą<br />

nie być spójne.<br />

Jakość danych – pętla zwrotna<br />

Zarządzanie jakością danych nie uda się bez<br />

zaangażowania działów odpowiedzialnych<br />

za procesy biznesowe. Hurtownia, mając<br />

opracowane narzędzia i korzystając ze<br />

słowników reguł kontroli, może generować<br />

raporty o błędnie wprowadzonych danych.<br />

I to jest jeden z elementów pętli zarządzania<br />

jakością. Drugi, równie ważny, to opracowanie<br />

przez dział operacji procedur obowiązujących<br />

operatorów i nakładających na nich obowiązek<br />

poprawy błędnie wprowadzonych danych.<br />

Trzeci to monitorowanie jakości danych.<br />

Tylko czy potrafimy mierzyć jakość danych aby móc<br />

ocenić poprawę jakości w perspektywie jednostki<br />

organizacyjnej, czasu czy systemu, z którego dane<br />

pochodzą? I tutaj wchodzimy na grunt mierników<br />

jakości danych.<br />

Jakość danych – mierniki<br />

Jest to temat bardzo trudny, ale bez jego<br />

rozwiązania nie można sobie wyobrazić hurtowni,<br />

która mogłaby być pewnym narzędziem<br />

w rękach biznesu. Oczywiście są różne analizy<br />

i różne wymagania co do kompletności i jakości<br />

danych. W badaniach statystycznych wymagania<br />

jakościowe będą inne niż w raportach finansowych,<br />

zawsze jednak biznes musi mieć świadomość,<br />

z jakim poziomem jakości danych ma do czynienia.


Mierniki powinny posiadać następujące cechy:<br />

1. Prawidłowo odzwierciedlać stan faktyczny,<br />

tzn odpowiednio zmieniać się wraz ze zmianą<br />

jakości<br />

2. Powinny być addytywne, tzn. w prosty sposób<br />

agregować na różnych poziomach<br />

3. Powinny być skalowalne<br />

W zasadzie trudno znaleźć gotowe rozwiązania,<br />

literatura fachowa nie dostarcza gotowych<br />

definicji. W dodatku wprowadzenie mierników<br />

bez wykorzystania narzędzi hurtowni byłoby<br />

trudne do zaiplementowania. Mierniki powinny<br />

wyliczać się na podstawie statystyk błędów<br />

dla poszczególnych danych tworząc struktury<br />

wielowymiarowe, które można śledzić wg<br />

zdefiniowanych wymiarów, np. dla jednostek<br />

organizacyjnych, operatorów, w odpowiednich<br />

przedziałach czasowych, dla produktów, itp.<br />

Można też konstruować wskaźniki pozwalające<br />

na ranking jednostek według jakości<br />

wprowadzonych danych i publikować go<br />

w firmowym newsletterze. Taki zabieg ma<br />

niesłychaną moc oddziaływania na kierownictwo<br />

jednostek i praktyka pokazuję, że jest wspaniałym<br />

narzędziem w walce o jakość danych. Nikt przecież<br />

nie lubi oglądać się na ostatnich miejscach<br />

w rankingu.<br />

Jakość danych – profilowanie<br />

Profilowanie danych jest narzędziem analitycznym<br />

pozwalającym na wykrycie zaburzeń statystycznych<br />

w danych zasilających hurtownię, a trudnych<br />

do wykrycia podczas wprowadzania danych do<br />

systemu ERP. Stosowanie tej metody pozwala na<br />

wychwycenie nieprawidłowości danych pozornie<br />

spełniających wszystkie reguły poprawności<br />

syntaktycznej i semantycznej. Jako przykład<br />

można podać przypadek występującego w pewnej<br />

bazie statystycznie zbyt często konkretnego<br />

numeru PESEL, który po bliższej analizie okazał<br />

się być numerem PESEL operatora, a nie klienta.<br />

Zdarza się też wybieranie przez operatorów<br />

pierwszych wartości ze słowników referencyjnych<br />

w celu przyspieszenia wprowadzania danych.<br />

Z reguły dotyczy to danych, które w procesach<br />

operacyjnych nie są kluczowe, mają zaś zasadnicze<br />

znaczenie w procesach analitycznych.<br />

Jakość danych – dane teleadresowe<br />

W firmach wdrażających systemy klasy CRM<br />

lub inne bazujące na danych osobowych<br />

i teleadresowych pojawiają się problemy łączenia<br />

informacji o danym kliencie, pracowniku lub firmie<br />

współpracującej, pochodzącej z różnych systemów<br />

informatycznych, zwłaszcza gdy procedury<br />

obowiązujące nie wymagają od klienta będącego<br />

osobą fizyczną podawania numeru PESEL. Jeżeli<br />

systemy ERP nie posługują się słownikami ulic,<br />

nazw miejscowości, imion lub posługują się<br />

słownikami własnymi, wtedy zadanie staje się<br />

bardzo trudne. Wiadomo, że wprowadzenie<br />

nazwiska nie może być weryfikowane i tutaj też<br />

powstaje wiele błędów operatorskich.<br />

Nie spotkałam w swojej praktyce jednego,<br />

państwowego rejestru teleadresowego,<br />

spełniającego wymagania procesu czyszczenia<br />

i deduplikacji danych teleadresowych. Należy<br />

mieć nadzieję, że ostatni spis ludności uzupełnił<br />

i poprawił jakość rejestrów GUS-owskich. Nie muszę<br />

chyba wspominać, że słowniki teleadresowe<br />

powinny stać się częścią MDM, wtedy problem<br />

identyfikacji byłby znakomicie uproszczony.<br />

Dodatkową trudnością w identyfikacji klientów<br />

są zmiany adresu czy nazwiska lub wprowadzanie<br />

przez administrację zmiany nazw ulic.<br />

Można przyjąć dwie strategie dotyczące czyszczenia<br />

i deduplikacji danych o klientach:<br />

1. Powierzyć czyszczenie danych firmie<br />

zewnętrznej posiadającej odpowiednie<br />

79


80<br />

narzędzia, moc obliczeniową oraz niezbędne<br />

doświadczenie<br />

2. Zainwestować w narzędzia i budować<br />

kompetencje we własnej firmie<br />

3. Rozwiązanie hybrydowe<br />

Outsousing procesu czyszczenia i deduplikacji daje<br />

szybkie rezultaty, pozwala uzyskać efekt biznesowy<br />

np. w segmentacji klientów instytucjonalnych<br />

w szybkim czasie. Sprawa zaczyna być dyskusyjna,<br />

jeżeli chodzi o dane klientów indywidualnych.<br />

Jest to baza bardzo wrażliwa, duże firmy oferujące<br />

czyszczenie posiadają moce obliczeniowe<br />

ulokowane poza Europą, gdzie nie obowiązuje<br />

tak rystrykcyjna ochrona danych osobowych<br />

i zawsze warto zaznaczyć w umowie brak<br />

zgody na prze<strong>twarz</strong>anie danych poza granicami<br />

Europy. Jestem zdania, że budowa kompetencji<br />

w dziedzinie czyszczenia danych w dużej firmie<br />

nie jest dla niej zbyt wielkim obciążeniem,<br />

a pozwala na zabezpieczenie strategicznej,<br />

z punktu widzenia każdego biznesu, bazy klientów<br />

oraz s<strong>twarz</strong>a możliwość świadomego podejścia<br />

do poprawy jakości danych teleadresowych<br />

i osobowych. Istnieją na rynku dobre narzędzia<br />

do czyszczenia danych, opanowanie których<br />

pozwala na włączenie czyszczenia w automaty<br />

zasilające hurtownię, a nawet włączenie kontroli<br />

danych podczas wprowadzania ich do systemu<br />

ERP. Takie rozwiązanie jest możliwe jedynie<br />

wtedy, gdy zbudujemy kompetencje w firmie<br />

i w pełni panujemy nad procesem. Prze<strong>twarz</strong>ając<br />

dane osobowe należy zwrócić baczną uwagę<br />

na obowiązujące prawo, aby nie użyć danych<br />

klienta niezgodnie z przeznaczeniem, na<br />

które klient wyraził zgodę. Należy szczególnie<br />

ostrożnie podejść do problemu łączenia danych<br />

o klientach w ramach spółek kapitałowych, a także<br />

wzbogacając dane o klientach z zewnętrznych baz<br />

danych lub zaawansowanych technik data-mining.<br />

Wdrożenia procesu deduplikacji klientów daje<br />

zupełnie nowy obraz prowadzonego biznesu i jest<br />

nieoceniony z punktu widzenia wiedzy na temat<br />

klienta i jego wartości dla firmy, możliwości<br />

tworzenia programów dosprzedażowych i akcji<br />

marketingowych, a także wykrywania oszustw.<br />

Podsumowując aspekt jakości danych w firmie<br />

pragnę podkreślić, że zarządzanie jakością to<br />

nie tylko narzędzia informatyczne kontrolujące<br />

jakość, ale cały zespół procedur tworzących<br />

pętlę zarządzania jakością. Istotnym jest to,<br />

aby obserwacja jakości skutkowała włączaniem<br />

kolejnych danych referencyjnych do Centralnej<br />

Bazy Referencyjnej, aby odpowiedzialność za te<br />

bazy powierzać osobom kompetentnym oraz aby<br />

słowniki te były używane przez systemy klasy ERP.<br />

Wtedy skróceniu ulegną procesy zasilania hurtowni,<br />

poprawi sie jakość bieżących danych i skróci się<br />

czas dostarczenia informacji biznesowi. Krótki czas<br />

zasilania umożliwi wdrożenie hurtowni operacyjnej,<br />

działającej w procesie on-line coraz częściej<br />

wymaganej dla zaspokajania potrzeb działań<br />

operacyjnych, zwłaszcza działów sprzedaży.<br />

Nie we wszystkich aspektach BI wymaga<br />

magazynowania danych w hurtowni. W niektórych<br />

przypadkach wystarczy pobrać dane z systemu<br />

ERP, przetworzyć, wykonać analizy i raporty bez<br />

zatrzymywania danych w hurtowni. W ten sposób<br />

można np. wspomagać proces tworzenia bilansu<br />

w okresie sprawozdawczym.<br />

Rozwiązania organizacyjne<br />

BI powinien być centralnym ośrodkiem informacji<br />

w firmie. Aby ośrodek ten mógł dobrze<br />

funkcjonować ważne jest jego umiejscowienie<br />

w ramach struktury organizacyjnej. W literaturze<br />

ośrodek ten nazywany jest w skrócie BICC<br />

(<strong>Business</strong> <strong>Intelligence</strong> Competency Center).<br />

BICC jest łącznikiem pomiędzy światem biznesu<br />

i informatyki, musi więc posiadać kompetencje<br />

z obu dziedzin. Dział IT w firmie rozwija i utrzymuje<br />

działającą infrastrukturę i systemy gromadzące<br />

dane, BICC zaś potrafi interpretować zgromadzone


dane, łączyć dane z różnych źródeł wewnętrznych<br />

firmy oraz źródeł zewnętrznych i prezentować dane<br />

w formie określonej przez biznes.<br />

BICC posiada też kompetencje informatyczne,<br />

ale ograniczone jedynie do narzędzi BI,<br />

administrowania Hurtownią Danych (bazami<br />

danych, matadanymi), zarządzania licencjami<br />

BI, obsługi procesów ETL, raportowania<br />

i zaawansowanych analiz. Granice między IT i BICC<br />

dadzą się ściśle wytyczyć: Dział IT ma obowiązek<br />

wystawić inerfejs do hurtowni lub udostępnić<br />

usługi, współpracować w zakresie jakości danych,<br />

dostarczyć infrastrukturę. BICC ma obowiązek<br />

formułowania wymagań odnośnie systemów<br />

ERP w zakresie standardów ewidencji danych,<br />

jest odbiorcą interfejsów lub usług związanych<br />

z zasilaniem hurtowni, współpracuje w zakresie<br />

praw dostępu i bezpieczeństwa informacji oraz<br />

respektuje standardy dotyczące sprzętu.<br />

Umiejscowienie BICC w którymś z pionów<br />

biznesowych lub finansowym nie jest wskazane,<br />

gdyż mogłoby doprowadzić do osłabienia wsparcia<br />

pozostałych obszarów.<br />

Opierając się na własnych doświadczeniach<br />

uważam, że BICC powinien stanowić osobny pion<br />

w firmie, w przypadku zaś grup kapitałowych<br />

- na poziomie zarządzania grupą, w ścisłym<br />

powiązaniu i wsparciu członków Zarządu.<br />

Jest to podejście na polskim rynku nieczęsto<br />

spotykane. Wielokrotnie byłam świadkiem tracenia<br />

dorobku BI w wielu firmach poprzez ciągłe<br />

spory z działem IT o podział kompetencji. Jest<br />

to zrozumiałe, ponieważ BICC jest kontrolerem<br />

danych zapisywanych w systemach ERP i IT<br />

czuje się bez przerwy „inwigilowane”. Dział IT<br />

pragnie zawłaszczenia wszystkich kompetencji<br />

informatycznych w firmie podnosząc problem<br />

ich rozproszanie i tym samym braku optymalizacji<br />

zatrudnienia. Jest to błędne rozumowanie,<br />

ponieważ nawet jeżeli hurtownia budowana<br />

jest narzędziami tej samej firmy co systemy ERP,<br />

np. firmy Oracle, to kompetencje informatyczne<br />

są zupełnie inne. Modele budowane na potrzeby<br />

hurtowni są wielowymiarowe, sposoby<br />

prze<strong>twarz</strong>ania specyficzne dla masowego,<br />

a nie transakcyjnego sposobu, dodatkowo<br />

dochodzi cała filozofia dotycząca zarządzaniem<br />

metadanymi. Jako przykład niezrozumienia<br />

lub też braku zainteresowania dyrektorów IT<br />

sprawą wdrażania rozwiązań BI jest tocząca sie<br />

w społeczności „CIO Forum Group Members”<br />

dyskusja wywołana pytaniem „Can you use ONE<br />

WORD to desribe the biggest challenge facing<br />

today’s CIOs ?”. W odpowiedzi pojawiają się<br />

najczęściej wyzwania związane z prze<strong>twarz</strong>aniem<br />

w chmurze, zmianami szeroko pojętymi,<br />

optymalizacją kosztów, wirtualizacją, tylko jedna<br />

osoba zwróciła uwagę na dostarczanie informacji<br />

jako wyzwanie dla szefa IT, zaś nikt nie podjął<br />

tematu BI lub MDM. Jest to zrozumiałe, bo nowe<br />

osiągnięcia technologiczne usprawniające<br />

działanie systemów i obniżające koszty działu IT<br />

zawsze będą priorytetem dla szefa IT, zwykle tego<br />

się od niego oczekuje.<br />

Uważam, że przy odrobinie dobrej woli<br />

kompetencje pomiędzy IT a BICC dają się łatwo<br />

rozdzielić i można z sensem współpracować<br />

z korzyścią dla jakości danych i zadowoleniu<br />

wszystkich pionów w firmie z informacji spójnej,<br />

aktualnej i prawidłowej.<br />

Współpraca z różnymi działami firmy<br />

Współpraca z działami firmy jest kluczowa<br />

w projekcie budowy i rozwoju BI. Jej istotą jest:<br />

1. Zrozumienie potrzeb i zaproponowanie sposobu<br />

na wsparcie potrzeb biznesowych przy<br />

pomocy BI. Ustalenie sposobu budżetowania<br />

zaplanowanych prac.<br />

2. Definiowanie pojęć biznesowych, ścisłe<br />

ustalenie sposobu wyliczania wskaźników<br />

i mierników<br />

81


82<br />

3. Współpraca na etapie tworzenia nowych<br />

produktów, procesów obsługowych<br />

i uzgodnienie wymagań na sposób ewidencji<br />

w systemie ERP<br />

4. Propagowanie wiedzy na temat narzędzi BI<br />

i wspólne opracowywanie nowatorskich<br />

rozwiązań optymalnie odpowiadających<br />

potrzebom biznesowym<br />

5. Ustawiczne szkolenie wytypowanych<br />

osób z biznesu na temat nowości: nowych<br />

raportów, przeglądarek wielowymiarowych<br />

lub funkcjonalności udostępnionych w BI<br />

W rzeczywistości współpraca jest jednym<br />

z najtrudniejszych wyzwań. Kierownictwo działów<br />

biznesowych niekiedy boi się wkraczania w swoje<br />

kompetencje, dzielenia wiedzą biznesową, utraty<br />

kontroli nad raportowaniem, udostępnienia<br />

własnych baz danych. Nie do przecenienia jest<br />

zrozumienie całości idei BI przez władze firmy<br />

Małgorzata Korycka-Purchała<br />

i wspieranie przez członków zarządu wdrażania<br />

kolejnych etapów budowania inteligencji<br />

korporacyjnej.<br />

Podsumowanie<br />

Omówione powyżej czynniki ryzyka wybrałam<br />

jako najważniejsze, co nie oznacza, że inne<br />

nie występują. W budowaniu BI ważna jest<br />

cierpliwość i wiara, że wykonujemy pracę,<br />

która ma sens i która ma szansę przeobrazić<br />

biznes. Niestety czasami w firmach zbyt wiele<br />

czasu traci się na próby budowania silosowych<br />

rozwiązań w poszczególnych departamentach,<br />

co rozprasza zasoby i opóźnia rozwiązania<br />

zmierzające do solidnego i logicznego budowania<br />

korporacyjnej inteligencji, czyli <strong>Business</strong><br />

<strong>Intelligence</strong>. Niemniej jednak życzę wszystkim<br />

powodzenia i wytrwałości w tym trudnym, ale jakże<br />

satysfakcjonującym dziele wdrażania BI.<br />

Doświadczona Top Manager IT, aktualna członkini Rady Programowej Klubu CIO. W latach 1993-1997 odpowiadała w PZU SA<br />

za projektowanie i wdrażanie systemów informatycznych obsługujących zdarzenia ubezpieczeniowe. W latach 1998 - 2010<br />

jako Dyrektor Biura Zarządzania Informacją PZU SA, od 2001 r. także w PZU Życie SA kierowała budową Hurtowni Danych,<br />

odpowiadała za wdrażanie systemów raportowania, aplikacji analitycznych i zaawansowanych analiz statystycznych bazujących<br />

na danych zgromadzonych w hurtowni. Jest absolwentką Wydziału Matematyki i Mechaniki Uniwersytetu Warszawskiego.


System szybki i wydajny, ale nieelastyczny<br />

i trudny w obsłudze, to z dużą pewnością<br />

przepis na spektakularną (i szybką!) porażkę.<br />

Marek Grzebyk, Hogart <strong>Business</strong> <strong>Intelligence</strong><br />

83


84<br />

System BI w GRUPIE ATLAS<br />

Robert Korn, SAS Institute<br />

Informacje o GRUPIE ATLAS<br />

Założona w 1991 roku przez trójkę łódzkich<br />

przedsiębiorców firma Atlas (www.atlas.com.pl)<br />

w ciągu kilku lat osiągnęła pozycję lidera branży<br />

chemii budowlanej w Polsce. Dynamiczny rozwój<br />

spółki zaowocował powstaniem GRUPY ATLAS,<br />

w skład której wchodzi obecnie 16 fabryk<br />

prze<strong>twarz</strong>ających surowce pochodzące z 5 własnych<br />

kopalni gipsu, anhydrytu i piasku kwarcowego<br />

– w sumie 19 podmiotów gospodarczych,<br />

w tym 5 zagranicznych.<br />

Sztandarowymi produktami GRUPY ATLAS są<br />

wyroby do prac glazurniczych, natomiast pełna<br />

paleta wszystkich wyrobów przekracza liczbę 200.<br />

Są w niej między innymi systemy ociepleń,<br />

samopoziomujące podkłady podłogowe, tynki<br />

szlachetne, systemy izolacji w zakresie hydro-<br />

i termoizolacji tarasów, dachów i fundamentów<br />

(również papy, fugi). GRUPA ATLAS dysponuje<br />

największym w Polsce potencjałem surowcowym<br />

i produkcyjnym w technologii gipsu - wy<strong>twarz</strong>a<br />

wszystko z wyjątkiem płyt gipsowo-kartonowych<br />

i bloczków.<br />

Marka ATLAS jest rozpoznawana i polecana przez<br />

ponad 80% Polaków. Zajmuje 1 miejsce na liście<br />

108 marek, z których Polacy są najbardziej dumni.<br />

Tak wysoka pozycja marki ATLAS wynika nie<br />

tylko z najwyższej jakości dostarczanych przez<br />

firmę produktów, wyróżnia ją również pozytywne<br />

emocjonalne zabarwienie - jest postrzegana jako<br />

w pełni polska, nowoczesna i bliska każdemu<br />

Polakowi. Wiarygodność marki ATLAS wspierana<br />

jest wizerunkiem firmy - lidera polskich przemian<br />

gospodarczych, korporacji przestrzegającej zasad<br />

i odpowiedzialnej społecznie. W tej ostatniej<br />

dziedzinie GRUPA ATLAS bardzo aktywnie pomaga<br />

osobom chorym, a szczególnie dzieciom poprzez<br />

finansowanie Fundacji Dobroczynności Atlas.<br />

Ponadto pod patronatem firmy funkcjonuje<br />

galeria Atlas Sztuki, która w rankingu tygodnika<br />

Polityka została dwukrotnie uznana za najlepszą<br />

polską galerię prywatną. Również bardzo dobrze<br />

kojarzone są z marką ATAS imprezy sportowe,<br />

szczególne organizowane w sponsorowanej przez<br />

GRUPĘ ATLAS hali widowiskowo-sportowej ATLAS<br />

Arena w Łodzi. Powyższe działania, realizowane<br />

konsekwentnie od wielu lat doprowadziły do<br />

powstania bardzo silnej relacji z partnerami<br />

i klientami GRUPY ATLAS, którzy są najlepszymi<br />

gwarantami jej siły i pozycji lidera. Wypracowanie<br />

i realizacja tak skutecznej strategii to zasługa<br />

właścicieli, zarządu i managementu GRUPY ATLAS.<br />

Celem jest nie tylko utrzymanie pozycji lidera<br />

na polskim rynku, ale również dalszy dynamiczny<br />

rozwój Grupy poprzez inwestycje na Białorusi<br />

i Łotwie, w Rumunii oraz w Rosji i na Ukrainie.<br />

Geneza projektu BI w GRUPIE ATLAS<br />

Zarząd GRUPY ATAS był od początku świadomy<br />

faktu, że jakość podejmowanych decyzji zależy<br />

od dostępności i jakości informacji zarządczej.<br />

Większa jakość tych decyzji pozwala budować<br />

przewagę konkurencyjną, co w przypadku<br />

lidera rynku jakim jest GRUPA ATLAS oznacza<br />

m.in. ciągłe doskonalenie procesów operacyjnych<br />

i wykorzystywanie szans rynkowych poprzez<br />

skuteczne działania marketingowe i sprzedażowe.<br />

Świadomość ta w powiązaniu z dynamicznym<br />

wzrostem ilości spółek w GRUPIE ATLAS<br />

i różnorodnością wykorzystywanych przez nie<br />

systemów informatycznych oraz rozszerzeniem<br />

asortymentu produktów i sieci dystrybucji<br />

poza Polskę doprowadziła do podjęcia decyzji<br />

o konieczności inwestycji w kompleksowe<br />

rozwiązanie <strong>Business</strong> <strong>Intelligence</strong> dla całej Grupy.<br />

Potwierdza to dr Konrad Marchlewski, Wiceprezes<br />

ds. Finansowych Grupy ATLAS: „Potrzeba biznesowa<br />

w Grupie ATLAS wynikała z faktu, że Grupa coraz<br />

bardziej rosła. Kupowaliśmy nowe spółki, rozrastała<br />

się nasza działalność, zatrudnialiśmy coraz więcej<br />

ludzi. W pewnym momencie ilość informacji,<br />

jaką dysponowaliśmy była coraz większa – tak,<br />

że potrzebowaliśmy jednej platformy informatycznej,<br />

gdzie zgromadzimy te wszystkie informacje


i będziemy w stanie je skutecznie i szybko analizować<br />

i dostarczać w odpowiednie miejsce, tak szybko<br />

jak to jest możliwe”.<br />

Jako kluczową potrzebę, zdefiniowano<br />

kompleksowe wsparcie nowoczesnego procesu<br />

planowania optymalizującego wykorzystanie<br />

wszystkich zasobów produkcyjnych<br />

dostępnych w Grupie i połączonego z ciągłym<br />

prognozowaniem oraz monitorowaniem jego<br />

wykonania. Drugim obszarem wymagającym<br />

wsparcia było zintegrowanie procesów<br />

raportowania w całej Grupie poprzez konsolidację<br />

danych z kilku systemów ERP. Konieczne stało<br />

się wdrożenie kompleksowego narzędzia<br />

informatycznego umożliwiającego automatyczny<br />

proces gromadzenia i integrowania danych<br />

pochodzących z różnych systemów transakcyjnych<br />

oraz przyspieszenia procesu konsolidacji<br />

sprawozdań finansowych.<br />

Analiza potencjalnych korzyści z wdrożenia<br />

nowego oprogramowania wykazała szerokie<br />

pole do wykorzystania oprogramowania typu<br />

<strong>Business</strong> <strong>Intelligence</strong> w kluczowych obszarach<br />

działalności Grupy. Możliwości szczegółowego<br />

planowania i monitorowania realizacji, jak również<br />

optymalizacja i kontrola planowanych zleceń<br />

produkcyjnych, unifikacja informacji zarządczej<br />

w ramach Grupy, czy wsparcie procesu konsolidacji<br />

sprawozdań finansowych dedykowanym<br />

narzędziem, przesądziły o podjęciu w 2009 roku<br />

decyzji o rozpoczęciu przygotowywania do projektu<br />

wyboru i wdrożenia oprogramowania klasy BI.<br />

Wybór rozwiązania BI w GRUPIE ATLAS<br />

Głównymi kryteriami, którymi kierowała się GRUPA<br />

ATLAS dokonując wyboru rozwiązania to stopień,<br />

w jakim oprogramowanie dostawcy ułatwia<br />

i przyśpiesza dostęp do informacji oraz poziom,<br />

w jakim spełnia wymagania funkcjonalne i pozafunkcjonalne<br />

opisane w SIWZ. Ponadto ważnym<br />

kryterium była pozycja firmy wdrożeniowej<br />

na rynku w segmencie oprogramowania BI oraz<br />

doświadczenie zespołu wdrożeniowego i potencjał<br />

wiedzy biznesowej konsultantów merytorycznych.<br />

Ten ostatni aspekt był szczególnie ważny<br />

w perspektywie złożonych modeli analitycznych,<br />

takich jak dla przykładu model (TKW) Technicznego<br />

Kosztu Wytworzenia, czy modele konsolidacyjne.<br />

„Wybór SAS Institute wynikał z naszych<br />

wcześniejszych analiz rynku. Wytypowaliśmy trzy<br />

firmy, które dostarczają podobne rozwiązania.<br />

Analizowaliśmy jakie mają doświadczenia, a przede<br />

wszystkim jaką wiedzą dysponują. Nie chodzi<br />

wyłącznie o oprogramowanie, ale przede wszystkim<br />

- jaka wiedza, jacy ludzie za tym stoją, jakie wsparcie<br />

możemy uzyskać. Jaka ekspertyza jest dostarczana<br />

razem z oprogramowaniem, tak aby to nie było<br />

wdrożenie oprogramowania, ale wdrożenie zupełnie<br />

nowego rozwiązania”. - podsumowuje Wiceprezes<br />

Konrad Marchlewski.<br />

Zakres projektu BI w GRUPIE ATLAS<br />

Wdrożenie systemu BI w GRUPIE ATLAS<br />

objęło procesy planowania i budżetowania,<br />

konsolidacji i sprawozdawczości finansowej<br />

oraz zaawansowanej analityki i raportowania<br />

we wszystkich głównych obszarach biznesowych.<br />

Niektóre z tych procesów zostały bardziej<br />

szczegółowo przedstawione poniżej.<br />

Obszar planowania i budżetowania<br />

Planowanie i budżetowanie objęło plan inwestycji<br />

i wynagrodzeń, jak również plan marketingowy<br />

i handlowy oraz plan produkcji i TKW, z których<br />

powstawał budżet oraz plan marży i plan księgi<br />

głównej.<br />

Uproszczony przepływ informacji pomiędzy tymi<br />

planami obrazuje poniższy schemat.<br />

W wyniku wdrożenia systemu BI pracownicy<br />

GRUPY ATLAS wykorzystują w procesie<br />

planowania i budżetowania swoje umiejętności<br />

85


86<br />

Rys 1. Zakres biznesowy projektu BI w GRUPIE ATLAS<br />

Rys 2. Uproszczony schemat procesu planowania<br />

pracy z MS Excel, gdyż formularze budżetowe<br />

udostępniane są poprzez interfejs Excelowy lub<br />

internetowy. System BI wspiera pracę planistów<br />

poprzez unikalny system prognoz i podpowiedzi,<br />

automatyczny zapis danych i raportowanie bez<br />

czasochłonnej konsolidacji. Zarządzanie procesem<br />

planowania i budżetowania jest znacznie ułatwione<br />

przez automatyczną dystrybucję formularzy według


dowolnej hierarchii (hierarchia organizacyjna,<br />

produktowa, mpk itp.) i według metody „góradół”<br />

lub „dół–góra”, wielopoziomową akceptację<br />

i kontrolę procesów planistycznych, jak również<br />

automatyczną aktualizację formularzy przez<br />

użytkowników biznesowych i automatyczny<br />

przepływ danych pomiędzy modelami. System BI<br />

wykorzystuje w procesie budżetowania Intranet,<br />

jak również wewnętrzny system powiadomień,<br />

alertów i komentarzy.<br />

Na uwagę zasługuje fakt, iż podczas kalkulacji<br />

planowanego TKW następuje proces pobierania<br />

receptur z systemów produkcyjnych oraz cen<br />

surowców z modułu aktualnie obowiązujących<br />

ofert. Wspomniane receptury są rozwijane<br />

zgodnie z przebiegiem wieloetapowego procesu<br />

wytwórczego z uwzględnieniem przepływu<br />

półproduktów pomiędzy poszczególnymi<br />

zakładami produkcyjnymi oraz spółkami<br />

w ramach Grupy. Tak silna integracja z systemami<br />

źródłowymi umożliwia badanie planowanego<br />

TKW (jego wrażliwości) pod kątem stosowania<br />

zamienników surowcowych, jak również zmian<br />

poziomów ich cen. Model TKW umożliwia<br />

symulacje całościowych wyników, gdyż planowane<br />

TKW stanowi podstawę do kalkulacji kosztów<br />

produkcji wykazywanych w planowanym rachunku<br />

wyników. Jednocześnie wspomniany model<br />

TKW umożliwia kalkulację planowanych cen<br />

transferowych stosowanych w obrębie Grupy<br />

oraz kalkulację marży realizowanej pomiędzy<br />

poszczególnymi podmiotami Grupy, jak również<br />

marży skonsolidowanej.<br />

Proces planowania realizowany w systemie SAS BI<br />

umożliwia również ścisłą integrację planowania<br />

sprzedaży i produkcji. Oznacza ona planowanie<br />

sprzedaży w poszczególnych regionach i kanałach<br />

dystrybucji z jej alokacją na kluczowych płatników.<br />

Dane sprzedażowe są podstawą dla planu<br />

produkcji, ale w procesie tym wykorzystywany<br />

jest automatyczny proces alokacji planowanych<br />

wielkości sprzedażowych na poszczególne zakłady<br />

produkcyjne działające w Grupie na bazie<br />

rzeczywistych danych sprzedażowych. Rzeczywiste<br />

dane sprzedażowe są analizowane pod kątem<br />

miejsca produkcji poszczególnych produktów<br />

i stanowią bazę takiej alokacji. W wyniku tej<br />

analizy otrzymuje się bazę danych łączącą miejsca<br />

sprzedaży i produkcji, co stanowi podstawę do<br />

procesów optymalizacyjnych w zakresie całego<br />

łańcucha dostaw.<br />

Obszar konsolidacji<br />

Proces konsolidacji w GRUPIE ATLAS obejmuje<br />

wszystkie zagadnienia wynikające z ustawy<br />

o sprawozdawczości finansowej opublikowane<br />

w rozporządzeniach ministra finansów. Podobnie<br />

jak w przypadku systemu do planowania<br />

i budżetowania użytkownicy systemu BI do<br />

procesu konsolidacji wykorzystują powszechnie<br />

znany interfejs Excelowy, w którym istnieje<br />

możliwość wprowadzania danych do systemu<br />

BI ze sprawozdań finansowych spółek<br />

Grupy, jak i automatycznego generowania<br />

skonsolidowanych sprawozdań finansowych<br />

(bilans, rachunek wyników, przepływy<br />

pieniężne oraz zestawienie w skonsolidowanym<br />

kapitale), raportów oraz not dodatkowych.<br />

Raporty i skonsolidowane sprawozdania mogą być<br />

również automatycznie generowane w MS Word<br />

i Power Point, umożliwiając tworzenie raportów<br />

kwartalnych i rocznych zgodnie z wymaganiami<br />

ustawowymi, jak również wymaganiami MSSF<br />

oraz US GAAP. Wdrożenie systemu pozwoliło<br />

ujednolicić politykę rachunkowości w spółkach<br />

podporządkowanych i wprowadzić szereg<br />

udoskonaleń i ułatwień w procesie konsolidacji<br />

takich jak: uzgodnienie i automatyczna eliminacja<br />

sald i obrotów pomiędzy spółkami powiązanymi<br />

w Grupie, księgowanie korekt kapitałowych<br />

konsolidacyjnych oraz innych księgowań<br />

konsolidacyjnych przez użytkowników biznesowych,<br />

wprowadzanie sprawozdań jednostek powiązanych<br />

w dowolnej walucie, konsolidację spółek w walucie<br />

jednostki dominującej oraz przewalutowanie<br />

87


88<br />

na inne waluty. Osoby odpowiedzialne za proces<br />

konsolidacji finansowej otrzymały możliwość<br />

raportowania procesu księgowania korekt<br />

konsolidacyjnych na każdym etapie procesu,<br />

tworzenia jednostkowych sprawozdań finansowych<br />

spółek podporządkowanych, skonsolidowanych<br />

raportów w podziale na segmenty grupy<br />

(prezentacja przychodów, kosztów, zysków i strat,<br />

nakładów na środki trwałe, amortyzacji i innych<br />

pozycji wymaganych przez IAS 14) oraz w innych<br />

perspektywach (np. produkty). Ponadto system<br />

umożliwia prowadzenie uporządkowanej<br />

Model dostawców Model zamówień<br />

Model kontraktów Model sprzedaży<br />

Obszar umów prowizyjnych<br />

W systemie BI SAS Institute zbudował model<br />

analityczny pozwalający na zarządzanie relacjami<br />

z partnerami handlowymi poprzez generowanie<br />

i zarządzanie umowami prowizyjnymi. System<br />

umożliwia ewidencjonowanie umów i parametrów<br />

określających algorytmy obliczające wysokość<br />

prowizji oraz jej formę (wysokość targetów, progów<br />

prowizyjnych, wartości obrotów itp.) jak również<br />

zapewnia możliwość generowania tekstów umów<br />

dokumentacji konsolidacyjnej (np. stan własności<br />

i historia nabywania i sprzedaży udziałów w grupie)<br />

na potrzeby własne oraz zewnętrznego audytu.<br />

Obszar raportowania i analiz<br />

Obszar raportowania i analiz wymagał zbudowania<br />

specjalistycznych modeli analitycznych we<br />

wszystkich obszarach łańcucha dostaw GRUPY<br />

ATLAS. Główne modele analityczne stworzone przez<br />

SAS Institute to:<br />

Model klienta Model efektywności sprzedaży<br />

Model projektów inwestycyjnych Model zobowiązań<br />

Model należności Model księgi głównej<br />

Model rachunku kosztów Model marży jednostkowej<br />

Model marży skonsolidowanej Model dekompozycji marży (od I do IV)<br />

Model technicznego kosztu wytworzenia (TKW) Model efektywności mieszalników<br />

Model badania efektywności doradcy handlowego<br />

prowizyjnych (pełny tekst umowy w formacie PDF<br />

lub DOC). System pozwala na cykliczne naliczanie<br />

prowizji (dla wszystkich lub wybranych umów) oraz<br />

na jej prognozowanie w perspektywie przyszłych<br />

okresów. System dostarcza również indywidualne<br />

raporty prowizyjne do użytku wewnętrznego lub<br />

dla partnerów oraz raporty zbiorcze wszystkich<br />

kosztów prowizyjnych.


Projekt wdrożenia systemu BI w GRUPIE<br />

ATLAS w liczbach<br />

Liczba spółek Grupy objętych wdrożeniem 14<br />

Liczba systemów źródłowych 6<br />

Liczba tabel zasilających hurtownię 150<br />

Liczba tabel w hurtowni 250<br />

Liczba wymiarów 60<br />

Liczba modeli planistycznych 7<br />

Liczba procesów transferu danych 400<br />

Liczba zdefiniowanych struktur OLAP 30<br />

Ilość użytkowników 70<br />

Ilość administratorów 1<br />

Codzienny przyrost danych 1 GB<br />

Okno czasowe pełnego przyrostowego ładowania hurtowni i obszarów tematycznych 1 h<br />

Rys 3. Architektura systemu BI<br />

89


90<br />

Główne korzyści z wdrożenia systemu BI<br />

w GRUPIE ATLAS<br />

Wdrożony przez SAS Institute system BI efektywnie<br />

wspomaga procesy zarządzania w GRUPIE ATLAS.<br />

Uzyskane rezultaty pozwoliły na usprawnienie<br />

wielu działań operacyjnych i zarządczych<br />

Grupy w obszarze operacyjnym, strategicznym<br />

i handlowym. Kluczowa dla efektywnego<br />

funkcjonowania całej organizacji jest możliwość<br />

podejmowania szybkich decyzji na podstawie<br />

dokładnych, rzetelnych i aktualnych informacji.<br />

Wdrożone rozwiązanie umożliwiło efektywne<br />

wykorzystanie danych gromadzonych w systemach<br />

transakcyjnych oraz ich łatwą i szybką konsolidację.<br />

Wyjątkowe funkcjonalności analityczne systemu<br />

SAS BI pozwalają na zoptymalizowanie wielu<br />

decyzji w obszarze operacyjnym, na przykład<br />

poprzez optymalizację zasobów produkcyjnych<br />

w planowanych zleceniach produkcyjnych.<br />

W ocenie Wiceprezesa Konrada Marchlewskiego<br />

korzyści z wdrożenia systemu BI firmy SAS są<br />

następujące:<br />

„Zmiany są w wielu obszarach. Z punktu widzenia<br />

controllingu, to jest zasadnicza zmiana. Wcześniej<br />

Robert Korn<br />

Sales Director, SAS Institute<br />

controlling koncentrował się na zbieraniu<br />

danych, dzisiaj koncentruje się na ich analizie<br />

i prognozowaniu przyszłości. Z punktu widzenia<br />

zarządu, najwyższego kierownictwa, managerów<br />

spółki – uzyskali oni łatwy dostęp do informacji<br />

i samodzielność w ich uzyskiwaniu. Za pomocą<br />

zbudowanych, podstawowych raportów, najwyżsi<br />

managerowie są w stanie dość szybko wyszukać<br />

potrzebne sobie informacje, a nawet zrobić analizy.<br />

Z punktu widzenia zarządzania właścicielskiego<br />

zmiana jest jakościowa, ponieważ będziemy<br />

posiadać wszystkie informacje w jednym miejscu<br />

i w jednym standardzie, bez względu na to w jakim<br />

kraju znajduje się spółka, jakich używa standardów<br />

rachunkowości, jaki ma plan kont, itd.<br />

Dodatkową korzyścią jest standaryzacja języka<br />

biznesowego, którym się posługujemy. Ten język<br />

wszedł do powszechnego obiegu. W ten sam<br />

sposób rozumiemy marżę, marżę pierwszą, drugą,<br />

trzecią, EBITDA, wynik finansowy, kapitał pracujący<br />

itd. Wcześniej często rozmawialiśmy różnymi<br />

językami w zależności od kultury informacyjnej<br />

poszczególnych spółek”.<br />

Posiada bogate doświadczenie menedżerskie, pełniąc uprzednio funkcje zarządcze w spółkach Scala Polska oraz Invensys<br />

Intelligent Automation.<br />

SAS Institute jest światowym liderem w zakresie analityki biznesowej oraz największym niezależnym dostawcą<br />

oprogramowania <strong>Business</strong> <strong>Intelligence</strong>. Firma istnieje od 1976 r. i zatrudnia ponad 13 000 pracowników na całym świecie.<br />

Z rozwiązań SAS korzysta 60 000 przedsiębiorstw i instytucji w ponad 130 krajach. W Polsce SAS Institute działa od 1992 r.,<br />

obecnie zatrudnia ponad 200 osób. Rozwiązania i oprogramowanie SAS adresowane są do wszystkich sektorów gospodarki,<br />

m.in. bankowości, ubezpieczeń, telekomunikacji, energetyki, przemysłu, handlu oraz sektora administracji publicznej.<br />

www.sas.com/poland


Ogromna większość informacji składowanych<br />

w firmach nie pochodzi z baz danych,<br />

ale z dokumentów zawierających często<br />

bardzo istotny tekst. Nie ma jednak<br />

najmniejszego sensu składowanie tak<br />

dużych ilości tekstu, jeżeli z wiedzy w nim<br />

zgromadzonej nie da się korzystać.<br />

Paweł Wróblewski, Findwise<br />

91


92<br />

ZOZ na poziomie biznesowym<br />

Jacek Jaworski, TETA BI CENTER<br />

Znacznie zwiększona dokładność danych, szybkość uzyskiwania potrzebnych informacji,<br />

możliwość kontroli kosztów z dnia na dzień, a nade wszystko możliwość podejmowania<br />

decyzji w oparciu o wiarygodne i aktualne dane – to najważniejsze korzyści, jakie SZPZLO<br />

Warszawa-Bródno zyskał dzięki wdrożeniu systemu TETA <strong>Business</strong> <strong>Intelligence</strong>.<br />

Informatyzacja opieki zdrowotnej w Polsce<br />

wystartowała na dobre, a jej kontynuacja jest<br />

pilna i nieuchronna. Ten proces cywilizowania<br />

polskiej służby zdrowia i podnoszenia jej<br />

standardów wszystkim nam może przynieść<br />

wiele korzyści. Jednakże w tej optymistycznej<br />

wizji pojawiają się również cienie – to koszty<br />

projektów informatycznych, które dla wszystkich<br />

firm są znaczne, a dla białej branży mogą<br />

stanowić poważną barierę. Mamy dziś jednak<br />

do dyspozycji środki unijne, które przed wieloma<br />

jednostkami opieki zdrowotnej są w stanie<br />

otworzyć, jeśli nie ogromne, to przynajmniej spore<br />

możliwości. Całe szczęście! – można by powiedzieć,<br />

bo wyzwań jest sporo.<br />

Projekt marzenie<br />

Wymogi NFZ wobec jednostek opieki medycznej,<br />

choćby w zakresie raportowania, są coraz większe<br />

i bardzo trudno je realizować bez wsparcia<br />

nowoczesnych systemów informatycznych.<br />

Zarządzanie organizacją w oparciu o raporty<br />

finansowe generowane ręcznie, a przez to<br />

podatne na ludzkie błędy, bywa w praktyce<br />

bardzo ryzykowne. Również praca informatyka<br />

czy analityka finansowego, posługującego<br />

się arkuszem kalkulacyjnym i przez tydzień<br />

opracowującego w nim raport księgowy<br />

z minionego miesiąca, bywa wręcz koszmarem.<br />

Agnieszka Fabijańska, Specjalista ds. Controllingu<br />

w SZPZLO Warszawa-Bródno, tak wspomina czasy,<br />

gdy jeszcze nie korzystała z profesjonalnego<br />

narzędzia controlingowego: Pracowaliśmy wtedy<br />

na Excelu. Musiałam wszystkie dane importować<br />

z systemu Finansowo – Księgowego, potem ręcznie<br />

je przepisywałam i obrabiałam wg określonych<br />

potrzeb. To była męcząca, niewdzięczna i narażona<br />

na błędy praca, która w dodatku trwała<br />

zdecydowanie dłużej, niż wszyscy byśmy tego chcieli.<br />

Oczywiście nie mieliśmy ani możliwości wystarczająco<br />

dokładnej kontroli kosztów, ani przygotowania<br />

raportów na oczekiwanym poziomie szczegółowości.<br />

Od momentu zamknięcia miesiąca w księgowości do<br />

chwili, kiedy raport trafiał na biurko Dyrektora mijał<br />

tydzień. W tej chwili ten sam proces zajmuje nam<br />

15 minut i wymaga kilku przysłowiowych kliknięć<br />

na komputerze.<br />

Co sprawiło, że SZPZLO Warszawa-Bródno podjął<br />

się inwestycji w system controllingowy i osiągnął<br />

spory sukces, zilustrowany przytoczonym wyżej<br />

przykładem? Przyczyn i motywacji było kilka.<br />

Do kluczowych należą: wspomniane wymogi<br />

raportowania na potrzeby NFZ, dostosowanie<br />

się do potrzeb reformy służby zdrowia w zakresie<br />

zarządzania kosztami, konieczność zarządzania<br />

organizacją na podstawie rzetelnej informacji,<br />

a także – o czym wspominają pracownicy<br />

SZPZLO Warszawa-Bródno – wieloletnie marzenie<br />

Dyrektora, by posiadać profesjonalne narzędzie<br />

controllingowe, które ułatwiłoby mu zarządzanie.<br />

Wiedzieć, by zarządzać<br />

Ależ nie, nie mylimy znaczenia słowa controlling!<br />

W pełni zdaję sobie sprawę, że nie chodzi<br />

o kontrolę pracowników – tłumaczy z uśmiechem<br />

Michał Kawecki, Dyrektor SZPZLO Warszawa-<br />

Bródno, ekonomista z wykształcenia. Controlling<br />

wprowadzamy po to, by każde stanowisko pracy<br />

móc w każdym momencie ocenić pod kątem<br />

ekonomicznym. By móc planować, koordynować


Cele wdrożenia systemu TETA <strong>Business</strong> Inteligence w SZPZLO Warszawa – Bródno:<br />

1. Wsparcie budżetowej metody zarządzania przedsiębiorstwem, tzn. umożliwienie stworzenia<br />

zintegrowanego systemu planowania oraz monitorowania wykonania planów.<br />

Cel ten zrealizowano poprzez:<br />

a) Dostarczenie aplikacji TETA <strong>Business</strong> <strong>Intelligence</strong>, jako narzędzia wspomagającego proces<br />

budżetowania oraz analizę danych planistycznych,<br />

b) Udostępnienie w Hurtowni Danych wybranych danych z posiadanych przez SZPZLO Warszawa-Bródno<br />

systemów dziedzinowych,<br />

c) Wsparcie przez Konsultantów UNIT4 TETA BI Center Sp. z o.o. w realizacji wybranych prac<br />

wdrożeniowych (przede wszystkim w asyście przy budowie i parametryzacji w aplikacji TETA <strong>Business</strong><br />

<strong>Intelligence</strong> wybranych struktur planistycznych).<br />

2. Wsparcie SZPZLO Warszawa-Bródno w realizacji różnorodnych analiz i raportów w zakresie wybranych<br />

danych z systemu TETA FK BP. Cel ten zrealizowano poprzez:<br />

a) Dostarczenie aplikacji TETA <strong>Business</strong> <strong>Intelligence</strong>, jako narzędzia wspomagającego proces<br />

budżetowania i analiz wielowymiarowych,<br />

b) Udostępnienie w Hurtowni Danych wybranych danych z posiadanych przez SZPZLO Warszawa-Bródno<br />

systemów dziedzinowych.<br />

i kontrolować przebieg procesów finansowych<br />

na drodze do osiągnięcia wyznaczonych celów,<br />

a kiedy dzieje się coś złego, gdy podejrzewamy jakiś<br />

błąd lub nieprawidłowość – aby móc reagować<br />

natychmiast, nie czekając, aż sprawy się skomplikują.<br />

Jako osoba zarządzająca potrzebuję stale aktualnej<br />

informacji ekonomicznej, aby móc podejmować<br />

decyzje na podstawie prawdziwych i aktualnych<br />

danych, a nie na podstawie tego, co mi się wydaje,<br />

albo co straciło swoją aktualność miesiąc temu.<br />

W SZPZLO Warszawa-Bródno zasady<br />

controllingu wprowadzane są wraz z narzędziami<br />

informatycznymi, które wspomagają ten obszar<br />

działania. Dyrektor Michał Kawecki z całych sił<br />

popiera ten projekt: Uważam, że jest to bardzo<br />

potrzebne, jeśli się chce mieć rzetelną i aktualną<br />

informację o finansach organizacji oraz aby<br />

informacja ta w jak najmniejszym stopniu była<br />

narażona na ludzkie błędy. W osiągnięciu jednego<br />

i drugiego pomocny jest nam system informatyczny<br />

TETA <strong>Business</strong> <strong>Intelligence</strong>.<br />

Zanim SZPZLO Warszawa-Bródno wdrożył<br />

narzędzie TETA <strong>Business</strong> <strong>Intelligence</strong>, dostęp<br />

Dyrektora do informacji zarządczej był mocno<br />

utrudniony. Dane docierały do mnie z bardzo<br />

dużym opóźnieniem – wspomina Michał Kawecki<br />

- Łatwo sobie wyobrazić frustrację dyrektora,<br />

który bilans roczny w formie raportu otrzymuje<br />

93


94<br />

Na „6”<br />

Anna Dyśko, pracownik IT w SZPZLO Warszawa-Bródno, Koordynator Wdrożenia Projektu<br />

System TETA <strong>Business</strong> Partner działa u nas od 1997 r., jest systemem zintegrowanym i pozwala na duży<br />

stopień automatyzacji w zarządzaniu procesami. Przez długi czas korzystaliśmy z modułów: Kadry i Płace,<br />

Finanse i Księgowość, Gospodarka Materiałowa, Środki Trwałe i Środki Niskocenne. Brakowało nam<br />

jednak modułu, który wspierałby podejmowanie decyzji zarządczych. Dlatego zdecydowaliśmy się<br />

poszerzyć pakiet o Controlling. Zakupiliśmy także serwer, który umożliwił nam wdrożenie tego nowego<br />

elementu. W tej chwili znajduje się na nim Hurtownia Danych, powstająca poprzez import danych<br />

z systemu Finansowo - Księgowego. Dzięki temu koleżanka zajmująca się controllingiem może dla<br />

Dyrektora placówki przygotowywać wszelkie potrzebne analizy i raporty. Obecnie system importuje<br />

dane z różnych lokalizacji i z różnych rodzajów jednostek. Mamy pięć budynków na terenie Warszawy.<br />

Oprócz poradni, w których pracuje biały personel i świadczy usługi medyczne dla pacjentów, mamy<br />

także trzy apteki i dwa sklepy medyczne. W tej chwili z systemu korzystają trzy osoby: dyrektor, księgowa<br />

oraz specjalistka ds. controllingu. I choć na razie nie ma potrzeby poszerzania tego grona, to istnieje<br />

możliwość, by w systemie pracowało jednocześnie 7 osób. Jestem zadowolona zarówno z tego systemu,<br />

jak i z przebiegu projektu wdrożenia. Nie mam także zastrzeżeń do wsparcia pracowników firmy UNIT4<br />

TETA BI Center. Przeciwnie, nasza współpraca jest klarowna i konkretna: czegoś potrzebujemy - zgłaszamy<br />

potrzebę - otrzymujemy wsparcie stosowne do wyzwania. Jak inaczej można to ocenić, jeśli nie na „6”?<br />

w maju. A przecież decyzje obciążające budżet<br />

trzeba podejmować od stycznia. Byłem w takiej<br />

sytuacji i przeżywałem z tego powodu wielki<br />

stres, zastanawiając się przez cztery miesiące,<br />

czy poprzedni rok zamknąłem zyskiem czy stratą.<br />

Teraz jest inaczej. Spostrzega to nie tylko<br />

Dyrektor, ale także Specjalista ds. Controllingu,<br />

Agnieszka Fabijańska: System pozwala czuwać nad<br />

działalnością całej organizacji, można na bieżąco<br />

docierać do informacji o tym, że np. w którejś<br />

przychodni zaczęto zużywać więcej prądu, że w innej<br />

przyjmuje się mniej pacjentów albo generuje większe<br />

koszty w obszarze zlecanych badań laboratoryjnych.<br />

Każde z takich zdarzeń widać w systemie, co pozwala<br />

bez zwłoki podjąć stosowne działania naprawcze lub<br />

wyjaśniające.<br />

Dyrektor dokłada też własne spostrzeżenia:<br />

Korzyść z automatyzacji procesów controllingowych<br />

jest też taka, że np. do obsługi aptek nie muszę<br />

zatrudniać trzech osób, by zajmowały się<br />

przepływem dokumentów. Wystarczy jedna,<br />

która z pomocą systemu informatycznego należycie<br />

te sprawy porządkuje.<br />

TETA <strong>Business</strong> <strong>Intelligence</strong> pozwala dokładnie<br />

określić koszty jednostkowe każdego stanowiska


pracy. Dzięki temu użytkownik zyskuje wiedzę<br />

o tym, jaki jest np. średni koszt zabiegu<br />

realizowanego przez tzw. biały personel.<br />

Jesteśmy obecnie na etapie dochodzenia do takich<br />

możliwości – mówi Dyrektor Kawecki - Wymaga<br />

to wprowadzenia zmian w wielu obszarach, łącznie<br />

ze znacznym rozszerzeniem planu kont oraz –<br />

i to jest chyba największe wyzwanie – skutecznym<br />

egzekwowaniem skrupulatnego wprowadzania<br />

danych do komputera przez wszystkich uczestników<br />

procesów.<br />

Daje i wymaga<br />

Mówiąc półżartem – controlling jest w stanie dać<br />

każdemu dyrektorowi dobrą i przydatną informację<br />

zarządczą, ale najpierw wymaga od wszystkich<br />

użytkowników, by rzetelnie wprowadzali dane<br />

do systemu informatycznego. Wdrożenie zasad<br />

controllingu w dużym stopniu podnosi wymagania<br />

nie tylko wobec pracowników placówki, ale<br />

także wobec naszych dostawców i kontrahentów<br />

– tłumaczy Michał Kawecki – Pracownicy<br />

są zobligowani do dużej systematyczności<br />

System na „Ach!”<br />

i skrupulatności w pracy z systemem, aby dane,<br />

wprowadzane do systemu były w stu procentach<br />

prawdziwe. Dostawcy i kontrahenci zaś, poza<br />

wszelkimi zasadami dobrej współpracy, muszą<br />

także spełniać wymagania formalne i techniczne,<br />

które niesie za sobą system informatyczny; jest<br />

to np. wymóg wystawienia faktury w formie<br />

elektronicznej. Gdy partner zewnętrzny nie może<br />

spełnić tych wymagań, wywołuje to natychmiastowe<br />

koszty po mojej stronie, na co oczywiście nie chcę<br />

sobie pozwalać.<br />

Lekarzu, ulecz się sam<br />

Każda zmiana niesie za sobą trudności, wśród<br />

których do największych zaliczyć można pracę<br />

nad modyfikacją ludzkich przyzwyczajeń.<br />

Branża medyczna nie jest tu żadnym wyjątkiem<br />

i Dyrektor Michał Kawecki posiada świadomość<br />

tego problemu: Przełamanie przyzwyczajeń<br />

mentalnościowych u wszystkich pracowników<br />

w naszej branży jest dużym wyzwaniem.<br />

Wymaga to przekonania ludzi do nowego stylu<br />

pracy; zarówno pielęgniarek i lekarzy, jak również<br />

Agnieszka Fabijańska, Specjalista ds. Controllingu w SZPZLO Warszawa-Bródno<br />

To, co w systemie spowodowało moje „Ach!”, to przede wszystkim szybkość jego działania, a dzięki temu<br />

także możliwość szybkiego realizowania poszczególnych czynności w procesie zarządzania organizacją.<br />

Czymś bardzo atrakcyjnym jest także możliwość wielowymiarowego analizowania poszczególnych<br />

obiektów, poradni czy aptek. Bardzo łatwo można zestawiać ze sobą różne dane, kopiować je, sumować<br />

i porównywać, a wszystko to dosłownie w ciągu paru chwil. Daje to niesamowite możliwości analityczne<br />

i przekłada się na trafność decyzji podejmowanych przez Dyrektora.<br />

95


96<br />

foto Maksymilian Mleczek<br />

zaopatrzeniowców, osób w rejestracji, księgowości<br />

a nawet informatyków. Błąd popełniony na<br />

samym początku procesu, przy wpisywaniu<br />

informacji dotyczącej leku, strzykawki czy środków<br />

opatrunkowych, skutkuje nieprawdziwą informacją<br />

zarządczą, na podstawie której, jako dyrektor<br />

placówki będę później podejmował decyzje.<br />

Wdrożenie systemu pracy o takiej odpowiedzialności<br />

jest trudne, ale my to robimy, a ja osobiście głęboko<br />

wierzę w sens i powodzenie projektu.<br />

Skok na finanse i kompetencje<br />

Zarządzanie organizacją z wykorzystaniem<br />

zasad controllingu, to spełnienie podstawowego<br />

elementu reformy służby zdrowia, jakim jest<br />

zarządzanie kosztami. Trudność jednak jest taka,<br />

że – jak się łatwo domyśleć – brakuje na to<br />

środków finansowych. Dyrektor Michał Kawecki<br />

martwi się o finansowanie projektu, ale od razu<br />

znajduje też istotne pozytywy: Na szczęście system<br />

TETA można wdrażać modułami, a niekoniecznie<br />

wszystko naraz – to spore ułatwienie w naszym<br />

procesie informatyzacji.<br />

W wypadku SZPZLO Warszawa-Bródno duży skok<br />

zarówno technologiczny, jak i kompetencyjny<br />

możliwy był do osiągnięcia dzięki środkom ze<br />

Jerzy Kiełbowicz<br />

Prezes UNIT4 TETA BI Center Sp. z o.o.<br />

struktur Unii Europejskiej. Na tym jakościowym<br />

skoku korzystają wszyscy: pacjenci, osoby<br />

zarządzające organizacją, ale także pracownicy<br />

zaangażowani w realizację projektu.<br />

Dyrektor dodaje też z pewną dumą: Ta ostatnia<br />

grupa (mam na myśli Kierownika IT oraz Specjalistę<br />

ds. Controllingu) będąc od początku zaangażowana<br />

w przedsięwzięcie informatyzacji, zyskuje ogromne<br />

kompetencje osobiste. Te osoby stają się nagle<br />

posiadaczami wiedzy o funkcjonowaniu organizacji,<br />

której często nawet ja nie posiadam. Tak, dzięki<br />

informatyzacji, kompetencje schodzą w dół<br />

hierarchii zarządczej…<br />

SZPZLO Warszawa-Bródno jest przykładem<br />

tego, jak ważnym elementem zarządzania jest<br />

determinacja kierownictwa w dążeniu do osiągania<br />

celów. Dyrektor Michał Kawecki od początku<br />

wiedział, czego w sensie biznesowym potrzebuje,<br />

a konsultanci firmy z obecnej firmy UNIT4 TETA<br />

BI Center, przeprowadzając analizę potrzeb,<br />

dodatkowo te oczekiwania uszczegółowili.<br />

Fundusze unijne pomogły zrealizować cele,<br />

o co byłoby trudno bez tego elementu<br />

finansowania. Wysoko ocenione wsparcie dostawcy<br />

systemu było cennym katalizatorem sukcesu<br />

w projekcie, który wciąż jest rozwojowy.<br />

Niezmiernie satysfakcjonujący jest dla nas fakt, iż SZPZLO Warszawa-Bródno jest zadowolone z rozwiązania, które wdrożyliśmy.<br />

System TETA <strong>Business</strong> <strong>Intelligence</strong> jest nowoczesny pod względem technologicznym i na tyle elastyczny, że jego obsługa<br />

staje się dla użytkowników wręcz intuicyjna. Dodatkową jego wartością jest także wysoka skalowalność, dzięki której SZPZLO<br />

Warszawa-Bródno w razie potrzeby będzie mógł bez żadnych problemów rozbudować narzędzie o nowe analizy dla kolejnych<br />

obszarów zarządzania. Możliwości te doskonale wpisują się w oczekiwania naszego Klienta. Trzeba też wyraźnie podkreślić,<br />

że wszystkie osoby zaangażowane w projekt po stronie SZPZLO Warszawa-Bródno, posiadały profesjonalne podejście do pracy<br />

i bardzo się angażowały w nasze wspólne wyzwanie. Każdy, kto choć raz uczestniczył w tego typu przedsięwzięciu wie, że jest<br />

to postawa nie do przecenienia, która w sposób kluczowy przyczynia się do ostatecznego sukcesu.<br />

www.tetabic.eu


Drodzy CEO - użyjcie wiedzy o kliencie,<br />

którą macie w systemach informatycznych!<br />

Jacek Czernuszenko i Michał Możdżonek, REISS Group<br />

97


Skuteczne wdrożenie systemów<br />

CRM – rola doradcy<br />

98<br />

Biser Jorgow, Pentegy<br />

Według danych GUS (raport z 2011 r.: Społeczeństwo informacyjne w Polsce. Wyniki badań<br />

statystycznych z lat 2006 – 2010) w 2009 r. zaledwie co dziesiąte przedsiębiorstwo w Polsce<br />

stosowało system CRM, podobny poziom utrzymywał się w roku 2010.<br />

Średnią krajową w znacznym stopniu przekroczyły<br />

w 2009 r. firmy z branży zajmującej się produkcją<br />

i dystrybucją energii elektrycznej, gazu i ciepła<br />

(26%). Podobnie było w roku 2010 (29%).<br />

Czy zatem polskie firmy wykorzystują możliwości<br />

jakie niesie za sobą inwestycja w systemy klasy<br />

CRM? Warto również odpowiedzieć sobie na<br />

pytanie, czego obecnie firmy oczekują od tego<br />

typu systemów i czy proces wdrożenia może być<br />

skutecznie przeprowadzony i przyjazny dla odbiorcy<br />

końcowego?<br />

Czego biznes oczekuje od systemów CRM?<br />

Od jakiegoś czasu rozwiązania CRM jako<br />

samodzielne aplikacje praktycznie nie występują.<br />

Realia i specyfika prowadzenia biznesu wymogły<br />

na systemach tego typu konieczność ścisłej<br />

integracji z innymi rozwiązaniami informatycznymi<br />

Podsumowując – jakie oczekiwania mają firmy przed<br />

wdrożeniem CRM:<br />

• Pełna integracja z pozostałymi systemami wykorzystywanymi<br />

w firmie<br />

• Konsolidacja wszystkich informacji o kliencie w jednym miejscu<br />

(historia współpracy, wyniki finansowe, potrzeby, ryzyka)<br />

• Wdrożenie takiego systemu CRM, który umożliwi jego<br />

późniejszą rozbudowę w łatwy sposób.<br />

wykorzystywanymi w codziennej działalności<br />

organizacji, np.: platformami sprzedażowymi,<br />

systemami bieżącej obsługi Klienta, czy też<br />

serwisowo-reklamacyjnymi. Podstawowym<br />

oczekiwaniem firm względem systemów<br />

CRM pozostaje sprawna i intuicyjna obsługa<br />

coraz większej liczby procesów związanych<br />

z obsługą klienta.<br />

Kolejną przesłanką przemawiającą za wdrożeniem<br />

systemu CRM z punktu widzenia oczekiwań<br />

biznesowych w firmie, powinna być możliwość<br />

kompleksowego podejścia do procesu obsługi<br />

klienta. Wielozadaniowość systemów klasy<br />

CRM powinna polegać na pełnej obsłudze<br />

procesów specyficznych dla danej branży,<br />

takich jak: przedsprzedaż (czasem czasochłonna<br />

i skomplikowana), sprzedaż, planowanie,<br />

monitorowanie (np.: monitorowanie wykonania<br />

budżetu na danym portfelu klientów),<br />

zarządzanie sprzedażą (np.: jako funkcja<br />

nadzoru menadżerskiego, umożliwiająca<br />

bieżące podejmowanie i korygowanie decyzji<br />

sprzedażowych) oraz raportowanie (przede<br />

wszystkim możliwość tworzenia tzw. dynamicznych<br />

raportów na żądanie).<br />

Podstawowym wymaganiem, które powinno<br />

być brane pod uwagę w momencie rozważania<br />

przez firmę inwestycji w system CRM jest<br />

skonsolidowanie rozproszonych w wielu systemach,<br />

czy też działach odpowiedzialnych za obsługę<br />

klienta (np.: call center, dział reklamacji czy<br />

techniczny) informacji o Klientach. Istotne jest,<br />

aby proces zbierania danych odbywał się w pełni<br />

automatycznie, bez potrzeby dodatkowej kontroli.


Istotnym wymaganiem technicznym w stosunku<br />

do systemów klasy CRM jest możliwość względnie<br />

łatwej rozbudowy systemu o moduły funkcjonalne,<br />

na które pojawia się zapotrzebowanie wraz<br />

z rozwojem firmy. Ważne jest, aby decyzja<br />

o rozbudowie systemu i związane z nią<br />

wdrożenie zostały zrealizowane jako rozszerzenie,<br />

bez konieczności generowania zbędnych<br />

kosztów związanych z poważną przebudową<br />

obecnej platformy.<br />

Kiedy wdrożenie CRM można<br />

komunikować jako sukces?<br />

Wdrożenie CRM stanowi niemałe wyzwanie<br />

zarówno dla pracowników, którzy będą korzystać<br />

z tego narzędzia, jak i dla całej firmy, która staje<br />

przed koniecznością korekty w podejściu i realizacji<br />

swoich procesów biznesowych. Należy zatem<br />

odpowiednio się do takiego projektu przygotować,<br />

zainwestować czas i oddelegować odpowiednich<br />

ludzi, aby pokierować nim właściwie i finalnie<br />

osiągnąć zamierzony cel.<br />

Warunkiem koniecznym udanego wdrożenia<br />

jest spełnienie wszystkich (lub zdecydowanej<br />

większości) oczekiwań o charakterze funkcjonalnym<br />

i technicznym (omawianych w pierwszej części<br />

artykułu). Jednakże, aby firma mogła uznać<br />

proces wdrożenia systemu CRM za sukces, muszą<br />

być spełnione dodatkowe warunki o charakterze<br />

projektowym i biznesowym.<br />

Wdrożenie systemu CRM powinno przebiegać<br />

zgodnie z założonym na wstępie harmonogramem,<br />

a koszty projektu powinny zmieścić się<br />

w zakładanym budżecie (mowa tu nie tylko<br />

o kosztach związanych z usługami ewentualnego<br />

dostawcy, ale również o kosztach pracy<br />

oddelegowanych do projektu pracowników<br />

i wszystkich pozostałych składnikach kosztów,<br />

t.j. utrzymanie, licencje, itp.). Pomimo, że warunki<br />

te wydają się oczywiste i stanowią kanon dobrze<br />

zarządzanego projektu, w praktyce bardzo rzadko<br />

bywają spełnione.<br />

Kolejnym, niezwykle istotnym warunkiem<br />

powodzenia, jest wdrożenie takiego systemu,<br />

który będzie przyjazny dla użytkownika<br />

i aktywnie wykorzystywany zarówno przez kadrę<br />

menadżerską, jak i pracowników. Tym samym<br />

wdrożona platforma, poza satysfakcją pracowników<br />

i zarządu, powinna spowodować stopniową<br />

poprawę jakości obsługi Klientów organizacji<br />

(np.: poprzez zmniejszenie liczby reklamacji, czasu<br />

ich rozwiązywania, itp.) oraz doprowadzić do<br />

wzrostu sprzedaży i rentowności Klientów z portfela<br />

firmy. Warto, aby poziom spełnienia wszystkich<br />

powyższych warunków zmierzyć w określonym<br />

odstępie czasu od momentu wdrożenia CRM<br />

- często na wiarygodną ocenę zwrotu z takiej<br />

inwestycji potrzeba więcej czasu (w przypadku<br />

dużych firm – kilku lat) z uwagi na to, że taka<br />

ocena opiera się zarówno na kryteriach ilościowych,<br />

jak i jakościowych.<br />

W celu bardziej obrazowej prezentacji<br />

skutecznego zarządzania wdrożeniem CRM,<br />

należy bliżej przyjrzeć się jego najważniejszym<br />

etapom. Mówimy w tym przypadku o dwóch<br />

modelach wdrożeniowych - zarówno produktu<br />

dedykowanego, zbudowanego od podstaw<br />

wg specyficznych wymagań zamawiającego,<br />

jak również zakupu gotowego systemu i jego<br />

dostosowaniu do potrzeb konkretnej organizacji.<br />

Etap I: Przygotowanie koncepcji<br />

Przed podjęciem decyzji o rozpoczęciu projektu<br />

i zaangażowaniu zewnętrznego doradcy, firma<br />

powinna wskazać bardzo dokładnie wszystkie<br />

potrzeby, których zaspokojenie leży u podstaw<br />

podjęcia decyzji o wdrożeniu CRM’u. Brak takiej<br />

analizy może skutkować konsekwencjami w postaci<br />

inwestycji w kosztowne rozwiązanie, które nie<br />

będzie używane. Dlatego ważne jest, aby analizę<br />

wymagań firma przeprowadziła we własnym<br />

zakresie – tylko menedżerowie i pracownicy<br />

posiadają najszerszą wiedzę nt. faktycznych potrzeb<br />

99


100<br />

firmy i branży, którą reprezentują. Niezbędnym<br />

elementem etapu przygotowania koncepcji jest<br />

zaproponowanie metody mierzenia efektywności<br />

przyszłego wdrożenia CRM, czyli m.in. sposobu<br />

w jaki ocenimy zwrot z tej inwestycji i kryteriów<br />

jakościowych, wg których będziemy oceniać<br />

powodzenie projektu wdrożeniowego. Warto w tym<br />

miejscu wskazać najczęstszy problem i zagrożenie,<br />

przed którym stają firmy na etapie przygotowania<br />

koncepcji systemu CRM. Zdarza się nie raz, że firmy<br />

niedostatecznie wnikliwie zastanawiają się nad<br />

tym, które procesy specyficzne dla ich branży chcą<br />

obsługiwać w ramach wdrażanego systemu CRM,<br />

sugerując się np. atrakcyjnością popularnego<br />

rozwiązania dostępnego na rynku lub działającego<br />

u konkurencji. Przy takim podejściu firma<br />

ryzykuje poniesienie wysokich kosztów wdrożenia<br />

systemu, który później nie wniesie odczuwalnej<br />

wartości dodanej.<br />

Etap II: Przygotowanie wymagań<br />

funkcjonalnych i technicznych<br />

Na tym etapie firma powinna powołać<br />

dedykowany zespół projektowy lub też wskazać<br />

osoby, które poza obowiązkami operacyjnymi<br />

będą również odpowiadać za wdrożenie CRM’u<br />

(m.in. współpracować z dostawcą zewnętrznym).<br />

Najlepiej, jeśli osoby takie posiadają odpowiednie<br />

doświadczenie w tym zakresie, które może<br />

pochodzić np.: z podobnych projektów tego typu<br />

zrealizowanych u poprzedniego pracodawcy.<br />

Celem tego etapu jest przygotowanie na podstawie<br />

koncepcji z Etapu I zestawu szczegółowych<br />

wymagań potrzebnych do stworzenia zapytania<br />

ofertowego (tzw. RFP - Request For Proposal)).<br />

Jeżeli firma nie posiada odpowiedniego<br />

doświadczenia, można przygotować zapytanie<br />

o informację (tzw. RFI – Request For Information)<br />

we współpracy z doradcą zewnętrznym.<br />

Odpowiedzi na RFI pomogą później przygotować<br />

właściwe RFP.<br />

Etap III: Wybór dostawcy<br />

Kluczowym w całym procesie wdrożeniowym<br />

jest wybór dostawcy rozwiązania. W momencie<br />

zebrania wszystkich odpowiedzi na zapytanie<br />

ofertowe, wybieramy 2-3 dostawców, których<br />

oferty są najciekawsze. Ich lista nie powinna<br />

być dłuższa ze względu na ryzyko znacznego<br />

wydłużenia procesu wyboru, a tym samym wzrostu<br />

ostatecznego kosztu projektu. Selekcja dostawców<br />

powinna odbywać się podczas warsztatów, spotkań<br />

prezentacyjnych z wersją demonstracyjną systemu<br />

lub prototypu i negocjacji warunków handlowych,<br />

które powinny zakończyć się ostateczną decyzją<br />

o wyborze konkretnego dostawcy. Oprócz kosztów<br />

wdrożenia, tzn. kosztów licencji, usług i sprzętu,<br />

należy koniecznie wziąć pod uwagę koszty<br />

utrzymania systemu (serwis, drobny rozwój, etc.,<br />

które razem z kosztami wdrożenia tworzą całkowity<br />

koszt projektu), jak również potencjał osobowy,<br />

kompetencje merytoryczne pracowników danego<br />

dostawcy oraz jego doświadczenia w realizacji<br />

podobnych projektów wdrożeniowych.<br />

Etap IV: Budowa i wdrożenie CRM<br />

W momencie dokonania wyboru dostawcy naszego<br />

przyszłego systemu CRM, istotnym elementem<br />

warunkującym powodzenie wdrożenia jest wczesne<br />

zaangażowanie do współpracy przy projekcie<br />

wybranych departamentów (najczęściej będą<br />

to: IT, sprzedaż, marketing). Dobra współpraca<br />

członków zespołu wdrożeniowego z różnych<br />

komórek organizacyjnych jest jednym z warunków<br />

powodzenia projektu. W momencie zakupu<br />

gotowego rozwiązania, lepiej skoncentrować<br />

się na tych funkcjonalnościach, które są już<br />

dostępne i będą praktycznie wykorzystywane<br />

na co dzień. Ważny jest wybór takich modułów,<br />

które odpowiadają logice procesów biznesowych<br />

i będzie je można łatwo dostosować do specyfiki<br />

prowadzonej przez nas działalności.


Należy także pamiętać o zaangażowaniu<br />

użytkowników końcowych już na etapie<br />

projektowania rozwiązania. Ułatwi to później<br />

testy akceptacyjne i sprawi, że CRM nie będzie<br />

przez pracowników odbierany jako system<br />

narzucony odgórnie, czy z zewnątrz. Równie<br />

ważne, szczególnie w przypadku dużych wdrożeń,<br />

jest podzielenie całego projektu na łatwo<br />

zarządzalne etapy. Po każdym z nich należy<br />

zaplanować wystarczająco dużo czasu na testy<br />

akceptacyjne i szkolenia. Każde wdrożenie<br />

nowych funkcjonalności w ramach kolejnych<br />

etapów powinno być poprzedzone odpowiednim<br />

cyklem szkoleń.<br />

Etap V: Serwis i szkolenia<br />

Należy pamiętać, że wdrożenie systemu CRM jest<br />

procesem, który właściwie nigdy się nie kończy.<br />

System będzie stale rozwijany i udoskonalany.<br />

Proces ten powinien się odbywać na zasadzie<br />

generowania uwag i propozycji zmian przez<br />

użytkowników końcowych, którzy często najtrafniej<br />

wskazują w jaki sposób daną funkcjonalność<br />

udoskonalić. W tym przypadku dobrze jest<br />

zapewnić sobie stały kontakt z dostawcą lub też<br />

powierzyć te kompetencje swoim doświadczonym<br />

pracownikom, którzy brali udział we wdrożeniu.<br />

W kontekście serwisowania wdrożonego systemu<br />

należy pamiętać o tzw. umowie SLA (Service Level<br />

Agreement) gwarantującej firmie odpowiedni<br />

poziom wsparcia technicznego – dobrze, gdy<br />

stroną realizującą umowę jest dostawca systemu.<br />

Najczęściej w tego typu umowie dostawca,<br />

w zamian za miesięczną opłatę ryczałtową,<br />

zobowiązuje się do reagowania w określonym<br />

reżimie czasowym na zgłoszenia błędów i pytania<br />

pojawiające się w trakcie użytkowania systemu.<br />

Wszystkie zmiany powinny być odpowiednio<br />

komunikowane i poprzedzone szkoleniami<br />

użytkowników końcowych.<br />

Błędy popełniane na etapie budowy i wdrożenia funkcjonalności:<br />

• Moduły wykorzystywane przez większość branż:<br />

- Podstawowym modułem jest tzw. Kartoteka Klienta.<br />

Miejsce, w którym przechowywane są wszystkie informacje<br />

n t. klienta (jego dane teleadresowe, firmy i osoby powiązane,<br />

podgląd produktów, usług, wniosków, umów, itp.)<br />

- Drugim podstawowym modułem są Kontakty – moduł oferujący<br />

możliwość zarządzania dniem pracy sprzedawcy lub doradcy<br />

klienta (rodzaj zaawansowanego kalendarza).<br />

• Popełniane błędy:<br />

- Wdrożenie zaawansowanych funkcjonalności automatyzujących<br />

pracę tam, gdzie mogłaby być ona realizowana manualnie.<br />

- Budowanie bardzo zaawansowanej logiki biznesowej, która<br />

będzie wykorzystywana w niewielu przypadkach. Zdarza się,<br />

że wdrażana funkcjonalność zwyczajnie nie jest potrzebna<br />

użytkownikom końcowym i staje się tylko przeszkodą w ich pracy.<br />

- Implementacja skomplikowanych interfejsów do innych systemów<br />

(np. zawsze online, chociaż można zastosować offline<br />

w określonych odstępach czasu).<br />

Rola doradcy zewnętrznego w procesie<br />

wdrożenia CRM<br />

Funkcjonują dwa podejścia do zaangażowania<br />

doradcy zewnętrznego w procesie wdrożenia CRM.<br />

W pierwszym podejściu, współpraca z doradcą<br />

rozpoczyna się dopiero na etapie budowy<br />

i wdrożenia systemu – jest to rozwiązanie<br />

wykorzystywane rzadziej.<br />

W drugim podejściu, praktykowanym przede<br />

wszystkim przez średnie i duże firmy<br />

101


102<br />

5 najważniejszych czynników udanego wdrożenia CRM:<br />

1. Bezpośrednie i stałe wsparcie z poziomu zarządu<br />

2. Dogłębne rozpoznanie i analiza procesów biznesowych<br />

podlegających obsłudze w CRM<br />

3. Przemyślany i wyczerpujący proces wyboru doradcy<br />

i dostawcy wdrożeniowego<br />

4. Wczesne zaangażowanie przyszłych użytkowników końcowych<br />

5. Przygotowanie umowy w zakresie serwisu i rozwoju<br />

systemu CRM<br />

Biser Jorgow<br />

o rozbudowanej strukturze, doradca zewnętrzny<br />

angażowany jest do współpracy już na etapie<br />

tworzenia koncepcji systemu i wymagań do niego.<br />

W takich przypadkach doradca, który wspiera firmę<br />

w wyborze systemu CRM i tworzeniu wymagań<br />

i dostawca wdrożeniowy to dwie niezależne firmy.<br />

Rozwój systemów w danej organizacji jest<br />

procesem ciągłym i złożonym. Najbardziej istotnym<br />

wyzwaniem, przed którym stoi organizacja jest<br />

obecnie odpowiedź na pytanie – czy i jakie<br />

procesy za pośrednictwem systemu CRM chcemy<br />

optymalizować? Dlatego tak istotne jest, aby były<br />

to procesy najważniejsze z biznesowego punktu<br />

widzenia. Wybrane finalnie narzędzie powinno nie<br />

tylko wspierać bezpośrednią obsługę klienta i pracę<br />

operacyjną doradców, ale również (co nie jest bez<br />

znaczenia) powinno sprostać bieżącym wyzwaniom,<br />

które stawia przed nami zmieniające się otoczenie<br />

biznesowe.<br />

Specjalizuje się w systemach klasy CRM. Jest menedżerem w międzynarodowej firmie konsultingowej Pentegy realizującej<br />

kompleksowe projekty doradcze i informatyczne dla firm i organizacji z różnych sektorów gospodarki. Oferta Pentegy obejmuje<br />

osiem głównych grup usług: rozwiązania CRM, karty i płatności elektroniczne, doradztwo biznesowe, doradztwo IT, rozwiązania<br />

dla HR, rozwiązania mobilne i internetowe, integracja systemów oraz „Software Delivery”.


Każde przedsiębiorstwo jest posiadaczem<br />

ogromnej ilości danych. Szkoda, że tak<br />

niewiele z nich zdaje sobie sprawę, że to jest<br />

właśnie cała ich inteligencja. Bo trzeba jeszcze<br />

umieć z niej dobrze korzystać.<br />

Luiza Warno (2005), Orange<br />

103


Efektywne modelowanie biznesu<br />

wg Kimball Lifecycle,<br />

czyli jak w pełni wykorzystać potencjał<br />

wdrożenia <strong>Business</strong> <strong>Intelligence</strong>.<br />

Marcin Choiński, BI.PL<br />

104<br />

Sukces wdrożenia <strong>Business</strong> <strong>Intelligence</strong> zależy od bardzo wielu czynników, jednak odpowiednie<br />

przełożenie potrzeb biznesu na użyteczny, wydajny i elastyczny analityczny model danych jest<br />

elementem krytycznym, mającym znaczący wpływ na praktycznie każdy aspekt prowadzonego<br />

programu BI, a w szczególności na jego przyszłość.<br />

Prawda jest taka, że BI nie można kupić.<br />

Oczywiście można nabyć licencje wiodących<br />

na rynku platform. Można skorzystać z usług<br />

doświadczonego integratora. Można też zatrudnić<br />

ludzi z odpowiednim doświadczeniem i know-how,<br />

jednak o tym, że wdrożyliśmy w naszej organizacji<br />

BI, będziemy mogli zakomunikować dopiero<br />

wtedy, gdy zapewnimy ciągłe działanie oraz<br />

synergię tercetu: skutecznie wdrożonej technologii,<br />

wypracowanych procesów analitycznych<br />

i raportowych oraz przede wszystkim ludzi<br />

o odpowiednich kompetencjach analitycznych.<br />

Wszystko zależy od użytkowników,<br />

czyli biznesu<br />

BI jest inwestycją i musi przynosić realne korzyści.<br />

W odróżnieniu od klasycznych, operacyjnych<br />

systemów IT, gdzie dość łatwo można policzyć<br />

ROI, czy inne wskaźniki zwrotu, największa<br />

część korzyści z wdrożenia <strong>Business</strong> <strong>Intelligence</strong><br />

jest niewymierna, albo przynajmniej trudna<br />

do policzenia. Wartość generowana jest tutaj przez<br />

użytkowników biznesowych, którzy korzystając z BI,<br />

budują w organizacji nową kulturę podejmowania<br />

(lepszych) decyzji w oparciu o analizę danych.<br />

Nie trudno zauważyć, że sukces naszego wdrożenia<br />

BI będzie zależał głównie od chęci i umiejętności<br />

biznesu do wykorzystania potencjału <strong>Business</strong><br />

<strong>Intelligence</strong>.<br />

Jak więc dogodzić biznesowi?<br />

Przede wszystkim należy zrozumieć potrzeby<br />

i wymagania użytkowników. Przeważnie będą<br />

oni oczekiwać dostarczenia rozwiązania w pełni<br />

odpowiadającego charakterystyce ich pracy<br />

i danego biznesu, prostego i szybkiego jak Google<br />

(Skoro można przeszukać zasoby Internetu w ułamku<br />

sekundy z wykorzystaniem jednego pola tekstowego,<br />

to czemu nie miałoby być to równie łatwe i wydajne<br />

w środowisku mojej organizacji?) oraz elastycznego<br />

i dopasowującego się do zmiennego otoczenia.<br />

Dobry system BI musi odpowiadać na powyższe<br />

potrzeby, na co składa się cała masa czynników.<br />

Jeden z nich - odpowiedni analityczny model<br />

danych, wydaje się być kluczowym oraz mającym<br />

znaczący wpływ na większość pozostałych<br />

elementów układanki BI.<br />

Optymalny model danych do analizy<br />

Najbardziej zgodny z ludzką intuicją postrzegania<br />

świata (biznesu) jest model wielowymiarowy<br />

(wykorzystywany m. in. w narzędziach OLAP).<br />

E. F. Codd w 1993 roku zauważał, że „jest z reguły<br />

pewna liczba wymiarów, z perspektywy których<br />

wybrany zbiór danych może być analizowany.<br />

Ta złożona perspektywa, Wielowymiarowy Obraz<br />

Pojęciowy, wydaje się być sposobem, w jaki<br />

większość ludzi biznesu naturalnie postrzega


swoje przedsiębiorstwo”. Dodatkowo, poza swoją<br />

intuicyjnością, wielowymiarowy model danych<br />

posiada inną, niezwykle ważną zaletę - pozwala<br />

w prosty sposób formułować zaawansowane<br />

zapytania analityczne oraz doskonale nadaje się<br />

do optymalizacji pod kątem nawet najbardziej<br />

złożonych zapytań (zarówno dla baz danych<br />

typu SQL, jak i rozwiązań prze<strong>twarz</strong>ających dane<br />

w pamięci RAM).<br />

Modelowanie wielowymiarowe<br />

Każda Hurtownia Danych z prawdziwego<br />

zdarzenia (składnic danych, zawierających kopie<br />

danych z systemów operacyjnych na potrzeby<br />

raportowe nie nazywamy Hurtownią Danych),<br />

będąca podstawą systemu BI, powinna być oparta<br />

o dedykowany, skrojony na miarę danego biznesu,<br />

wielowymiarowy model danych. Zgodnie z teorią,<br />

że nie ma nic za darmo (no free lunch theorem),<br />

nasuwa się wniosek, że skoro dedykowany<br />

wielowymiarowy model danych ma same zalety,<br />

to zapewne jego stworzenie jest kosztowne<br />

i skomplikowane. I rzeczywiście, jak to w życiu<br />

bywa, modelując biznes konsultant BI będzie<br />

musiał znaleźć rozwiązanie dla wielu złożonych<br />

zagadnień. Przykładowo: Jak zamodelować<br />

heterogeniczną hierarchię organizacyjną danego<br />

przedsiębiorstwa - Wymusić stałą głębokość<br />

wymiaru, skorzystać z tabeli mostkowej, czyli<br />

przechodniego domknięcia relacji, czy może<br />

wydzielić osobny wymiar podległości w hierarchii?;<br />

albo Jak, dla zmieniającej się co roku kategoryzacji<br />

asortymentu, umożliwić raportowanie porównawcze<br />

pomiędzy dowolnymi kategoryzacjami za ostatnie<br />

3 lata?<br />

Kimball Lifecycle<br />

Mimo, że stworzenie modelu wielowymiarowego<br />

jest często zagadnieniem mocno złożonym, nie<br />

musi być ono bardzo kosztowne. Na szczęście<br />

istnieje usystematyzowana, sprawdzona (i tak<br />

Marcin Choiński<br />

na prawdę jedyna na świecie) metodyka -<br />

tzw. Kimball Lifecycle (czy jak ją nazywa sam autor<br />

- Ralph Kimball - <strong>Business</strong> Dimensional Lifecycle),<br />

która to daje kompletny zestaw technik, narzędzi<br />

i najlepszych praktyk budowy, utrzymania i rozwoju<br />

kompletnych rozwiązań BI, ze szczególnym<br />

uwzględnieniem aspektów wielowymiarowego<br />

modelowania danych, jako kluczowego aspektu<br />

każdego programu BI. Zakłada ona, że przede<br />

wszystkim należy wsłuchać się w potrzeby<br />

biznesu, dogłębnie je zrozumieć i od tego zacząć<br />

budowę środowiska analitycznego (stąd człon<br />

<strong>Business</strong> w nazwie), dane należy modelować<br />

wielowymiarowo (Dimesnsional), a program BI<br />

prowadzić iteracyjnie, w oparciu o kolejne, małe,<br />

ale za to łatwo zarządzalne i gwarantujące sukces<br />

kroki (Lifecycle).<br />

Źródła wiedzy<br />

Założyciel i redaktor naczelny portalu BI.PL, wiceprezes w firmie Innotion Sp. z o. o.<br />

Wiedzę na temat Kimball Lifecycle najłatwiej<br />

czerpać z cyklu kultowych już publikacji<br />

Ralpha Kimballa i konsultantów z jego Kimball<br />

Group: „The Data Warehouse Lifecycle Toolkit”<br />

(traktujący całościowo o prowadzeniu projektów<br />

i programów BI), „The Data Warehouse Toolkit”<br />

(omawiający szczegółowo aspekty modelowania<br />

wielowymoarowego), czy „The Data Warehouse<br />

ETL Toolkit” (omawiający aspekty związane<br />

z integracją danych z systemów źródłowych<br />

i procesami ETL). Niestety nie doczekaliśmy się<br />

jeszcze polskich tłumaczeń wymienionych pozycji<br />

(mających średnio 600-700 stron), więc konieczne<br />

jest ich sprowadzanie, np. z Amazon.com. Innym<br />

wartościowym sposobem na poznanie metodyki<br />

Kimballa jest cykl jego warsztatów - tzw. Kimball<br />

University. Nie trzeba tutaj wysyłać pracowników,<br />

czy samemu wybierać się do USA. Warsztaty te<br />

organizowane są w różnych częściach świata,<br />

m. in. zterokrotnie gościły już w Polsce. W tym roku<br />

również będzie można uczestniczyć w szkoleniu<br />

„Dimensional Modelign in Depth”, które<br />

planowane jest na październik w Warszawie.<br />

105


P O L A N D<br />

106<br />

Zapraszamy na warsztaty prowadzone<br />

przez guru <strong>Business</strong> <strong>Intelligence</strong><br />

i hurtowni danych:<br />

Ralpha Kimballa i Margy Ross.<br />

Czas i miejsce:<br />

Warszawa, Hotel Sofitel Victoria,<br />

23-26.10.2012<br />

Więcej informacji:<br />

Paulina Łopacińska, SPS Poland, 22 44 888 88,<br />

email: plopacinska@sps.pl<br />

www.sps.pl/KU<br />

W A R S Z T A T Y<br />

Dimensional Modeling<br />

Światowe autorytety w Polsce<br />

Program szkolenia, rejestracja:<br />

in Depth<br />

- skorzystaj!<br />

Ralph Kimball<br />

Kimball University jest<br />

organizacją stworzoną<br />

przez Ralpha Kimballa,<br />

twórcę koncepcji hurtowni<br />

danych, światowej sławy<br />

eksperta oraz autora<br />

bestsellerowych książek<br />

w obszarze <strong>Business</strong><br />

<strong>Intelligence</strong> i zastosowań<br />

hurtowni danych.<br />

Kimball University dostarcza<br />

praktyczną wiedzę<br />

najwyższej jakości,<br />

w oparciu o bogate doświadczenie<br />

projektowe<br />

wykładowców i książki<br />

przez nich napisane.


<strong>Business</strong> <strong>Intelligence</strong><br />

w komentarzach<br />

menedżerów<br />

107


108<br />

BI nowej generacji<br />

Biser Jorgow, manager, Pentegy S.A.<br />

Niezależnie od wszystkich, w szczególności modnych, trendów w obszarze BI, wartość tych narzędzi leży<br />

w kombinacji dwóch podstawowych elementów:<br />

- prawidłowym zrozumieniu potrzeb informacyjnych klienta<br />

- wiedzy i doświadczeniu zespołu wdrożeniowego (wewnętrznego lub zewnętrznego).<br />

Spełnienie pierwszego warunku sprowadza się do tego, że w organizacji niezbędna jest osoba, która nie<br />

tylko doskonale rozumie bieżące potrzeby, ale potrafi również prawidłowo przewidzieć przyszłe potrzeby<br />

w zakresie BI. Osoba taka powinna posiadać niektóre cechy typowe dla wizjonera, co w połączeniu ze<br />

wsparciem ze strony najwyższej kadry zarządzającej może zaowocować przyjęciem przez całą organizację<br />

spójnej wizji rozwoju BI.<br />

Drugi warunek oznacza, że wartość narzędzi BI nie leży w narzędziach IT, z których każde posiada<br />

swoje mniej lub bardziej istotne wady, ale w połączeniu korzyści jakie oferuje narzędzie z wiedzą<br />

i doświadczeniem zespołu wdrożeniowego.<br />

W ostatnim czasie dużo mówi się o kierunkach rozwoju BI. Można nawet usłyszeć, że mamy dzisiaj do<br />

czynienia z wykształcaniem się BI następnej generacji. Niezależnie od tego, ile w tym prawdy, można<br />

wyróżnić kilka głównych trendów, które zostaną zweryfikowane w praktyce w najbliższych latach:<br />

Analiza danych w chmurze (publicznej lub prywatnej)<br />

Czyli udostępnianie rozwiązań BI w formie Software as a Service (SaaS). Nie jest to trend, który przyjmie<br />

się jednakowo w każdej branży. Widzę duże ograniczenia w szczególności w sektorze finansowym, gdzie<br />

poufność danych ma bardzo duże znaczenie i jest elementem budowania wizerunku. Również stanowisko<br />

regulatora rynku finansowego może nie być przychylne prze<strong>twarz</strong>aniu w chmurze. Poza tym, część firm<br />

zwyczajnie będzie się obawiać udostępniania danych zewnętrznym podmiotom.<br />

Prze<strong>twarz</strong>anie coraz większej ilości danych<br />

Chodzi tu nie tylko o większą ilość informacji związaną z bardziej szczegółowym monitorowaniem biznesu,<br />

ale również o to, że zbierane i prze<strong>twarz</strong>ane są dane różne jakościowo od tych, które miały do dyspozycji<br />

firmy choćby kilka lat temu. Rosnąca liczba danych nie stanowi, moim zdaniem, większego wyzwania dla<br />

firm, ponieważ ceny sprzętu w rodzaju dysków i macierzy nie rosną, a wykorzystywane obecnie rozwiązania<br />

są w większości przypadków łatwo skalowalne. Inna jakość danych poddawanych analizie może<br />

rzeczywiście oznaczać zmiany w BI, ale będą się one prawdopodobnie sprowadzały do integracji z nowymi<br />

i coraz liczniejszymi źródłami danych.


BI jako źródło prognoz dotyczących rozwoju biznesu w najbliższej przyszłości<br />

Dotychczas BI dostarczało podsumowań danych historycznych. Dzisiaj zapowiada się odwrócenie tego<br />

stanu rzeczy poprzez dostarczenie dobrej jakości prognoz opartych na modelach matematycznych<br />

i statystycznych. Pomimo licznych zapowiedzi dot. materializowania się tego trendu, nie widzę jeszcze<br />

zastosowania takich narzędzi w praktyce biznesowej. Przewidywanie przyszłości nadal nie należy do<br />

mocnych stron BI i obietnice w tym zakresie są mocno na wyrost. Nadal najważniejsze i najtrudniejsze w BI<br />

pozostają wybór i zebranie właściwych danych. Szybkie prognostyczne modele BI powinny przeliczać dane<br />

historyczne codziennie, co czasami w ostatecznym rozrachunku może okazać się mało opłacalne.<br />

Zmiany w warstwie prezentacji BI<br />

Wszystkie dostępne na rynku gotowe narzędzia posiadają jakieś ograniczenia. W praktyce użytkownicy<br />

potrzebują najczęściej prostych pulpitów (dashboard-ów), czyli zestawienia wykresów, tabel i wskaźników,<br />

ale w unikalnym dla każdej branży i klienta układzie. Oznacza to, moim zdaniem, że najlepsza jest warstwa<br />

prezentacji zbudowana pod specyficzne potrzeby klienta. Jednym z etapów budowy takiej dedykowanej<br />

warstwy powinno być zawsze przygotowanie prototypu przyszłego rozwiązania.<br />

Dostęp mobilny oraz integracja BI z mediami społecznościowymi<br />

Rosnąca dynamicznie liczba tzw. smarfonów i mobilność pracowników narzucają tę formę dostępu<br />

do danych. Oznacza to jedynie ułatwienie dostępu i skrócenie czasu dostępu do danych i ich analizy,<br />

ale nie zmienia zasad funkcjonowania BI.<br />

109


110<br />

Rozwiązania <strong>Business</strong><br />

<strong>Intelligence</strong><br />

Marek Martofel, EMC Poland<br />

Historycznie, narzędzia klasy <strong>Business</strong> <strong>Intelligence</strong> powstawały w celu ułatwienia tworzenia raportów<br />

biznesowych w oparciu o informacje zgromadzone w relacyjnych lub hierarchicznych bazach danych.<br />

Z biegiem czasu ich funkcjonalność rozszerzono o prowadzenie analiz ad hoc, wyszukiwanie trendów<br />

ukrytych w danych, oraz gromadzenie i analizę w bazach wielowymiarowych.<br />

Obecnie mamy do czynienia z trzecią fali systemów BI, w której najważniejszą zmianą w stosunku do<br />

wcześniejszych systemów jest to, że do ich zadań nie należy już raportowanie i analiza przeszłości, lecz<br />

głównie przewidywanie przyszłości na podstawie wykrytych trendów i tendencji. Zmiany objęły też źródła<br />

danych wykorzystywane do analiz – nie są to już wyłącznie standardowe relacyjne, czy wielowymiarowe<br />

bazy danych, które mogą przechowywać jedynie informacje przewidziane przez ich projektantów<br />

w modelu danych, ale połączenie baz danych oraz gigantycznych, rozproszonych zbiorów informacji<br />

zawierających dane nieustrukturyzowane. Ważne jest też, że analizę danych prowadzi się bez wytyczonego<br />

z góry kierunku ani zadanego ściśle celu. Jest to więc w większym stopniu działalność badawcza, niż<br />

tradycyjna analiza oparta na statystyce i klasycznych metodach matematycznych. Jej celem jest przede<br />

wszystkim przewidywanie, reagowanie na zdarzenia i sytuacje nietypowe, będące odstępstwem od<br />

zwykłego porządku rzeczy. Jest to całkowite przeciwieństwo tradycyjnej analizy statystycznej, której<br />

celem jest wykrywanie związków i korelacji typowych. Na przykład, gdyby producenci elektroniki wykryli<br />

i przewidzieli ryzyko fluktuacji pogodowych w Azji mogliby zmodyfikować stan zapasów tak aby ochronić<br />

się przed zakłóceniami poziomu produkcji. Dlatego z wyszukiwaniem i wykrywaniem ukrytych powiązań<br />

wiele przedsiębiorstw wiąże bardzo duże nadzieje. Korelacja czynników na pozór dalekich od siebie<br />

pozwala na pozyskanie nieosiągalnej dotąd wiedzy i prowadzi do często zaskakujących wniosków.<br />

Analiza dużych zbiorów danych obecnie posiada swoją specyfikę jak i zestaw stabilnych, bardzo sprawnych<br />

narzędzi. Zrozumiałe jest, że niektórych trendów nie da się wykryć analizując tylko małą próbkę danych.<br />

Na przykład bezcelowa byłaby analiza działania Internetu na podstawie kilkusekundowego zapisu<br />

przepływających przezeń danych by odpowiedzieć na pytanie jak zachowują się jego użytkownicy,<br />

choć danych byłoby relatywnie dużo. Z drugiej strony, opuszczenie np. miliona rekordów może<br />

nie zniekształcić wyników analizy, bowiem jest to tylko drobny promil prze<strong>twarz</strong>anych informacji.<br />

Dlatego do przechowywania i prze<strong>twarz</strong>ania tego typu informacji stosuje się specjalne narzędzia,<br />

rozproszone systemy plików i prze<strong>twarz</strong>anie bazujące na dystrybucji zadań – tworzone zarówno w modelu<br />

open source jak i platformy komercyjne.<br />

Wiodącą rolę w tego rodzaju działalności odgrywają produkty powstałe przy udziale Apache Foundation,<br />

a w szczególności narzędzia projektu Apache Hadoop. Większość komercyjnych firm dostarczających<br />

oprogramowanie i sprzęt z uwagą obserwuje rozwój tego właśnie trendu nazywanego Big Data. Znaczna<br />

większość, z mniejszym lub większym powodzeniem produkuje i dystrybuuje własne oprogramowanie<br />

bazujące na Apache Hadoop. Jednak prawdziwymi zwycięzcami będą ci, którym skutecznie uda się<br />

połączyć oba światy, danych relacyjnych i nieustrukturyzowanych. To ogromna szansa dla firm otwartych<br />

na adopcję innowacji, gdyż fali budowy systemów Big Data nie da się już zatrzymać.


Rola CRM w zmiennej<br />

rzeczywistości<br />

Michał Jackowiak, CEO, JADE, A Bull Group Company<br />

Zmienna rzeczywistość czasem z lekką przesadą uznawana jest za wyjątkowo trudną. Na pewno wymaga<br />

ona od biznesu więcej, liczą się refleks i pewność w działaniu, jednak nie skazuje nas na porażkę a wręcz<br />

przeciwnie - wy<strong>twarz</strong>a sytuację, w której łatwiej i szybciej można osiągnąć przewagę konkurencyjną.<br />

Zgodnie z najbardziej naturalnym prawem, w określonych warunkach najlepiej odnajdują się jednostki<br />

najszybciej przystosowujące się i najchętniej korzystające z dostępnych narzędzi, tzw. Innowatorzy.<br />

Stąd Innowator w obszarze CRM w dużej mierze oznacza kogoś, kto panuje nad zmiennością, prędkością<br />

i nadmiarem informacji. W efekcie koncentruje się na dostarczeniu produktu, który odbiorcy da poczucie<br />

wysokiej jakości i wiedzy, indywidualnego podejścia oraz stosunkowo konkurencyjnej ceny. W tym kierunku<br />

moim zdaniem idzie filozofia zarządzania relacjami z klientami.<br />

Pamiętam moment, gdy CRM był nowym narzędziem, kiedy badania pokazywały że tylko 20-30%<br />

wdrożeń kończy się powodzeniem. W moim przekonaniu większość z badanych nie była gotowa na<br />

wdrożenie ani wewnętrznie / organizacyjnie, ani w sensie wykorzystania siły narzędzia. Nie były do tego<br />

przygotowane kanały komunikacji ani infrastruktura. Teraz w dobie dojrzałego e-commerce oraz selfservice<br />

system CRM, cokolwiek firma wdrażająca może pod tym pojęciem rozumieć, jest nieodzowny.<br />

Paradoksalnie CRM przejmuje funkcję, jak dawniej w gospodarce „niewidzialnej ręki” (z ang. invisible<br />

hand), który będzie trzymał Klienta w stanie miłego zaskoczenia, ale pomoże mu także porządkować<br />

informacje i poruszać się wśród nich. Podpowie, czego potrzebuje, jak ma to znaleźć, kupić w dobrej cenie<br />

i jak może uzyskać satysfakcję z bezpiecznego użytkowania. Takie podejście obowiązuje dziś bez względu<br />

na typ produktu, czy usługi, jaką świadczymy i jest niezbędnym czynnikiem konkurencyjności firmy.<br />

Na co dzień współpracuję z gigantami branż FMCG czy telekomunikacyjnej, którzy mogą powiedzieć<br />

o sobie, że odnieśli sukces. Od konkurencji bardzo wyraźnie odróżniają się rozumieniem elastycznego<br />

i aktywnego korzystania z narzędzi IT. Ich CRM-y spełniają standardy, liczą, monitorują, automatyzują,<br />

ale są właśnie „ich” i nie będą pasowały do żadnej innej firmy. Utrzymania takiego stanu rzeczy oczekują<br />

od dostawcy rozwiązania, wymagają rozwijania narzędzi zawsze najszybszych, najnowocześniejszych,<br />

kooperujących z tkanką całej organizacji. CRM najczęściej nie wyręcza ludzi w ich pracy, tylko dostarcza<br />

informacji do szybszego i lepszego podejmowania decyzji.<br />

Przeglądałem ostatnio raport Deloitte Global Powers of the Consumer Products 2012, w którym położono<br />

nacisk na konieczność zainwestowania producentów i sprzedawców (niezależnie od zajmowanego sektora)<br />

w narzędzia analityczne pozwalające lepiej poznać oczekiwania i upodobania Konsumentów. Sądzę, że jest<br />

to słuszna prognoza, choć być może napawająca obawą w obliczu kryzysowej niepewności niektórych<br />

rynków. Jednak przedsiębiorcy w większości nie kupią tych informacji, muszą sami poznać swoich<br />

Klientów, zbudować ich obraz w swoich systemach. Muszą to zrobić szybko i stosunkowo niskimi kosztami<br />

wejścia. Dlatego dostawcy rozwiązań wychodzą naprzeciw swoim Klientom, przeciwdziałają przepłacaniu<br />

i niewłaściwemu korzystaniu z oprogramowania, stosują nowoczesne metodyki wdrożeń. Upowszechnił się<br />

wreszcie (był obecny od dawna) model cloud computing, pokrywania kosztów infrastruktury oraz licencji<br />

w formie abonamentów.<br />

111


112<br />

Specyfika mojej branży pozwala mi na pełnienie niezwykle ciekawej roli – pomocy w automatyzacji<br />

i systematyzowaniu działań firmom, które koncentrują się na realizacji zmiennych potrzeb Konsumentów.<br />

Idziemy w kierunku narzędzi, które zarówno przedsiębiorcom jak i ich klientom dadzą poczucie<br />

bezpieczeństwa i spójności wydarzeń. Tak rozumiem społeczną i prokliencką rolę CRM-u.<br />

Tym samym biznes przyjmie postawę upraszczania rzeczywistości własnej i Konsumenta.


Rozwiązania klasy BI<br />

Paweł Gajda, <strong>Business</strong> Solution Consultant SAP Polska<br />

Obecnie obserwujemy wzrost zainteresowania rozwiązaniami z zakresu wspomagania decyzji biznesowych<br />

(<strong>Business</strong> <strong>Intelligence</strong>, BI). Aplikacje i narzędzia BI są uniwersalne, mają szeroki zakres funkcjonalności,<br />

przydatnych zarówno w dużych przedsiębiorstwach przemysłowych, jak i małych firmach z sektora MŚP.<br />

Umożliwiają integrację złożonych procesów biznesowych, pozwalają na szybką reakcję na wszelkie<br />

zmiany zachodzące na płaszczyźnie operacyjnej, jak również w otoczeniu biznesowym. Dzięki nim firma<br />

ma możliwość śledzenia na bieżąco stanu realizacji danego procesu oraz błyskawicznego reagowania na<br />

zdarzenia poprzez elastyczne modyfikowanie zmian w procesach. Istotne jest również pozyskanie informacji<br />

zewnętrznej, która może w istotny sposób wpływać na podejmowane decyzje.<br />

W dużych firmach, korporacjach rozwiązania BI są rozproszone wewnątrz organizacji i stanowią osobną<br />

platformę integracji informacji biznesowej między różnymi działami. W firmach średniej wielkości<br />

korzystają z nich przede wszystkim działy finansowe, controlingowe, marketingu i sprzedaży. Natomiast<br />

w firmach z sektora MŚP głównymi beneficjentami BI jest zarząd i kontrola finansowa. Użytkownicy<br />

<strong>Business</strong> <strong>Intelligence</strong> mogą otrzymywać tylko informację spersonalizowaną, w zależności od swoich<br />

potrzeb i poziomu decyzyjności.<br />

Klienci dostrzegają korzyści wynikające z zastosowania rozwiązań BI, które dają przewagę konkurencyjną<br />

i pozwalają rozwijać się w obszarach, których do tej pory nie były prze nich eksploatowane. Narzędzia BI<br />

dają się również łatwo zaimplementować w dotychczasowym środowisku technologicznym IT. Ważną cechą<br />

jest łatwe, intuicyjne korzystanie z aplikacji, aby odbiorcy mogli sami przeszukiwać zasoby biznesowe<br />

(podobnie jak w Google), bez konieczności zwracania się do działów IT, co przyspiesza decyzyjność<br />

i zaufanie do informacji.<br />

Największym beneficjentem rozwiązań klasy BI są firmy sektora FMCG i Retail, w których analiza<br />

rentowności, kanałów sprzedaży, konkurencyjności dystrybucji na poszczególnych rynkach ma strategiczne<br />

znaczenie. Drugim obszarem jest bankowość, firmy finansowe i ubezpieczeniowe oferujące specjalizowane<br />

produkty lub usługi, dopasowane pod kątem klienta biznesowego. Dlatego bardzo istotna staje się analiza<br />

rentowności i zyskowności w perspektywie dynamicznych zmian w otoczeniu rynkowym.<br />

W dobie lawinowego przyrostu informacji biznesowej, gromadzonych w systemach IT, ogromnego<br />

znaczenie nabiera przyspieszenie dostępu do gromadzonych wolumenów danych. Decyzje biznesowe<br />

są obciążone coraz większym ryzykiem, wymagają więc nie tylko szybkiej informacji, ale także sprawnej<br />

i wiarygodnej analizy i dystrybucji. Właśnie zaawansowane narzędzia analityczne, wspomagane<br />

innowacyjnymi sposobami prze<strong>twarz</strong>ania danych stają się niezbędne dla dalszego rozwoju przedsiębiorstw.<br />

Rozwiązania klasy BI umożliwiają tworzenie i modelowanie analizy procesów biznesowych i finansowych<br />

oraz budowanie w intuicyjny sposób raportów, kokpitów menedżerskich oraz pozyskiwania informacji<br />

ad- hoc. Dzięki innowacyjnym rozwiązaniom firmy mają możliwość monitorowania kluczowych wskaźników<br />

działalności firmy niemal w czasie rzeczywistym.<br />

113


114<br />

Warto w tym miejscu zwrócić uwagę na rewolucyjną technologię prze<strong>twarz</strong>ania informacji w pamięci,<br />

tzw. „In-memory”, zmieniającą sposób działania aplikacji BI i tworzącą nowe horyzonty dla tworzenia<br />

aplikacji biznesowych. Technologia „In-memory” pozwala analizować dane transakcyjne i analityczne<br />

w czasie rzeczywistym, prze<strong>twarz</strong>ać je i następnie dokonać wizualizacji w najbardziej przyjaznej formie<br />

w ciągu kilku sekund. Przyspieszenie prze<strong>twarz</strong>ania danych wprowadza nową jakość w przebieg procesów<br />

biznesowych, zaś rozwiązania BI przestają być narzędziem stricte analitycznym, a stają się biznesowym<br />

narzędziem operacyjnym. To wiąże się również z rosnącym wykorzystaniem rozwiązań mobilnych,<br />

obsługujących obecnie większość procesów w przedsiębiorstwach i instytucjach. Użytkownik wyposażony<br />

w urządzenie mobilne typu tablet lub smartfon, w dowolnym czasie i miejscu mając dostęp do Internetu<br />

lub sieci 3G, może uzyskać błyskawicznie przetworzoną i wiarygodną informację celem podjęcia<br />

decyzji biznesowych.

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!