Konferencja Qlik World 17-19.05.2022 – zapisz się!

Już za parę dni rusza trzydniowa światowa Wirtualna Konferencja Qlika pod nazwą: QlikWorld. Powinna odbyć się stacjonarnie w Denver, jednak po raz kolejny organizatorzy postanowili ją udostępnić za darmo dla nas wszystkich. Jeśli pracujesz z danymi na co dzień, masz w firmie Qlika lub podobny systemem BI – dołącz koniecznie! Zobacz jakie trendy wyznacza teraz BusinessIntelligence !

✔️ 𝗤𝗹𝗶𝗸 𝗣𝗼𝗿𝘁𝗳𝗼𝗹𝗶𝗼 – 𝗥𝗼𝗮𝗱𝗺𝗮𝗽 𝗮𝗻𝗱 𝗦𝘁𝗿𝗮𝘁𝗲𝗴𝘆 – Search for code: 667890 
✔️ 𝗧𝗵𝗲 𝗤𝗹𝗶𝗸 𝗧𝗿𝗮𝗻𝘀𝗳𝗼𝗿𝗺𝗮𝘁𝗶𝗼𝗻: 𝗧𝗵𝗲 𝗥𝗼𝗮𝗱 𝘁𝗼 𝗤𝗹𝗶𝗸 𝗖𝗹𝗼𝘂𝗱 – Search for code: 663113 
✔️ 𝗠𝗮𝗰𝗵𝗶𝗻𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 𝘄𝗶𝘁𝗵 𝗤𝗹𝗶𝗸 𝗖𝗹𝗼𝘂𝗱 – Search for code: 662273 
✔️𝗔𝗿𝗰𝗵𝗶𝘁𝗲𝗰𝘁𝗶𝗻𝗴 𝗮 𝗦𝘂𝗰𝗰𝗲𝘀𝘀𝗳𝘂𝗹 𝗠𝗼𝗱𝗲𝗿𝗻 𝗔𝗻𝗮𝗹𝘆𝘁𝗶𝗰𝘀 𝗣𝗹𝗮𝘁𝗳𝗼𝗿𝗺 – Search for code: 664393
✔️ 𝗠𝗮𝗸𝗲 𝘁𝗵𝗲 𝗧𝗿𝗮𝗻𝘀𝗶𝘁𝗶𝗼𝗻 𝗮𝗻𝗱 𝗦𝗮𝘃𝗲 𝘄𝗶𝘁𝗵 𝗦𝗮𝗮𝗦 – Search for code: 667907
✔️ 𝗛𝗼𝘄 𝘁𝗼 𝗣𝗹𝗮𝗻 𝗳𝗼𝗿 𝗮 𝗤𝗹𝗶𝗸 𝗦𝗲𝗻𝘀𝗲 𝗘𝗻𝘁𝗲𝗿𝗽𝗿𝗶𝘀𝗲 𝗦𝗮𝗮𝗦 𝗗𝗲𝗽𝗹𝗼𝘆𝗺𝗲𝗻𝘁 – Search for code: 661149
✔️ 𝗢𝗽𝗲𝗿𝗮𝘁𝗶𝗼𝗻𝗮𝗹 𝗔𝗻𝗮𝗹𝘆𝘁𝗶𝗰𝘀 𝗳𝗼𝗿 𝗤𝗹𝗶𝗸 𝗥𝗲𝗽𝗹𝗶𝗰𝗮𝘁𝗲 𝗗𝗮𝘁𝗮 𝗣𝗶𝗽𝗲𝗹𝗶𝗻𝗲𝘀, 𝗮𝗻𝗱 𝗦𝗻𝗼𝘄𝗳𝗹𝗮𝗸𝗲 𝗣𝗲𝗿𝗳𝗼𝗿𝗺𝗮𝗻𝗰𝗲 𝗶𝗻 𝗤𝗹𝗶𝗸 𝗦𝗲𝗻𝘀𝗲 – Search for code: 663224

✔️ 𝗜𝗻𝘁𝗿𝗼𝗱𝘂𝗰𝗶𝗻𝗴 𝗡𝗲𝘄 𝗤𝗹𝗶𝗸 𝗦𝗲𝗻𝘀𝗲 𝗔𝘂𝘁𝗵𝗼𝗿𝗶𝗻𝗴 𝗘𝘅𝗽𝗲𝗿𝗶𝗲𝗻𝗰𝗲  – Search for code: 671451 

REJESTRACJA oraz tematy wszystkich sesji: https://www.qlik.com/qlikworld/sessions/breakout-sessions

👨‍🎓 Odbędą się również WARSZTATY (link). Zapisy do 15 maja. Póki co jest ok 30 osób zgłoszonych, w takich tematach:

👉 Introduction to Qlik Sense Enterprise SaaS
👉 Introduction to Qlik AutoML
👉 Hands on with Qlik Application Automation and Qlik Reporting Services

W trakcie trwania Qlik World można podejść do certyfikacji za 100 USD (bez promo 250 USD): https://home.pearsonvue.com/qlik/qlikworld

Ps. Z ciekawostek na liście państw przy rejestracji na tą konferencję oraz przy zakładaniu konta Qlik Cloud nie ma do wyboru ⛔️Rosji ani ⛔️ Białorusi. 👍

Data science i karaoke, czyli jak analizowało się dane pół wieku temu?

Wydawać by się mogło, że przed XXI wiekiem pojęcia „data science” i „analizy danych” owszem, istniały, ale nie miały tak szerokiego zastosowania jak dzisiaj. W latach 70’-80’ na przykład, rząd, służba zdrowia, wojsko, uniwersytety, oraz wszystkie inne organizacje, które mogły sobie pozwolić na komputery z odpowiednią mocą obliczeniową, z pewnością korzystały z przetwarzania danych. Nadal jednak w ograniczony i bardzo wolny sposób. A inne branże? Czy słowo „karaoke” to pierwsze co wpada do głowy po usłyszeniu „data science”? Raczej nie.

Tymczasem, pierwsze zestawy do karaoke powstały na początku lat 70’ ubiegłego wieku. „Zestawy”, bo do zabawy potrzeba było urządzenia, które = odtwarza podkłady muzyczne i wyświetla tekst + na dedykowanym ekranie + można do niego podłączyć mikrofony + i głośniki + oraz stację kaset do zmiany utworów (później zastąpioną nośnikiem LaserDisc). OK, wiemy jak działa karaoke, ale co to ma wspólnego z data science?

Powiedzieć, że analiza danych pochodzących z zestawów karaoke ukształtowała kierunek rozwoju muzyki popularnej w Japonii, to jak nic nie powiedzieć. W szczytowym momencie popularności karaoke w kraju kwitnącej wiśni puby i tzw. karaoke boksy odwiedzało przynajmniej raz w ciągu roku… 60.000.000 ludzi! To połowa populacji Japonii! Poza producentami sprzętów do karaoke i właścicieli pubów skorzystać na całym biznesie mógł ktoś jeszcze – twórcy muzyki.

W latach 70’ i 80’ Internet nie był tak powszechny jak dzisiaj (nie było jeszcze World Wide Web), nawet w najbardziej dojrzałym i zaawansowanym technologicznie kraju na świecie. Nie istniały jeszcze YouTube ani Spotify, a muzyczne telewizje i teledyski (rewolucyjny klip ‘Thriller’ Michaela Jacksona powstał w 1983 roku) dopiero raczkowały. Popularność piosenkarzy i zespołów muzycznych mierzono więc wyłącznie sprzedażą kaset i płyt oraz popytem na koncerty. Dziś wystarczy rzut oka na wyświetlenia filmu na YouTubie lub najpopularniejsze piosenki na Spotify, by wiedzieć, czego słucha konkretny kraj i cały świat.

W czasach świetności karaoke tę wiedzę w Japonii dostarczali producenci sprzętu do śpiewania. Nie były to jednak dane dostępne od ręki, „na żądanie”. Wyobraźmy sobie, że do każdego z kilkudziesięciu tysięcy pubów i karaoke boksów co jakiś czas musiał przyjeżdżać serwisant. Po pierwsze po to, aby naprawić ewentualne usterki, wymienić kable, mikrofony, itp. Po drugie po to, aby wgrać lub przywieźć na nośniku nowe utwory. Po trzecie wreszcie, aby zgrać z urządzenia informacje o tym, jakie utwory są odtwarzane najczęściej. Następnie, w centrali, informacje te były – ponownie ręcznie – zgrywane w jedno miejsce, obrabiane i przygotowywane do analizy, i poddane tej ostatniej. A wszystko, na domiar złego, na maszynach wolniejszych niż dzisiejsze kalkulatory, na skromnych w możliwości wizualizacji systemy a’la MS-DOS.

Pomnóżmy teraz kilkadziesiąt tysięcy sprzętów do karaoke * kilkaset piosenek = daje nam to minimum 5.000.000 wierszy informacji (miesięcznie!). Po starannym uporządkowaniu ich pod kątem wykonawców, konkretnych utworów i ilości odtworzeń = otrzymujemy największą w Japonii (a może i na świecie?) bazę danych o muzycznych preferencjach i upodobaniach odbiorców! Taki zbiór danych przekazany do wytwórni muzycznej lub dowolnego zespołu muzycznego był (i jest) na wagę złota. Dzięki temu, osoby odpowiedzialne za nagrywanie kolejnych hitów wiedzą jakie melodie, tempo, czy tematykę piosenki lubią najbardziej słuchacze.

Dziś nie dziwi nas fakt, że Coldplay albo One Direction to tzw. supergrupy założone na podstawie badań rynku lub specjalistycznego szkiełka i oka specjalisty. Ale prawie pół wieku temu takie mezalianse musiały szokować ludzi, zwłaszcza spoza Japonii. Jednoosobowe gwiazdy, duety, girlsbandy i boysbandy, a nawet zespoły rockowe były w kraju kwitnącej wiśni szyte na miarę (na podstawie danych z maszyn karaoke) jeszcze do wczesnych lat 00’.

Publiczne wykonywanie karaoke nie jest już tak popularne jak dawniej. W końcu każdy może to robić we własnym domu włączając YouTube’a. Dziś analiza potencjału gwiazdy lub grupy muzycznej to czysta statystyka dostępna za pomocą kilku kliknięć w ciągu kilku sekund. Dziś w modzie są utwory o długości 02:00 do 02:30 minut, z wyraźnie słyszalnym autotunem, ew. synthem, z maksymalnie dwoma zwrotkami i dwoma refrenami. Aby odkryć podobne zależności w czasach rozkwitu karaoke, pracownicy producentów sprzętu musieli te dane ręcznie zgrywać, wgrywać, łączyć i analizować. Bez graficznych wykresów, map ciepła, czy zaawansowanych funkcji. I cały ten proces trwał nie sekundami, minutami, ani nawet godzinami, lecz dniami!

Na szczęście, mamy dziś narzędzia do analizy danych. Takie, które nie tylko załadują i dokonają transformacji danych, ale również wizualizacji. Na dodatek, wszelkie anomalie (na przykład, ktoś odtworzył w jednym miejscu 1000 razy tę samą piosenkę) wychwycą w kilka milisekund. Całość zadziała na laptopie z hipermarketu.

Prekursorom data science (także tym od karaoke!) należy się ogromny szacunek i głęboki ukłon za ich osiągnięcia. A nam pozostaje się cieszyć, że żyjemy w wygodnych czasach.

Dowiedz się więcej o narzędziach do data science: https://www.bpxglobal.com/solution/altair/altair-knowledge-studio/

Autor:

Kamil Skuza

Bibliografia:

Oryginalny artykuł znajdziesz tutaj.

BPX zaprasza na webinar “Transformacja danych i automatyzacja procesów finansowo-księgowych bez pisania kodu!”

Zapisz się już dziś na webinar! Data: 31.03.2022   |   Start: godz. 10:00   |   Czas trwania: ok. 1h

Zarejestruj się, wypełniając formularz dostępny na stronie wydarzenia.

Monarch jest najszybszym i najprostszym rozwiązaniem do pozyskiwania danych z trudnych, słabo uporządkowanych źródeł (takich jak pliki PDF, arkusze kalkulacyjne, dane tekstowe), a także z danych Big Data oraz innych baz danych.

Monarch oczyszcza, transformuje, łączy i wzbogaca dane poprzez intuicyjny interfejs wolny od pisania kodu i skryptów.

Podczas prezentacji poznasz zespół Altair w BPX, zobaczysz jak działa na żywo narzędzie Altair Monarch, poznasz model licencjonowania, oraz dowiesz się jak możesz przetestować Altair Monarch (okres próbny, Proof of Concept).

Skrócona agenda:

1. Zastosowanie i możliwości Altair Monarch
2. Transformacja plików Excel i PDF.
3. Automatyzacja procesów.
4. Przepływ danych, architektura rozwiązania.
5. Licencjonowanie, okres próbny, Try Before Buying (Proof of Concept).

Pełna agenda:

1. Wstęp – Monarch jako narzędzie ETL i do automatyzacji procesów.
2. Źródła danych (bazy, web, pliki płaskie etc).
3. PDF jako źródło danych, porównanie raportu pdf i tego samego pliku w Design Report.
4. Trapping w PDF/Excel.
5. Dane statystyczne o załadowanych danych, możliwość wyciągania metadanych.
6. Możliwość wstępnej filtracji danych w preview i dalszej obróbki w Prepare. Pokazanie historii operacji po prawej stronie.
7. Łączenie źródeł danych i pozostałe transformacje.
8. Możliwości exportu do różnych systemów/formatów.
9. Serwer + podstawowy przepływ.
10. Monitorowanie folderu, scheduling, walidacja pliku wejściowego, alerting, dystrybucja plików, możliwość exportu do kilku systemów jednocześnie.

Zapisz się już dziś na webinar! Data: 31.03.2022   |   Start: godz. 10:00   |   Czas trwania: ok. 1h

Zarejestruj się, wypełniając formularz dostępny na stronie wydarzenia.

Zastosowanie uczenia maszynowego w tworzeniu gier wideo

Wydawałoby się, że przy tworzeniu filmów animowanych albo gier wideo, komputer jest bardzo istotnym, ale tylko narzędziem w rękach człowieka. To człowiek jest artystą, który nadaje finalny kształt temu, co widzimy na ekranie, a komputer, choć towarzyszy mu na każdym kroku, jest jakby paletą barw i pędzlem. Wkrótce może się to zmienić, bo uczenie maszynowe już odgrywa rolę w produkcji wirtualnej rozrywki i robi to lepiej oraz szybciej niż człowiek. Jak dokładnie?

Do tej pory, tworząc postacie w filmach animowanych lub grach wideo, albo nadawało się modelom 3D niewidzialny kręgosłup, kości i ścięgna – aby poruszały się jak najbardziej naturalnie – albo nagrywało się aktorów w tzw. sesjach motion capture (tzw. przechwytywanie ruchu), czyli aktorów odgrywających swoje role w strojach przypominających pianki dla płetwonurków, z przyczepionymi do materiału specjalnymi markerami. Markery te zapamiętywały każde poruszenie, a potem ich odczyty były przenoszone na srebrny ekran w postaci pełnokrwistych postaci, np. błękitnoskórej rasy Na’vi z filmu „Avatar”.

Dzięki temu poruszanie się, gestykulacja, a nawet mimika twarzy tych fantastycznych stworzeń była tak realistyczna i nam – ludziom – znajoma. Albo, w grze sportowej, ruchy sportowca odtwarzającego zagrania piłką w specjalnym kombinezonie przenoszone były na ekran gry wideo, gdzie z chirurgiczną precyzją odtwarzali je zawodnicy drużyny piłki nożnej lub koszykówki, kontrolowani przez gracza lub sztuczną inteligencję.

Dziś nadal jest to standardem w branży, ale twórcy gier wideo postanowili pójść o krok dalej – w najnowszej odsłonie popularnej gry-symulacji piłki nożnej, FIFA 22, pierwsze skrzypce gra… uczenie maszynowe (inaczej samouczenie się maszyn, z ang. machine learning). W jaki sposób i dlaczego jest to przełom nie tylko dla branży wirtualnej rozrywki?

Wyobraźmy sobie, że napastnik nadciąga z piłką wprost na bramkarza w sytuacji 1:1. Obaj biegną w swoim kierunku i nagle bramkarz rzuca się na piłkę, wykonując długi wślizg, wyciągając do przodu ręce. W tym momencie, napastnik być może zdąży wykonać strzał, wykonać lob nad bramkarzem, podbić futbolówkę i podskoczyć razem z nią, albo wpaść prosto na bramkarza i stracić swoją szansę na gola. Wszystkie te możliwości mogą mieć miejsce, dodatkowe, niewymienione (np. faul, podanie), również. A jak miałoby to wyglądać w studio nagraniowym rejestrującym ruch piłkarzy? Albo ekipa musiałaby nagrać każdą taką sekwencję osobno, a potem zaimplementować ją ręcznie w grze i w zależności od decyzji gracza, taką animację uruchomić, albo… nauczyć komputer tworzyć własne, unikalne animacje, w czasie rzeczywistym, również uzależnionym od poczynań gracza.

Brzmi nierealnie? Ale już istnieje. Do tej pory wąskim gardłem w grach sportowych był fakt, że trzeba było nagrywać mnóstwo krótkich animacji, bo te długie niekiedy wypadały w akcji idiotycznie. Dlaczego? Przypuśćmy, że gracz wykonywał piłkarzem przewrotkę, ale… w tym samym momencie, w którym zdecydował się to zrobić – tracił piłkę. Niestety, animacja została już włączona i piłkarz wykonał przewrotkę jakby „na pamięć”, mimo że nie posiadał już piłki. Kopnął powietrze.

Dziś, sztuczna inteligencja odpowiedzialna za „lepienie” w całość dłuższych animacji w czasie rzeczywistym wie klatka po klatce, co może wydarzyć się za chwilę. Ponieważ we współczesnych grach sportowych mamy 60 klatek na sekundę (fpsów, z ang. frames per second), dlatego samouczenie się maszyn pozwala na edycję i wyświetlenie innej animacji 60 razy w ciągu sekundy, jeśli to konieczne.

Co więcej, jak sama nazwa wskazuje, maszyny same się uczą – czyli na podstawie wszystkich poprzednich i każdych kolejnych zagrań gracza lub komputera są w stanie w locie dobrać odpowiedniejszą (bardziej płynną, naturalną) animację ataku, obrony, zagrania, kopnięcia, rzutu, wślizgu, odegrania stałego elementu gry na boisku, itd.

Powracając do przykładu napastnika i bramkarza w sytuacji 1:1, w trakcie wślizgu bramkarza na piłkę, którą kontroluje napastnik, może dojść do wielu niespodziewanych rozwiązań akcji, szczęśliwych lub nie dla każdej z drużyn. Uczenie maszynowe dodaje 4000 nowych animacji w najnowszej odsłonie serii FIFA. Bez tak zaawansowanej technologii nie byłoby to możliwe nawet pomimo 4 lat produkcji gry. Prawdopodobnie nie przewidziano wyłącznie wbiegnięcia na boisko zbłąkanego kota lub szalonego kibica. Wszystkie inne scenariusze są prawdopodobne, tak jak w realnym meczu.

W rezultacie, co to dało? Dla graczy większe zróżnicowanie akcji i wyższy poziom realizmu, a dla developerów automatyzację procesów. Ostatecznie uczenie maszynowe zastąpiło człowieka w analizie i dobieraniu odpowiednich animacji w trakcie wirtualnego meczu. Algorytmy potrafią wybierać w locie odpowiednią animację spośród 8,7 miliona nagranych klatek. Zaoszczędziło to grupie deweloperów kilka lat żmudnej, ręcznej pracy.

Dowiedz się więcej o narzędziach do machine learningu: https://www.bpxglobal.com/solution/altair/altair-knowledge-studio/

Bibliografia:

Oryginalny artykuł znajdziesz tutaj.

The Qlik Academic Program

Czy wiesz, że… Qlik udostępnia ZA DARMO platformę Qlik Sense Business (Cloud) dla każdej Uczelni, która chce prowadzić zajęcia z tego systemu? 💥 Nazywa się to “𝗧𝗵𝗲 𝗤𝗹𝗶𝗸 𝗔𝗰𝗮𝗱𝗲𝗺𝗶𝗰 𝗣𝗿𝗼𝗴𝗿𝗮𝗺” . W Polsce dołączyło już 18 jednostek 🏫. Jak na blisko 350 uczelni to ciągle ułamek.

Wnioski o dostęp są rozpatrywane bardzo szybko. Sprawdziłem to na własnej skórze. W minioną sobotę stanąłem po drugiej stronie biurka w Wyższej Szkole Bankowej w Poznaniu. Dzięki temu mogliśmy wraz ze słuchaczami studiów podyplomowych z Inżynierii Danych poznać jeden z najnowocześniejszych systemów wizualizacji i przetwarzania danych na świecie 📊.

👩‍🎓 Studenci mogą przygotować projekt na zaliczenie, jak i przez kolejne 12 miesięcy dogłębnie poznać możliwości Qlika i zaproponować jego zastosowanie w swoich środowiskach pracy.

Prócz tego dostają dostęp do platformy e-learningowej. 🎓

Koszt dla 50 użytkowników, z licencją roczną QS Cloud to 18 000 USD, nie doliczając jeszcze e-learningu. W ramach programu nic nie płacisz!!

Jeden minus tych zajęć. Straciłem głos….😶 Doceniam jeszcze bardziej zatem każdy fach, który nim służy!

Jeśli pracujesz na uczelni lub jesteś studentem czy developerem, który planuje nieść kaganek oświaty Qlikowej – odezwij się, 𝐩𝐨𝐦𝐨𝐠ę 𝐂𝐢 𝐰𝐞 𝐰𝐝𝐫𝐨ż𝐞𝐧𝐢𝐮 𝐢 𝐤𝐨𝐧𝐟𝐢𝐠𝐮𝐫𝐚𝐜𝐣𝐢 𝐭𝐞𝐠𝐨 𝐏𝐫𝐨𝐠𝐫𝐚𝐦𝐮. 👈👈👈

WIĘCEJ: https://www.qlik.com/us/company/academic-program

ps. Na portalu LinkedIn zamieściłem taki sam wpis. DZIĘKI 💚 za każde polecenie 👍 i podzielenie się dalej tą informacją. Im więcej osób się dowie, tym większa szansa na popularyzację Qlika na naszym rodzimym rynku.

#QlikSzort – zmiana języka interfejsu Qlik Sense

Zapraszam na kolejny techniczny odcinek z Qlik szortów 🤠. Zmiana języka interfejsu Qlik Sense oraz QlikView.

Materiały powiązane:

Support Qlik – kody języków: https://support.qlik.com/articles/000019301

Aplikacja, którą prezentuję w tle nagrania, została opublikowana przez Patrica Nordströma (Director Product Management w Qliku) na stronie: https://community.qlik.com/t5/Documents/Top-10-Viz-tips-QlikWorld-2021-part-V/ta-p/1787570

#QlikSzort – funkcja DISTINCT

Po dłuższej przerwie wracam do technicznych Qlik szortów 🤠. Zapraszam na kwadransik z Qlikiem przy kawce ☕️. Dzisiaj z funkcją “DISTINCT” 🐥.

Materiały powiązane:

Music: https://freemusicarchive.org/music/Scott_Holmes/rock-background-music/basic-rock

Henric o Count distinct: https://community.qlik.com/t5/Qlik-Design-Blog/A-Myth-About-Count-distinct/ba-p/1476053

Test Roba – wielowątkowość: https://www.youtube.com/watch?v=8OklNn2VSs0

Support Qlika – jak zrobić distinct ale tylko w jednej tabeli: https://support.qlik.com/articles/000005541

To co nam daje radość, a firmie pieniądze

Tym razem dzielę się refleksją związaną po części z Qlikiem ale również szerzej ze światem BI.

Piszę z perspektywy osoby, która spędziła ponad 10 lat we wdrożeniach i rozwoju systemów Business Intelligence (dalej BI) dla kilkudziesięciu firm. Specyfika tych rozwiązań wymusza niejako na nas, developerach, nie tylko posiadania umiejętności programowania przepływu danych, rozumienia ich, układania w model połączeń, przygotowywania właściwych analiz, ale przede wszystkim ścisłej współpracy ze stroną odbiorcy, czyli z biznesem. Świat BI jest na tyle fajny (słowo użyte świadomie), że nie możemy ograniczyć naszej pracy tylko do jednego obszaru. Zazwyczaj taki “BI developer” to wdrożeniowy lub firmowy “magik”. Jego praca powinna przynosić pozytywny feedback. To daje nam poczucie, że tworzymy wartość. Fantastyczna sprawa, kiedy poniedziałkowy poranek nie dołuje, ale motywuje. Tyle słowem wstępu do podzielenia się pewną obserwacją, właśnie z poziomu mojej/naszej pracy BI-owej. W poniższej refleksji używam słowa RAPORT w odniesieniu do Excela, Power Pointa czy Worda a słowo ANALIZY do interaktywnych dashboardów w systemie Power BI, Qlik, Tableau itp.

BI DZIAŁA ?
Pierwszym odczuwalnym zwrotem z inwestycji w system BI powinna być redukcja czasu przygotowania raportów i analiz przez pracowników firmy. A czas to pieniądz.

Praktyka pokazuje jednak, że nie zawsze firmy skutecznie automatyzują proces pracy swoich pracowników, mimo wdrożonego systemu klasy BI.

Możliwe przyczyny:

PRACOWNICY NIE CHCĄ
Strach przed przeniesieniem swojego zakresu obowiązków, mniejsze poczucie stabilności zatrudnienia czy też utrzymanie statusu quo (tylko ona/on wie jak to przygotować = wąskie gardło, wspominał o tym ostatnio Przemek Blicharski na swoim profilu). Sytuacja zdarza się szczególnie w większych firmach. Pracownicy często przygotowują swoje raporty na podstawie istniejących już w systemie BI analiz. Wiedzą, że można to zautomatyzować by system wygenerował złożone z kilku innych zestawienie. Nie informują o tym swoich przełożonych bądź osoby odpowiedzialne za zarządzanie platformą BI. Od czasu do czasu spotykam się z sytuacją, gdy ktoś na “callu” prezentuje takie zestawienie przygotowywane ręcznie (w Excelu lub Power Poincie). Przyjmijmy czas przygotowania takiego raportu: 1 h / tydzień. W roku dla np. 40 aktywnych tygodni pracy (bez urlopu, świąt), będzie to 40 h. Dla pracodawcy jest to tydzień w roku do zastąpienie przez często minutowe przeładowanie danych. Tydzień pracownika na inne zadanie. Przy działach typu Controlling, Sprzedaż, Finanse – takie szacunki należałoby pomnożyć o wiele raportów.

Rola dobrego managera – niwelować wąskie gardła dostępu do danych zlecając automatyzację. Praktyczna wskazówka: prawie każde tworzenie Excela może być zautomatyzowane ! 🙂

PRACOWNICY NIE WIEDZĄ
Nieświadomość możliwości automatyzacji. Przykład z życia: pracownicy firmy produkcyjnej w każdym tygodniu informują mailowo inną grupę kilkudziesięciu dostawców o zmianach w systemie wraz z wygenerowaniem listy części, których ta zmiana dotyczy. Poświęcają wiele czasu by z systemów wyeksportować do Exceli zestawienia części. Muszą również znaleźć adresy mailowe do dostawców i ręcznie do każdego z osobna wysłać maila. Proces planowany jest na rok. Firma ma wdrożony system Qlik NPrinting do automatycznej wysyłki maili wraz z personalizacją załączników. Jednak pracownicy tego nie wiedzą. Developer BI przypadkiem (!) zauważa, że taka sytuacja ma miejsce. Widzi, że mamy tutaj obszar powtarzalności, są dane, potrafimy przygotować szablon Excelowy – czyli jest realna szansa automatyzacji. Czas przygotowania procesu od strony systemu BI to ok. 4 h. Efekt? Wiele wdzięczności i zaoszczędzonego czasu.

Rola dobrego managera – zdobywać informacje o istniejących możliwościach budowania procesu automatyzacji, rozpoznawać obszary ich użycia w swoim zespole.

DŁUGI PROCES
Walczymy o redukcję czasu pracownika, a drugiej strony samo wdrożenie nowej analizy może być czasochłonne z perspektywy pracy specjalisty BI. Da się to “odczuć” przy dużych wdrożeniach, przy skomplikowanej analizie wymagań, bądź przy braku wszystkich potrzebnych źródeł danych. Czas wdrożenia automatyzacji się wydłuża. Szczególnie kiedy w firmie brakuje ludzi do takiej pracy. Polski rynek BI również jest dość skromny w zasoby specjalistów (Power BI – troszkę więcej niż skromnie, Qlik – skromnie, Tableau – bardzo skromnie). Warto się szkolić, a kiedy trzeba skorzystać z usług firm posiadających takich konsultantów.

Rola dobrego managera – wyszukiwać w swoich zespołach “key userów”, którzy technicznie mogliby wspierać proces tworzenia nowych analiz. Języki skryptowe używane przez BI to nie języki skomplikowanego programowania. Tego da się nauczyć! 🙂 Taka osoba, która posiądzie wiedzę techniczną, wnosi również wiedzę biznesową, której my developerzy w takim stopniu nie posiadamy.

BE/BI MOTIVATED !
Dla mnie jako konsultanta/developera BI nic nie przynosi większego poczucia radości z wykonanej pracy jak pozytywny feedback od strony odbiorcy. Szczególnie jeśli udało się zautomatyzować złożony i czasochłonny proces przygotowania w kierunku analizy “LIVE” przez przeglądarkę z dostępem dla wielu osób. To “WOW” daje nam POWER! 🙂 My czekamy na takie zadania! Chcemy je realizować!

Jesteś managerem i masz takie osoby w swoim zasięgu? Wykorzystaj ten potencjał! Zwrot w postaci dodatkowego czasu dla pracowników to szybko odczuwalny zysk dla firmy.

Qlik World 10-12.05.2021

Koniecznie zarejestruj się na kolejną coroczną konfernecję Qlika! Rejestracja jest darmowa. Czeka na Ciebie ponad 100 sesji w tematach oferty Qlika, Clouda, integracji. Przejrzyj agendę (zachęcam by wyfiltrować interesujące parametry po lewej stronie):

https://www.qlik.com/qlikworld/sessions/breakout-sessions#/

Na tej liście znajdziesz również warsztaty. Jednak zapisać możesz się na nie tylko do 7 maja!

 

 

Zaproszenie na szkolenia – Piotr Bratek

Wynegocjowaliśmy z Mateuszem Morawieckim kolejny mniejszy-większy lockdown.
A skoro już siedzimy w domach, to zamiast przechodzić czwarty raz Wiedźmina i oglądać Netflixa (tym razem od tyłu), można zainwestować w siebie.

Skuteczniej niż w Bitcoina – bo cenna wiedza i umiejętności zostaną a kurs bitcoina … nie znosi umiaru.
Zapraszam na szkolenia QlikView i Qlik Sense.

QlikView
30-31.03.2021 – Wizualizacja Danych
21-23.03.2021 – Modelowanie Danych

Qlik Sense
07-08.04.2021 – Wizualizacja Danych
26-28.04.2021 – Modelowanie Danych

Piotr Bratek
# najbardziej doświadczony trener Qlik w Europie Środkowej
500 dni szkoleniowych w Europie,
650 dni doświadczenia szkleniowego na czterech kontynentach od São Paulo przez NYC, Toronto, Londyn aż po Stalową Wolę … Moskwę i Manillę
# historycznie jedyny oficjalny trener Qlik Eastern Europe (Top 5 globalnego rankingu trenerów Qlik w ostatnich dwóch latach)
# Miłośnik rolad, klusek i modrej kapusty, nieudolnie usiłujący policzyć w Qliku jak poskromić trzyletnie bliźniaczki