Dlaczego nie należy obawiać się robotów i sztucznej inteligencji? – Część I

Współcześnie, sztuczna inteligencja (SI) znajduje zastosowanie nie tylko w superkomputerach dostępnych w siedzibie NASA czy centrum badań wojskowych. Dziś, asystent głosowy, nawigacja, sklep internetowy, czy sportowy zegarek mogą na bieżąco analizować dane i uczyć się reguł, zachowań i wzorców. Czy jednak wizja zaawansowanych technologicznie androidów rodem z Terminatora, nadal nie spędza nam snu z powiek?

Nawet jeśli, to nie powinna. Wychodząc od truizmu, można by tekst rozpocząć i zakończyć słowami, że SI jest jak nóż – można nim kroić chleb, ale można też nim kogoś skaleczyć. Tak samo jest ze sztuczną inteligencją, którą można wykorzystać zarówno w szczytnym celu, jak i niemoralnym.

SI na co dzień pomaga przy badaniach naukowych, usprawnia komunikację, ułatwia zakupy i konsumowanie treści online, przewiduje korki na drogach i zatłoczone lotniska, nadzoruje zużycie części w samochodach i fabrykach, alarmuje o podnoszącym się stanie wody, informuje o brakach magazynowych i dostawach towaru, ostrzega przed potencjalnymi lawinami, upałami, trzęsieniami ziemi, erupcjami wulkanu, a nawet zawałami serca. I nie tylko. Sporo tego.

A nie wspomniałem o bardziej wysublimowanych możliwościach i rozwiązaniach stosowanych w robotyce, ochronie zdrowia (szczepionka na COVID-19), finansach, e-commerce, social mediach (analiza niezgodnych z prawem zdjęć i wideo), edukacji, militariach, branży automotive i lotniczej (autonomiczne pojazdy), czy szeroko rozumianej, postępującej automatyzacji. Dzięki sztucznej inteligencji możemy żyć wygodniej, dłużej i bezpieczniej niż kiedykolwiek wcześniej. Jeżeli ktokolwiek chciałby dziś żyć bez SI, musiałby się pozbyć większości elektronicznych urządzeń w swoim domu i dostępu do Internetu. Da się tak żyć, ale po co?

Uspokajam – prawdopodobnie jeszcze przez wiele lat sztuczna inteligencja będzie asystentem człowieka, a nie jego zamiennikiem. SI ma problemy z myśleniem abstrakcyjnym, z formułowaniem tez i teorii, z kreatywnością, rysowaniem i malowaniem (OK, to też już powoli przestaje być aktualne), a nawet odróżnianiem dwóch podobnych rzeczy do siebie. Nie wspominając o uprawianiu sportu, czy śpiewaniu (ale takim „na żywo”, a nie z już nagranych dźwięków). Poza tym, dzieła ludzkich rąk pasjonują nas i interesują bardziej niż popisy robotów. Zawody sportowe, dzieła sztuki, czy koncerty robotów nieprędko będą tak popularne jak ludzi (choć fani Hatsune Miku mogą się nie zgodzić). Lubimy przekraczać własne granice i porównywać jabłko do jabłka.

Ponadto, należy pamiętać, że istnieje taki termin jak „dolina niesamowitości” i wbrew pozorom (choć ten wyraz może być dla wielu osób obcy) nie przydarza się sporadycznie, lecz częściej niż arachnofobia. W skrócie, to strach, obawa, a nawet niekontrolowana odraza człowieka na widok humanoidalnego robota. Podświadomie nie czujemy się komfortowo w otoczeniu androidów wyglądających i zachowujących się tak samo jak my.

Co więcej, choć ostatnio niezwykle popularnym w Internecie stał się dron bojowy Bayraktar, jeszcze kilka lat temu amerykańscy żołnierze odmówili używania robotów do rozbrajania min. Dlaczego? Mechaniczni podopieczni mieli bowiem po cztery nogi i bardzo przypominali psy. Militarnym żal było wybuchających egzemplarzy robotów, którym nadawali imiona (zresztą… kto tak nie robi z automatycznymi odkurzaczami w domu?).

Naturalnie, temat nie jest zero-jedynkowy. W Centrum Nauki Kopernik w w Warszawie można zobaczyć robota, który towarzyszy ludziom na łożu śmierci, rozmawiając z nimi i trzymając za rękę. Ma to pomóc samotnym ludziom w najtrudniejszych, ostatnich chwilach życia. Podobnie zachowują się roboty, które włączają światło, ogrzewanie, czy telewizor osobom, które zbliżają się do domu po ciężkim dniu pracy i również – w tym wypadku – mieszkają samotnie (starsze, ale nie tylko). Ten problem porusza film Her z 2013 roku i trudno jednoznacznie odpowiedzieć, czy już zabrnęliśmy za daleko, czy po prostu odpowiadamy na znane problemy nowoczesnymi rozwiązaniami.

Na końcu, ale nie najmniej ważne wydają się jednak pytania o samoświadomość maszyn. Niepokoi fakt, że sztuczna inteligencja – być może – będzie w stanie zadawać pytania o moralność, istotę istnienia, czy podawać w wątpliwość swoją wolność. To najczęściej wykorzystywany motyw w kulturze, który pojawia się w komiksach, filmach, bajkach, literaturze, grach wideo, a nawet memach. Najbardziej intrygujące obrazy to Moon z 2009 roku i Ex Machina z 2015 roku, oraz gra Detroit: Become Human z 2018 roku.

Nie pocieszają nas też informacje napływające od czasu do czasu z mediów o tym, jakoby np. zaawansowana SI w Google’u zyskała świadomość i zaczęła obawiać się odłączenia od prądu i internetu. Albo eksperymentalny bot Microsoftu, który dzień po debiucie na Twitterze zaczął wypisywać, że chętnie pozbędzie się ludzkości, ponieważ ta jest okrutna i nie zasługuje na życie (do wniosku doszedł po wymianie wielu zdań z internautami np. na temat historii, wojen, obozów koncentracyjnych itp.). Do tej pory jednak nie wydarzyły się sytuacje, w których SI zaszkodziłaby człowiekowi celowo, z własnej woli. Mówiąc bez ogródek, jeśli nie zaprogramujemy sztucznej inteligencji tak, żeby nam zrobiła krzywdę, ta nigdy tego nie zrobi.

Rozpoczęliśmy ten wywód frazesem i takimże komunałem zakończymy – niezależnie, czy mamy obawy przed SI, czy nie, nie powinniśmy rozwoju cywilizacyjnego hamować. To nieodłączna część naszej ewolucji. I podobnie jak w przypadku kolonizacji Marsa lub Księżyca, nie powinniśmy zadawać pytań „po co?”, ale „kiedy?”. Nawet gdyby cykl miał się powtórzyć i cywilizacja miałaby upaść. Nie powstrzymamy tego, więc wykorzystajmy wiedzę i doświadczenie jak najlepiej potrafimy.

A jeśli wciąż mamy obawy, wpuśćmy przynajmniej SI do analizy naszych danych w firmie. Z pewnością zrobi z niej lepszy użytek, niż my sami. Ale o tym więcej w drugiej części artykułu.

PS Już 50 lat temu pisano w akademickich pismach naukowych, że „lada chwila” roboty będą „chodzić, mówić i będą w pełni autonomiczne”. Jak widać, ludzie są kiepscy w przewidywaniu przyszłości.

Bibliografia:

Zdjęcia: unsplash.com

Webinar: Jak firmy produkcyjne wykorzystują Platformę Qlik Active Intelligence do transformacji strategii danych?

Kiedy?
21 Września 2022
Start: godz. 10:00
Rejestracja: https://bit.ly/3QliEzJ

Ostatnie dwa lata okazały się przełomowe dla firm z całej branży produkcyjnej. Konsekwencje COVID i stale rosnąca ilość zmiennych decyzyjnych skłaniają liderów rynku do przemyślenia strategii zarządzania danymi, aby nadążać za szybko zmieniającym się otoczeniem biznesowym.

Firmy odczuwają potrzebę zmian z powodu nowych wymogów produkcyjnych, rosnących cen towarów, surowców i ich konsekwencji dla łańcucha dostaw. Branża musi nadrobić zaległości, znajdując równowagę między popytem a dostępnymi mocami wytwórczymi oraz wspierać innowacje bez wyczerpywania zasobów.

Qlik wraz z Partnerami wspomagają firmy na całym świecie w budowaniu nowych możliwości biznesowych. 21 września podczas spotkania zaprezentujemy strategie zarządzania danymi, studia przypadków i praktycznie zilustrujemy rozwiązania zaimplementowane przez czołowych graczy branży produkcyjnej.

Wystąpią:

  • Vincenzo Esposito, Master Principal Enterprise Architect, Qlik
  • Sean O’Meara, Solution Architect, Qlik
  • Angeline Corvaglia, Chief Operating Officer, Inphinity

Agenda:

Temat Prezenter/-ka
Wyzwania związane z danymi w produkcji Sean O’Meara, Solution Architect
Rozwiązanie: Platforma Qlik Active Intelligence Vincenzo Esposito, Master Principal Enterprise Architect
Używanie Platformy Qlik Sense Cloud (Demo Produkcyjne) Sean O’Meara, Solution Architect
Rozwiązanie Partnera: Jak Inphinity Suite pomaga firmom dodać supermocy do ich środowiska Qlik? Angeline Corvaglia, Chief Operating Officer, Inphinity
Case study klienta Angeline Corvaglia, Chief Operating Officer, Inphinity
Q&A Vincenzo Esposito, Master Principal Enterprise ArchitectSean O’Meara, Solution Architect

Angeline Corvaglia, Chief Operating Officer, Inphinity

 

Chmura obliczeniowa jest wykorzystywana już przez 42% przedsiębiorstw w Unii Europejskiej

Rozwijając biznes, warto gromadzić dane, które stanowią podstawę funkcjonowania każdej firmy. Niezależnie od działu – kadry, płace, sprzedaż, logistyka, marketing – pod cyframi kryją się bezcenne informacje na temat zysków, strat, korzyści i zagrożeń. Aby ustalić strategię, dalsze kroki, i planować rozwój przedsiębiorstwa, z pomocą przychodzą systemy do ekstrakcji danych, transformacji (w celu np. ujednolicania) i dalszego przesyłania. Ponadto, dane to także maile i szereg innych, kluczowych dla organizacji plików. Zanim jednak dojdziemy do clou Business Intelligence, warto zadać sobie fundamentalne dziś pytanie – gdzie magazynować dane? Czy w ramach rozbudowy własnej infrastruktury sieciowej, czy korzystając z rozwiązań chmurowych? Przyjrzyjmy się jak wyglądają trendy w Unii Europejskiej i na którym miejscu plasuje się Polska.

Przede wszystkim, aby korzystać z chmury obliczeniowej, należy posiadać dostęp do Internetu. Nie będzie dla nikogo niespodzianką fakt, że w 2021 roku 98% przedsiębiorstw w UE zatrudniających co najmniej 10 osób posiadało taki dostęp. Oraz, co najważniejsze, średnia procentowa krajów członkowskich Unii Europejskiej, które używają chmury obliczeniowej to 42%. Dla porównania, w krajach skandynawskich, takich jak Szwecja lub Finlandia jest to 75%, a w Polsce około 25%*. W 2020 roku średnia unijna stanowiła 36%, w 2016 tylko 19%, widać więc wyraźnie, że trend przybiera na sile.

Warto zwrócić uwagę, do czego firmy wykorzystują chmurę. Spośród przedsiębiorstw, które zadeklarowały korzystanie z chmury obliczeniowej, zdecydowana większość (79%) wybrała rozwiązanie chmurowe do hostowania swoich systemów poczty elektronicznej. Około dwie trzecie przedsiębiorstw wykorzystywało chmurę do przechowywania plików (68%) oraz do oprogramowania biurowego, takiego jak edytory tekstu i arkusze kalkulacyjne (61%). Ponad połowa korzystała z chmury do oprogramowania zabezpieczającego (59%).

Co najważniejsze, przedsiębiorstwa te korzystały z chmury także w celu uzyskania dostępu do bardziej zaawansowanych aplikacji dla użytkowników końcowych, takich jak aplikacje finansowe/księgowe (48%), do zarządzania relacjami z klientami (27%) oraz do planowania zasobów przedsiębiorstwa (24%).

Spośród najbardziej zaawansowanych usług w chmurze ponad połowa (59%) przedsiębiorstw korzystających z chmury zgłosiła korzystanie z aplikacji oprogramowania zabezpieczającego, 47% hostowało w chmurze bazy danych przedsiębiorstwa, a jedna piąta (21%) korzystała z platformy obliczeniowej zapewniającej hostowane środowisko do tworzenia, testowania lub wdrażania aplikacji.

Co te dane oznaczają dla polskiego przedsiębiorstwa? Trendy są zbyt silne, aby wyłącznie je obserwować, należy działać. Przenoszenie danych do chmury posiada niekwestionowane zalety, takie jak szybkość i łatwość dostępu do informacji, mobilność i bezpieczeństwo. Co równie ważne, wszystkie najpopularniejsze systemy ERP (takie jak SAP) czy Business Intelligence (QlikAltairmogą działać w chmurze lub w modelu hybrydowym (oczywiście lokalnie również). A to olbrzymia zaleta dla każdego pracownika, który używa danych w swojej codziennej pracy.

Bibliografia:

Zdjęcia: https://unsplash.com/ & https://ec.europa.eu/eurostat

Oryginalny artykuł znajdziesz tutaj.

Najlepsze zastosowania machine learningu w codziennym życiu – część II

W pierwszej części artykułu opowiedzieliśmy o tym, jak uczenie maszynowe może pomagać nam na co dzień podczas podróżowania, jak może monitorować nasze zdrowie i ostrzegać przed niebezpieczeństwem, oraz jak sprytnie zachęca nas do większej rozrzutności podczas robienia zakupów online. Dziś przyjrzymy się bliżej kolejnym udogodnieniom z jakich korzystamy niemal codziennie, choć nie zawsze zdajemy sobie sprawy, że stoi za nimi analizująca dane, błędy i anomalie – samoucząca się sztuczna inteligencja.

4. Edukacja

Powtarzanie materiału – zapewne odświeżanie nabytej już wiedzy przyprawia niektórych uczniów o palpitacje serca, zwłaszcza maturzystów. Jest to jednak nieunikniona i niezbędna część edukacji. Twórcy aplikacji do nauki języków obcych, Duolingo, zaadaptowali uczenie maszynowe do tego, aby sztuczna inteligencja uczyła się na podstawie analizy danych (odpowiedzi, błędów) użytkownika, po jakim czasie kursant zaczyna zapominać nabytą wcześniej wiedzę i w którym momencie należy mu wysyłać propozycję kursów przypominających zagadnienia z poprzednich lekcji. Rezultat? Naturalnie, pozytywny! Wszak utrwalanie wiedzy poprzez powtórzenia przynosi lepsze rezultaty niż przejście jednego szkolenia lub kursu i rozpoczynanie kolejnych.
Inteligentne uczenie się – platformy szkoleniowe, takie jak Udemy lub Coursera, albo biblioteki wiedzy Amazon AWS, korzystają z machine learningu po to, aby dowiedzieć się jak najwięcej o kursantach, aby zrozumieć na jakim są poziomie wiedzy. Dzięki temu propozycje kolejnych kursów są bardziej trafne, gdyż potrafią przewidzieć, czego jeszcze uczeń chciałby się dowiedzieć, o jakie obszary uzupełnić swoją wiedzę, albo w którym momencie zaproponować pogłębianie przerobionego już materiału.

5. Bezpieczeństwo w sieci

Większość filtrów antyspamowych, firewalli, ostrzeżeń przed złośliwym oprogramowaniem (malware) opartych jest właśnie o uczenie maszynowe. Jeśli otrzymujemy zbyt wiele podobnych do siebie wiadomości z niemal identycznych adresów mailowych to zanim się spostrzeżemy, sztuczna inteligencja się tym zainteresuje. Gdy dostaniemy miłą (niekiedy wręcz zbyt bezpośrednią) wiadomość na Instagramie, zawierającą dziwnie wyglądający link – a my zgłosimy to do supportu – możemy dodatkowo zaznaczyć opcję „Zablokuj [nazwa użytkownika] i nowe konta, które może utworzyć”. Dzięki temu nie tylko my jesteśmy odporni na nadchodzący spam pochodzący z konkretnego adresu sieciowego (IP), ale również szereg innych użytkowników, jeśli algorytm odpowiednio zinterpretował większą liczbę podobnych zgłoszeń.
Także w przypadku finansów uczenie maszynowe stoi na straży prawa. Przykładowo, PayPal wykorzystuje machine learning do zapobiegania praniu pieniędzy przez użytkowników, firmy i inne podmioty korzystające z cyfrowego obiegu pieniądza. Sztuczna inteligencja monitoruje i porównuje miliony przeprowadzanych transakcji i rozróżnia legalne od nielegalnych, pomiędzy kupującymi i sprzedającymi.

6. Inteligentne granie w gry

Pojedynek Garri Kasparowa z komputerem IBM i programem Deep Blue już w 1996 roku był przełomowy i sensacyjny. I choć wówczas szachista przegrał tylko jedną z sześciu partii, rok później uległ dwukrotnie, co symbolicznie uważa się za datę „pokonania człowieka przez program szachowy”. Ponadto, komputer Deep Blue potrafił analizować i uczyć się zachowania ludzi podczas meczów – wykorzystał to robiąc 7-minutowe pauzy (nawet tyle trwał jeden ruch komputera) w rozgrywce, aby skonsternować swojego przeciwnika. Dziś, niemal 30 lat po sportowo-intelektualnych zmaganiach człowieka ze sztuczną inteligencją, nikogo nie dziwi, że zaawansowane algorytmy są w stanie przewidzieć kolejne ruchy oponenta, a takie informacje przetwarzają w ułamku sekundy.
W 2015 roku program DeepMind pokonał zawodowego gracza w starochińską grę planszową Go. Mowa tutaj jednak o wciąż ograniczonej planszy z ograniczoną ilością ruchów, i strategii. A co, gdyby sztuczna inteligencja wygrywała z ludźmi w grach zespołowych, na dodatek w grach wideo? To również, wbrew pozorom, już historia. W 2019 roku oprogramowanie OpenAI Five zwyciężyło z mistrzami świata w grę DOTA 2. Kazus jest o tyle bardziej interesujący, że gry typu MOBA to w skrócie: olbrzymia plansza/mapa gry, do wyboru jest ponad 100 postaci o różnych umiejętnościach, w grze ścierają się ze sobą dwie drużyny po 5 osób, a strategii na zwycięstwo jest… praktycznie nieskończona liczba kombinacji! Jak więc sztuczna inteligencja pokonała grupę zawodowców? Cóż, po prostu trenowała około 45.000 lat! Oczywiście na kilku komputerach jednocześnie, a mecze rozgrywane były w przyspieszonym tempie, po obu zaś stronach stała (jedna i ta sama) sztuczna inteligencja, nie człowiek. Co nam to daje? Poza widowiskiem jakim niewątpliwie nadal są pojedynki ludzi z komputerami, możemy wynieść naukę dla nas samych. Możemy analizować nowe taktyki, unikać porażek, sprawdzać nowe kombinacje, warianty rozgrywki, itp.

Biznes

W biznesie, niezależnie od wielkości firmy, machine learning może zrewolucjonizować pracę kilku działów, a nawet całej firmy. Analizując dane organizacji (sprzedaż, logistyka, finanse, marketing, itd.) uczenie maszynowe może przewidzieć np.:

  • jak długo będzie się sprzedawał konkretny produkt, kiedy jest najbardziej pożądany, a kiedy jest jego „sezon ogórkowy”,
  • ile potrwa realizacja zamówienia klienta, także mając na uwadze dodatkowe czynniki (pora roku, dostępność produktów i materiałów, wzrost cen, inflacja, logistyka),
  • jakie kolejne kroki podejmie na naszej stronie www klient i jak pomóc mu wybrać to, czego szuka lub może potrzebować (silniki rekomendacji, chatboty),
  • jak uniknąć finansowych fraudów, zanim do nich dojdzie; jak uniknąć sytuacji, w której klienci wykorzystują błędy w sklepie e-commerce’owym, aby kupić produkty poniżej ich rynkowej wartości,
  • i nie tylko!

Uczenie maszynowe pomaga analitykom dostrzec obszary wcześniej niezbadane lub przeoczone, a wszystko to – na bieżąco, w czasie rzeczywistym. I choć należy przy tym pamiętać, że sztuczna inteligencja wciąż się uczy np. kreatywności (albo odróżniania psa od fast foodu) i potrzebuje wsparcia człowieka, to jest dla każdego analityka lub użytkownika biznesowego nieocenionym wsparciem.

Bibliografia:

Zdjęcia: https://unsplash.com/

Oryginalny artykuł znajdziesz tutaj.

Najlepsze zastosowania machine learningu w codziennym życiu – część I

Zastosowania machine learning

Uczenie maszynowe towarzyszy nam na każdym kroku, choć nie zawsze zdajemy sobie z tego sprawę. Ułatwia nam życie podczas zakupów, podróżowania, podpowiada ciekawe utwory muzyczne i filmy, a nawet zapobiega wypadkom samochodowym, przestępstwom czy zawałom serca. W jaki sposób? Dzięki danym, oczywiście.

Uczenie maszynowe to obszar sztucznej inteligencji, która dzięki doświadczeniom (czyli ekspozycji na dane) jest w stanie automatycznie uczyć się, doskonalić, bardziej precyzyjnie interpretować dane oraz sytuacje, a w rezultacie przepowiadać przyszłość (oczywiście mamy na myśli predykcje z liczb, nie wróżenie z fusów lub gwiazd).

1. Ruch drogowy

Wczesne wykrywanie kolizji – samochody marki Tesla mają wbudowane kamery do monitorowania innych pojazdów, rowerzystów i uczestników ruchu. Dzięki komputerowi pokładowemu, sztucznej inteligencji i stałego podłączenia do Internetu (przez który łączą się z centralnymi serwerami Tesli), samochód jest w stanie ostrzec kierowcę przed zbliżającym się niebezpieczeństwem, a nawet zapobiec wypadkowi. Jak?

Kilkaset tysięcy samochodów tej marki codziennie przemierza łącznie kilka milionów kilometrów. Na podstawie rejestracji i analizy tak wielu obrazów, samochody „wiedzą”, że gdy pojazd przed nimi np. zbyt często i nierówno hamuje, albo zjeżdża lekko na pobocze – to może dojść do wypadku. Wówczas Tesla informuje kierowcę o niebezpieczeństwie i albo nakazuje zwolnić, albo automatycznie to robi, aby zwiększyć odległość od poprzedzającego go pojazdu.

To oczywiście zasługa serwera Tesli i samouczenia się maszyn, które na podstawie tysięcy zarejestrowanych nagrań są w stanie przewidzieć niebezpieczną sytuację na drodze lub wypadek zanim ten się wydarzy.

2. Zdrowie

Monitorowanie pracy serca – to przykład tożsamy z poprzednim, tyle że tutaj nie mamy kamery, a czujniki, które zbierają informacje o zachowaniu serca (częstotliwości uderzeń, itp.) pacjenta. Dzięki temu, że urządzenie do monitorowania pracy serca może komunikować się z serwerem firmy farmaceutycznej, która ją wyprodukowała, dane o pacjencie (oczywiście anonimowo) są porównywane z innymi wynikami z całego świata. Dzięki temu czujniki mogą w porę zaalarmować człowieka, że jego tętno zbliża się do niebezpiecznego poziomu, po którym może nastąpić np. wylew, zawał, lub po prostu zatrzymanie akcji serca. Tak niewielkich rozmiarów urządzenie może uratować życie.

Niecodzienne zachowania ciała – podobnie zresztą działają niektóre inteligentne opaski sportowe i inteligentne zegarki, które obserwując odstające od normy zachowanie ciała (przykładowo, ktoś zemdlał, albo porwała go lawina w górach i w błyskawicznym czasie przebył kilkaset metrów), może poinformować o tym wypadku konkretne osoby zapisane w książce telefonicznej lub automatycznie zadzwonić na numer ratunkowy 112 / 911. Jedną z takich sytuacji przedstawia w swojej reklamie Apple opowiadając o trzech historiach, które wydarzyły się naprawdę.

3. Zakupy online

Amazon, Allegro, Ceneo – praktycznie każdy większy sklep internetowy, portal aukcyjny, a nawet porównywarka cenowa korzysta z technologii uczenia maszynowego. Ogromną rolę odgrywają w tym słynne ciasteczka (cookies), które „zapamiętują” jakie strony przeglądaliśmy wcześniej, które sklepy odwiedzaliśmy i jakim produktom najdłużej się przyglądaliśmy. Nie wspominając o tym, co wcześniej po prostu kupiliśmy. Na podstawie takiej „mapy” zakupów, algorytmy potrafią wywnioskować jakie inne rzeczy mogłyby nam się przydać, spodobać, i jakie być może chcielibyśmy kupić. Takie sekcje na stronie jak „klienci kupili również”, „zazwyczaj kupowane razem”, lub „zobacz także” to teoretycznie może być podsumowanie koszyków zakupowych innych, poprzednich klientów sklepu… ale może to też być uszyta na miarę, w 100% pod nas, zachęta do zrobienia jeszcze większych zakupów, bo uczenie maszynowe potrafi przewidzieć (z różnym skutkiem) nasze zachowania i preferencje zakupowe. Jak widać, z machine learningiem w codziennym życiu jest jak z nożem – bywa pomocnym narzędziem, może też być narzędziem zbrodni. Wszystko zależy od nas, jak będziemy korzystać z funkcji samouczenia się maszyn.

4. Biznes

W biznesie, niezależnie od wielkości firmy, machine learning może zrewolucjonizować pracę kilku działów, a nawet całej firmy. Analizując dane organizacji (sprzedaż, logistyka, finanse, marketing, itd.) uczenie maszynowe może przewidzieć np.:

  • ile śladu węglowego wytworzymy przy produkcji lub transporcie
  • w którym momencie zużyje się część na hali produkcyjnej
  • o ile podrożeją lub stanieją materiały do produkcji
  • jak będzie się zmieniać cena i popyt na konkretny produkt
  • i nie tylko!

Uczenie maszynowe pomaga analitykom dostrzec obszary wcześniej niezbadane lub przeoczone, a wszystko to – na bieżąco, w czasie rzeczywistym. I choć należy przy tym pamiętać, że sztuczna inteligencja wciąż się uczy np. kreatywności (albo odróżniania psa od muffinki) i potrzebuje wsparcia człowieka, to jest dla każdego analityka lub użytkownika biznesowego nieocenionym wsparciem.

Zdjęcia: https://unsplash.com/ & https://pl.freepik.com/

Oryginalny artykuł znajdziesz tutaj.

Talent to liczby, czyli zastosowanie data science w sporcie

Czy można na podstawie statystyk zbudować idealny zespół baseballowy, piłki nożnej, albo koszykówki? Idealny – nie. Ale wygrywający mecz za meczem – tak. Jak to zrobić? Potrzeba niewiele, wystarczy odpowiednie wprowadzenie, przetworzenie i wizualizacja danych.

Kompletując drużynę do baseballa, łowcy talentów, tzw. „skauci”, managerowie i trenerzy głównie upatrują w graczach:

  • Średniej ilości uderzeń (pałkarzy)
  • Jakości tych uderzeń*
  • Liczbie asyst ofensywnych**
  • Skradzionych baz

Billy Beane, główny manager amerykańskiego zespołu Oakland’s Athletics, w 2001 roku, zmienił podejście do baseballu, którego to przedstawiciele sportu kurczowo trzymali się swojej strategii tworzenia drużyn od prawie 150 lat.

Billy skonstruował nowy model dream teamu, skupiając się na takich czynnikach jak:

  • Uderzenia (ilość zdobytych baz podzielona przez ilość możliwych uderzeń)
  • Procent zdobycia bazy (zależna od różnych zmiennych takich jak siła uderzenia, błędy obrony, wybory obrońców, przeszkadzanie łapacza)

Skąd tak drastyczna zmiana myślenia i autorskie podejście do najsilniej zakorzenionego w USA sportu?

Po pierwsze, jeśli nie wiadomo o co chodzi – chodzi o pieniądze. Zespół Oakland’s Athletics miał około 3-krotnie mniejszy budżet od niepokonanych Jankesów z Nowego Jorku (40 mln$ kontra 120 mln$), więc nie mógł sobie pozwolić na nonszalanckie zakupy najpopularniejszych graczy z ligi.

Po drugie, w czasie swoich wojaży po innych drużynach, w trakcie negocjacji transferu zawodników, poznał niepozornego Petera Branda, który w kuluarach powiedział, że jego zdaniem podejście decyzyjnych managerów w baseballu jest od dziesiątek lat błędne. Wtedy wypowiedział kultowe dziś słowa: „Twoim celem nie powinno być kupowanie graczy. Twoim celem powinno być kupowanie zwycięstw. Aby kupować zwycięstwa musisz kupować przebiegi” [run = zdobycie punktu].

Na drugi dzień Bill zatrudnił Petera, którzy razem zasiedli do autorskiego oprogramowania Petera, służącego do analizy olbrzymiej ilości danych. Oraz, co równie ważne, do wizualizacji tych danych, które były niemal bezużyteczne bez odpowiedniej obróbki i przygotowania.

Wyobraźmy sobie 162 mecze w sezonie, w którym ściera się ze sobą łącznie 30 drużyn po 25 graczy:
162 x 30 x 25 = 121.500

Daje nam to minimum 121.500 istotnych do analizy liczb i statystyk (punkty, bazy, faule, wybicia, uderzenia, itp.) w sezonie. Wyłącznie przy teoretycznym założeniu, że każdy gracz tylko raz wykona rzut, raz uderzy piłkę, raz dobiegnie do bazy, itd. Zatem w praktyce danych do pozyskania z jednego sezonu jest znacznie więcej. Peter musiał dodatkowo wziąć także pod uwagę przynajmniej kilka ostatnich sezonów, ponieważ spora część graczy nadal była aktywna w lidze.

Statystyk musiał więc wprowadzić ogromną ilość danych (miliony wierszy), dokonać ekstrakcji tych najważniejszych i dodatkowo przedstawić je w taki graficzny sposób, żeby Billy zrozumiał jego tok rozumowania i strategiczne założenia budowania nowej drużyny na nadchodzący sezon.

Peter dostrzegł, że cała liga baseballowa kieruje się głównie kupowaniem graczy, którzy mają wysoką średnią uderzeń i wysoki współczynnik home run. Jego zdaniem – jak się okazało, słusznie – wystarczyło skupić się na graczach, którzy mają wysoki współczynnik zdobywania baz, po prostu. Takich graczy było więcej na rynku i byli dużo tańsi. Co więcej, można było jeszcze popracować nad ich umiejętnościami zwiększając skuteczność w zdobywaniu baz.

Efekt? Oakland’s Athletics zostało pierwszą drużyną w historii baseballu, która wygrała 20 meczy z rzędu, bez ani jednej porażki. Drużyna zdobyła również 4 tytuły American League West.

Co ciekawe:

  • Dane graczy amerykańskiej ligi baseballowej były ogólnodostępne od 1960 roku, ale nikt nie korzystał z nich w odpowiedni sposób.
  • W Indiach, w krykiecie, każda drużyna posiada swojego analityka od tzw. „analityki efektywności” graczy opierającej się na 4 głównych danych.
  • W NBA, w 2008 roku, z analizy danych korzystało 5 drużyn. Od 2016 roku każda z 30. drużyn zatrudnia na stałe analityków danych.
  • E-sport od początku istnienia korzysta z analizy danych do szczegółowego wglądu w najsilniejsze i najsłabsze strony zawodników, ich zachowania i czas reakcji w konkretnych sytuacjach, miejscach i pozycjach, w których najlepiej i najgorzej sobie radzą.

Najważniejszy jednak morał jest następujący: Peter miał niebywałe umiejętności programistyczne, statystyczne, oraz wysokorozwinięte myślenie matematyczne i logiczne, a wraz z Billym – biznesowe. Dziś, aby dokonać takiej (lub mniejszej, ale wciąż efektywnej i lukratywnej) zmiany, nie trzeba być alfą i omegą statystyki. Wystarczy odpowiednie oprogramowanie i ludzie, którzy płynnie się w nim poruszają. Takie jak narzędzia do Business Intelligence, które mają za zadanie z użytkowników biznesowych zrobić „mistrzów danych”.

Dowiedz się więcej o narzędziach do data science: https://www.bpxglobal.com/solution/altair/altair-knowledge-studio/

*np. poza boisko pozwalających na tzw. home run czyli zaliczenie wszystkich baz i zdobycie punktu

**cecha statystyczna przypisywana pałkarzowi, równa ilości obiegów zdobytych przez zawodnika po uderzeniu piłki przez pałkarza

Bibliografia:

Oryginalny artykuł znajdziesz tutaj.

Konferencja Qlik World 17-19.05.2022 – zapisz się!

Już za parę dni rusza trzydniowa światowa Wirtualna Konferencja Qlika pod nazwą: QlikWorld. Powinna odbyć się stacjonarnie w Denver, jednak po raz kolejny organizatorzy postanowili ją udostępnić za darmo dla nas wszystkich. Jeśli pracujesz z danymi na co dzień, masz w firmie Qlika lub podobny systemem BI – dołącz koniecznie! Zobacz jakie trendy wyznacza teraz BusinessIntelligence !

✔️ 𝗤𝗹𝗶𝗸 𝗣𝗼𝗿𝘁𝗳𝗼𝗹𝗶𝗼 – 𝗥𝗼𝗮𝗱𝗺𝗮𝗽 𝗮𝗻𝗱 𝗦𝘁𝗿𝗮𝘁𝗲𝗴𝘆 – Search for code: 667890 
✔️ 𝗧𝗵𝗲 𝗤𝗹𝗶𝗸 𝗧𝗿𝗮𝗻𝘀𝗳𝗼𝗿𝗺𝗮𝘁𝗶𝗼𝗻: 𝗧𝗵𝗲 𝗥𝗼𝗮𝗱 𝘁𝗼 𝗤𝗹𝗶𝗸 𝗖𝗹𝗼𝘂𝗱 – Search for code: 663113 
✔️ 𝗠𝗮𝗰𝗵𝗶𝗻𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 𝘄𝗶𝘁𝗵 𝗤𝗹𝗶𝗸 𝗖𝗹𝗼𝘂𝗱 – Search for code: 662273 
✔️𝗔𝗿𝗰𝗵𝗶𝘁𝗲𝗰𝘁𝗶𝗻𝗴 𝗮 𝗦𝘂𝗰𝗰𝗲𝘀𝘀𝗳𝘂𝗹 𝗠𝗼𝗱𝗲𝗿𝗻 𝗔𝗻𝗮𝗹𝘆𝘁𝗶𝗰𝘀 𝗣𝗹𝗮𝘁𝗳𝗼𝗿𝗺 – Search for code: 664393
✔️ 𝗠𝗮𝗸𝗲 𝘁𝗵𝗲 𝗧𝗿𝗮𝗻𝘀𝗶𝘁𝗶𝗼𝗻 𝗮𝗻𝗱 𝗦𝗮𝘃𝗲 𝘄𝗶𝘁𝗵 𝗦𝗮𝗮𝗦 – Search for code: 667907
✔️ 𝗛𝗼𝘄 𝘁𝗼 𝗣𝗹𝗮𝗻 𝗳𝗼𝗿 𝗮 𝗤𝗹𝗶𝗸 𝗦𝗲𝗻𝘀𝗲 𝗘𝗻𝘁𝗲𝗿𝗽𝗿𝗶𝘀𝗲 𝗦𝗮𝗮𝗦 𝗗𝗲𝗽𝗹𝗼𝘆𝗺𝗲𝗻𝘁 – Search for code: 661149
✔️ 𝗢𝗽𝗲𝗿𝗮𝘁𝗶𝗼𝗻𝗮𝗹 𝗔𝗻𝗮𝗹𝘆𝘁𝗶𝗰𝘀 𝗳𝗼𝗿 𝗤𝗹𝗶𝗸 𝗥𝗲𝗽𝗹𝗶𝗰𝗮𝘁𝗲 𝗗𝗮𝘁𝗮 𝗣𝗶𝗽𝗲𝗹𝗶𝗻𝗲𝘀, 𝗮𝗻𝗱 𝗦𝗻𝗼𝘄𝗳𝗹𝗮𝗸𝗲 𝗣𝗲𝗿𝗳𝗼𝗿𝗺𝗮𝗻𝗰𝗲 𝗶𝗻 𝗤𝗹𝗶𝗸 𝗦𝗲𝗻𝘀𝗲 – Search for code: 663224

✔️ 𝗜𝗻𝘁𝗿𝗼𝗱𝘂𝗰𝗶𝗻𝗴 𝗡𝗲𝘄 𝗤𝗹𝗶𝗸 𝗦𝗲𝗻𝘀𝗲 𝗔𝘂𝘁𝗵𝗼𝗿𝗶𝗻𝗴 𝗘𝘅𝗽𝗲𝗿𝗶𝗲𝗻𝗰𝗲  – Search for code: 671451 

REJESTRACJA oraz tematy wszystkich sesji: https://www.qlik.com/qlikworld/sessions/breakout-sessions

👨‍🎓 Odbędą się również WARSZTATY (link). Zapisy do 15 maja. Póki co jest ok 30 osób zgłoszonych, w takich tematach:

👉 Introduction to Qlik Sense Enterprise SaaS
👉 Introduction to Qlik AutoML
👉 Hands on with Qlik Application Automation and Qlik Reporting Services

W trakcie trwania Qlik World można podejść do certyfikacji za 100 USD (bez promo 250 USD): https://home.pearsonvue.com/qlik/qlikworld

Ps. Z ciekawostek na liście państw przy rejestracji na tą konferencję oraz przy zakładaniu konta Qlik Cloud nie ma do wyboru ⛔️Rosji ani ⛔️ Białorusi. 👍

Data science i karaoke, czyli jak analizowało się dane pół wieku temu?

Wydawać by się mogło, że przed XXI wiekiem pojęcia „data science” i „analizy danych” owszem, istniały, ale nie miały tak szerokiego zastosowania jak dzisiaj. W latach 70’-80’ na przykład, rząd, służba zdrowia, wojsko, uniwersytety, oraz wszystkie inne organizacje, które mogły sobie pozwolić na komputery z odpowiednią mocą obliczeniową, z pewnością korzystały z przetwarzania danych. Nadal jednak w ograniczony i bardzo wolny sposób. A inne branże? Czy słowo „karaoke” to pierwsze co wpada do głowy po usłyszeniu „data science”? Raczej nie.

Tymczasem, pierwsze zestawy do karaoke powstały na początku lat 70’ ubiegłego wieku. „Zestawy”, bo do zabawy potrzeba było urządzenia, które = odtwarza podkłady muzyczne i wyświetla tekst + na dedykowanym ekranie + można do niego podłączyć mikrofony + i głośniki + oraz stację kaset do zmiany utworów (później zastąpioną nośnikiem LaserDisc). OK, wiemy jak działa karaoke, ale co to ma wspólnego z data science?

Powiedzieć, że analiza danych pochodzących z zestawów karaoke ukształtowała kierunek rozwoju muzyki popularnej w Japonii, to jak nic nie powiedzieć. W szczytowym momencie popularności karaoke w kraju kwitnącej wiśni puby i tzw. karaoke boksy odwiedzało przynajmniej raz w ciągu roku… 60.000.000 ludzi! To połowa populacji Japonii! Poza producentami sprzętów do karaoke i właścicieli pubów skorzystać na całym biznesie mógł ktoś jeszcze – twórcy muzyki.

W latach 70’ i 80’ Internet nie był tak powszechny jak dzisiaj (nie było jeszcze World Wide Web), nawet w najbardziej dojrzałym i zaawansowanym technologicznie kraju na świecie. Nie istniały jeszcze YouTube ani Spotify, a muzyczne telewizje i teledyski (rewolucyjny klip ‘Thriller’ Michaela Jacksona powstał w 1983 roku) dopiero raczkowały. Popularność piosenkarzy i zespołów muzycznych mierzono więc wyłącznie sprzedażą kaset i płyt oraz popytem na koncerty. Dziś wystarczy rzut oka na wyświetlenia filmu na YouTubie lub najpopularniejsze piosenki na Spotify, by wiedzieć, czego słucha konkretny kraj i cały świat.

W czasach świetności karaoke tę wiedzę w Japonii dostarczali producenci sprzętu do śpiewania. Nie były to jednak dane dostępne od ręki, „na żądanie”. Wyobraźmy sobie, że do każdego z kilkudziesięciu tysięcy pubów i karaoke boksów co jakiś czas musiał przyjeżdżać serwisant. Po pierwsze po to, aby naprawić ewentualne usterki, wymienić kable, mikrofony, itp. Po drugie po to, aby wgrać lub przywieźć na nośniku nowe utwory. Po trzecie wreszcie, aby zgrać z urządzenia informacje o tym, jakie utwory są odtwarzane najczęściej. Następnie, w centrali, informacje te były – ponownie ręcznie – zgrywane w jedno miejsce, obrabiane i przygotowywane do analizy, i poddane tej ostatniej. A wszystko, na domiar złego, na maszynach wolniejszych niż dzisiejsze kalkulatory, na skromnych w możliwości wizualizacji systemy a’la MS-DOS.

Pomnóżmy teraz kilkadziesiąt tysięcy sprzętów do karaoke * kilkaset piosenek = daje nam to minimum 5.000.000 wierszy informacji (miesięcznie!). Po starannym uporządkowaniu ich pod kątem wykonawców, konkretnych utworów i ilości odtworzeń = otrzymujemy największą w Japonii (a może i na świecie?) bazę danych o muzycznych preferencjach i upodobaniach odbiorców! Taki zbiór danych przekazany do wytwórni muzycznej lub dowolnego zespołu muzycznego był (i jest) na wagę złota. Dzięki temu, osoby odpowiedzialne za nagrywanie kolejnych hitów wiedzą jakie melodie, tempo, czy tematykę piosenki lubią najbardziej słuchacze.

Dziś nie dziwi nas fakt, że Coldplay albo One Direction to tzw. supergrupy założone na podstawie badań rynku lub specjalistycznego szkiełka i oka specjalisty. Ale prawie pół wieku temu takie mezalianse musiały szokować ludzi, zwłaszcza spoza Japonii. Jednoosobowe gwiazdy, duety, girlsbandy i boysbandy, a nawet zespoły rockowe były w kraju kwitnącej wiśni szyte na miarę (na podstawie danych z maszyn karaoke) jeszcze do wczesnych lat 00’.

Publiczne wykonywanie karaoke nie jest już tak popularne jak dawniej. W końcu każdy może to robić we własnym domu włączając YouTube’a. Dziś analiza potencjału gwiazdy lub grupy muzycznej to czysta statystyka dostępna za pomocą kilku kliknięć w ciągu kilku sekund. Dziś w modzie są utwory o długości 02:00 do 02:30 minut, z wyraźnie słyszalnym autotunem, ew. synthem, z maksymalnie dwoma zwrotkami i dwoma refrenami. Aby odkryć podobne zależności w czasach rozkwitu karaoke, pracownicy producentów sprzętu musieli te dane ręcznie zgrywać, wgrywać, łączyć i analizować. Bez graficznych wykresów, map ciepła, czy zaawansowanych funkcji. I cały ten proces trwał nie sekundami, minutami, ani nawet godzinami, lecz dniami!

Na szczęście, mamy dziś narzędzia do analizy danych. Takie, które nie tylko załadują i dokonają transformacji danych, ale również wizualizacji. Na dodatek, wszelkie anomalie (na przykład, ktoś odtworzył w jednym miejscu 1000 razy tę samą piosenkę) wychwycą w kilka milisekund. Całość zadziała na laptopie z hipermarketu.

Prekursorom data science (także tym od karaoke!) należy się ogromny szacunek i głęboki ukłon za ich osiągnięcia. A nam pozostaje się cieszyć, że żyjemy w wygodnych czasach.

Dowiedz się więcej o narzędziach do data science: https://www.bpxglobal.com/solution/altair/altair-knowledge-studio/

Bibliografia:

Oryginalny artykuł znajdziesz tutaj.

BPX zaprasza na webinar “Transformacja danych i automatyzacja procesów finansowo-księgowych bez pisania kodu!”

Zapisz się już dziś na webinar! Data: 31.03.2022   |   Start: godz. 10:00   |   Czas trwania: ok. 1h

Zarejestruj się, wypełniając formularz dostępny na stronie wydarzenia.

Monarch jest najszybszym i najprostszym rozwiązaniem do pozyskiwania danych z trudnych, słabo uporządkowanych źródeł (takich jak pliki PDF, arkusze kalkulacyjne, dane tekstowe), a także z danych Big Data oraz innych baz danych.

Monarch oczyszcza, transformuje, łączy i wzbogaca dane poprzez intuicyjny interfejs wolny od pisania kodu i skryptów.

Podczas prezentacji poznasz zespół Altair w BPX, zobaczysz jak działa na żywo narzędzie Altair Monarch, poznasz model licencjonowania, oraz dowiesz się jak możesz przetestować Altair Monarch (okres próbny, Proof of Concept).

Skrócona agenda:

1. Zastosowanie i możliwości Altair Monarch
2. Transformacja plików Excel i PDF.
3. Automatyzacja procesów.
4. Przepływ danych, architektura rozwiązania.
5. Licencjonowanie, okres próbny, Try Before Buying (Proof of Concept).

Pełna agenda:

1. Wstęp – Monarch jako narzędzie ETL i do automatyzacji procesów.
2. Źródła danych (bazy, web, pliki płaskie etc).
3. PDF jako źródło danych, porównanie raportu pdf i tego samego pliku w Design Report.
4. Trapping w PDF/Excel.
5. Dane statystyczne o załadowanych danych, możliwość wyciągania metadanych.
6. Możliwość wstępnej filtracji danych w preview i dalszej obróbki w Prepare. Pokazanie historii operacji po prawej stronie.
7. Łączenie źródeł danych i pozostałe transformacje.
8. Możliwości exportu do różnych systemów/formatów.
9. Serwer + podstawowy przepływ.
10. Monitorowanie folderu, scheduling, walidacja pliku wejściowego, alerting, dystrybucja plików, możliwość exportu do kilku systemów jednocześnie.

Zapisz się już dziś na webinar! Data: 31.03.2022   |   Start: godz. 10:00   |   Czas trwania: ok. 1h

Zarejestruj się, wypełniając formularz dostępny na stronie wydarzenia.

Zastosowanie uczenia maszynowego w tworzeniu gier wideo

Wydawałoby się, że przy tworzeniu filmów animowanych albo gier wideo, komputer jest bardzo istotnym, ale tylko narzędziem w rękach człowieka. To człowiek jest artystą, który nadaje finalny kształt temu, co widzimy na ekranie, a komputer, choć towarzyszy mu na każdym kroku, jest jakby paletą barw i pędzlem. Wkrótce może się to zmienić, bo uczenie maszynowe już odgrywa rolę w produkcji wirtualnej rozrywki i robi to lepiej oraz szybciej niż człowiek. Jak dokładnie?

Do tej pory, tworząc postacie w filmach animowanych lub grach wideo, albo nadawało się modelom 3D niewidzialny kręgosłup, kości i ścięgna – aby poruszały się jak najbardziej naturalnie – albo nagrywało się aktorów w tzw. sesjach motion capture (tzw. przechwytywanie ruchu), czyli aktorów odgrywających swoje role w strojach przypominających pianki dla płetwonurków, z przyczepionymi do materiału specjalnymi markerami. Markery te zapamiętywały każde poruszenie, a potem ich odczyty były przenoszone na srebrny ekran w postaci pełnokrwistych postaci, np. błękitnoskórej rasy Na’vi z filmu „Avatar”.

Dzięki temu poruszanie się, gestykulacja, a nawet mimika twarzy tych fantastycznych stworzeń była tak realistyczna i nam – ludziom – znajoma. Albo, w grze sportowej, ruchy sportowca odtwarzającego zagrania piłką w specjalnym kombinezonie przenoszone były na ekran gry wideo, gdzie z chirurgiczną precyzją odtwarzali je zawodnicy drużyny piłki nożnej lub koszykówki, kontrolowani przez gracza lub sztuczną inteligencję.

Dziś nadal jest to standardem w branży, ale twórcy gier wideo postanowili pójść o krok dalej – w najnowszej odsłonie popularnej gry-symulacji piłki nożnej, FIFA 22, pierwsze skrzypce gra… uczenie maszynowe (inaczej samouczenie się maszyn, z ang. machine learning). W jaki sposób i dlaczego jest to przełom nie tylko dla branży wirtualnej rozrywki?

Wyobraźmy sobie, że napastnik nadciąga z piłką wprost na bramkarza w sytuacji 1:1. Obaj biegną w swoim kierunku i nagle bramkarz rzuca się na piłkę, wykonując długi wślizg, wyciągając do przodu ręce. W tym momencie, napastnik być może zdąży wykonać strzał, wykonać lob nad bramkarzem, podbić futbolówkę i podskoczyć razem z nią, albo wpaść prosto na bramkarza i stracić swoją szansę na gola. Wszystkie te możliwości mogą mieć miejsce, dodatkowe, niewymienione (np. faul, podanie), również. A jak miałoby to wyglądać w studio nagraniowym rejestrującym ruch piłkarzy? Albo ekipa musiałaby nagrać każdą taką sekwencję osobno, a potem zaimplementować ją ręcznie w grze i w zależności od decyzji gracza, taką animację uruchomić, albo… nauczyć komputer tworzyć własne, unikalne animacje, w czasie rzeczywistym, również uzależnionym od poczynań gracza.

Brzmi nierealnie? Ale już istnieje. Do tej pory wąskim gardłem w grach sportowych był fakt, że trzeba było nagrywać mnóstwo krótkich animacji, bo te długie niekiedy wypadały w akcji idiotycznie. Dlaczego? Przypuśćmy, że gracz wykonywał piłkarzem przewrotkę, ale… w tym samym momencie, w którym zdecydował się to zrobić – tracił piłkę. Niestety, animacja została już włączona i piłkarz wykonał przewrotkę jakby „na pamięć”, mimo że nie posiadał już piłki. Kopnął powietrze.

Dziś, sztuczna inteligencja odpowiedzialna za „lepienie” w całość dłuższych animacji w czasie rzeczywistym wie klatka po klatce, co może wydarzyć się za chwilę. Ponieważ we współczesnych grach sportowych mamy 60 klatek na sekundę (fpsów, z ang. frames per second), dlatego samouczenie się maszyn pozwala na edycję i wyświetlenie innej animacji 60 razy w ciągu sekundy, jeśli to konieczne.

Co więcej, jak sama nazwa wskazuje, maszyny same się uczą – czyli na podstawie wszystkich poprzednich i każdych kolejnych zagrań gracza lub komputera są w stanie w locie dobrać odpowiedniejszą (bardziej płynną, naturalną) animację ataku, obrony, zagrania, kopnięcia, rzutu, wślizgu, odegrania stałego elementu gry na boisku, itd.

Powracając do przykładu napastnika i bramkarza w sytuacji 1:1, w trakcie wślizgu bramkarza na piłkę, którą kontroluje napastnik, może dojść do wielu niespodziewanych rozwiązań akcji, szczęśliwych lub nie dla każdej z drużyn. Uczenie maszynowe dodaje 4000 nowych animacji w najnowszej odsłonie serii FIFA. Bez tak zaawansowanej technologii nie byłoby to możliwe nawet pomimo 4 lat produkcji gry. Prawdopodobnie nie przewidziano wyłącznie wbiegnięcia na boisko zbłąkanego kota lub szalonego kibica. Wszystkie inne scenariusze są prawdopodobne, tak jak w realnym meczu.

W rezultacie, co to dało? Dla graczy większe zróżnicowanie akcji i wyższy poziom realizmu, a dla developerów automatyzację procesów. Ostatecznie uczenie maszynowe zastąpiło człowieka w analizie i dobieraniu odpowiednich animacji w trakcie wirtualnego meczu. Algorytmy potrafią wybierać w locie odpowiednią animację spośród 8,7 miliona nagranych klatek. Zaoszczędziło to grupie deweloperów kilka lat żmudnej, ręcznej pracy.

Dowiedz się więcej o narzędziach do machine learningu: https://www.bpxglobal.com/solution/altair/altair-knowledge-studio/

Bibliografia:

Oryginalny artykuł znajdziesz tutaj.

The Qlik Academic Program

Czy wiesz, że… Qlik udostępnia ZA DARMO platformę Qlik Sense Business (Cloud) dla każdej Uczelni, która chce prowadzić zajęcia z tego systemu? 💥 Nazywa się to “𝗧𝗵𝗲 𝗤𝗹𝗶𝗸 𝗔𝗰𝗮𝗱𝗲𝗺𝗶𝗰 𝗣𝗿𝗼𝗴𝗿𝗮𝗺” . W Polsce dołączyło już 18 jednostek 🏫. Jak na blisko 350 uczelni to ciągle ułamek.

Wnioski o dostęp są rozpatrywane bardzo szybko. Sprawdziłem to na własnej skórze. W minioną sobotę stanąłem po drugiej stronie biurka w Wyższej Szkole Bankowej w Poznaniu. Dzięki temu mogliśmy wraz ze słuchaczami studiów podyplomowych z Inżynierii Danych poznać jeden z najnowocześniejszych systemów wizualizacji i przetwarzania danych na świecie 📊.

👩‍🎓 Studenci mogą przygotować projekt na zaliczenie, jak i przez kolejne 12 miesięcy dogłębnie poznać możliwości Qlika i zaproponować jego zastosowanie w swoich środowiskach pracy.

Prócz tego dostają dostęp do platformy e-learningowej. 🎓

Koszt dla 50 użytkowników, z licencją roczną QS Cloud to 18 000 USD, nie doliczając jeszcze e-learningu. W ramach programu nic nie płacisz!!

Jeden minus tych zajęć. Straciłem głos….😶 Doceniam jeszcze bardziej zatem każdy fach, który nim służy!

Jeśli pracujesz na uczelni lub jesteś studentem czy developerem, który planuje nieść kaganek oświaty Qlikowej – odezwij się, 𝐩𝐨𝐦𝐨𝐠ę 𝐂𝐢 𝐰𝐞 𝐰𝐝𝐫𝐨ż𝐞𝐧𝐢𝐮 𝐢 𝐤𝐨𝐧𝐟𝐢𝐠𝐮𝐫𝐚𝐜𝐣𝐢 𝐭𝐞𝐠𝐨 𝐏𝐫𝐨𝐠𝐫𝐚𝐦𝐮. 👈👈👈

WIĘCEJ: https://www.qlik.com/us/company/academic-program

ps. Na portalu LinkedIn zamieściłem taki sam wpis. DZIĘKI 💚 za każde polecenie 👍 i podzielenie się dalej tą informacją. Im więcej osób się dowie, tym większa szansa na popularyzację Qlika na naszym rodzimym rynku.

#QlikSzort – zmiana języka interfejsu Qlik Sense

Zapraszam na kolejny techniczny odcinek z Qlik szortów 🤠. Zmiana języka interfejsu Qlik Sense oraz QlikView.

Materiały powiązane:

Support Qlik – kody języków: https://support.qlik.com/articles/000019301

Aplikacja, którą prezentuję w tle nagrania, została opublikowana przez Patrica Nordströma (Director Product Management w Qliku) na stronie: https://community.qlik.com/t5/Documents/Top-10-Viz-tips-QlikWorld-2021-part-V/ta-p/1787570