Big Data, czyli znaczenie wielkich ilości danych w transporcie

14.09.2017
Paweł Dżumaga - specjalista ds. wsparcia technicznego w Trans.eu. Od lat zajmuje się problematyką związaną z integracją oprogramowania oraz dostępu, przechowywania i analizy danych telematycznych. Entuzjasta nowych technologii, rozwiązań chmurowych oraz IoT. 

Big Data to ogromne zbiory danych, które nie mieszczą się na standardowych nośnikach, takich jak płyty CD/DVD czy dyski twarde. Cytując firmę analityczno - doradczą Gartner, Big Data to zbiory informacji o dużej objętości, dużej zmienności lub dużej różnorodności, które wymagają nowych form przetwarzania w celu wspomagania podejmowania decyzji, odkrywania nowych zjawisk oraz optymalizacji procesów. Po co takie zbiory tworzyć w transporcie?

Na początek - krótka historia*, która wydarzyła się naprawdę. Pewna młoda (nastoletnia) dama zaczęła otrzymywać od sieci supermarketów reklamy odzieży ciążowej i innych produktów dla przyszłych mam. Strasznie zdenerwowało to jej ojca - na tyle, że przybiegł do sklepu z awanturą i oskarżeniami o demoralizowanie córki. Bardzo szybko okazało się jednak, że sklep zna jego córkę lepiej, niż on sam. Jak to możliwe? Dzięki analizie zakupów dziewczyny. Sklep zbierał dane na temat swoich klientów, a na podstawie produktów, które kupowała nastolatka - były to głównie witaminy i balsamy do ciała - wyciągnięto wniosek, że spodziewa się ona dziecka. Wniosek okazał się trafny. Jeśli ta historia stanowi dla Ciebie dowód na to, że zbierane dane mogą być nieocenionym sprzymierzeńcem w biznesie, czytaj dalej.

W dzisiejszych czasach, w dobie postępującej automatyzacji, w każdym rodzaju działalności pracę przedsiębiorstwa wspomaga wiele różnych programów. Nie inaczej jest w firmach transportowych, nawet tych niewielkich. W branży TSL codzienną pracę logistyków wspierają:

  • giełdy transportowe do zdobywania zleceń,
  • programy do zarządzania i rozliczania czasu pracy kierowcy,
  • systemy lokalizacyjne i zarządzanie flotą pojazdów,
  • programy do fakturowania.

Pod względem technicznym programy te są od siebie niezależne. Połączenie informacji, których dostarczają, może dać jednak cenne wnioski, które trudno jest wyciągnąć bez szczegółówej analizy zależności między nimi. To jest właśnie wyzwanie dla systemów Big Data.

Big Data muszą łączyć dane pochodzące nie tylko z różnych programów służących do realizowania odpowiednich funkcji, ale także zapisujących dane w różny sposób (np. data w formacie europejskim 27.07.017 i amerykańskim 2017-07-27) i używających różnych wielkości (funty i kilogramy, stopy i centymetry).

Kiedy możemy mówić o Big Data?
 

Żeby można było mówić o Big Data, muszą zostać spełnione trzy warunki:

  1. Zbiór danych musi być duży. Najlepiej, jeśli jest także dostępny zdalnie (w tak zwanej chmurze, z możliwością podłączenia się do niej z zewnątrz).
  2. Dane muszą być analizowane. Samo zbieranie danych to za mało, dane muszą być przetwarzane na potrzeby wyciągania wniosków i tworzenia nowej wartości biznesowej.
  3. Musi istnieć archiwum - powinny tam trafiać dane pochodzące z różnych źródeł. Może to być dedykowane narzędzie, którego jedynym zadaniem jest zbieranie i możliwość analizy danych lub też rozszerzenie istniejących funkcji programu, który głównie realizuje inne zadania, np. zarządzanie czasem pracy lub giełda transportowa.

Utworzenie lub zebranie odpowiednio dużej ilości danych zazwyczaj jest ponad możliwości jednej firmy, nawet jeśli mówimy o sporych rozmiarów przedsiębiorstwie. Zadaniem i wyzwaniem dla systemów Big Data jest więc łączenie danych pochodzących nie tylko z różnych rodzajów usług, ale także od różnych firm z nich korzystających.

* źródło: silanawyku.blog.onet.pl