Analityka predykcyjna (ang. Predictive Analytics; wymiennie stosuje się też pojęcia Data Mining lub Data Science) jest pojęciem nowym, ale stale zyskującym na znaczeniu w firmach posiadających duże bazy klientów. Poniżej prezentujemy przygotowane przez ekspertów Algolytics zestawienie najbardziej popularnych pojęć związanych z tą dziedziną.
Proces wydobywania informacji z istniejących zbiorów danych w celu określenia wzorów i przewidywania przyszłych zdarzeń i trendów. W działalności biznesowej modele i analizy predykcyjne są wykorzystywane do analizowania bieżących i historycznych danych w celu prognozowania zachowań konsumentów oraz identyfikacji potencjalnych zagrożeń i możliwości dla firmy.
Umożliwia porównywanie różnych wariantów oferty na podstawie użyteczności, z jaką wiążą się one dla klientów. Wynikiem analizy Conjoint jest dobór najlepszej kombinacji cech wybranego produktu / usługi. Analiza Conjoint może być używana do zarządzania linią produktów, ustalania cen itp.
Umożliwia określenie, na podstawie danych historycznych, z jakim prawdopodobieństwem wybrany klient zrezygnuje w danym momencie z naszych usług lub przejdzie do konkurencji; pozwala też określić, czyje odejście przyniesie firmie największe straty. Wyniki analizy są stosowane do przygotowywania nowych ofert dla wartościowych klientów zagrożonych odejściem.
Identyfikacja kombinacji produktów lub usług, które często współwystępują w transakcjach, na przykład produktów, które są często kupowane razem. Wyniki tej analizy są wykorzystywane przy rekomendacjach dodatkowych zakupów lub podejmowaniu decyzji o umieszczaniu danych produktów w swoim sąsiedztwie.
W kontekście biznesowym pozwala szacować czas korzystania przez klienta z oferowanej mu usługi i ocenia prawdopodobieństwo jego rezygnacji w kolejnych okresach czasu. Informacja ta pozwala firmie określić przewidywany okres utrzymania klienta i prowadzić odpowiednią politykę lojalnościową.
Modne i ostatnio często nadużywane hasło, ale też rzeczywisty trend w dzisiejszym świecie, odzwierciedlający rosnącą ilość danych, które są gromadzone, przetwarzane, agregowane, przechowywane i analizowane każdego dnia. Wikipedia opisuje Big Data jako zasoby danych tak duże, że nie da się ich przetwarzać przy użyciu tradycyjnych, powszechnie dostępnych metod.
Aplikacje, systemy, narzędzia lub procesy służące analizie danych i prezentacji informacji, które mają za zadanie wspierać kierownictwo firmy w podejmowaniu bardziej świadomych decyzji biznesowych.
Ocena zdolności kredytowej podmiotu (zwykle osoby fizycznej lub przedsiębiorstwa), stosowana przez banki (pożyczkodawców), w celu ustalenia, czy dana osoba będzie w stanie spłacać swoje zadłużenie.
Wspiera procesy decyzyjne dotyczące poprawy interakcji z klientami i zwiększenia ich wartości; CRM analityczny ma na celu przechowywanie, analizowanie i wykorzystywanie wiedzy o klientach oraz o sposobach skutecznego docierania do nich.
Podejście do sprzedaży oparte na zwiększaniu wartości klienta poprzez oferowanie kupującym dodatkowych produktów/usług (cross-selling) lub droższych produktów/usług tej samej kategorii (up-selling), biorąc pod uwagę cechy klientów i ich historie zakupów. Przykładem cross-selling jest oferowanie myszy przy zakupie laptopa, natomiast up-selling – oferowanie droższego modelu laptopa.
Dane, które nie posiadają zdefiniowanego modelu danych lub nie są zorganizowane w predefiniowany sposób. Zazwyczaj terminem tym określa się dane, których układ nie odpowiada się w naturalny sposób strukturze klasycznych tabel danych mających rzędy i wiersze. Dane tego rodzaju mają często charakter tekstowy.
Wyodrębniony logicznie zakres danych przechowywanych w organizacji, które koncentrują się na jednej tematyce, np. wspieraniu sprzedaży, tworzony w celu wsparcia decyzji w zakresie tej tematyki.
Centralne repozytorium integrujące dane gromadzone i wytwarzanie przez różne komórki danego podmiotu, w wyniku różnych procesów biznesowych.
Proces w hurtowni danych odpowiedzialny za pobranie danych z jednego źródła, przekształcenie ich w taki sposób, aby odpowiadały procesom, do których będą stosowane, a następnie załadowaniu ich do docelowej bazy danych.
Identyfikacja cech podejrzanych przelewów, zleceń lub innych nielegalnych działań oraz projektowanie odpowiednich progów alarmowych w systemach informatycznych, które automatycznie informują o próbach wykonania lub faktycznym zaistnieniu takich transakcji.
Skalowalna platforma programowa open-source do rozproszonego przechowywania i przetwarzania bardzo dużych zbiorów danych z wykorzystaniem istniejących zasobów sprzętowych.
Koncepcja sieciowego powiązania urządzeń elektronicznych różnego rodzaju (przedmioty osobiste, domowe, przemysłowe) i przeznaczenia (ochrona zdrowia, rozrywka, media, zakupy, produkcja, ochrona środowiska), wymieniających się danymi przez Internet i koordynujących wzajemnie swoje działanie.
Procesy i techniki związane z zapewnieniem rzetelności danych i wydajności ich wykorzystania. Dane są wysokiej jakości, jeżeli w sposób wiarygodny odzwierciedlają procesy biznesowe, których dotyczą, oraz pasują do zamierzonych zastosowań w działaniach operacyjnych, podejmowaniu decyzji i planowaniu.
Przewidywany zdyskontowany zysk dla firmy, jaki klient wygeneruje w ciągu całego okresu trwania relacji.
Narzędzia umożliwiające użytkownikowi tworzenie i przeglądanie raportów dotyczących odpowiednich zbiorów danych i analizowanie tych danych z różnych perspektyw.
Grupowanie klientów o podobnym profilu i zachowaniu na podstawie danych (demograficznych, behawioralnych i innych) posiadanych na ich temat oraz opis tak powstałych grup. Podział uniwersum nabywców na odpowiednią liczbę grup klientów możliwie do siebie podobnych wewnątrz segmentu i możliwie różnych od klientów z innych segmentów pozwala na planowanie i prowadzenie działań dopasowanych do potrzeb i cech różnych klientów, przy jednoczesnym ograniczeniu złożoności zarządzania takimi procesami.
Przetwarzanie i ocena danych w czasie rzeczywistym w celu podejmowania trafniejszych decyzji marketingowych lub sprzedażowych. Na przykład systemy RTD (systemy scoringowe) w bankach oceniają zdolność kredytową klientów i przyznają im tzw. rating w momencie interakcji z klientem.
Mapowanie i pomiar relacji/zależności i przepływów informacji pomiędzy osobami, grupami, organizacjami, komputerami i innymi podmiotami. SNA zapewnia zarówno wizualną, jak i liczbową analizę powiązań.
Analiza danych zawartych w tekstach języka naturalnego. Polega na definiowaniu i obliczaniu statystyk dla słów i zwrotów występujących w danych źródłowych, dzięki czemu struktura tekstu zostaje ujęta w kategoriach liczbowych, a następnie analizowaniu tych statystyk przy użyciu metod eksploracji danych.
Dyscyplina, która bada metody i algorytmy służące automatycznemu uczeniu się na podstawie danych, dzięki czemu systemy komputerowe dostosowują swoje działanie do informacji, które otrzymują. Pojęcie silnie związane z dziedzinami sztucznej inteligencji, eksploracji danych, metod statystycznych.
Wykorzystanie technik eksploracji danych do automatycznego wykrywania i wydobywania informacji ze stron internetowych.