Jak najnowocześniejsza architektura machine learning może zwiększyć konwersje z rekomendacji produktów o 71%

Czy kiedykolwiek zastanawiałeś się, jak dokładnie sklepy e-commerce zarządzają rekomendacjami produktów? Wszystkie te znane bloki „ludzie również kupili” nie są wypełniane ręcznie. Są tworzone w czasie rzeczywistym przez skomplikowane algorytmy uczenia maszynowego.

Od lat marketerzy polegają na tych algorytmach, aby zwiększać sprzedaż i poprawiać doświadczenia klientów. I choć nieustannie się rozwijają, to jedno z najnowszych przełomowych osiągnięć w dziedzinie uczenia maszynowego może osiągnąć wyniki, które wydawały się niemożliwe jeszcze dekadę temu.

Jak działają tradycyjne metody

Przyjrzyjmy się bliżej, jak działa starsza generacja algorytmów uczenia maszynowego do rekomendacji produktów.

Systemy rekomendacji oparte na treści

Te systemy sugerują przedmioty podobne do tych, z którymi użytkownik wcześniej miał do czynienia. Analizuje atrybuty każdego przedmiotu i robi sugestie na podstawie wcześniejszych działań użytkownika. Przykładami atrybutów są rozmiar, kolor, marka, typ, kategoria itp. Na przykład, osoba przeglądała 5 różnych par sneakersów. System wykorzystuje te dane, aby polecić więcej opcji sneakersów.

Innym przykładem jest osoba, która kupiła spodnie dresowe, dres i sneakersy od tej samej marki. System nie może polegać na atrybucie kategorii, ponieważ wszystkie trzy elementy są różne. Ale ponieważ pochodzą one od tej samej marki, prawdopodobna rekomendacja to czapka ciężarówki od tego producenta.

Systemy oparte na treści są dość podstawowe w porównaniu z innymi podejściami, ponieważ nie mogą rekomendować niczego poza obecnymi zainteresowaniami użytkownika. Jednak mają swoje zastosowania.

Zalety:

Wady:

Systemy rekomendacji oparte na filtrowaniu kolaboracyjnym

Kolejnym popularnym podejściem do tworzenia rekomendacji jest filtrowanie kolaboracyjne. Metoda ta sugeruje odpowiednie przedmioty na podstawie preferencji innych użytkowników. Istnieją dwie główne gałęzie filtrowania kolaboracyjnego: oparte na użytkownikach i oparte na przedmiotach.

Filtrowanie kolaboracyjne oparte na użytkownikach modele znajdują użytkowników podobnych do naszego docelowego klienta i przyglądają się ich preferencjom oraz historii zakupów. System następnie przystępuje do rekomendacji przedmiotów preferowanych przez podobnych użytkowników.

Filtrowanie kolaboracyjne oparte na przedmiotach przesuwa uwagę z użytkowników na przedmioty. Bada ogromne ilości danych dotyczących interakcji, aby znaleźć powiązania między przedmiotami na podstawie tego, co inni użytkownicy oglądali lub kupili wcześniej razem. Na podstawie tych powiązań między przedmiotami przystępuje do rekomendacji podobnych przedmiotów dla naszego docelowego użytkownika.

Filtrowanie oparte na przedmiotach jest nieco zbliżone do rekomendacji opartych na treści, ponieważ oba podejścia szukają podobieństw między produktami. Jednak oparte na treści polega ściśle na wewnętrznych atrybutach każdego przedmiotu, podczas gdy filtrowanie kolaboracyjne oparte na przedmiotach również uwzględnia interakcje użytkowników z przedmiotami.

 

Filtrowanie kolaboratywne to potężna metoda, która jest obecnie szeroko stosowana, z oczywistych powodów.

Zalety:

Wady:

Hybrydowe systemy rekomendacyjne

Systemy hybrydowe wykorzystują jednocześnie wiele podejść, aby uzyskać lepsze wyniki, jednocześnie łagodząc słabości każdej indywidualnej metody. Najczęstszym sposobem tworzenia systemów hybrydowych jest połączenie metod opartych na zawartości i filtrowania kolaboratywnego.

Istnieje kilka różnych sposobów tworzenia systemów hybrydowych. Na przykład, system może generować rekomendacje poprzez różne podejścia, a następnie je łączyć. Inny sposób to przełączanie metod w zależności od sytuacji.

Zalety:

 Wady:

Podczas gdy wszystkie te podejścia mogą przynieść znaczące rezultaty, jedna metoda jest nie do pobicia pod względem dokładności.

Chcę dowiedzieć się więcej o rekomendacjach internetowych

Umów się na rozmowę

Transformatory - nowy sposób obsługi rekomendacji

Modele transformacyjne (które absolutnie nie są związane z serią popularnych figurek akcji produkowanych przez Hasbro) zmieniły świat AI. Transformatory zostały wprowadzone w 2017 roku przez Ashisha Vaswaniego i jego zespół w przełomowym artykule „Attention Is All You Need.”

W kolejnych latach transformatory stały się kamieniem węgielnym nowoczesnej technologii AI. W 2018 roku Google wprowadziło model BERT (Bidirectional Encoder Representations from Transformers), który wkrótce stał się częścią wyszukiwarki Google. Później OpenAI zaprezentowało swoje podejście do modeli transformacyjnych, GPT-2.

Jak działają transformatory?

Transformatory doskonale radzą sobie z danymi sekwencyjnymi, takimi jak przeglądane produkty, kliknięcia czy zakupy. Potrafią uchwycić złożone zależności i relacje wewnątrz tych sekwencji, umożliwiając modelowi zrozumienie kontekstu i znaczenia każdej interakcji.

Cały proces można z grubsza przedstawić w pięciu krokach:

Reprezentacja wejściowa: Interakcje użytkownika i cechy produktów są konwertowane na osadzenia.

Osadzenie

to dane przedstawione jako ciąg liczb, które zawierają informacje o produktach, interakcjach klientów i innych danych potrzebnych do stworzenia rekomendacji. Osadzenie jest w pewnym stopniu podobne do tablic danych. Jednak tablice danych zawierają informacje, które mogą być interpretowane przez ludzi (np. [koszula, M, biała]), podczas gdy dane w osadzeniu mają sens tylko dla systemów uczenia maszynowego (np. [0,12, -0,08, 0,45, ..., -0,34]).

Osadzanie pozycyjne: Są dodawane do osadzeń, aby zachować kolejność interakcji. Dzięki temu model wie, nie tylko jakie interakcje się wydarzyły, ale także w jakiej kolejności.

Mechanizm samouwagowy: To kluczowa część działania transformatorów. Pomaga modelowi skupić się na istotnych częściach sekwencji.

Samouwaga

to technika stosowana w modelach uczenia maszynowego, która pomaga im zrozumieć relacje pomiędzy różnymi częściami sekwencji. Analizuje całe wejście i znajduje, które jego części są ważniejsze. Załóżmy, że mamy produkt — iPhone 15 Pink 256 GB. Model przypisze większą wagę "iPhone" i "15", ponieważ są one ważniejsze dla przedstawienia produktu niż "Pink" czy "256 GB".

Warstwy transformatora: Reprezentacje produktów są udoskonalane poprzez uwzględnienie całej sekwencji i kontekstu, skutecznie uchwycając zależności między produktami, które nie są blisko siebie.

Predykcja: Po przetworzeniu wejścia przez warstwy transformatora, model wykorzystuje ulepszone zrozumienie do przewidywania kolejnego produktu w sekwencji interakcji użytkownika lub oceniania produktów do rekomendacji. 

Ta predykcja może być dostosowana do różnych zadań, takich jak określanie rankingu produktów czy generowanie list spersonalizowanych rekomendacji.

Zdolność do obsługi danych sekwencyjnych i uchwycenia złożonych wzorców w zachowaniach użytkowników sprawia, że modele oparte na transformatorach są szczególnie efektywne w zadaniach związanych z przewidywaniem kolejnej interakcji w sekwencji.

Zalety rekomendacji opartych na transformatorach

Rekomendacje oparte na transformatorach mają wiele zalet, które czynią je szczególnie odpowiednimi dla biznesów e-commerce. Przyjrzyjmy się im bliżej. 

Transformatory tworzą dokładniejsze prognozy

Najbardziej oczywistą zaletą tych rekomendacji jest ich dokładność. Użytkownicy mogą widzieć lepsze i bardziej trafne rekomendacje, co prowadzi do wielu pozytywnych rezultatów, takich jak wzrost sprzedaży, wyższe wskaźniki klikalności i lepsze doświadczenie klienta. 

Transformatory mogą analizować całą historię zakupów w sekwencji

Główną zaletą używania transformatorów do rekomendacji jest ich zdolność do postrzegania całej historii użytkownika jako sekwencji. Poprzednie metody nie posiadają tej zdolności i tworzą rekomendacje na podstawie poszczególnych punktów danych. Ich łączenie wymaga określonych technik, które nie zawsze są dokładne.

Na przykład, klient zakupił trzy różne książki o starożytnym Rzymie. Jedna to powieść osadzona w Cesarstwie Rzymskim. Druga to książka historyczna. Trzecia to biografia rzymskiego cesarza. Wszystkie trzy zostały napisane przez różnych autorów.

Poprzednie metody nie zauważą tej sekwencji tematów i mogą zasugerować inną książkę, jak biografię średniowiecznego króla lub książkę o historii starożytnej Grecji. Jednak model transformatora zauważy całą sekwencję i dokładnie przewidzi, że klient jest zainteresowany książkami konkretnie o Rzymie.

Transformatory lepiej radzą sobie z niepełnymi lub niespójnymi danymi

To ogromna korzyść dla każdej firmy, która nie poświęca wystarczająco dużo wysiłku na czyszczenie i utrzymanie swoich danych (np. kompletnych i ustandaryzowanych strumieni produktów).

Transformatory mogą obsługiwać nieuporządkowane lub niekompletne dane, korzystając z wcześniej wspomnianego mechanizmu samo-uwagi. Pozwala to modelowi na przyjrzenie się wszystkim częściom danych, które posiada, i określenie, które elementy są najważniejsze, nawet jeśli brakuje niektórych informacji.

To jak składanie puzzli, gdzie brakuje niektórych elementów—transformator nadal widzi cały obraz, koncentrując się na częściach, które mają znaczenie.

Kolejnym sposobem, w jaki transformatory to robią, jest rozumienie kontekstu danych. Na przykład, jeśli brakuje pewnych szczegółów w opisie produktu, model może użyć innych informacji, które posiada, aby dobrze zgadnąć, czego brakuje. Dzięki temu transformatory są elastyczne i potrafią pracować z różnorodnymi typami danych, nawet jeśli nie są one kompletne ani dobrze zorganizowane.

Mimo że transformatory są potężnym rozwiązaniem, mają kilka inherentnych słabości w porównaniu do innych podejść.

Wymagają dużej ilości zasobów. Obsługa systemu rekomendacji opartego na transformatorach wymaga znacznej mocy obliczeniowej i pamięci. Jeśli zdecydujesz się uruchomić własny system, przygotuj się na znaczące inwestycje w GPU i inną infrastrukturę serwerową, lub płacenie za usługi przetwarzania w chmurze.

Potrzebują dużej ilości danych. Choć transformatory mogą pracować z niespójnymi danymi, wciąż wymagają dużych zbiorów danych, aby w pełni wykorzystać swój potencjał. Dla mniejszych firm, które nie dysponują wystarczającą ilością danych o klientach, prostsze metody mogą być bardziej efektywne.

Są trudne do opracowania. Tworzenie rozwiązania opartego na transformatorach wymaga specjalistycznej wiedzy technicznej. Jak w przypadku każdej zaawansowanej technologii, brakuje specjalistów, którzy potrafią pracować z transformatorami. Dla większości firm stworzenie własnego rozwiązania wewnętrznego jest nierealne.

Chcę używać rekomendacji na mojej stronie internetowej

Wypróbuj teraz!

Jak działają rekomendacje oparte na transformatorach w Yespo

Jak widzieliście, transformatory to rzeczywiście potężny sposób na tworzenie rekomendacji produktów. Wcześniej używaliśmy metod hybrydowych opartych na filtrowaniu kolaboracyjnym i innych metodach. 

Jednak tutaj, w Yespo, dostrzegliśmy potencjał transformatorów, dlatego zdecydowaliśmy się opracować własne rozwiązanie z wykorzystaniem tej architektury.

Informacja

Od kwietnia 2024 roku ulepszyliśmy nasze modele transformatorów, łącząc je z technologią LLM (Large Language Model). LLM wykorzystuje zaawansowane zrozumienie języka przez AI do analizy zachowań użytkowników, preferencji oraz szczegółów produktów w niespotykanej dotąd głębokości.

To jeszcze bardziej zwiększyło dokładność rekomendacji produktów, oferując klientom bardziej trafne i spersonalizowane sugestie.

W okresie od maja do czerwca 2024 roku testowaliśmy ulepszone rekomendacje produktów dla kilku klientów Yespo CDP. Następnie porównaliśmy wyniki z danymi ze stycznia i lutego.

Zidentyfikowaliśmy trzy główne metryki do oceny:

Dnipro-M

Dnipro-M jest producentem i sprzedawcą narzędzi budowlanych. Jego udział w ukraińskim rynku sięga 30%. Firma jest także obecna w kilku krajach Europy Wschodniej, w tym w Czechach, Polsce i Mołdawii.

W czasie okresu testowego osiągnięto następujące wyniki:

CTR

+105%

Konwersje

+43%

Udział zamówień

+116%

MasterZoo

MasterZoo to wiodąca sieć sklepów zoologicznych na Ukrainie z ponad 200 lokalizacjami stacjonarnymi i dużym sklepem internetowym.

Osiągnięto następujące wyniki dzięki ulepszonym rekomendacjom:

CTR

+46%

Konwersje

+71%

Udział zamówień

+76%

Yakaboo

Yakaboo to jedna z największych ukraińskich księgarni internetowych. Założona w 2004 roku, oferuje książki w 71 językach.

Po teście osiągnięto następujące wyniki:

Konwersje

+10%

Udział zamówień

+126%

Wnioski

Transformatory to potężne narzędzie, które przy prawidłowym wdrożeniu mogą dostarczyć znakomite wyniki w zakresie spersonalizowanych rekomendacji produktów. Zrobienie tego samemu jest trudnym zadaniem, ale na szczęście my w Yespo już wykonaliśmy całą ciężką pracę za Ciebie.

Jeśli jesteś zainteresowany wypróbowaniem rekomendacji opartych na transformatorach w swojej firmie, wypełnij poniższy formularz, a skontaktujemy się z Tobą, aby omówić szczegóły!

Specjalne Żądanie Wbudowane

Zgodność z GDPR, CCPA, CASL. Twoje dane są u nas bezpieczne.