Bezduszna logika algorytmów uwodzi biznes i flirtuje z nami, klientami

Dla wielu osób kierujących biznesem, pojęcie sztucznej inteligencji ciągle jest niejasne i rodzi poczucie, że wkraczają oni na obcy teren. Myślę, że znajomość podstawowych praw, które leżą u podłoża nowych technologii może dodać pewności każdemu, kto przymierza się do zwiększenia innowacyjności firmy.

blog Norbert Biedrzycki SpidersWeb logika algorytmow

Przedstawię w maksymalnie skondensowanej formie co jest technologicznym fundamentem, na którym rodzą się dzisiaj takie zjawiska, jak narodziny pojazdów autonomicznych, rekomendacje w trakcie zakupów internetowych, czy głosowe odpowiedzi asystentów urządzeń mobilnych. Czy logika algorytmów zabije ludzkie emocje?

Mój artykuł w Spider’s Web – link do artykułu.

Maszyna uczy się bez końca

Dwie podstawowe siły, które decydują o kluczowych procesach inteligentnych technologii, to: Machine Learning i Deep learning.

Machine Learning często definiowane jest jako silne wsparcie analityki predyktywnej i jest techniką z obszaru informatyki i modelowania statystycznego, która pozwala maszynie (aplikacji) na podstawie samodzielnej analizy i bez konieczności jej uprzedniego zaprogramowania na przewidzenie rezultatu działania i często wypracowanie i podjęcie samodzielnej decyzji.

Natomiast Deep Learning to jedna z odmian sztucznej inteligencji polegająca działaniach w oparciu o sieci neuronowe, których głównym zadaniem jest doskonalenie technik rozpoznawania głosu i przetwarzania naturalnego języka, czyli mocno upraszczając można potraktować jako sposób na automatyzację analiz predykcyjnych.

W wielkim skrócie są to techniki, które umożliwiają przetwarzanie olbrzymich zbiorów danych w oparciu o samouczenie się maszyn. Różnią się, jeśli chodzi o możliwości i zadania. Odsyłam do moich poprzednich artykułów na tematach tych technik do moich poprzednich artykułów.

Algorytmy stanowiące podstawę Machine Learning działają w oparciu o schemat, w którym komputer wykorzystuje sygnały wejściowe (dane) i podejmuje decyzje, co z nimi dalej robić – jak je grupować, klasyfikować, itd. W Machine Learning zawarte jest ważne ograniczenie – komputer, wykonując zadania, działa w ramach doświadczenia nadzorowanego.

Oznacza to, że kluczową rolę odgrywa tu ciągle człowiek, który „karmi” urządzenie porcjami informacji. Najpotężniejszy komputer świata IBM Watson nie mógłby osiągać mistrzowskich rezultatów, gdyby wcześniej nie został „nakarmiony” danymi przez ludzi lub gdyby ludzie nie wskazali mu źródeł danych, wiedzy.

Natomiast druga technika – Deep Learning, która odpowiada za rozpoznawanie głosu, przetwarzanie języka naturalnego, rozpoznawanie obrazów, to już jakościowo inny poziom. Przypomina ona operacje zachodzące w ludzkim mózgu. Komputer wykorzystuje do swoich działań sieci neuronowe, na które składają się grupy równolegle działających procesorów, zasilanych dużą ilością danych.

Po każdym nowym doświadczeniu komputera, który podejmuje się działania, połączenia między owymi procesorami i strumieniami informacji, którymi operują, czyli węzłami w wielkim uproszczeniu podlegają samo reorganizacji. Poziom celowości tych organizacji jest coraz doskonalszy, a tym samym, maszyna sprawniej reaguje na wyznaczone jej zadania.

Przyznam, że nie jest mi obce poczucie pewnej niesamowitości tych – wydawałoby się – czysto technicznych procesów. Korzystanie z historii własnych dokonań, doświadczenia zdobywane poprzez kontakt z ludźmi są zachowaniami maszyn, które nie przestają mnie zadziwiać.

Jak rozpoznać psa na zdjęciu?

Fakt, że komputery mogą coraz sprawniej rozwiązywać złożone problemy, dzięki pracy, którą dokonały wcześniej i kontaktom z ludźmi, skutkuje przełomem w rozwoju inteligentnych technologii. No dobrze, ale w jaki sposób przekłada się to wszystko na rynkową popularność takich, a nie innych trendów technologicznych? Kolejny raz można tu zauważyć pewną prostotę.

Machine Learning i Deep Learning dokonują analizy danych na kilka podstawowych sposobów, formułując samodzielnie lub przy pomocy człowieka zestaw reguł decyzyjnych. Najważniejsze z nich, to: analiza baz danych (podstawa BIG DATA), klasyfikacja obiektów (porządkowanie zdjęć na podstawie cech wspólnych), wykrywanie błędów (porównywanie obiektów i stanów, by wykryć prawdopodobieństwo wystąpienia zaburzeń), rekomendacje (na jej podstawie tworzone są sugestie zakupowe), optymalizacje (poszukiwanie najlepszej trasy dla samochodu).

Wszystko to, co dzisiaj dla konsumentów jest takie istotne, i co napędza innowacje biznesu, bazuje na tych kilku operacjach, które przybierają dobrze opakowaną formę.

Norbert Biedrzycki blog autonomiczne

Prawdziwie boska celowość

Opisane procesy – pod wpływem decyzji biznesowych, marketingowych, społecznych – z informatycznych abstrakcji, zmieniają się w konkretne innowacje. Jeśli więc algorytmy przetwarzające dane potrafią „przewidywać”, to logiczną konsekwencją tej zdolności stają się wdrożenia w e-commerce polegające na tym, że sklep podsuwa klientowi towar podobny do rzeczy kupowanych wcześniej.

Kolejny przykład: jeśli algorytmy potrafią klasyfikować dane ze względu na cechy wspólne, to będzie potrafił bezbłędnie rozpoznawać, czy na zdjęciu widać psa, czy samolot. A to z kolei nie może ujść uwadze właściciela portalu społecznościowego, który gromadzi miliardy fotografii użytkowników. W obrębie sztucznej inteligencji mamy więc do czynienia z pewną logiką i celowością.

Poniżej przyjrzę się trzem trendom, które – dzięki opisanym wyżej mechanizmom – będą utrwalać swoją popularność w świecie cyfrowego biznesu.

Algorytmy mogą eliminować błędy…

Wskazana wcześniej funkcja wykrywania błędów będzie coraz bardziej kluczowa, biorąc pod uwagę zarówno opinię publiczną, jak i popularność określonych trendów biznesowych. Kontrola i eliminacja anomalii mają szczególne znaczenie na takim obszarze, jakim jest Internet Rzeczy. Mam tu na myśli rosnącą popularność urządzeń działających w oparciu o sensory odpowiedzialne za pozyskiwanie danych z otoczenia.

Olbrzymia ilość zbieranych informacji, które pochodzą z naszych ulic, sklepów a nawet mieszkań (smart houses) oznacza bezdyskusyjne korzyści. Niesie jednak niebezpieczeństwo. Dla przeciętnego obywatela nieprawidłowości mogą oznaczać zarówno uciążliwości w życiu codziennym (awarie inteligentnych sprzętów), jak i budzić poczucie zagrożenia (szkodliwy monitoring wykorzystywanych w celach politycznych). Dla biznesu sprawa jest równie ważna.

Wystarczy wskazać na kwestię bezpieczeństwa, kluczową w przemyśle samochodowym i lotniczym. Sensory wykorzystywane są przy budowie silników lotniczych przetwarzają strumienie informacji, które powstają na bieżąco, w trakcie lotów. Eliminowanie potencjalnych błędów w obrębie tych procesów ma kolosalne znaczenie. Systemy czujników odpowiadają także za umiejętności samochodów autonomicznych. Eliminacja nieprawidłowości w danych zbieranych przez kamery i czujniki lidarowe ma kolosalny wpływ na dalszy rozwój trendu.

… i wiedzą, jak zaspokoić konsumenta…

Wykorzystanie opisanych wcześniej funkcji predykcyjnych (rekomendacje) to priorytet w e-commerce i handlu detalicznym. O tym jak ważna jest wartość mechanizmu automatycznych poleceń wiedzą dobrze takie koncerny jak Amazon, czy Netflix. One właśnie uczyniły z systemów predykcji globalną wartość biznesową i de facto wykreowały nowy standard zachowań przeciętnego klienta.

W najbliższych latach doświadczymy na obszarze e-commerce rozwoju technologii koncentrujących się na analizie głosu i mimiki klienta. Analizy, które mam na myśli będą wykorzystywane do trenowania botów – czyli cyfrowych asystentów zdolnych do coraz lepszego komunikowania się z nami przy użyciu języka naturalnego.

Dzisiaj, ciągle jeszcze niedoskonałe boty, będą konsekwentnie udoskonalać swoje umiejętności, by z czasem w pełni konkurować z kompetencjami pracowników call center. To one będą przedstawiać nam sugestie dotyczące interesujących nas produktów, zarezerwują nam wyjazd na wakacje, wskażą najkorzystniejszy kredyt i umówią z lekarzem.

… oraz rozumieją też potrzebę efektywności w biznesie

Umiejętności predykcyjne algorytmów mogę mieć kolosalny wpływ na istotną biznesową kategorię, jaką jest efektywność. Jej zwiększanie, to – jak wiemy – priorytet dla wielu zarządów, bez względu na branżę. Każda technologia, która pokazuje nam, że można lepiej wykorzystywać istniejące zasoby, wzbudza naturalne zainteresowanie biznesu.

Ta właśnie zdolność algorytmów umożliwia redukowanie kosztów i zwiększanie produktywności. Biorąc za przykład branżę transportową, algorytmy mogą tu przynieść mnóstwo korzyści. Szefowie firm transportowych nie przejdą obojętnie wobec faktu, że obserwacje kierowcy i pojazdu w czasie rzeczywistym, mogą prowadzić nawet do kilkunastoprocentowej redukcji kosztów.

Urządzenia śledzące reakcje kierowcy, pracę silnika, system postojów i przeszkody na drodze mogą sugerować, kiedy kierowca powinien przyśpieszać, a kiedy zwalniać, kiedy uzupełniać paliwo, a kiedy jechać dalej. Każda podjęta przez niego decyzja, która uwzględnia tego typu informacje, przełoży się na finansowe oszczędności.

Norbert Biedrzycki big data AI congres

Kto już potrafi to wszystko docenić?

McKinsey Global Institute w raporcie „Notes from the AI frontier: Applications and value of deep learning” analizuje, jakie branże mogą być najbardziej zainteresowane wdrożeniem opisywanych technologii i które potrafią zmieniać predykcję, rozpoznawanie obrazów, wyszukiwanie błędów w wartość biznesową. I tak, na pierwszym miejscu listy znajduje się dzisiaj handel detaliczny.

Czołowa pozycja jaką zajmuje nie dziwi, jeśli wziąć od uwagę fakt, jak olbrzymią ilością danych o klientach on dzisiaj dysponuje. Informacje o wieku, wykształceniu, pracy, dotychczasowych decyzjach zakupowych, pozwalają firmom zajmującym się handlem przenosić doświadczenia klienta na inny poziom. Łączenie informacji o kliencie, które zawarte są w jego historii zakupowej z treściami, które generuje on w mediach społecznościowych, staje się dzisiaj obowiązującym trendem w globalnym e-commerce.

W czołówce branż, które narzędzia sztucznej inteligencji doceniają najbardziej znajdziemy również wspomnianą już logistykę. Z kolei wysoką pozycję branży turystycznej i jej zaangażowanie w wykorzystywanie nowych technik można tłumaczyć kilku czynników. Śledzenie historii podróży klienta, analiza zdjęć, które udostępnia w przestrzeni wirtualnej dla biura turystycznego jest dzisiaj niezbędna, by utrzymać z nim kontakt, proponować mu nową ofertę, a tym samym utrzymywać rentowność biznesu.

Olbrzymia popularność geolokalizacji, aktywność podróżujących w mediach społecznościowych to dwa czynniki, które wpływają na znaczne przyrosty dostępnych danych, które są łakomym kąskiem dla branży.

Powyższe przykłady wskazują, że każda branża korzysta tak naprawdę z mieszanki różnorodnych funkcji algorytmicznych. Systemy rekomendacji, wykrywanie błędów, wyszukiwanie anomalii, planowanie najlepszych decyzji – dopiero w połączeniu ze sobą, mogą tworzyć technologiczną bazę, która decyduje o sukcesie danego biznesu.

Przeszkody, które musimy pokonać

McKinsey Global Institute wskazuje, że spośród wszystkich przebadanych firm, które zadeklarowały świadomość, że sztuczna inteligencja ma duże możliwości, zaledwie 20 procent podjęło kroki o jej adaptacji. Jest kilka hamujących czynników, które ciągle powodują, że w praktyce biznesowej nie wszystkie możliwości inteligentnych technologii mogą być od razu docenione i zaadaptowane.

Zacznę od kwestii dyskomfortu poznawczego, który skrótowo można zawrzeć w pytaniu: „dlaczego technologia sugeruje mi takie, a nie inne zachowanie. Jak do tego doszła”? Szybkość z jaką rosną możliwości procesorów nie przekłada się automatycznie na wzrost zaufanie u ludzi. I nie chodzi tu tylko o irracjonalne lęki przeciętnych obywateli.

Systemy regulacji i certyfikacji obecne dzisiaj w wielu gałęziach przemysłu są tak rozbudowane, że szybka akceptacja nawet najbardziej innowacyjnych rozwiązań, nie jest wszędzie możliwa. O ile marketing nie będzie miał problemów z szybkimi wdrożeniami, to medycyna, przemysł lotniczy, czy bankowość nie zrezygnuje z dnia na dzień ze sformalizowanych procedur kontrolnych i systemów certyfikacji.

Kolejne ograniczenie dotyka kwestii bezpieczeństwa. Przeżywamy kryzys, jeśli chodzi o refleksję na temat przetwarzania danych. Nie da się dzisiaj łatwo przekonać każdego z nas do tego, że systemy rozpoznawania twarzy nie robią krzywdy. Całe „przetwarzanie danych” jest dzisiaj pod uważną obserwacją, sztuczna inteligencja karmiąca się naszymi danymi, może więc odczuć na „własnej skórze” obawy ludzkiego gatunku.

Nie bez znaczenia są też oczywiście pieniądze. Decyzja o tym, że firma ma zainwestować w kosztowne systemy informatyczne, tworzenie działów zajmujących się nowymi danymi, zatrudnianie specjalistów musi mieć racjonalne i ekonomiczne uzasadnienie. A jak wiemy, szybkie wydawanie pieniędzy nie jest ulubionym zajęciem zarządów nawet najbardziej progresywnych przedsiębiorstw.

AI Conference TIME Norbert Biedrzycki

Dopasować wartości do potrzeb

Myślę, że kluczowym wyzwaniem dla współczesnych zarządów będzie rozpoznanie i nazwanie wszystkich wartości, jakie nowa technologia może przynieść. Nie chodzi przecież o nieustanny zachwyt nad globalnymi możliwościami sztucznej inteligencji. Liczy się dopasowanie jej możliwości do konkretnych potrzeb danej firmy. Samo hasło „sztuczna inteligencja” nie otwiera już automatycznie wszystkich drzwi.

Przedstawiciele start-upów i koncernów technologicznych muszą mieć świadomość specyfiki branży w jakiej działa klient, by zapewnić sobie możliwość prezentacji oferty. Jestem jednak przekonany, że dotychczasowy udział nowych technologii w rynkowych przemianach jest ciągle skromny. Co zresztą wcale nie jest pesymistyczną refleksją. Wręcz przeciwnie – rynek pozostaje szeroko otwarty na nowe możliwości.

Mój artykuł w Spider’s Web – link do artykułu.

Powiązane artykuły

– Kto zyska a kto straci na rewolucji cyfrowej?

– Sztuczna inteligencja to nowa elektryczność

– Roboty czekają na sędziów

– Tylko Bóg potrafi policzyć równie szybko, czyli świat komputerów kwantowych

– Machine Learning. Komputery nie są już niemowlętami

Skomentuj

7 comments

  1. Aaron Maklowsky

    Słyszałem gdzieś mniej więcej taki cytat: Gdyby teraz wymyślono żarówki to media powiedziałby że rzemieślnicy tworzący świece są zagrożeni. Myślę że świat albo się odnajdzie jak po rewolucji przemysłowej albo zapanuje skrajny kapitalizm, a bezdomni, bezrobotni będą umierali z głodu. Dlatego uważam że w przypadku masowej robotyzacji potrzebna jest większa redystrybucja dóbr(Ale nie komunizm)

  2. Mac McFisher

    Algorytmy nakarmione kiepskiej jakości danymi sieci neuronowe mogą m.in. dyskryminować ludzi, powielając społeczne stereotypy, albo też np. pokazywać błędne diagnozy, które nie są adekwatne do sytuacji i stanu pacjenta. Z kolei w przypadku sektora finansów coraz częściej stosowane przez banki systemy oparte na SI mogą nie udzielić komuś kredytu tylko przez to, że ta osoba mieszka w dzielnicy o stosunkowo niskim poziomie średnich dochodów

  3. Oskar 111

    Uczenie maszynowe i praca z bazującymi na nim narzędziami wymaga nabycia doświadczenia i wiedzy: nie można ślepo wierzyć we wszystkie raporty czy rekomendacje. Często jest tak, że dostarczane wnioski są w pewnym stopniu błędne lub niepełne. Z tego powodu, jeśli firma nie może sobie pozwolić na błąd, ML okazuje się niewłaściwym narzędziem do wykonywania niektórych zadań.

  4. TomekJacek

    Hamującym jest brak ludzi od wdrażania AI. System edukacji nie przewidział takiego obrotu spraw i wypluł za mało specjalistów od Systemów Inteligentnych. Nie tylko w Polsce ale i na świecie. Inna sprawa że to bardzo trudna specjalizacja

  5. Alibaba

    Rzeczy takie jak ML i AI nie są jakimś rodzajem futurystycznych wizji, to jest coś w czego posiadaniu już jesteśmy. To już znajduje się w produktach i usługach, z których korzystają ludzie na całym świecie. I dzieje się to na dwa sposoby. Jednym jest wzięcie czegoś i uczynienie tego znacznie lepszym: dla przykładu może to być coś tak dobrze nam znanego, jak wyszukiwarka Google, która kilka lat temu została znacząco usprawniona, właśnie poprzez wykorzystanie uczenia maszynowego.