Jak logika algorytmów uwodzi współczesny biznes

Korzystanie z historii własnych dokonań i przetwarzanie doświadczeń zdobywanych w kontakcie z ludźmi, to zachowania maszyn, które niezmiennie mi imponują. Dlatego z przyjemnością przyjrzę się logice technologii, dzięki której rodzą się masowe trendy biznesowe.

business logic algorithms Norbert Biedrzycki blog

Dla wielu osób kierujących biznesem, pojęcie sztucznej inteligencji ciągle jest niejasne i rodzi poczucie, że wkraczają oni na obcy teren. Myślę, że znajomość podstawowych praw, które leżą u podłoża nowych technologii może dodać pewności każdemu, kto przymierza się do zwiększenia innowacyjności firmy. Dlatego przedstawię (w maksymalnie skondensowanej formie) co jest technologicznym fundamentem, na którym rodzą się dzisiaj takie zjawiska, jak narodziny pojazdów autonomicznych, rekomendacje w trakcie zakupów internetowych, czy głosowe odpowiedzi asystentów urządzeń mobilnych. A wszystkim tym zarządza logika algorytmów.

Maszyna uczy się bez końca

Dwie podstawowe siły, które decydują o kluczowych procesach inteligentnych technologii, to: Machine Learning i Deep learning. Machine Learning często definiowane jest jako silne wsparcie analityki predyktywnej i jest techniką z obszaru informatyki i modelowania statystycznego, która pozwala maszynie (aplikacji) na podstawie samodzielnej analizy i bez konieczności jej uprzedniego zaprogramowania na przewidzenie rezultatu działania i często wypracowanie i podjęcie samodzielnej decyzji. Natomiast Deep Learning to jedna z odmian sztucznej inteligencji polegająca działaniach w oparciu o sieci neuronowe, których głównym zadaniem jest doskonalenie technik rozpoznawania głosu i przetwarzania naturalnego języka, czyli mocno upraszczając można potraktować jako sposób na automatyzację analiz predykcyjnych. 

W wielkim skrócie są to techniki, które umożliwiają przetwarzanie olbrzymich zbiorów danych w oparciu o samouczenie się maszyn. Różnią się, jeśli chodzi o możliwości i zadania. Odsyłam do moich poprzednich artykułów na tematach tych technik do moich poprzednich artykułów.

Algorytmy stanowiące podstawę Machine Learning działają w oparciu o schemat, w którym komputer wykorzystuje sygnały wejściowe (dane) i podejmuje decyzje, co z nimi dalej robić – jak je grupować, klasyfikować, itd.  W Machine Learning zawarte jest ważne ograniczenie – komputer, wykonując zadania, działa w ramach doświadczenia nadzorowanego. Oznacza to, że kluczową rolę odgrywa tu ciągle człowiek, który „karmi” urządzenie porcjami informacji. Najpotężniejszy komputer świata IBM Watson nie mógłby osiągać mistrzowskich rezultatów, gdyby wcześniej nie został „nakarmiony” danymi przez ludzi lub gdyby ludzie nie wskazali mu źródeł danych, wiedzy. 

Natomiast druga technika – Deep Learning, która odpowiada za rozpoznawanie głosu, przetwarzanie języka naturalnego, rozpoznawanie obrazów, to już jakościowo inny poziom. Przypomina ona operacje zachodzące w ludzkim mózgu. Komputer wykorzystuje do swoich działań sieci neuronowe, na które składają się grupy równolegle działających procesorów, zasilanych dużą ilością danych. Po każdym nowym doświadczeniu komputera, który podejmuje się działania, połączenia między owymi procesorami i strumieniami informacji, którymi operują, czyli węzłami w wielkim uproszczeniu podlegają samo reorganizacji. Poziom celowości tych organizacji jest coraz doskonalszy, a tym samym, maszyna sprawniej reaguje na wyznaczone jej zadania.

Przyznam, że nie jest mi obce poczucie pewnej niesamowitości tych – wydawałoby się –  czysto technicznych procesów. Korzystanie z historii własnych dokonań, doświadczenia zdobywane poprzez kontakt z ludźmi są zachowaniami maszyn, które nie przestają mnie zadziwiać.

Jak rozpoznać psa na zdjęciu?

Fakt, że komputery mogą coraz sprawniej rozwiązywać złożone problemy, dzięki pracy, którą dokonały wcześniej i kontaktom z ludźmi, skutkuje przełomem w rozwoju inteligentnych technologii. No dobrze, ale w jaki sposób przekłada się to wszystko na rynkową popularność takich, a nie innych trendów technologicznych?  Kolejny raz można tu zauważyć pewną prostotę.  Machine Learning i Deep Learning dokonują analizy danych na kilka podstawowych sposobów, formułując samodzielnie lub przy pomocy człowieka zestaw reguł decyzyjnych. Najważniejsze z nich, to: analiza baz danych (podstawa BIG DATA), klasyfikacja obiektów (porządkowanie zdjęć na podstawie cech wspólnych), wykrywanie błędów (porównywanie obiektów i stanów, by wykryć prawdopodobieństwo wystąpienia zaburzeń), rekomendacje (na jej podstawie tworzone są sugestie zakupowe), optymalizacje (poszukiwanie najlepszej trasy dla samochodu). Wszystko to, co dzisiaj dla konsumentów jest takie istotne, i co napędza innowacje biznesu, bazuje na tych kilku operacjach, które przybierają dobrze opakowaną formę.

Prawdziwie boska celowość

Opisane procesy – pod wpływem decyzji biznesowych, marketingowych, społecznych – z informatycznych abstrakcji, zmieniają się w konkretne innowacje. Jeśli więc algorytmy przetwarzające dane potrafią „przewidywać”, to logiczną konsekwencją tej zdolności stają się wdrożenia w e-commerce polegające na tym, że sklep podsuwa klientowi towar podobny do rzeczy kupowanych wcześniej. Kolejny przykład: jeśli algorytmy potrafią klasyfikować dane ze względu na cechy wspólne, to będzie potrafił bezbłędnie rozpoznawać, czy na zdjęciu widać psa, czy samolot. A to z kolei nie może ujść uwadze właściciela portalu społecznościowego, który gromadzi miliardy fotografii użytkowników. W obrębie sztucznej inteligencji mamy więc do czynienia z pewną logiką i celowością.

Poniżej przyjrzę się trzem trendom, które – dzięki opisanym wyżej mechanizmom – będą utrwalać swoją popularność w świecie cyfrowego biznesu.

business logic algorithms Norbert Biedrzycki blog 1

Logika algorytmów która pomoże eliminować błędy…

Wskazana wcześniej funkcja wykrywania błędów będzie coraz bardziej kluczowa, biorąc pod uwagę zarówno opinię publiczną, jak i popularność określonych trendów biznesowych. Kontrola i eliminacja anomalii mają szczególne znaczenie na takim obszarze, jakim jest Internet Rzeczy. Mam tu na myśli rosnącą popularność urządzeń działających w oparciu o sensory odpowiedzialne za pozyskiwanie danych z otoczenia. Olbrzymia ilość zbieranych informacji, które pochodzą z naszych ulic, sklepów a nawet mieszkań (smart houses) oznacza bezdyskusyjne korzyści. Niesie jednak niebezpieczeństwo. Dla przeciętnego obywatela nieprawidłowości mogą oznaczać zarówno uciążliwości w życiu codziennym (awarie inteligentnych sprzętów), jak i budzić poczucie zagrożenia (szkodliwy monitoring wykorzystywanych w celach politycznych). Dla biznesu sprawa jest równie ważna. Wystarczy wskazać na kwestię bezpieczeństwa, kluczową w przemyśle samochodowym i lotniczym. Sensory wykorzystywane są przy budowie silników lotniczych przetwarzają strumienie informacji, które powstają na bieżąco, w trakcie lotów. Eliminowanie potencjalnych błędów w obrębie tych procesów ma kolosalne znaczenie. Systemy czujników odpowiadają także za umiejętności samochodów autonomicznych. Eliminacja nieprawidłowości w danych zbieranych przez kamery i czujniki lidarowe ma kolosalny wpływ na dalszy rozwój trendu.

… i wiedzą, jak zaspokoić konsumenta…

Wykorzystanie opisanych wcześniej funkcji predykcyjnych (rekomendacje) to priorytet w e-commerce i handlu detalicznym. O tym jak ważna jest wartość mechanizmu automatycznych poleceń wiedzą dobrze takie koncerny jak Amazon, czy Netflix. One właśnie uczyniły z systemów predykcji globalną wartość biznesową i de facto wykreowały nowy standard zachowań przeciętnego klienta.

W najbliższych latach doświadczymy na obszarze e-commerce rozwoju technologii koncentrujących się na analizie głosu i mimiki klienta. Analizy, które mam na myśli będą wykorzystywane do trenowania botów – czyli cyfrowych asystentów zdolnych do coraz lepszego komunikowania się z nami przy użyciu języka naturalnego. Dzisiaj, ciągle jeszcze niedoskonałe boty, będą konsekwentnie udoskonalać swoje umiejętności, by z czasem w pełni konkurować z kompetencjami pracowników call center. To one będą przedstawiać nam sugestie dotyczące interesujących nas produktów, zarezerwują nam wyjazd na wakacje, wskażą najkorzystniejszy kredyt i umówią z lekarzem.

… oraz ozumieją też potrzebę efektywności w biznesie

Umiejętności predykcyjne algorytmów mogę mieć kolosalny wpływ na istotną biznesową kategorię, jaką jest efektywność. Jej zwiększanie, to – jak wiemy –  priorytet dla wielu zarządów, bez względu na branżę. Każda technologia, która pokazuje nam, że można lepiej wykorzystywać istniejące zasoby, wzbudza naturalne zainteresowanie biznesu.  Ta właśnie zdolność algorytmów umożliwia redukowanie kosztów i zwiększanie produktywności. Biorąc za przykład branżę transportową, algorytmy mogą tu przynieść mnóstwo korzyści. Szefowie firm transportowych nie przejdą obojętnie wobec faktu, że obserwacje kierowcy i pojazdu w czasie rzeczywistym, mogą prowadzić nawet do kilkunastoprocentowej redukcji kosztów. Urządzenia śledzące reakcje kierowcy, pracę silnika, system postojów i przeszkody na drodze mogą sugerować, kiedy kierowca powinien przyśpieszać, a kiedy zwalniać, kiedy uzupełniać paliwo, a kiedy jechać dalej. Każda podjęta przez niego decyzja, która uwzględnia tego typu informacje, przełoży się na finansowe oszczędności.

Kto już potrafi to wszystko docenić?

McKinsey Global Institute w raporcie „Notes from the AI frontier: Applications and value of deep learning” analizuje, jakie branże mogą być najbardziej zainteresowane wdrożeniem opisywanych technologii i które potrafią zmieniać predykcję, rozpoznawanie obrazów, wyszukiwanie błędów w wartość biznesową. I tak, na pierwszym miejscu listy znajduje się dzisiaj handel detaliczny. Czołowa pozycja jaką zajmuje nie dziwi, jeśli wziąć od uwagę fakt, jak olbrzymią ilością danych o klientach on dzisiaj dysponuje. Informacje o wieku, wykształceniu, pracy, dotychczasowych decyzjach zakupowych, pozwalają firmom zajmującym się handlem przenosić doświadczenia klienta na inny poziom. Łączenie informacji o kliencie, które zawarte są w jego historii zakupowej z treściami, które generuje on w mediach społecznościowych, staje się dzisiaj obowiązującym trendem w globalnym e-commerce. W czołówce branż, które narzędzia sztucznej inteligencji doceniają najbardziej znajdziemy również wspomnianą już logistykę. Z kolei wysoką pozycję branży turystycznej i jej zaangażowanie w wykorzystywanie nowych technik można tłumaczyć kilku czynników. Śledzenie historii podróży klienta, analiza zdjęć, które udostępnia w przestrzeni wirtualnej dla biura turystycznego jest dzisiaj niezbędna, by utrzymać z nim kontakt, proponować mu nową ofertę, a tym samym utrzymywać rentowność biznesu. Olbrzymia popularność geolokalizacji, aktywność podróżujących w mediach społecznościowych to dwa czynniki, które wpływają na znaczne przyrosty dostępnych danych, które są łakomym kąskiem dla branży.

Powyższe przykłady wskazują, że każda branża korzysta tak naprawdę z mieszanki różnorodnych funkcji algorytmicznych. Systemy rekomendacji, wykrywanie błędów, wyszukiwanie anomalii, planowanie najlepszych decyzji – dopiero w połączeniu ze sobą, mogą tworzyć technologiczną bazę, która decyduje o sukcesie danego biznesu.

Przeszkody, które musimy pokonać

McKinsey Global Institute wskazuje, że spośród wszystkich przebadanych firm, które zadeklarowały świadomość, że sztuczna inteligencja ma duże możliwości, zaledwie 20 procent podjęło kroki o jej adaptacji. Jest kilka hamujących czynników, które ciągle powodują, że w praktyce biznesowej nie wszystkie możliwości inteligentnych technologii mogą być od razu docenione i zaadaptowane. Zacznę od kwestii dyskomfortu poznawczego, który skrótowo można zawrzeć w pytaniu: „dlaczego technologia sugeruje mi takie, a nie inne zachowanie. Jak do tego doszła”? Szybkość z jaką rosną możliwości procesorów nie przekłada się automatycznie na wzrost zaufanie u ludzi. I nie chodzi tu tylko o irracjonalne lęki przeciętnych obywateli. Systemy regulacji i certyfikacji obecne dzisiaj w wielu gałęziach przemysłu są tak rozbudowane, że szybka akceptacja nawet najbardziej innowacyjnych rozwiązań, nie jest wszędzie możliwa. O ile marketing nie będzie miał problemów z szybkimi wdrożeniami, to medycyna, przemysł lotniczy, czy bankowość nie zrezygnuje z dnia na dzień ze sformalizowanych procedur kontrolnych i systemów certyfikacji.

Quantum Internet Norbert Biedrzycki blog 1

Bezpieczeństwo, pieniądze i logika algorytmów

Kolejne ograniczenie dotyka kwestii bezpieczeństwa. Przeżywamy kryzys, jeśli chodzi o refleksję na temat przetwarzania danych. Nie da się dzisiaj łatwo przekonać każdego z nas do tego, że systemy rozpoznawania twarzy nie robią krzywdy. Całe „przetwarzanie danych” jest dzisiaj pod uważną obserwacją, sztuczna inteligencja karmiąca się naszymi danymi, może więc odczuć na „własnej skórze” obawy ludzkiego gatunku. Nie bez znaczenia są też oczywiście pieniądze. Decyzja o tym, że firma ma zainwestować w kosztowne systemy informatyczne, tworzenie działów zajmujących się nowymi danymi, zatrudnianie specjalistów musi mieć racjonalne i ekonomiczne uzasadnienie. A jak wiemy, szybkie wydawanie pieniędzy nie jest ulubionym zajęciem zarządów nawet najbardziej progresywnych przedsiębiorstw.

Dopasować wartości do potrzeb

Myślę, że kluczowym wyzwaniem dla współczesnych zarządów będzie rozpoznanie i nazwanie wszystkich wartości, jakie nowa technologia może przynieść. Nie chodzi przecież o nieustanny zachwyt nad globalnymi możliwościami sztucznej inteligencji. Liczy się dopasowanie jej możliwości do konkretnych potrzeb danej firmy. Samo hasło „sztuczna inteligencja” nie otwiera już automatycznie wszystkich drzwi. Przedstawiciele start-upów i koncernów technologicznych muszą mieć świadomość specyfiki branży w jakiej działa klient, by zapewnić sobie możliwość prezentacji oferty. Jestem jednak przekonany, że dotychczasowy udział nowych technologii w rynkowych przemianach jest ciągle skromny. Co zresztą wcale nie jest pesymistyczną refleksją. Wręcz przeciwnie – rynek pozostaje szeroko otwarty na nowe możliwości.

.    .    .

Cytowane prace:

The Guardian, Luke Harding And Leonard Barden, From the archive, 12 May 1997: Deep Blue win a giant step for computerkind, link, 2011.

MIT, Dimitrios G. Myridakis, Anomaly detection in IoT devices via monitoring of supply current, link, 2018.

Ars Technica, TIMOTHY B. LEE, Why experts believe cheaper, better lidar is right around the corner, link, 2018. 

McGill University at Montreal, Frank P. Ferrie, Ruisheng Wang, Jeff Bach and Jane Macfarlane, A New Upsampling Method for Mobile LiDAR Data, link, 2018. 

HuffPost, Marquis Cabrera, NCCD, Netflix, and Amazon all use predictive analytics—what is different about child welfare is the consequences of mistakes, link, 2018. 

The NetFlix Tech Blog/ Medium, Chaitanya Ekanadham, Using Machine Learning to Improve Streaming Quality at Netflix, link, 2018. 

McKinsey Global Institute, Michael ChuiJames Manyika, Mehdi Miremadi, Nicolaus Henke, Rita Chung, Pieter Nel, and Sankalp Malhotra, Notes from the AI frontier: Applications and value of deep learning, link, 2018. 

.    .    .

Powiązane artykuły :

– Kto zyska a kto straci na rewolucji cyfrowej?

– Kiedy przestaniemy być biologicznymi ludźmi?

– Sztuczna inteligencja to nowa elektryczność

– Roboty czekają na sędziów

– Tylko Bóg potrafi policzyć równie szybko, czyli świat komputerów kwantowych

– Machine Learning. Komputery nie są już niemowlętami

– Nowy gracz na sportowej arenie: Big Data

Skomentuj

22 comments

  1. Aaron Maklowsky

    Obawiam się, że automatyzacja jest straszna wyłącznie dla osób, które w pewnym momencie przestają się kształcić.

  2. Andrzej Czeczowski

    Nie mówimy o tym, co dzisiaj ale o tym, co będzie jutro. Mało masz wizji integracji różnych urządzeń że sobą? Internet rzeczy, prace z Cortaną, Siri czy Alexą a to wszystko tylko z dostępnych rzeczy. Już teraz boty działają w necie, zapoznaj się z tematem algorytmów fb lub googla. Oczywiście, na razie to tylko same algorytmy, ale organizmy kiedyś też były tylko jednokomórkowe… A ewolucja zero-jedynkowa nie trwa miliony lat… Pozdrawiam.

  3. Mac McFisher

    Snowden do Apple miał z tego co pamiętam najmniej zarzutów, a wręcz ich czasem nawet chwalił. Raporty bodajże WSJ z wypowiedziami byłych pracowników pracujących przy Siri też oskarżał za słaby rozwój Siri zbyt restrykcyjne podejście do prywatności. Moim zdaniem Apple ma swoje za uszami, ale wszystko świadczy o tym, że podejście do prywatności nie jest tylko marketingową ściemą.
    I proszę Cię, nazywanie fanbojem każdego autora, który za coś pochwali Apple, jest bez sensu. Wejdziesz na mój profil i znajdziesz taką samą ilość tekstów krytycznych, a przy okazji dowiesz się że używam może i Maca, ale jednocześnie nie ma iPhone, tylko Lumię.

  4. Adeptus99

    Nasze mózgi nie mają żadnej mocy obliczeniowej, nie ma żadnego pojedynczego elementu który potrafi wykonywać tyle operacji na sekundę. Nasz mózg działa na zasadzie wielu niezależnych i zależnych jednostek.

  5. TomaszKik

    Sztuczna inteligencja, dopóki nie ma samoświadomości (czy można mówić tutaj o sztucznej świadomości w kontekście sztucznej inteligencji – czy to jeszcze sztuczna inteligencja?) jest maszyną, narzędziem jak każde inne używane przez człowieka. Myślę więc, że to człowiek powinien być odpowiedzialny za wszelkie konsekwencje jej działania – nawet jeśli nie był w stanie ocenić skutków zanim jej użył. Nawet skłaniałbym się do stwierdzenia zwłaszcza, jeśli nie był w stanie ocenić skutków przed użyciem SI.

  6. Robert Kaczkowski

    Nie istnieje na ten moment Sztuczna inteligencja mogąca zastąpić człowieka, maszyna w pełni autonomiczna i zdolna do samostanowienia. Dysponując tylko częściową wiedzą o możliwościach ludzkiego umysłu i tajemnicach, jakie jeszcze skrywa, możemy jedynie dywagować, kiedy czeka nas kolejna rewolucja w sferze sztucznej inteligencji.

  7. TomekSz

    Przystosowanie i zmiana paradygmatu zyciowego przyjdzie nam z czasem. Brak nam w tym momencie wielu elementów które wypełniły by luki w wiedzy i poznaniu tego nowego świata który już stoi i czeka na naszym progu. Człowiek to bardzo skomplikowany twór. Nie da się człowieka zamknąć w ramach i skonfigurować jako algorytm. Natomiast można ludzi sklasyfikować na świadomych tego co nas może czekać i tych którzy się poddadzą nurtowi obojętnie jaki by nie był. W swojej książce którą aktualnie pisze, staram się opisać takie postępowanie jako jednostki o charakterze samouczącym i potrafiącym wyciągać wnioski i rozijać się oraz jednostki programowalne które doskonale poradzą sobie we współczesnym świecie sztucznej inteligencji. Te pierwsze będą miały niestety trochę gorzej ale jest szansa że będą mogły mieć nad tym wszystkim jakąś kontrolę i będą potrafiły pokierowac i kształtować sztuczny świat elektroniki na właściwe jej tory czyniąc z niego coś pośredniego pomiędzy człowiekieim a maszyną. Rzecz w tym aby zrozumieć po co sami powstaliśmy i jak to się stało zanim sami staniemy się bogami i stwórcami. W przeciwnym razie grozi nam naprawdę bolesny upadek. ważne jest jak zaczniemy i w jakim kierunku nam to się potoczy.

  8. PiotrKisz21

    Wystarczy czasami informacja o poborze prądu. Istnienie informacji jest często równie znaczące, jak jej treść. Chyba „Cryptonomicon” miał takie przykłady, ale dawno temu czytałem, to mogę mylić pozycje.

  9. Andrzej_Ko

    Einstein był przekonany że ludzka głupota to jedyny parametr we wszechświecie który należy opisać nieskończonością.
    AI póki co operuje na sporych ograniczeniach technicznych. Nawet sztuczna głupota nie byłaby w stanie pokonać ludzkiej która jest nieograniczona.

  10. Andrzej23

    Słusznie. Ale nie możemy skupiać się jedynie na rozwijaniu infrastruktury, gospodarce cyfrowej lub rozwoju usług i produktów. Społeczeństwo cyfrowe nie będzie dobrze funkcjonować, jeśli nie uwzględni potrzeb użytkowniczek/ów technologii. Musi też opierać się na fundamentalnych wartościach społecznych, a nie na samej wierze w rozwój technologii.

  11. Automatyzacja pracy oznacza oszczędność dla firmy. OK. Ale pieniądze nie biorą się z oszczędności, tylko z działalności podstawowej. Jeżeli wszystkie duże podmioty zaczną tak oszczędzać, to biznes stanie się grą o stawce zerowej, bo ktoś musi kupić ich produkt (usługę). Wyobraźmy sobie wirtualny bank – bez pracowników, funkcjonujący w chmurze, działający wg idealnych reguł biznesowych – gromadzi środki klientów i udziela innym kredytów. Ocena zdolności kredytowej jest w pełni automatyczna. Czy powierzyłbyś swoje środki takiej maszynce? Człowiek potrzebuje jedzenia i wody, potem ubrania – te potrzeby zaspokaja w pierwszej kolejności. Dalej – dach nad głową. Dopiero potem reszta. Biznes nie jest dla pieniędzy, tylko dla ludzi,dla zaspokajania ich potrzeb (realnych lub wyimaginowanych). Gdy tego czynić nie będzie, będzie działać w świecie wirtualnym, bez klientów, aż padnie.

  12. Oniwaban

    W ciągu ośmiu lat większość globu będzie „pokryta” internetem. Google i Facebook robią wszystko, by dostarczyć internet nawet 4 miliardom ludzi, którzy wciąż nie mają do niego dostępu. Facebook zamierza to zmienić dzięki projektowi Internet.org – chce dostarczać internet dronami zasilanymi energią słoneczną, a Google w ramach projektu Loon testuje gigantyczne balony.

  13. Andrzej

    Maszynowe uczenie jest badaniem algorytmów komputerowych, które pozwalają programom komputerowym automatycznie doskonalić się poprzez doświadczenie. ML to jeden ze sposobów, w jaki oczekujemy, że osiągniemy SI. Uczenie maszynowe polega na pracy z małymi i dużymi zestawami danych poprzez badanie i porównywanie danych w celu znalezienia wspólnych wzorów i poznania niuansów

  14. Oskar 111

    Komputerowe algorytmy potrafią już stawiać trafniejsze diagnozy niż psycholodzy. I nie poprzestają na tym.