Machine learning. Znawca literatury i ekspert na rynku sztuki

Czy algorytmy są w stanie wnikliwie przeanalizować dzieła Szekspira? Tak, i to z precyzją, której może pozazdrościć im niejeden profesor literaturoznawstwa. A czy wiedzą, na czym polega autentyczna wartość obrazów uznanych malarzy? Jak najbardziej! Ich wiedza w tej kwestii jest tak duża, że mogą szybko rozpoznać artystyczne fałszerstwo.

Podziel się

facebook twitter linkedin email
blog Machine Learning Norbert Biedrzycki

Używanie sztucznej inteligencji czyli algorytmów Machine Learning przez specjalistę zajmującego się marketingiem nikogo nie dziwi. Uczenie maszynowe zyskało szacunek również w środowiskach medycznych. Bez algorytmicznych analiz nie może już funkcjonować sektor bankowy. Czy są jednak obszary profesjonalnego działania, w których nowoczesna technologia wydaje się zbędna? Wydawałoby się, że technologie tego typu nie mogą zaimponować profesorowi zajmującemu się historią literatury. Nie będą interesujące dla ekspertów z rynku dzieł sztuki, którzy kierują się w pracy intuicją i poczuciem, że najlepszym narzędziem jest wprawne ludzkie oko. Jednak upór algorytmów w zawłaszczaniu kolejnych obszarów naszego życia jest tak duży, że znajdują dla siebie miejsce nawet w twierdzach humanistyki.

Da się liczyć słowa i analizować plamy barwne

Analityczne zdolności sztucznej inteligencji i jej efektywność pracy na dużych zbiorach danych doskonale sprawdzają się przy dokonywaniu operacji językoznawczych. Analizy języka pisarza – jego słownictwa, cech składni, stylistyki, częstotliwości występowania określonych terminów i związków frazeologicznych, nasycenia tekstu dialektami – to wszystko dla każdego językoznawcy oznacza częste sięganie po metody statystyczne i metodologie, które czerpią z dorobku nauk ścisłych.

Z kolei w przypadku analiz malarstwa, dobrze sprawdzają się technologie specjalizujące się w rozpoznawaniu obrazów (pattern recognition). I tu okazuje się, że analiza pociągnięć pędzla wykonana przez sztuczną inteligencję – a to jedna z wielu składowych procesu, która ma wykazać autentyczność dzieła – może być dokładniejsza od analizy dokonywanej przez człowieka. Pozornie mogłoby się wydawać, że maszyna jest uboga w pewne funkcje, nie może przecież przyjrzeć się grubości nieregularnych smug, czy przeanalizować składu farby. Ale te tradycyjne dane, cenione zresztą przez ekspertów, w tym przypadku nie mają znaczenia.

Nawet Szekspir miał ghostwriterów

Świat szekspirologów obiegła niedawno informacja, że pewne fragmenty jego dzieł wskazują na to, że mogły nie wyjść spod ręki sławnego dramaturga. Pytanie brzmiało, czy Szekspir mógł mieć ghostwritera? Nie zadano go pierwszy raz w historii literaturoznawstwa. Badania prowadzone już w XVIII wieku wykazywały, że w pisaniu niektórych sztuk teatralnych maczali palce pomocnicy pisarza. Specjaliści wskazywali zwykle na dwie osoby, które mogły służyć pomocą autorowi Hamleta. Jedną z nich był John Fletcher. To on po śmierci Szekspira zastąpił go we współpracy z jednym z teatrów. Liczne analizy fragmentów dramatu “Henryk VIII” i utworów napisanych w tym samym czasie przez Fletchera, wskazywały na podobieństwa ich stylu.

Rozpisano na cztery ręce

Sprawa zainteresowała pracownika Czeskiej Akademii Nauk w Pradze, Petra Plechaca, który postanowił kwestię rozstrzygnąć przy użyciu jednej z naczelnych technik sztucznej inteligencji, czyli machine learning. Oprogramowanie używane do analizy porównawczej “załadowano” tekstami Szekspira i Fletchera. Rezultaty badania pokrywały się dokładnie z dotychczasowymi rozpoznaniami literaturoznawców – pewne fragmenty analizowanej sztuki musiały wyjść spod ręki pomocnika. Ale przy okazji, literaturoznawcy dowiedzieli się czegoś zupełnie nowego. Okazało się, że obaj autorzy musieli współpracować ze sobą bardzo aktywnie w trakcie pisania, bo niektóre, niepozorne nawet sceny, nosiły cechy obu stylów. Krótko mówiąc, pisanie danej sceny rozpoczynał Szekspir, ale kończył ją Fletcher – może nawet wzbogacając pomysły słynnego kolegi.

I jak tu ufać ekspertom?

Fałszerstwa dzieł sztuki to sprawa stara jak świat. Przypadki są liczne. Najbardziej bolesne okazują się jednak te, w których dochodzi do zainwestowania dużych pieniędzy w falsyfikat. Równie głośno jest o tych, w których opłacany przez dom aukcyjny ekspert, nie dostrzega w analizowanym przez siebie obrazie znamion fałszerstwa. Podrobiony obraz zostaje wylicytowany za wielką sumę, a po latach inwestor przeklina dzień, w którym dzieło zwróciło jego uwagę. Z takim przypadkiem świat sztuki zetknął się w 2006 roku, kiedy to do domu aukcyjnego Christies trafił obraz znanego abstrakcjonisty Maxa Ernsta. Dzieło oszacowano na kwotę…3,5 miliona funtów! Niestety okazało się, że obraz wyszedł spod pędzla profesjonalnego fałszerza.

Oddajmy sprawę w ręce maszyn

Była to jedna z historii, która zaintrygowała dwie kobiety, które połączyła pasja do sztuki, nauki i biznesu. Carina Popovici i Cristiane Oppe-Oehl postanowiły stworzyć algorytmiczną technologię Art Recognition, która jest niczym innym, jak wykrywaczem falsyfikatów. Program analizuje pociągnięcia pędzla i tworzy mapę cieplną, wskazującą, które obszary obrazu budzą wątpliwości. Podobnie jak w przypadku czeskiego naukowca, tak i tu machine learning wykorzystuje do przetwarzania duże ilości danych. Algorytm oparty jest na sieci neuronowej, która ćwiczona jest tak długo, aż nauczy się niepowtarzalnych cech stylu malarza. Efekty stosowania algorytmu są imponujące, bo wykrywalność fałszerstw szacuje się na 90 procent.

Tak jak w przypadku Szekspira, wskazania sztucznej inteligencji pokrywały się z opiniami specjalistów. Przy okazji i tutaj pojawiło się kilka niespodzianek. Po pierwsze, do wykonywania subtelnych analiz wystarczą fotograficzne reprodukcje obrazów, nie trzeba skanować oryginałów – jest to wielkie ułatwienie logistyczne i kosztowe. Na wyniki ekspertyzy czeka się zaledwie kilka godzin lub najwyżej dni, a nie kilka miesięcy, jak to bywa w przypadku tradycyjnych komisji.

Algorytmy Machine Learning interpretują wszystko

Te dwie historie dowodzą, jak olbrzymie, czasem nieuświadamiane przez nas możliwości tkwią w technologiach algorytmicznych. Potwierdza się też teza, że dla machine learning i sieci neuronowych rodzaj danych nie ma znaczenia. Mogą nimi być liczby, słowa, obrazy – zasada wykrywania zależności między nimi jest identyczna. Budzić to musi entuzjazm u zwolenników sztucznej inteligencji. Bo z jej pomocą “przeczytać” możemy każdy fragment świata.

Sztuczna inteligencja, wkraczając na coraz to nowe obszary, uświadamia nam poprzez swoje działanie, z ilu przyzwyczajeń będziemy musieli i mogli stopniowo rezygnować. Ale efekty zmian naszych postaw mogą być dla świata bardzo korzystne.

.    .   .

Cytowane prace:

ResearchGatePetr PlechacThe Czech Academy of SciencesDigital Scholarship in the Humanities, Relative contributions of Shakespeare and Fletcher in Henry VIII: An analysis based on most frequent words and most frequent rhythmic patterns, Link, 2020. 

Spiegel InternationalSven RöbelMichael Sontheimer, The $7 Million Fake, Forgery Scandal Embarrasses International Art World, Link, 2018. 

ArtNomeJason BaileyCan AI Art Authentication Put An End To Art Forgery?Link, 2019. 

.    .   .

Powiązane artykuły:

– Algorytmy zrodzone z naszych uprzedzeń

– Jak regulować sztuczną inteligencję?

– Czy algorytmy będą popełniać zbrodnie wojenne?

– Maszyno, kiedy nauczysz się ze mną kochać?

– Sztuczna inteligencja to nowa elektryczność

Skomentuj

9 comments

  1. TomK

    I jeszcze jedno. Jasne, że ważne jest zachowanie własnej tożsamości i dobrze byłoby pozostać… ludzkim. Ale o ile pewności oczywiście nie ma, ryzyko utraty tych cech wydaje się być realne.

    Elon Musk spytany czemu już mniej aktywnie wypowiada się w temacie AI odpowiedział… że stracił nadzieję. Do tego dodał, że ponad dekadę zajęło ludzkości wprowadzenie obowiązkowych pasów bezpieczeństwa w samochodach, a dla sztucznej inteligencji taki okres czasu to jak setki/miliony lat pod względem rozwoju… Dlatego kiedy powstanie to powstanie i pozostaniemy na jej łasce lub niełasce z małą możliwością ingerencji w jej działania.

    Z kolei jako że jesteśmy dosyć podzieleni.. I nawet jeśli jedna grupa ludzi lub państw postanowi wprowadzić jakieś regulacje w tym temacie inna grupa może sobie je zwyczajnie zignorować.. No nie wiem.

    Zobaczymy… Oby skończyło się jak najlepiej.

  2. TomK

    Obecne AI jest jak młotek. Taki bardziej zaawansowany młotek. Czyli że robi to co mu każesz. A jak podejmuje decyzje, to spośród takich jakie mu podałeś. Ale nie ma samoświadomości ani własnej woli. Nawet nie wiadomo, czy jesteśmy już o krok od uzyskania samoświadomego AI czy brakuje nam jeszcze 1000 lat, bo po prostu nikt nie ma pojęcia co odpowiada za samoświadomość.

    Ja bym się bardziej obawiał złych ludzi. Bo AI to tylko narzędzie, ale w pewnych zastosowaniach bardzo potężne i może pozwolić zdobyć/utrzymać bardzo dużą władzę jednostce/jednostkom.

  3. Andrzej44

    Uczciwie mówiąc trochę zbyt entuzjastyczny ten artykuł. W żadnym wypadku to nie jest wchodzenie algorytmów na nowe terytorium. Zamieńmy modne słowo machine learning na analizę statystyczną i zaraz zobaczymy różnicę. Literaturoznawstwo od lat używa analizy statystycznej i ten aspekt analizy literatury zawsze był pograniczem nauki ścisłej i humanistycznej, więc tutaj oprócz techniki i szybkości nic się nie zmieniło.

  4. Jacek Krasko

    Skoro to coś nie myśli – nie może programować. Owszem, może tworzyć wstępny kod aplikacji (scaffolding) w sposób bardziej zaawansowany niż ten, który oferują współczesne środowiska programistyczne. Ale to wciąż nie jest programowanie, a tylko generowanie kodu.

  5. JacekPlacek5

    Uważam, że to można wykorzystać, ale uważam też, że oni nie są mądrzy oraz etyczni tworząc takie technologie. Za mało analiza co się stanie, gdy zrealizują projekt, a za bardzo patrzą na koszty, co sugeruje, że nie są na tym etapie odpowiedzialności, na którym być powinni. Można było zrobić kilka innych projektów, które są o wiele bardziej etyczne i w dziedzinie.

  6. Zeta Tajemnica

    Uczciwie mówiąc trochę zbyt entuzjastyczny ten artykuł. W żadnym wypadku to nie jest wchodzenie algorytmów na nowe terytorium. Zamieńmy modne słowo machine learning na analizę statystyczną i zaraz zobaczymy różnicę. Literaturoznawstwo od lat używa analizy statystycznej i ten aspekt analizy literatury zawsze był pograniczem nauki ścisłej i humanistycznej, więc tutaj oprócz techniki i szybkości nic się nie zmieniło.

  7. PiotrDomski

    W machine learning detekcja anomali może być zaimplementowana jako uczenie nadzorowane lub uczenie bez nadzoru. Wykorzystywana w większości systemów IDS w celu wykrywania potencjalnych zagrożeń w sieci. Moze warto to uwzglednić w jednym z nastepnych Pana wpisów?

  8. CzarekZ23

    W uczeniu maszynowym klasyfikacja jest problemem polegającym na określeniu do której z zestawów kategorii należy nowo obserwowana dana.Przykładem może być tutaj klasyfikowanie wiadomości e-mail, zaliczanie ich do klasy „spam” lub „ważne”. Klasyfikacja jest to więc przykład metody rozpoznawania wzorca, czyli uczenia maszynowego pod nadzorem. Odpowiednią do klasyfikacji metodą uczenia bez nadzoru jest klasteryzacja (ang. clustering).

  9. NorTom2

    Fajny wpis. Jedna korekta lub raczej uszczegółowienie. Algorytmy zasilane są dużą ilością danych uczących. W uczeniu nadzorowanym każdy przykład to para składająca się z obiektu wejściowego i żądanej wartości wyjściowej (zwanej również sygnałem nadrzędnym). Algorytm uczący analizuje dane treningowe i generuje wynikową funkcję, którą można wykorzystać do mapowania nowych przykładów. Optymalny scenariusz pozwala algorytmowi prawidłowo określać etykiety klas obiektów dla niewidocznych wcześniej instancji. W skrócie, pozwala na analizowanie danych w sposób niezaprogramowany wprost przez człowieka. Uczenie nadzorowane wykorzystuje się głównie do modelowania procesów technicznych.