• Obraz namalowany przez komputer sprzedano za bajońską sumę
  • Artyści z różnych dziedzin sztuki coraz śmielej sięgają po algorytmy
  • Maszyny nie są konkurencją dla twórców – twierdzi malarka korzystająca z SI

„SI: więcej niż człowiek” to tytuł wystawy, która w maju rozpoczęła się w Barbican w Londynie, największym centrum sztuki w Europie (potrwa do 26 sierpnia). Temat: związek między ludźmi a technologią. To już kolejna ważna ekspozycja prac tworzonych z wykorzystaniem SI.

– AI Art trwale przekroczyła już granice „sztuki technicznej” – uważa Mario Klingemann, artysta z Monachium o pseudonimie Quasimondo, współpracujący z Google Arts & Culture [patrz ramka pod artykułem]. – Staje się artystycznym wyrazem sama w sobie i zasługuje na prezentację jako nowy rodzaj sztuki, a nie tylko twórczość wykorzystująca nowe technologie.

432 500… po raz trzeci. Sprzedane!

W październiku 2018 roku po raz pierwszy wystawiono pracę sztucznej inteligencji na prawdziwą licytację. Pod młotek w domu aukcyjnym Christie’s poszedł rozmazany obraz, który w normalnych okolicznościach uchodziłby za niedokończony. Wartość wizerunku nieistniejącego Edmonda de Belamy, wygenerowanego przez maszynę, szacowano na 7 tysięcy dolarów. Sprzedał się za 432,5 tysiąca dolarów.

Grupa Obvious art stworzyła z udziałem sztucznej inteligencji słynny już portret nieistniejącego Edmonda de Belamy

To był przełom. I mocne wejście SI na rynek sztuki. Aukcja wywołała żywą dyskusję: czy SI to już twórca, czy wciąż tylko tworzywo?

Gauthier Vernier, jeden z trzech współzałożycieli kolektywu Obvious art, w którym powstał portret, śmiał się, gdy zapytano go, czy podobni mu twórcy zamierzają wyrzucić artystów z biznesu. Współautorzy portretu Belamy’ego nie są bowiem profesjonalnymi artystami. To studenci zarządzania oraz technologii.

Artyści muszą wykorzystywać najnowsze technologie. Mogą zrobić z nimi dwie rzeczy: albo twórczo krytykować, albo stosować jako nowy materiał i narzędzie do pracy, aby stworzyć rzeczy, które w inny sposób nie mogłyby powstać

– Jest wystarczająco dużo miejsca dla nas wszystkich – powiedział brytyjskiej gazecie „The Telegraph”. – Widzimy to jako nową gałąź sztuki, tak jak fotografia była nią w XIX wieku. Jesteśmy nowym pokoleniem twórców, ale z pewnością nie zastąpimy innych artystów.

Jako pożywkę dla komputera do namalowania obrazu trzech kolegów wykorzystało 15 tysięcy portretów stworzonych między XIV a XX wiekiem. Wcześniej sprzedali jedenaście innych prac, którymi zainteresował się słynny francuski mecenas sztuki Nicolas Laugero Lasserre, profesor znany z gromadzenia dzieł m.in. Invadera i Banksy’ego. W lutym ubiegłego roku kupił od Obvious pierwszy obraz, płacąc 10 tysięcy euro. Dał studentom wyraźny sygnał, że ich pomysł i praca maszyny mają wartość.

Uczyć maszyny, uczyć się od maszyn

Anna Ridler, malarka z Londynu, ma tradycyjne artystyczne wykształcenie. Ukończyła Royal College of Art na Uniwersytecie w Oksfordzie i University of the Arts w Londynie.

W swojej działalności artystycznej wykorzystuje architekturę kodu. Aby uczyć SI tworzenia, nie używa istniejących dzieł sztuki. Generuje własne zbiory danych, wprowadzając do komputera na przykład setki wykonanych przez siebie zdjęć, obrazów i innych unikalnych materiałów swojego autorstwa. W rozmowie z nami przyznaje, że daje to jej „bardziej kreatywną kontrolę” nad wynikiem końcowym.

Tworzenie złożonych zestawów danych jest wymagające: pochłania ok. 60 do 70 procent całkowitego czasu, jaki zajmuje jej stworzenie dzieła.

– Artyści muszą wykorzystywać najnowsze technologie. Mogą zrobić z nimi dwie rzeczy: albo twórczo krytykować, albo stosować jako nowy materiał i narzędzie do pracy, aby stworzyć rzeczy, które w inny sposób nie mogłyby powstać. Ucząc maszyny, znalazłam sposób na rozwinięcie różnych części mojej praktyki artystycznej, co wcześniej nie było dla mnie dostępne – opowiada.

Pokazała swoje prace m.in. w Ars Electronica, Muzeum Sztuki Współczesnej w austriackim Linzu, brytyjskim Tate Modern oraz w Muzeum Wiktorii i Alberta – największym zbiorze sztuki i rzemiosła artystycznego w Londynie.

– Myślę, że komputery nigdy nie przejmą pracy artystów. Sieci, oprogramowanie, algorytmy to tylko narzędzia, a nie konkurencja. Zamiast tego artyści będą tworzyć różne rodzaje nowych prac, wykorzystując nowe technologie.

Od AARONa…

Harold Cohen, brytyjski ekspresjonista o polskich korzeniach, był pierwszym artystą, który wykorzystał w sztuce autonomiczne rysunki komputera.

W 1971 roku został zaproszony do Laboratorium Sztucznej Inteligencji na Uniwersytecie Stanforda. Spędził tam dwa lata. Napisał program AARON i przygotował abstrakcyjne prace. Z początku przyjmowano je ostrożnie. Jednak z roku na rok cieszyły się coraz większym zainteresowaniem mediów.

Adres filmu na Youtube: https://youtu.be/subiSt2Mf4Y?t=1052

Harold Cohen był jednym z bohaterów filmu, w którym Ray Kurzweil prezentował zastosowania sztucznej inteligencji w sztuce.
Źródło: The Artificial Intelligence Channel / YouTube

Cohen zyskał uznanie Raymonda Kurzweila, słynnego wynalazcy i wizjonera, który zaprezentował malarza obok m.in. Steviego Wondera w swoim krótkim filmie z 1987 roku pt. „Era inteligentnych maszyn”.

W 1996 roku Discovery OnLine pokazał malującego AARONa przy pracy w bezpośredniej internetowej transmisji ze swojego studia. Ruszyła fala zainteresowania nową sztuką. AARON i jego twórca byli tematem wielu programów telewizyjnych, w tym „Beyond 2000”, „Scientific American Frontiers” czy Open University Series BBC. Kilka prac Cohena można obecnie oglądać w londyńskiej galerii Tate.

…po Deep Dream

Kolejny ważny moment nastąpił w 2015 roku, kiedy Google uruchomił Deep Dream Generator oparty na głębokich sieciach neuronowych (dostępny też jako aplikacja DreamDeeply na urządzenia mobilne).

Program przegląda miliony obrazów, linie tekstu, notacje muzyczne i tworzy psychodeliczne dzieła. Został wymyślony, aby pomóc naukowcom i inżynierom zobaczyć, co widzi głęboka sieć neuronowa, gdy analizuje dany obraz.

Algorytm nazwany został mianem „incepcja”, od tytułu filmu z 2010 roku o kradzieży snów. Dopiero później stał się nową formą sztuki abstrakcyjnej, określonej jako incepcjonizm.

Oprogramowanie jest przeznaczone do wykrywania wzorów na obrazach. Jednak po przeszkoleniu może również działać w odwrotnym kierunku, prosząc o dostosowanie oryginalnego obrazu do czegoś, co maszyna zna. Sieć neuronowa składa się zwykle z 10 do 30 warstw. Każdy obraz jest przekazywany do warstwy wejściowej. W ten sposób program uczy się, jak jego zdaniem określony obiekt ma wyglądać.

Naukowcy z Google’a uczyli system na przykładzie obrazów zwierząt, więc komputer wyszukiwał je nawet tam, gdzie ich nie było. Wizualizacje są efektem wpadek systemu.

Adres filmu na Youtube: https://youtu.be/dJ1VorN9Cl0

Deep Dream został wykorzystany m.in. do stworzenia teledysku piosenki „Doing it for the Money” zespołu Foster the People.
Źródło: Foster The People / YouTube

Deep Dream próbuje dopasować to, co widzi na obrazku, do tego, do czego został przeszkolony. Nie zawsze się to udaje. Zdarza się, że program w jakimś kształcie próbuje dopatrzeć się czegoś innego – ptaka, owada czy też innego zwierzęcia. Efekt potrafi być zaskakujący, często są nim fantasmagoryczne obrazy.

Ten proces wykorzystało kilku znanych artystów, np. Memo Akten, twórca pochodzenia tureckiego i doktorant na Goldsmiths University w Londynie. Opisał on efekt użycia generatora jako „oszałamiający”.

Atken nazywa działanie generatora „podróżą przez warstwy umysłu”. Dodaje swoje dane do sieci, wyszkolonej wcześniej za pomocą milionów obrazów, mieszając maszynie w „głowie”. Tę czynność powtarza, co daje algorytmowi coraz większą pewność, że się nie myli, wzmacniając rozpoznany błędnie kształt i identyfikując kolejne.

Blaise Agϋera y Arcas, programista Google zajmujący się inteligencją maszynową, podsumował ideę stojącą za stworzeniem programu: „Wierzymy, że jest innowacją, która głęboko wpłynie na sztukę”.

Twórczy duet z robotem

Sougwen Chung jest pracownicą naukową Laboratorium Mediów w Massachusetts Institute of Technology i pionierem E.A.T. Artist, organizacji non profit skupiającej się na współpracy inżynierów z artystami. Wspólnie z robotem o nazwie Doug tworzy obrazy. To sztuczna inteligencja, która uczy się na podstawie stylu rysowania Chung i synchronizuje swoją pracę z ruchami malarki.

Chung jest członkinią NEW INC, pierwszego inkubatora sztuki i technologii kierowanego przez muzeum w Nowym Jorku. To eksperymentalna inicjatywa New Museum, wspólny obszar roboczy i program rozwoju zawodowego, który skupia ponad 100 praktykujących kulturę i kreatywnych przedsiębiorców.

– Można opisać język wizualny jako swoisty błąd, na pierwszy rzut oka subiektywny obraz artysty. Przekładając to na zachowanie robotów, próbuję stworzyć wspólną intersubiektywność między człowiekiem a maszyną – wyjaśnia nam Chung.

Rzeźby z dźwięku

– Ten nowy język artystyczny proponuję nazwać „rozszerzoną sztuką” [augmented art] – mówi Rama Allen, artysta interaktywny, futurolog i dyrektor kreatywny w firmie The Mill.

Agencja projektuje m.in. efekty specjalne (obrazy i dźwięki) dla wielu znanych twórców filmowych i agencji reklamowych. The Mill współpracuje z twórcami z różnych dyscyplin. To architekci, twórcy gier, kompozytorzy, ale też naukowcy zajmujący się danymi. Dostarcza efekty specjalne dla produkcji np. HBO, Netflixa czy Warner Brothers.

Sztuczna inteligencja w rękach Ramy Allena stała się narzędziem do tworzenia cyfrowych rzeźb przy użyciu głosu.
Źródło: Rama Allen / Vimeo

W ubiegłym roku Allen stworzył narzędzie See Sound, które przekształca ludzki głos w cyfrowe rzeźby będące zarazem wielościeżkową pętlą audio. Materiały, orientacja w przestrzeni i ruch, kształt i objętość są definiowane przez subtelne zmienne głosu: barwę, wysokość, objętość, dysonans i modulację. Sztuczna inteligencja inspiruje wokalistów do modulowania głosu w taki sposób, aby tworzyć kształty i kolory wirtualnej rzeźby.

SI na playlistach i w księgarni

Maszyny XXI wieku nie tylko malują, lecz także piszą i komponują.

Singiel „Not Easy” autorstwa Ambassadors, Elle King i Wiz Khalifa osiągnął czwarte miejsce na liście Hot Tracks iTunes (aplikacji Apple’a do odtwarzania muzyki i tworzenia kolekcji). „Inspiracją” dla piosenki było Big Data. Sztuczna inteligencja przeszukiwała miliony rozmów, tytułów prasowych i wykładów pod kątem głównego motywu utworu: złamanego serca. Algorytmy uczenia maszynowego zaprogramowane do tworzenia muzyki znalazły potem różne elementy muzyczne, które dały twórcom pomysł na brzmienie piosenki.

Adres filmu na Youtube: https://youtu.be/TqsW0PMd8R0

Historia o podróży cadillakiem z Brooklynu do Nowego Orleanu to prawdopodobnie pierwsza powieść w historii stworzona przez sztuczną inteligencję.
Źródło: Oscillator Media / YouTube

Z kolei Amper jest interfejsem sztucznej inteligencji, która we współpracy z muzykami produkuje utwory. W sierpniu 2017 roku Taryn Southern, wokalistka American Idol, połączyła z nim siły. Twórcy oprogramowania zapewniają, że pozostawia ono człowiekowi kontrolę nad komponowaną muzyką, tworząc ją razem z nim.

Literatura też przeżywa swój romans z SI. Francuskie wydawnictwo Jean Boîte Éditions, zajmujące się publikacją książek związanych z technologiami cyfrowymi w poezji, sztuce i naukach humanistycznych, w ubiegłym roku wypuściło na rynek książkę pt. „1 Droga.

To historia o podróży cadillakiem z Brooklynu do Nowego Orleanu. I prawdopodobnie pierwsza powieść w historii stworzona przez sztuczną inteligencję.

Twórcą „maszyny do pisania” był Ross Goodwin, który wyszkolił sieci neuronowe do generowania słów.

Posłużyły do tego kamery, GPS, mikrofon i zegar – zintegrowane w jednym urządzeniu – które udokumentowały wyprawę. A potem ujęły ją w fabułę. W czasie podróży dane z różnych czujników maszyna układała w zdania o różnej poetyce. SI przetłumaczyła widoki i dźwięki, zarejestrowała prawicowy protest, mijaną florę i faunę, a nawet przystanek w sklepie, w którym Goodwin kupował dodatkowy zasilacz do zapalniczki.

Książka nie jest żadnym arcydziełem, czyta się ją dosyć mechanicznie, ale to nowa karta w dziejach piśmiennictwa.

– Każde zdanie w tej książce jest niezależnym procesem twórczym, a każde zdarzenie miało miejsce w pewnym momencie – mówi Goodwin, kiedyś autor-widmo prezydenta Baracka Obamy.

Zrozumieć sztukę SI

W Indiach w galerii w Delhi specjalizującej się w prezentacji sztuki awangardowej w sierpniu ubiegłego roku odbyła się pierwsza w tym kraju (i jak dotąd jedyna) wystawa dzieł związanych ze sztuczną inteligencją. Zatytułowana została Gradient Descent(nazwa od rodzaju algorytmu) i pokazała twórczą współpracę siedmiu artystów wykorzystujących algorytmy uczenia maszynowego, w tym Ridler, Klingelmanna i Atkena. Na otwarciu były tłumy.

Ale – jak mówi nam Ridler – wielu z odwiedzających wyszło rozczarowanych, bo spodziewali się jakiejś „kosmicznej” sztuki. Choć media donosiły raczej o wielkim sukcesie ekspozycji.

– Trudno stwierdzić, czy ludzie są zainteresowani nową sztuką, czy ją w ogóle rozumieją. Niektóre projekty, z których jestem najbardziej dumna, są uwzględniane w wystawach poświęconych innym aspektom (portretowaniu, naturze, środowisku). Skupiono się na nich na zobrazowanym przeze mnie motywie, a nie na zastosowanej technologii czy wartości artystycznej samej pracy – zauważa w rozmowie z nami Ridler.

– Stajemy się coraz bardziej uzależnieni od niewidzialnych inteligentnych systemów. Ta zależność od maszyny staje się normą. Być może już teraz musimy cofnąć się o krok, aby zobaczyć, co jesteśmy skłonni zrobić, gdy chodzi o włączenie sztucznej inteligencji do królestwa sztuki – podsumowuje artystka.

Google Arts & Culture

To aplikacja mobilna Google’a, która powstała jako część projektu Google Cultural Institute. Współpracuje z ponad 1,2 tys. muzeów, galerii i instytucji z 70 krajów, udostępnia ich zbiory online. Można z nią wirtualnie zwiedzić muzeum, zabytek, obejrzeć z bliska wybrany obraz w imponującej rozdzielczości (to jak dotąd jedyne internetowe repozytorium, w którym z bliska można obejrzeć fakturę dzieła).

Program pozwala przeglądać zbiory skarbów kultury i sztuki z ponad 850 muzeów oraz archiwów z całego świata. Również z Polski – są tam obecne m.in. Zamek Królewski w Warszawie czy Opera Narodowa i kilkanaście innych krajowych instytucji kultury.

Dzięki aplikacji możliwe jest też porównanie selfie z dziełami sztuki zeskanowanymi przez Google’a. Program wyszukuje w swoich zasobach portrety autorstwa wielkich artystów podobne do zdjęcia naszej twarzy i wylicza w procentach zbieżność z naszym „autoportretem”.
Aplikację zainstalowało już 5 milionów użytkowników.

Od grawitacji do fantazji

Na potrzeby OPI PIB (wydawcy portalu sztucznainteligencja.org.pl) artysta grafik Grzegorz Nowiński (Novina Studio) przygotował filmy promocyjne związane z tematyką SI. W pracy używa inteligentnych aplikacji, które umożliwiają mu realizowanie własnych pomysłów.

Źródło: Sztuczna Inteligencja / YouTube

– W przypadku realizacji dla OPI punktem wyjścia był program Cinema 4D. Jest to aplikacja do realizacji grafiki i animacji 3D, która daje sporo możliwości, jeśli chodzi o panowanie nad dużą liczbą obiektów z wykorzystaniem algorytmów, tzw. symulatorów fizycznych. Dzięki nim obiekty mogą się zachowywać jak w rzeczywistości – mam na myśli grawitację, kinetykę itd.

Na dodatek możemy wymuszać pewne nadnaturalne zachowania, wtedy zyskuje on własny charakter, własne życie, ma jakiś cel lub reaguje na otoczenie. Dobra aplikacja pozwala działać intuicyjnie. Dlatego bardzo ważny jest interface, czyli odpowiednio skonstruowane pluginy, które umożliwiają łatwe sterowanie – wyjaśnia nam autor prezentowanego filmu.

Skip to content