Za dziesięć lat muzykę dla ludzi będą komponować tylko maszyny – twierdzi technobogacz z Doliny Krzemowej

– Myślę, że za dziesięć lat nie będziecie już słuchać muzyki takiej, jaka jest teraz – powiedział Vinod Khosla, inwestujący w nowe technologie bogacz z Doliny Krzemowej.

A jakiej będziemy?

Nie takiej, którą komponowaliby ludzie. Piosenki, które umilą nam czas, będą automatycznie projektowane pod gust i potrzebę każdego z nas osobna, jak szyty na miarę garnitur albo dopasowana do dziąseł proteza szczęki. Sztuczna inteligencja skomponuje je tak, by były dostosowane do twojego mózgu, preferencji słuchania i szczególnych potrzeb w danym momencie.

Liczy się tylko dźwięk

Kilkanaście dni temu, przemawiając podczas zamknięcia sesji Creative Destruction Lab’s w Toronto, Khosla zauważył, że muzyka stworzona przez SI już robi duże postępy. Zgoda, robi. Ale czy to nie za mało, by wieszczyć rewolucję w muzyce?

Maszyna prześledzi twoje nastroje, preferencje, aktywności i kontakty, by w końcu zanucić ci to, co chciałbyś usłyszeć

Jednym z silnych ostatnio trendów popkulturowych jest mnożenie się nastrojowych kanałów na platformach oferujących muzykę i listy odtwarzania, które opierają się na aktywności słuchaczy. Jest też wiele utworów, w których ani tożsamość artysty, ani jego dorobek, ani nawet sama nazwa nie są ważne. Liczy się sam dźwięk, fragment tekstu, któraś z fraz, refren bądź zapętlenie.

Ponadto platformy muzyczne wprowadzają opłaty za korzystanie z ich zasobów. To zachęta do tworzenia alternatywnych rozwiązań, gdzie koszty wynikające z opłacania licencji będą zmniejszone lub wyeliminowane.

Prototyp z Watsonem

Swoją drogą, pomysł Koshli – że ludzie będą raczyć się spersonalizowanymi ścieżkami dźwiękowymi, złożonymi przez sztuczną inteligencję, która odczyta ich myśli, nastroje i prześledzi internetową aktywność – nie jest zupełnie nowy. Podobne rozwiązanie, choć nieeliminujące artysty z procesu twórczego, przedstawiono już trzy lata temu.

The Mill to londyńskie studio, znane z wykorzystywania w kreacji m.in. sztucznej inteligencji. Produkuje efekty wizualne, ruchome obrazy, projekty graficzne i cyfrowe dla branży reklamowej, muzycznej i gier. W październiku 2016 roku zaproponowało śmiałą instalację obrazowo-muzyczną z tzw. muzyką kognitywną w roli głównej.

Oparto ją o możliwości komputera IBM Watson. The Mill stworzył potężną instalację do przetwarzania danych w czasie rzeczywistym, zbudowaną na podstawie analizy obliczeniowej muzyki pop z listy Billboard Top 100, mediów społecznościowych i portali informacyjnych. Naturalny język i kompozycje muzyczne zostały przypisane wartościom emocjonalnym. Te wartości przełożono na wizualizacje, którymi można było manipulować w czasie, ale też w sferze emocji czy gatunków. Kodowanie kolorystyczne wizualizacji opierało się na pięciu barwach – po jednej dla radości, gniewu, obrzydzenia, smutku i strachu.

Kolor emocji, prezentacja możliwości komputera IBM Watson
Źródło: Rama Allen / vimeo

Kolor emocji

„Wierzymy, że ogólny emocjonalny wydźwięk świata, określony poprzez analizę mediów i postów społecznych, ma związek przyczynowy z tym, co jest popularne w muzyce głównego nurtu w podobnym okresie” – wyjaśnia Rama Allen, współautor projektu i dyrektor kreatywny The Mill.

Rozwiązanie The Mill nazwano „Kolorem emocji”. Pracują nad nim dwa systemy. Abstrakcyjna wizualizacja daje użytkownikowi „gestaltowe” doświadczenie wizualne (teoria Gestalt zakłada, że pewne czynniki sprawiają, że coś mniej lub bardziej postrzegamy jako całość. To koncepcja, która udowadnia, że całość może być inna niż suma jej części. Tak nazwana jest terapia psychologiczna, przede wszystkim nastawiona na ponowne „nauczenie” ludzi świadomości zarówno wobec rzeczywistości zewnętrznej, jak i wewnętrznych stanów emocjonalnych). Przekształca ogromne zestawy danych zaczerpniętych z tekstów i kompozycji w dynamiczne obrazy falujących smug.

Drugi system to wizualizacja tekstowa zbudowana na analizie kanałów Twittera i nagłówków w mediach informacyjnych. Język został tu zakodowany w kolorze.

Oba systemy są połączone w czasie. Użytkownik może poruszać się w obrębie klasyfikacji czasowej, emocjonalnej i gatunkowej za pomocą niestandardowego interfejsu.

Tak to ma działać?

Z propozycji The Mill i IBM skorzystał słynny producent, muzyk i kompozytor muzyki pop Alex Da Kid. Chciał sprawdzić, co rezonuje w naszym świecie.

Adres filmu na Youtube: https://www.youtube.com/watch?v=8FI3E9kV-38

https://www.youtube.com/watch?v=8FI3E9kV-38
Kompozytor muzyki pop Alex Da Kid i IBM Watson
Źródło: IBM CEE / YouTube

Siedmiokrotnie nominowany do nagrody Grammy Alex był pierwszym, który wykorzystał system. To, co pokazał komputer analizujący dane ze świata, zainspirowało jego kolejny album.

A więc tak to ma działać? System będzie przetwarzał wysyłane przez nas sygnały, informacje, śledził nasze nastroje, preferencje i kontakty, by w tle zanucić nam właśnie to, co chcielibyśmy usłyszeć? Alex Da Kid podsumował projekt jednoznacznie: maszyny są dużo mądrzejsze niż ludzie, ale nie są po to, by nas zastąpić.

No właśnie – zwraca uwagę Dan Robitzski, dziennikarz Futurizm.com. Sztuczna inteligencja nie jest w stanie być lepsza niż muzyk na scenie, na żywo. Ona nie zastąpi prawdziwych festiwali, nie zastąpi radości ludzi, którzy dzielą się ulubioną muzyką.

Skip to content