В прошлом году мир услышал первую песню, музыка к которой была целиком и полностью написана искусственным интеллектом. Ею стала «Daddy’s Car» – короткая воздушная композиция в лучших традициях The Beatles. Однако, это далеко не первый случай применения ИИ в сочинении музыки – начиная от автоматически генерируемых саундтреков и заканчивая целыми новыми альбомами, создаваемыми машиной по запросу, роботы убедительно заявляют о своих правах на место под солнцем музыкальной индустрии. И нам пора задать себе вопрос: готовы ли наши уши к той революции, которую вызовет внедрение ИИ в повседневную жизнь.
Первое, что приходит на ум при обсуждении темы запутанных взаимоотношений человека, компьютера и музыки, это аналоговый поп Kraftwerk и электронные эксперименты Делии Дербишир. Тем не менее, истоки зарождения «машинной музыки» уходят корнями в несколько более отдаленное прошлое. В прошлом году профессор Университета Кентербери Джек Коупленд и композитор Джейсон Лонг удалось восстановить первый в истории образец машинной музыки, записанный в 1951 году самим Аланом Тьюрингом – знаменитым британским математиком и первопроходцем в сфере искусственного интеллекта. Односторонний 12-дюймовый ацетатный диск содержит три мелодии, “сыгранные” на одном из первых примитивных ламповых компьютеров. Габариты последнего были настолько велики, что машина занимала практически весь первый этаж лаборатории Тьюринга.
И вот, по прошествии 70 лет мы живем в эпоху, в которой искусственный интеллект способен писать музыку наравне с человеком. Запрограммированная на написание песни в стиле The Beatles, система искусственного интеллекта, расположенная в парижской лаборатории Flow Machine, создала мелодию композиции «Daddy’s Car», основываясь на анализе базы данных из более чем 13,000 треков в различных жанрах – от джаза до попа, от бразильской самбы до бродвейских мюзиклов. Что из этого получилось – можно прослушать ниже.
При этом свойства музыки, создаваемой ИИ под названием «FlowComposer», зависят от заранее заданных параметров и условий. К примеру, оператор может задать определенную тональность или аккордовую прогрессию будущей песни, или же ограничить базу данных для анализа композициями какого-либо определенного исполнителя. Итоговый результат работы впечатляет. Конечно, некоторые могут посетовать, что звучание трека более походит на классиков психоделического рока в духе Super Furry Animals или 13th Floor Elevators, нежели на ливерпульскую четверку. Но «Daddy’s Car» это только начало: на 2017 год запланирован выход целого полноформатного альбома, рожденного в недрах микросхем FlowComposer.
«Мы находимся на пороге революции в сфере ИИ», – уверенно заявляет Фьяметта Гедини, научный сотрудник лаборатории Flow Machines. По её словам, созданный исследовательской командой ИИ – это «некоммерческий проект, призванный помогать пользователям в процессе создания музыки». На данный момент FlowComposer не может работать полностью автономно, без участия человека. «Написать часы хронометража музыки, не имеющей какой-либо четкой структуры, не так уж и сложно», – объясняет Гедини. «Однако, создание песни, имеющей проигрыши, вступление, заключение, лейтмотив и прочие структурные элементы – задача не из легких». И несмотря на то, что Flow Machine смогли написать мелодию и гармонию к «Daddy’s Car» посредством ИИ, роль аранжировщика, автора текста и вокалиста пришлось исполнить композитору Бенедикту Карре.
Но рано или поздно FlowComposer сможет писать полноценные песни абсолютно самостоятельно. В таком случае, можно ли будет называть его музыкантом в полном смысле этого слова? «Если речь идёт об ИИ, то следует сразу же задать вопрос: какими именно свойствами должен обладать компьютер, чтобы иметь право называться музыкантом? В первую очередь, его деятельность не должна ограничиваться лишь заданными условиями и командами», – рассуждает Герайнт Виггинс, профессор в области вычислительной креативности в Лондонском университете королевы Марии.
«Если я дам профессиональному музыканту партитуру и попрошу его сыграть по заданным нотам, что именно скажет мне о его музыкальных способностях? Заданный им вопрос о том, как сыграть тот или иной отрывок? Или какой именно темп следует держать на протяжении композиции? Нет, живые музыканты имеют собственное уникальное понимание музыки, и интерпретируют сухие ноты через призму собственного опыта и восприятия. И для того, чтобы произвести музыку, пригодную для прослушивания людьми, машине необходимо привить базовое понимание человеческого восприятия музыки. Но в данный момент компьютеры способны лишь симулировать наши чувства, что явно не подпадает под определение «творчества».
При этом репрезентация искусственного интеллекта в поп-культуре, наиболее ярко представленного взбунтовавшимися против собственных создателей Hal 9000 из «Космической Одиссеи» и Skynet из вселенной «Терминатора», внушает скептицизм относительно его потенциала. И последние достижения в этой сфере явно не способствуют успокоению всех тревог касательно компьютерного будущего человечества. Взять хотя бы недавний случай с Twitter-ботом от Microsoft, который за несколько часов обучения начал публиковать расистские высказывания.
Но так или иначе, наступление эры ИИ неизбежно. Первые её проблески становятся видны уже сейчас, несмотря на то, что практика использования компьютеров при создании музыки находится в зародышевом состоянии. Набирающие популярность системы «умный дом» наподобие Amazon Echo значительно упрощают выполнение утомительных повседневных задач – к примеру, включение и выключение света. Ну а если серьёзно, то они действительно имеют довольно большой потенциал. Но, видимо, пока что люди более заинтересованы попытками научить системы разговаривать друг с другом, нежели в возможностях их практического применения. Тем временем, более технологически продвинутые беспилотные автомобили Tesla уже научились предугадывать возможность возникновения ДТП задолго до того, как оно произойдёт. В целом, по какой-то причине мы позволяем ИИ делать наши жизни проще, но совершенно не доверяем им в вопросах творчества.
«Большинство людей относится к любому проявлению креативности искусственным интеллектом с предосуждением и скептицизмом», – продолжает Гедини. Это подтверждается противоречивой реакцией на исследовательскую работу проекта Flow Machines. Один портал даже назвал «Daddy’s Song» не иначе как «суровым предостережением всему человечеству». Созданная компьютером музыка, видимо, рожденная в самом центре «зловещей долины», и впрямь вызывает у многих слушателей чувство смутной тревоги. Чего, как ни странно, не скажешь об автокоррекции или «умной» колонке от Amazon, которые ежедневно позволяют нам экономить драгоценное время.
Но когда именно нам следует ожидать пришествия машин? «Мы находимся в шаге от революционизирования искусственного интеллекта. И когда это произойдёт, компьютеры возьмут на себя большую часть работы, в данный момент исполняемой людьми», – заключает Гедини. «Но это не коснется сугубо творческих и интеллектуальных профессий. То, над чем мы трудимся в данный момент, позволит расширить креативные способности человека, но не заменит их. Наша цель – создать инструмент, способствующий возникновению новых идей, а не заменить творческий потенциал человека компьютером».
С такой концепцией соглашается и экспериментальный музыкант Билл Бэрд. По мнению бывшего участника Sound Team, «ИИ должен служить нам в качестве инструмента для работы, нежели средством для её облегчения». Алгоритм последнего альбома Бэрда «Summer Is Gone» подстраивается под каждого конкретного слушателя в зависимости от его местонахождения и времени суток. “Это можно сравнить с набором штифтов в замке”, – объясняет музыкант. “Основанный на факториалах алгоритм генерирует рандомизированную мелодию каждый раз, когда кто-то начинает прослушивание. Затем мелодия передаётся в базу данных и запоминается». Таким образом, для каждого слушателя «Summer Is Gone» представляет собой уникальную и неповторимую последовательность нот. “Мне кажется, цель любой технологии – это создание нечто нового, что было ранее недоступно для нас при использовании известных нам средств”, – размышляет Бэрд. «Ведь если воспроизводить с её помощью нечто такое, что уже было достижимо ранее, то это нивелирует всю суть технического прогресса”.
Определенно, «Daddy’s Car» стал вехой в развитии ИИ. Но цель Flow Machines не заключается в возрождении эпохи Beatles и прочих классиков прошлого. По ожиданиям разработчиков, FlowComposer станет надежным подспорьем для музыкантов в формировании музыкальных тенденций будущего. В каком-то смысле ИИ в музыке станет следующим шагом после пришествия драм-машин, синтезаторов и цифровых станций для работы со звуком. По тому же принципу, в будущем мы сможем устраивать совместные домашние репетиции с группой роботов. Или, к примеру, создавать сценические эффекты, реагирующие на поведение и настроение публики в реальном времени. И это только начало: ИИ имеет огромный потенциал как для профессионалов, так и для музыкантов-любителей.
«По моим ожиданиям, появление компьютерных композиторов-компаньонов вызовет лавину новых идей и течений», – предполагает Виггинс. И первые подтверждения этой оптимистической догадки начинают появляться уже сейчас. Вышедшая в прошлом году исследовательская игра No Man’s Sky была сопровождена саундтреком от 65daysofstatic, передающим всю безграничность её открытого мира. При помощи сложных серий алгоритмов, мат-рокерам из Шеффилда удалось сгенерировать саундтрек, способный служить музыкальным сопровождением для геймплея общей продолжительностью в 585 миллиардов лет. Живущая собственной жизнью музыка подстраивается под достижения игрока, принимая новые формы в зависимости от текущего игрового прогресса. Помимо этого, саундтрек реагирует на перемены в сюжете, к примеру, приобретая агрессивные и мрачные оттенки в наиболее напряженные моменты.
Но следует помнить, что революция ИИ приведет не только к возникновению новых художественных форм, но и к уменьшению роли человека в их формировании. Как стало ясно после успеха «Daddy’s Car», у компьютеров определенно имеется потенциал в написании текстов и музыки для последующего их использования живыми музыкантами – так называемом «гострайтинге». Мало того, несомненно, со временем мы станем свидетелями восхождения полностью компьютеризированной поп-звезды. «Популярная музыка в основном имеет довольно сложную структуру», – говорит Виггинс касательно темы гострайтинга. «Но если взять электронную танцевальную музыку наподобие транса, то по большей части структура композиций в этом жанре практически идентична. Поэтому ИИ будет гораздо легче сымитировать подобную музыку».
Однако, как добавляет профессор, гораздо большим достижением станет появление отдельного нового жанра, полностью основанного на интеракции с ИИ. «Компьютеры можно научить составлять аккордовые последовательности или писать гармонические мелодии. Но нашей целью является создание такой машины, которая смогла бы задавать и определять структуру музыкального произведения. Ведь в этом, по сути, и заключается разница между слепым воссозданием популярной музыки и творческим процессом написания своего собственного материала».
Впрочем, пока что ИИ не идеален и в плане имитирования. В ближайшем будущем вряд ли появится робот, способный повторить сочащийся социальным протестом лиризм Ясина Бея или яркие всплески воображения Бьорк. Вместе с тем, полная мимикрия и не является пределом музыкального потенциала искусственного интеллекта. ИИ не подарит нам нового Майлза Дэвиса или Филипа Гласса, но при этом он поможет новому поколению музыкантов открыть для себя идеи, ранее недоступные невооруженному взгляду их предшественников. И несмотря на то, что ИИ делает свои первые шаги, он уже успел расширить рамки нашего представления о музыке. Подобно тому, как виртуальная реальность дополняет наше окружающее пространство, но вряд ли когда-либо сможет полностью его заменить, так и искусственный интеллект станет лишь своего рода технологическим трамплином для человечества – прыжок в доселе неизведанные пучины собственных творческих возможностей нам придётся совершить самостоятельно.