Константин Нархов, проект «Лаборатория Хаоса»: «Правильно подобранная музыка может управлять поведением людей»

Креативные индустрии

Константин Нархов, проект «Лаборатория Хаоса»: «Правильно подобранная музыка может управлять поведением людей»
24 Декабря 2019, 09:26
Искусственный интеллект может начать менять жизнь человека быстрее, чем кажется. Уже сейчас алгоритмы пытаются предсказать, какая песня станет хитом, распознать состояние депрессии, помочь найти похожего по характеру друга. Сооснователь и партнер проекта «Лаборатория Хаоса» Константин Нархов в интервью «Культуромании» рассуждает о настоящем и будущем умных музыкальных сервисов.

Искусственный интеллект может начать менять жизнь человека быстрее, чем кажется. Уже сейчас алгоритмы пытаются предсказать, какая песня станет хитом, распознать состояние депрессии, помочь найти похожего по характеру друга. Сооснователь и партнер проекта «Лаборатория Хаоса» Константин Нархов в интервью «Культуромании» рассуждает о настоящем и будущем умных музыкальных сервисов.

— Почему ваша компания называется «Лаборатория Хаоса»?

— Вся наша деятельность построена вокруг исследований, изучения и интерпретации больших потоков данных, которые имеют случайную, а значит, хаотичную природу. Мы начинали с анализа больших данных, получаемых посредством радиотелескопов, пытаясь найти, условно говоря, сигналы из космоса. В таких случаях мы имели дело с хаосом. Отсюда и название.

— Была еще какая-то цель при работе с большими данными кроме расшифровки возможных космических посланий?

— Главной целью было тренировать на этих хаотических данных алгоритмы, найти скрытые закономерности, научиться прогнозировать. В этом смысле наши наработки на данных, имеющих псевдослучайную природу, очень важны. Именно на них все основано. Сейчас появились онлайн-сервисы, в которых можно попробовать проанализировать любой поток данных. Мы же придумали алгоритмы, позволяющие, например, сделать вывод о том, станет ли песня хитом.

— О какой технологии вы говорите?

 — Сейчас мы разрабатываем технологию EMUSE. Респондент надевает на голову специальную гарнитуру с датчиками — что-то вроде шлема. Это устройство снимает энцефалограмму во время воспроизведения музыки. Путем обработки мозговых импульсов мы видим перепады настроения, эмоции, которые испытывает человек. По сути, мы записываем эмоциональный след музыки и определяем, какая композиция вызывает эмоциональный подъем и, соответственно, может оказаться коммерчески успешной.

— То есть, написав песню, можно будет проверить ее на «хитовость»?

— Да. Раньше это можно было узнать, только отправив трек в ротацию. Правда, в эпоху соцсетей можно узнать мнение публики и раньше. Но все же такое «исследование» сложно назвать серьезным. При помощи технологии EMUSE тестировать аудиоконтент можно будет в лабораторных условиях. Она позволит с достаточно высокой степенью вероятности предсказать, как отреагируют слушатели на то или иное произведение. Думаю, у нас есть все шансы серьезно повлиять на профессиональную музыкальную индустрию.

— Прогнозирование хитов будет основано на анализе больших данных?

— Да, например, если в фокус-группе 50 человек, то мы получаем с помощью гарнитур 400–500 сессий контрольного прослушивания с шагом в 100 миллисекунд — это большой поток данных, обрабатываемых в режиме реального времени. Сейчас мы учимся анализировать его, чтобы давать психоэмоциональную оценку и создавать соответствующую метрику для людей.

— Как будет использоваться технология в ближайшем будущем? Для решения каких задач она может применяться?

— Вначале будут проводиться стандартные фокус-группы, а дальше мы рассчитываем на рост заинтересованности среди добровольцев, хотим сделать нашу технологию модной. Ведь с помощью EMUSE пользователь сможет следить за здоровьем, искать друзей и не только.

— А каким образом?

— У нас есть идея насчет социальной сети на основании работы нейросервиса, EMUSE — именно нейросервис. Думаю, для реализации этой идеи подойдут группы людей со специализированными интересами. Например, какие-нибудь любители живописи. Находить друг друга можно будет по тэгам с психоэмоциональной метрикой.

— Поделитесь вашими планами на ближайшее время.

— Собираемся с помощью программного обеспечения — алгоритмического композера и сэмплера, воспроизводящего мелодии, — подстраивать музыку под психоэмоциональное состояние человека.

— Это когда под настроение подбирается музыка?

— Не то чтобы подбирается музыка… Вы записываете с помощью нашего прибора свое состояние в хорошем настроении. Оно передается на облачный сервис. Загрустив, впав в депрессию, вы можете надеть наш супершлем, он снимет энцефалограмму и передаст в облако. Там система смотрит, какая музыка могла бы вас вернуть в хорошее расположение духа. Вы слушаете музыку, и настроение улучшается. Причем музыка постоянно подстраивается, добиваясь, чтобы импульсы, которые исходят из вашего мозга, стали соответствовать импульсам в вашем спокойном состоянии. Получается такой психогармонайзер, умеющий, наверное, заменить психоаналитика. В общем, теперь мы можем подбирать музыку для человека, исходя из его эмоций.

— А музыку из фильма ужасов EMUSE может оценить?

— Да, одна из идей возможного применения нашей технологии состоит в использовании EMUSE для ранжирования музыки по возрасту, в частности, музыки в кино. Некоторые саундтреки вызывают очень негативные эмоции. Наша технология позволила бы делать возрастную маркировку музыки в фильмах.

— А где еще может пригодиться такая эмоциональная «отзывчивость» вашей технологии?

— Например, не допускать человека в возбужденном или депрессивном состоянии на смену в полиции или за руль. Энцефалограмма покажет активность центров возбуждения и агрессии. При этом не нужен будет штатный психолог, не понадобится дорогостоящего оборудования, как в случае с детектором лжи. Даже компьютер не нужен. Достаточно будет планшета, который имеет доступ к нашему облачному сервису, и нейрогарнитуры.

— Правда ли, что вы сможете писать музыку за умерших исполнителей?

— Да. Приведу пример. Есть композиции Джона Леннона до 1980-года, до момента, когда его убили. Если их определенным образом разложить в матрицы, а затем загрузить в сервис прогнозирования, то мы можем с некоторой долей вероятности получить мелодии, которые он написал бы, будучи живым.

— А как обстоит дело с реанимацией вокала?

— Конечно, и сейчас есть сервисы, которые позволяют говорить голосом какого-то человека. Реанимация вокала предполагает реализовать физиологические особенности вокалиста. Как он расставлял слоги, как дышал, как артикулировал в тех или иных ситуациях. Взяв концертные записи, вы увидите, что в живом исполнении он артикулирует по-особенному, причем одинаково от концерта к концерту. А на репетиции исполнение отличается, потому что на живом выступлении есть энергетика зала, и она заставляет петь чуть иначе. И вот эти вещи в принципе можно спрогнозировать: как спел бы исполнитель, если бы это был концерт? Берется массив данных концертных записей, и трек исполняется, как на концерте. А как это звучало бы, если бы он играл, допустим, квартирник? Берутся большие данные квартирников, получается исполнение на квартирнике.

— Почему для исследований вы выбрали именно музыку?

— Во-первых, у нас команда —  бывшие музыканты. То есть это люди, которые имеют музыкальный бэкграунд. Во-вторых, сейчас есть некоторый подъем музыкальной индустрии.

— В мире или в России?

— Всюду. Интерес растет за счет онлайн-сервисов, где можно купить подписку на самую разнообразную музыку. Люди стали слушать много композиций, и при этом они не покупают кассеты или пластинки. Возник новый запрос на каталогизацию, на предоставление метаинформации с музыкальными треками. И если есть запрос, то появляются команды, аналогичные нашей, которые пытаются в этой сфере создать продукт.

— Значит EMUSE отвечает на запрос музыкальной индустрии. А где еще можно использовать эту технологию в коммерческих целях?

— У владельцев магазинов есть запрос на музыкальный контент для их заведений, поскольку правильно выбранная музыка может управлять покупателями, их спросом. Мы можем предоставить информацию о том под какие треки люди засыпают, под какие просыпаются и испытывают эмоциональный подъем, под какие хорошо покупают булки и кефир. Поэтому одна композиция подойдет для торгового центра, а другая — для спортзала.

— Сейчас выгодно инвестировать в технологии, связанные с культурой?

— Я думаю, что выгодно. Можно вспомнить историю с iTunes у Apple. Люди, которые вложились в эту технологию, сейчас имеют очень хорошую прибыль.

Елена Сердечнова

Подпишитесь на наш телеграм-канал, чтобы всегда быть в самом центре культурной жизни

Константин Нархов, проект «Лаборатория Хаоса»: «Правильно подобранная музыка может управлять поведением людей»

<p> Искусственный интеллект может начать менять жизнь человека быстрее, чем кажется. Уже сейчас алгоритмы пытаются предсказать, какая песня станет хитом, распознать состояние депрессии, помочь найти похожего по характеру друга. Сооснователь и партнер проекта «Лаборатория Хаоса» <b>Константин Нархов</b> в интервью «Культуромании» рассуждает о настоящем и будущем умных музыкальных сервисов. </p> <p> <b>— Почему ваша компания называется «Лаборатория Хаоса»?</b> </p> <p> — Вся наша деятельность построена вокруг исследований, изучения и интерпретации больших потоков данных, которые имеют случайную, а значит, хаотичную природу. Мы начинали с анализа больших данных, получаемых посредством радиотелескопов, пытаясь найти, условно говоря, сигналы из космоса. В таких случаях мы имели дело с хаосом. Отсюда и название. </p> <p> <b>— Была еще какая-то цель при работе с большими данными кроме расшифровки возможных космических посланий?</b> </p> <p> — Главной целью было тренировать на этих хаотических данных алгоритмы, найти скрытые закономерности, научиться прогнозировать. В этом смысле наши наработки на данных, имеющих псевдослучайную природу, очень важны. Именно на них все основано. Сейчас появились онлайн-сервисы, в которых можно попробовать проанализировать любой поток данных. Мы же придумали алгоритмы, позволяющие, например, сделать вывод о том, станет ли песня хитом. </p> <p> <b>— О какой технологии вы говорите?</b> </p> <p> <b> </b>— Сейчас мы разрабатываем технологию EMUSE. Респондент надевает на голову специальную гарнитуру с датчиками — что-то вроде шлема. Это устройство снимает энцефалограмму во время воспроизведения музыки. Путем обработки мозговых импульсов мы видим перепады настроения, эмоции, которые испытывает человек. По сути, мы записываем эмоциональный след музыки и определяем, какая композиция вызывает эмоциональный подъем и, соответственно, может оказаться коммерчески успешной. </p> <p> </p> <p> <b>— То есть, написав песню, можно будет проверить ее на «хитовость»?</b> </p> <p> </p> <p> — Да. Раньше это можно было <del> </del>узнать, только отправив трек в ротацию. Правда, в эпоху соцсетей можно узнать мнение публики и раньше. Но все же такое «исследование» сложно назвать серьезным. При помощи технологии EMUSE тестировать аудиоконтент можно будет в лабораторных условиях. Она позволит с достаточно высокой степенью вероятности предсказать, как отреагируют слушатели на то или иное произведение. Думаю, у нас есть все шансы серьезно повлиять на профессиональную музыкальную индустрию. </p> <p> <b>— Прогнозирование хитов будет основано на анализе больших данных?</b> </p> <p> — Да, например, если в фокус-группе 50 человек, то мы получаем с помощью гарнитур 400–500 сессий контрольного прослушивания с шагом в 100 миллисекунд — это большой поток данных, обрабатываемых в режиме реального времени. Сейчас мы учимся анализировать его, чтобы давать психоэмоциональную оценку и создавать соответствующую метрику для людей. </p> <p> <b>— Как будет использоваться технология в ближайшем будущем? Для решения каких задач она может применяться?</b> </p> <p> — Вначале будут проводиться стандартные фокус-группы, а дальше мы рассчитываем на рост заинтересованности среди добровольцев, хотим сделать нашу технологию модной. Ведь с помощью EMUSE пользователь сможет следить за здоровьем, искать друзей и не только. </p> <p> <b>— А каким образом?</b> </p> <p> — У нас есть идея насчет социальной сети на основании работы нейросервиса, EMUSE — именно нейросервис. Думаю, для реализации этой идеи подойдут группы людей со специализированными интересами. Например, какие-нибудь любители живописи. Находить друг друга можно будет по тэгам с психоэмоциональной метрикой. </p> <p> <b>— Поделитесь вашими планами на ближайшее время. </b> </p> <p> — Собираемся с помощью программного обеспечения — алгоритмического композера и сэмплера, воспроизводящего мелодии, — подстраивать музыку под психоэмоциональное состояние человека. </p> <p> <b>— Это когда под настроение подбирается музыка?</b> </p> <p> — Не то чтобы подбирается музыка… Вы записываете с помощью нашего прибора свое состояние в хорошем настроении. Оно передается на облачный сервис. Загрустив, впав в депрессию, вы можете надеть наш супершлем, он снимет энцефалограмму и передаст в облако. Там система смотрит, какая музыка могла бы вас вернуть в хорошее расположение духа. Вы слушаете музыку, и настроение улучшается. Причем музыка постоянно подстраивается, добиваясь, чтобы импульсы, которые исходят из вашего мозга, стали соответствовать импульсам в вашем спокойном состоянии. Получается такой психогармонайзер, умеющий, наверное, заменить психоаналитика. В общем, теперь мы можем подбирать музыку для человека, исходя из его эмоций. </p> <p> <b>— А музыку из фильма ужасов E</b><b>MUSE может оценить?</b> </p> <p> — Да, одна из идей возможного применения нашей технологии состоит в использовании EMUSE для ранжирования музыки по возрасту, в частности, музыки в кино. Некоторые саундтреки вызывают очень негативные эмоции. Наша технология позволила бы делать возрастную маркировку музыки в фильмах. </p> <p> <b>— А где еще может пригодиться такая эмоциональная «отзывчивость» вашей технологии?</b> </p> <p> — Например, не допускать человека в возбужденном или депрессивном состоянии на смену в полиции или за руль. Энцефалограмма покажет активность центров возбуждения и агрессии. При этом не нужен будет штатный психолог, не понадобится дорогостоящего оборудования, как в случае с детектором лжи. Даже компьютер не нужен. Достаточно будет планшета, который имеет доступ к нашему облачному сервису, и нейрогарнитуры. </p> <p> <b>— Правда ли, что вы сможете писать музыку за умерших исполнителей?</b> </p> <p> — Да. Приведу пример. Есть композиции Джона Леннона до 1980-года, до момента, когда его убили. Если их определенным образом разложить в матрицы, а затем загрузить в сервис прогнозирования, то мы можем с некоторой долей вероятности получить мелодии, которые он написал бы, будучи живым. </p> <p> <b>— А как обстоит дело с реанимацией вокала?</b> </p> <p> — Конечно, и сейчас есть сервисы, которые позволяют говорить голосом какого-то человека. Реанимация вокала предполагает реализовать физиологические особенности вокалиста. Как он расставлял слоги, как дышал, как артикулировал в тех или иных ситуациях. Взяв концертные записи, вы увидите, что в живом исполнении он артикулирует по-особенному, причем одинаково от концерта к концерту. А на репетиции исполнение отличается, потому что на живом выступлении есть энергетика зала, и она заставляет петь чуть иначе. И вот эти вещи в принципе можно спрогнозировать: как спел бы исполнитель, если бы это был концерт? Берется массив данных концертных записей, и трек исполняется, как на концерте. А как это звучало бы, если бы он играл, допустим, квартирник? Берутся большие данные квартирников, получается исполнение на квартирнике. </p> <p> <b>— Почему для исследований вы выбрали именно музыку?</b> </p> <p> — Во-первых, у нас команда —  бывшие музыканты. То есть это люди, которые имеют музыкальный бэкграунд. Во-вторых, сейчас есть некоторый подъем музыкальной индустрии. </p> <p> <b>— В мире или в России?</b> </p> <p> — Всюду. Интерес растет за счет онлайн-сервисов, где можно купить подписку на самую разнообразную музыку. Люди стали слушать много композиций, и при этом они не покупают кассеты или пластинки. Возник новый запрос на каталогизацию, на предоставление метаинформации с музыкальными треками. И если есть запрос, то появляются команды, аналогичные нашей, которые пытаются в этой сфере создать продукт. </p> <p> <b>— Значит E</b><b>MUSE отвечает на запрос музыкальной индустрии. А где еще можно использовать эту технологию в коммерческих целях?</b> </p> <p> — У владельцев магазинов есть запрос на музыкальный контент для их заведений, поскольку правильно выбранная музыка может управлять покупателями, их спросом. Мы можем предоставить информацию о том под какие треки люди засыпают, под какие просыпаются и испытывают эмоциональный подъем, под какие хорошо покупают булки и кефир. Поэтому одна композиция подойдет для торгового центра, а другая — для спортзала. </p> <p> <b>— Сейчас выгодно инвестировать в технологии, связанные с культурой?</b> </p> <p> — Я думаю, что выгодно. Можно вспомнить историю с iTunes у Apple. Люди, которые вложились в эту технологию, сейчас имеют очень хорошую прибыль. </p> <p> <b>Елена Сердечнова</b> </p>

Константин Нархов, проект «Лаборатория Хаоса»: «Правильно подобранная музыка может управлять поведением людей»

Константин Нархов, проект «Лаборатория Хаоса»: «Правильно подобранная музыка может управлять поведением людей»

Константин Нархов, проект «Лаборатория Хаоса»: «Правильно подобранная музыка может управлять поведением людей»

Константин Нархов, проект «Лаборатория Хаоса»: «Правильно подобранная музыка может управлять поведением людей»