Частота звукозаписи — лучше побольше, сведение в наушниках — норм, и другие музыкальные мифы. Часть 1
Современная цифровая звукозапись имеет уже достаточно долгую историю, чтобы вздорных легенд и нелепых верований накопилось немало. Благодаря им гитаристы записывают музыку для гитаристов, а не для людей. Молодые продюсеры собачатся с молодыми артистами по поводу частоты дискретизации проектов в DAW, YouTube-гуру засоряют мозги начинающим музыкантам сказками про необходимость суббаса в каждом треке. В общем, все при деле.
Меж тем как-то упускается из виду, что подавляющее большинство конечных потребителей музыки слушают ее для получения эмоций и на очень хреновой аудио аппаратуре. И что им глубоко наплевать, записывали ли мы гитары в direct input звуковой карты, как лохи; использовали ли мы «профессиональные звуки» синтезаторов или накидали трек из первых попавшихся сэмплов; сводили ли мы в наушниках (боже, какой кошмар) или на мониторах.
Сразу оговоримся: все мифы, обсуждаемые ниже, отчасти могут быть не совсем мифами. В современной цифровой звукозаписи очень мало «запретных» приемов и техник. Наука (единственная инстанция, которой на этой планете можно верить) очень редко изучает воздействие на мозг людей частоты дискретизации аудио файлов, их битрейта, степени компрессии при мастеринге и прочее.
По сути, каждый из нас — людей, создающих музыку — имеет полное право косячить как ему угодно, верить в «деревянную теорию» звучания электрогитар, считать, что «война громкостей» закончилась и т. п. Единственное, что имеет значение — слушает ли наше «перекомпрессированное дерьмо» или «культурно сведенную конфетку» конечный потребитель?
Однако некоторые приемы музыкальной черной магии все-таки стоит подвергать сомнению. Это рационально и избавляет от лишних производственных мук. Итак, поехали…
1. Частота дискретизации в проекте должна быть максимальной. Доступно 192 kHz? В ней и надо делать
Ну да, частота дискретизации «отвечает» за то, на сколько виртуальных «столбиков» нарежет аналого-цифровой преобразователь звуковой карты плавную синусоиду входящего аудио-сигнала — вокального, гитарного и любого другого. Якобы это очень важно.
Якобы случился прорыв в потоковом музыкальном вещании: Tidal теперь обеспечивает желающим разрешение до 24 бит/192 кГц; Apple Music ринулась туда же; Qobuz предлагает FLAC 24 бит/192 кГц. Туши свет, мы все делаем неправильно со своими более низкими частотами дискретизации!
Однако вы замучаетесь, особенно в России, искать дистрибьютора, поставлявшего бы ваши треки в стриминговые сервисы в формате 24 бит/192 кГц — это раз. Они в подавляющем большинстве требуют классический CD формат — 16 бит/44,1 кГц. А библиотеки, скажем, продакшн-музыки (они же специализированные лейблы) просят у вас стемы и миксы в 24 бит/48 кГц. И всем нормально (интересно — почему?).
Конечно, некоторые, пока редкие, стриминговые сервисы заходят на поляну аудиофилов — ОК, нормальная рыночная тактика. И доступно повышенное качество обычно только владельцам премиальным аккаунтов.
Но реальные деньги музыкантам, артистам, продюсерам, лейблам приносят вовсе не аудиофилы, а нормальные слушатели, которым музыка поступает в форматах с потерями аудио информации — mp3, AAC, Ogg. И это, почти все-все деньги, потому что аудиофилы с невероятными запросами к качеству составляют ничтожную долю потребителей — это два.
А вот «три»: если все музыкальные продюсеры настроят в своих DAW частоту дискретизации 192 кГц, то у трех четвертей из них компьютеры перестанут нормально тянуть их проекты. Нагрузка на CPU и оперативную память ляжет непосильная. Потому что мало кто из музыкантов может позволить себе покупку современной двухпроцессорной рабочей станции тысяч за пять евро. И большинство работает на более-менее «офисных» или «игровых» компах.
Соответственно, музыкальные, драматургические и технические возможности продакшна даже при основной частоте дискретизации в 96 кГц резко сокращаются у большинства продюсеров. И ради чего это? Ради ничтожной доли рынка аудиофильского музыкального стриминга?
Вот когда по планете начнет победное (и массовое) шествие какой-нибудь 6G с дикой пропускной способностью передачи данных, когда крутые процессоры, материнские платы, быстрая оперативка и качественные SSD подешевеют настолько, что станут доступны дворовому рэперу — вот тогда и начнем заморачиваться с повышенной частотой дискретизации проектов. А пока это нецелесообразно в рыночном и производственном смысле.
Ну и еще одно соображение. Никакую такую повышенную частоту дискретизации в музыке большинство слушателей не слышит в упор. Потому что для передачи высококачественного аудио им в уши требуется соответствующая высококачественная аппаратура воспроизведения.
А слушают наши треки мало того, что в основном на стримингах (с потерей качества), но еще и на всяких дурацких балалайках. И чаще всего — в дешевых наушниках-затычках, на бюджетных автомобильных аудио системах, на переносных колонках, на мультимедийных компьютерных колонках, на «умных» колонках, которые и стерео-то нормальное выдать не могут, потому что у них динамики расположены в радикально узком объеме…
2. «Война громкостей» закончилась (нет), поэтому не имеет смысла делать сильно компрессированные миксы
Да, Spotify, YouTube, Apple Music, Amazon и другие сервисы автоматически понижают уровень громкости слишком уж яростно звучащих треков. Диапазон понижения — до уровня -16, -14, иногда -9 LUFS (кто во что горазд).
А вот зачем-то заблокированный в РФ Soundcloud — не понижает. И знающие дяди рекомендуют на него выкладывать треки в -7 LUFS. И Яндекс.Музыка, например, не имеет нормализации громкости. И интернет-радио в большинстве своем не включают никакой нормализации на выходной шине. И чё делать? Для каждого сервиса отдельно мастерить трек? Но дистрибьюторы же не предлагают услуги отправки разных вариантов микса на разные стриминги…
Опять-таки включаем собственную рациональность. Во-первых, воспринимаемая громкость микса начинает формироваться уже в процессе аранжировки и предварительного сведения. Это субъективная величина, и на нее влияет много чего. Например, то, завалили ли мы транзиенты в миксе или нет? Достаточно ли «толстыми» мы сделали отдельные инструменты и группы инструментов?
Первоначальная динамическая обработка играет ведущую роль, а мастеринг, вопреки легендам, не может радикально исправить допущенные при сведении ошибки. Это всего лишь финальная полировка.
А во-вторых, поинтересуемся — внимают ли ведущие мировые артисты и их саунд-продюсеры рекомендациям стриминговых сервисов по величинам true peaks и LUFS? Оказывается, неа, не внимают.
Возьмем, например, с YouTube официальное аудио песни «Lose Control» товарища Teddy Swims, которая в январе 2024 года торчала в первой десятке Billboard Top-100. Это медленная лирическая композиция — правда, с весьма плотными барабанами.
Пики в фонограмме крутятся около нуля, а вообще-то YouTube-версия показывает даже +0,2 dB — недопустимая, ё-моё, вещь! Должны же были позаботиться звукорежиссеры о запасе громкости, чтобы избежать искажений, которые дает перекодирование в формат с потерей качества? А вот не позаботились.
И показатель Integrated LUFS в этой песне равен -7,6. Ой. А как же «правила» мастеринга под современные стриминговые особенности? Да вот никак — чувак хочет продолжать участвовать в «войне громкостей» и участвует.
Возьмем новую-старую песню The Beatles «Now And Then», выпущенную в 2023 году и высоко взлетевшую в чартах — впервые за последние лет 50 у «битлов», что для давно распавшейся супергруппы очень круто.
В ее фонограмме с пиками все обстоит очень деликатно — запас аж -3,2 dB. А вот Integrated LUFS составляет -12,7. Громковато для Spotify, Apple Music и некоторых других. Тем более, что песня-то совсем лирическая — с группой оркестровых струнных, медленная, грустная.
Выходит, даже Пол МакКартни и Ринго Старр, которым далеко за восемьдесят, берут и довольно плотненько накачивают тихую по замыслу песню. Даже старички не хотят быть проигравшими в «войне громкостей». Видно, за всем этим стоит какая-то логика.
Скорее всего, такая: машинное, огульное, «под одну гребенку» понижение уровня громкости на стриминговых сервисах слабо затрагивает, скажем так, «внутренний» динамический диапазон миксов. И если они хорошо накачаны во время сведения, то все равно субъективно слушаются громче, чем треки, строго подогнанные по LUFS к рекомендациям стриминговых платформ.
Именно поэтому очень многие попсовики, рэперы, рок, дэнс артисты, электронщики стараются выжимать из своих миксов аж -6 LUFS. «Война громкостей» продолжается во всей красе.
3. Широкие миксы — всегда хорошо. Феномен Big mono
Очень, очень нравится современным продюсерам делать миксы с широчайшим стерео. И вот к чему это привело. Обильно используя всевозможные стерео-расширялки, дабл-треки и эффект Хааса на большинстве инструментов, люди мало того, что рискуют насовать в микс фазовые искажения, но еще и обедняют аранжировку, делают ее фактически монофонической. «Как это?» — спросит читатель? А вот как…
Столь много инструментов, включая бас в разнообразной электронике, рэпе и попсе, стало звучать «по бокам головы» слушателя, что стерео сцена во многих треках стала превращается в своего рода «раздвоенное моно». На Западе это стиль сведения стали называть Big mono и другими красноречивыми терминами.
Он, возможно, хорошо работает в каком-нибудь minimal techno, но когда такие приемы бесконтрольно привносят вообще во все жанры, выигрышная техника приводит к художественному проигрышу.
Стерео вообще-то существует для того, чтобы построить для слушателя трехмерную (даже с ближним и дальним планами) музыкальную сцену. А это в свою очередь ведет к большему эмоциональному отклику слушателя на фонограмму. Его мозгу интересно ощущать пространственную сложность музыки. Big mono же напрочь разрушает саму концепцию. И, соответственно, уменьшает кайф конечного потребителя.
Все-таки широкое стерео, впрочем как и любую другую специю, стоит применять в сведении умеренно, дозировано и со вкусом.
4. Хорошее сведение в наушниках возможно! Для этого же есть волшебные плагины
Это никакой не стыдный секрет — многие из нас сидят в домашних студиях. И миллионы музыкантов композиторствуют, делают аранжировки и даже премиксы в наушниках. Иначе члены их семей могут посходить с ума от прослушивания многочисленных повторов изготовляемых фонограмм.
Но вот пришедшее из мира электронной музыки верование в то, что трек можно хорошо свести в наушниках — сомнительная штука. Тот факт, что «электроника» — музыка синтетическая, как бы «неестественная», и никто не знает, как она должна звучать (потому что может звучать как угодно, и будет норм) породил убеждение об успешной работе без аудио-мониторов.
Действительно, есть специальные плагины для такого. Например, российский Realphones. И даже доступны у них профили калибровки под конкретные модели мониторных наушников. Можно за отдельные деньги аж персональную калибровку заказать — под свои личные.
Славятся эти решения тем, что позволяют имитировать взаимопроникновение звука из разных каналов в оба уха (как это происходит при нормальном мониторинге), помогают корректировать АЧХ наушников, позволяют «сводить» в виртуальных комнатах известных мировых студий, эмулируют задержки прилета звука от колонок и эхо помещений «в которых стоят мониторы». Некоторые (с применением веб-камеры) могут реагировать на верчение головой.
Но все-таки полноценное сведение — прямо вот беловое, финальное с такими плагинами получается лишь у каких-то единичных гениев. Слишком уж велика разница между естественным мониторингом и ушным. И слишком быстро мозг человека привыкает к ненормальной виртуальной сцене.
Нейрофизиологи знают: в нашем черепе работает уйма крутых аудио «процессоров», включая даже биологические аналого-цифровые преобразователи, какие-то загадочные виртуальные эквалайзеры, «выделители» важных звуков из общего шума и т. п.
Мозг адаптируется к любому аудиосигналу за считанные десятки минут. И при микшировании «привыкает» к имеющейся сцене, при этом как бы достраивая до правильной звуковой картины миксы с провалами и ненормальными горбами в АЧХ, плоской пространственной обработкой и даже фазовыми искажениями и неприятными резонансами.
Именно поэтому опытные звукорежиссеры делают перерывы почти каждые полчаса и стараются не заниматься сведением больше 4 часов подряд (а лучше в день). Ибо мозг нас обманывает и приукрашивает имеющийся музыкальный материал.
Нам трудно адекватно воспринимать параметры микса даже после получаса работы на хороших аудио-мониторах. Что уж говорить о попытках сведения в наушниках!
Специализированные плагины для микширования в наушниках скорее помогают не очень сильно косячить во время аранжировки и премикса, и этим они хороши. Но рассчитывать на них при финальном сведении, особенно оркестровой музыки и вообще музыки с обилием живых инструментов — очень рискованное решение.
Продолжение следует…
Владимир Лакодин