Как обработать голос: Обработка голоса -Статьи и обзоры
Как обработать голос в записи?
Теги: Музыкальные курсыПерейти на страницу с детальным описанием курса и возможностью заказать
Приятный голос и умение красиво говорить – визитная карточка каждого человека. Стоит согласиться, что чем сочнее, глубже и насыщенней звучит наша речь, тем больше благодарных слушателей мы имеем. А это важно, если деятельность человека связана с инфо- или шоу бизнесом. Но как сделать голос в записи красивым и приятным? Решение есть, и это — обработка голосового звука специальными методиками и приборами.
Зачем нужна обработка голоса?
Порядка 25% всех жителей нашей планеты усваивают информацию благодаря слуху. И если голос, что звучит в записи, интересен человеку, он с любопытством будет слушать вещателя дальше. Но если исходящий от диктора звук режет слух, он не воспринимается так, как нужно. Если звук плохого качества, от него устает мозг, восприятие информации ухудшается, а ее качество вызывает сомнения.
Обработка голоса позволяет сделать его качественным, приятным для восприятия. Это важно, если запись предназначена для широкого круга слушателей. С помощью обработки можно убрать посторонние шумы, добавить эффектности голосовому звуку. Сделать это можно несколькими методами.
Как сделать обработку голоса?
Звукозаписывающие студии используют несколько методов по обработке голоса и звука:
- Монтаж (редактирование). Способ заключается в вырезании некоторых участков со звуком, замене другими голосовыми вставками, размножении или их вставке.
- Амплитудные преобразования – работа над амплитудой сигнала. Для этого амплитуду звука умножают на некое постоянное число, вследствие чего интенсивность сигнала будет одинаково изменяться определенное количество времени (оно может усиливаться или ослабляться), или же изменяют амплитуду сигнала, умножая ее на моделирующую функцию.
- Частотные преобразования. Звук в процессе такой обработки раскладывают на мельчайшие составляющие (простейшие синусоидальные колебания), после чего производят обработку нужных участков (например, фильтрацию) и обратную свертку.
- Преобразование фаз. Этот метод обработки сигнала может быть выполнен двумя способами: постоянным сдвигом фазы сигнала или наложением фазомоделирующей функции. Такие манипуляции делают звук насыщенным, «объемным».
- Временные преобразования. Выполняются методом наложения на звук его копий, которые сдвинуты во времени. Такая методика позволяет получить эффект эха или хора.
- Формантные преобразования. Каждый звук имеет такие себе форманты – усиленные участки звукового спектра. Если изменять параметры формант звука, издаваемого человеком, можно изменить тембр и высоту голоса.
В искусстве обработки голосового звука эти методики далеко не единственные, но все они направлены на улучшение сигнала, преобразование его четкости, яркости. Первоочередной задачей в обработке голоса является очистка звука от посторонних шумов, причем это касается не только основного сигнала, но и фонового. Далее можно регулировать громкость речи, тембр голоса, высоту его звучания и тональность, корректируют эффекты.
Если голос звучит недостаточно четко, можно применить компрессирование – его выравнивание. Эта методика позволяет выделить звуки, которые слышны плохо, и уравнять их с теми, которые слышны хорошо. В итоге получается ровная по громкости речь.
Голос и инфобизнес – в чем связь?
Может показаться, что в инфобизнесе голос и речь – вещи не столь важные. Куда важнее иметь деловую хватку, располагающую внешность, умение убеждать… Но так ли это? Что представляет собой «инфобизнес»?
По сути, инфобизнес – это информационный бизнес, то есть деятельность, основанная на продаже какой-либо информации, которая приносит доход. Люди, занимающиеся инфобизнесом, чаще продают ту информацию, в которой хорошо разбираются. Но эта информация должна быть уникальной, интересной и полезной, иначе спроса на нее не будет.
В инфобизнесе качество продаваемого продукта очень важно. Это могут быть электронные книги, диски с записью лекций, аудио- и видеоуроки, семинары, курсы – такого инфопродукта на просторах интернета сегодня огромное количество. Именно поэтому важно, чтобы ваш контент был качественным, – это привлечет большую аудиторию. И поскольку человек информацию воспринимает органом слуха лучше, чем зрительно, звуковой составляющей контента нужно уделить больше внимания.
Adobe Audition в помощь!
- Для записи используй качественный микрофон. Благо, современный рынок аудио- и видеотехники предлагает множество самых разных микрофонов, а потому подобрать наиболее подходящий вариант – не проблема.
- Во время записи разговаривай уверенно, не чавкай, не сбивайся, не используй слова-паразиты.
- Следи, чтобы в помещении не было посторонних звуков, шума и гула.
- Если инфобизнес – серьезное занятие, стоит приобрести хорошую звукозаписывающую аппаратуру.
- Не поленись сделать постобработку голосовых записей.
Обработать голосовой звук можно с помощью программы Adobe Audition – самый простой и популярный вариант для этих целей. Для инфобизнеса – отличное решение. Обучиться программе можно самостоятельно. А чтобы узнать все «фишки» Adobe Audition, не обязательно слоняться по просторам интернета в поисках подходящей информации – ее там очень мало. Гораздо проще и выгоднее приобрести курс «Обработка голоса для инфобизнесмена». Изучив видеокурс, вы научитесь обработке голоса на профессиональном уровне, даже если ранее вы ничего не знали о звукорежиссуре и особенностях записи. Будьте уверены, эта информация поможет вам стать успешным инфобизнесменом.
Другие материалы рубрики
comments powered by HyperComments
Обработка аудио для ютуба и стримов: как сделать дикторский голос программными средствами | Микрофоны | Блог
Создание видеороликов, трансляция подкастов и стримов — все это становится популярнее с каждым годом. Растущая конкуренция выдвигает больше требований к качеству контента, особенно к технической части — мало кто будет терпеть хрипящий звук и едва различимую речь, которую заглушает фоновая музыка. В этой статье рассматриваются базовые методы обработки голоса, которые помогут сделать его сопоставимым по качеству с речью профессионального диктора или радиоведущего.
Общие советы
Стоит сразу оговориться: хорошего результата не получится без хороших «сырцов» — исходный материал должен быть качественным. В идеале, речь должна не только записываться на хороший микрофон и звуковую карту, но и быть начитанной с дикцией, произношением, интонациями, выразительностью, характером, манерой и правильным дыханием. Возможные дефекты речи — ярко выраженная картавость или гнусавость — обработкой не исправляются.
Идеально, если речь записана в акустически обработанной комнате. Если таковой нет, можно обойтись акустическим экраном для микрофона. Расстояние до микрофона индивидуально и зависит от громкости голоса, экспрессии и динамики. Главное, чтобы не было перегрузов или откровенно тихого сигнала. Оптимальное значение — от -18 до -12 дБ.
На микрофоне обязательно должна быть либо ветрозащита, либо поп-фильтр. Взрывные согласные сложно поддаются компьютерной обработке, так что лучше приобрести недорогой аксессуар, который избавит от большинства проблем с ними.
Набор неплохих бесплатных плагинов от DAW Reaper можно скачать с официального сайта — там есть все необходимое. Для тех, кто всерьез увлечется звукорежиссурой, можно посоветовать более продвинутые пакеты плагинов от Waves, Fabfilter, Softube — их существует множество на любой вкус.
Обработку стоит выполнять на студийных мониторах или в наушниках студийного уровня. Без качественного контроля будет сложно разобрать, что вообще происходит с аудиосигналом.
Обрабатываем звук для оффлайн-видео
Итак, голос записан, и теперь нужно его обработать.
Начать стоит счистки материала: убрать все шумы в паузах, если необходимо — вдохи, вздохи и другие артефакты. Можно сделать все вручную, а можно поставить нойз-гейт. Он должен находится в самом начале цепи обработки. Настроить гейт очень просто: параметр threshold означает порог его срабатывания, здесь нужно взять самый громкий участок с шумами и сделать уровень thrershold чуть выше его. Attack — как быстро гейт «открывается» для пропуска полезного сигнала, release — как быстро он «закрывается» для удаления шума. Главное, чтобы гейт не откусывал слишком тихие слова.
Следующий шаг — шумоподавление. Нужно найти участок записи без какого-либо сигнала, чтобы на нем присутствовал только шум цепи звукозаписи. Если уровень шума ниже 50 дБ (как на скриншоте выше) — можно смело махнуть на него рукой и не делать ничего, такой шум никто не услышит. Если шум явно заметен, можно использовать специальные плагины (например, reafir от Reaper или denoiser в Cubase) для его удаления, либо подрезать эквалайзером пару самых шумных частот — точно так же, как будут удалятся резонансы в следующем пункте.
Фильтрация и удаление резонансов. Бывает, что низкий мужской голос начинает неприятно бубнить в районе 100–200 Гц, либо высокий женский тембр в сочетании с не самым лучшим микрофоном неприятно режет по ушам. Так и проявляются резонансы. Избавиться от них просто: нужно поставить в цепь обработки эквалайзер и узкой полосой с большим усилением (10–30 дБ) “пройтись” по всему частотному спектру, вычисляя самые неприятные места с режущим ухо свистом, звоном или гудением. Их необходимо ослабить узкой полосой на 3–5 дБ. Главное здесь не перестараться — удаления всего двух-трех основных резонансов обычно хватает для дикторского голоса.
Поиск и подрезание резонанса
Помимо этого, можно вовсе удалить целые куски спектра, в которых нет никакого полезного сигнала. Это делается с помощью low-pass и hi-pass фильтров, которые обрезают высокие и низкие частоты соответственно.
Чаще всего проблемы встречаются в следующих областях:
● Ниже 75–100 Гц — здесь находится, в основном, низкочастотный бубнящий шум. Можно смело применить hi-pass фильтр и обрезать все до этих значений.
● 100–150 Гц — тут нередко находятся гудящие частоты, особенно это касается мужского вокала, записанного в небольшой комнате. Можно подрезать их узкой полосой.
● 800–1000 Гц — здесь может располагаться «гундосый» назальный тон, который также имеет смысл подрезать узкой полосой.
● 4–9 кГц — тут находятся сибилянты — шипящие согласные звуки «с-с-с», «ш-ш-ш», «щ-щ-щ», которые могут неприятно свистеть при записи. Для борьбы с ними обычно используется деэссер — специальный прибор, который смягчает резкость свистящих согласных. Но можно не заморачиваться, найти самую неприятную частоту и также подрезать ее узкой полосой.
● Выше 16 кГц — в человеческой речи редко присутствует что-то полезное выше этой частоты, так что можно смело применять low-pass фильтр.
Так выглядит эквалайзер после вырезания резонансов и ненужных частот
Добавление недостающих частот. Теперь, когда остался только полезный сигнал, нужно сделать его четче и ярче. В качестве отправной точки будут полезны следующие данные:
● 180–240 Гц — прибавление 3–5 дБ широкой полосой в этой области сделает мужскую речь более полной и читаемой. Для женской речи это будет 200–300 Гц.
● 1.5–2 — 5 кГц — это самый важный диапазон для голоса, так называемая область разборчивости. Человеческий слух наиболее чувствителен именно к этим частотам, стоит прибавить их широкой полосой на 3–8 дБ.
● 9–11 кГц — эти частоты отвечают за яркость голоса. Их очень часто не хватает в речи, записанной даже на студийный микрофон, особенно в заглушенной комнате, которая с аппетитом пожирает верха вокала. Нередко приходится значительно прибавлять этот диапазон — на 6–12 дБ, чтобы придать речи ясности. Но нужно следить за шипящими согласными.
● Выше 12 кГц — это область «воздуха», поднятие которой позволит сделать речь более натуральной и яркой. Обычно для этой и предыдущей области частот используется параметр эквалайзера hi-shelf, который выглядит как «планка» и позволяет моментально «осветлить» голос.
При эквализации низких частот лучше использовать узкие полосы, а при высоких — широкие, это сделает работу эквалайзера менее заметной.
Компрессия. Компрессором убирается разница между громкими и тихими участками записи. В итоге голос будет звучать равномерно, от хлопков и кашля слушатель не будет вздрагивать, а при шепоте ему не придется прибавлять громкость. Понять работу компрессора поможет аналогия с громкой музыкой в комнате, которая не нравится соседу за стенкой. Параметр threshold будет тем критическим уровнем громкости музыки, при превышении которого сосед начинает тарабанить по батарее монтировкой; attack — как быстро он бежит к батарее при превышении этого уровня; ratio — насколько нужно убавить громкость, чтобы успокоить соседа; а release — как долго сосед перестает возмущаться после убавления громкости. Сосед-компрессор заставляет несчастного меломана держать уровень громкости музыки в определенных пределах. Начать настройку можно со следующих значений:
● Ratio: 4:1 (таким образом, если сигнал превышает порог на 4 дБ, то он скомпрессируется до 1 дБ выше порога)
● Attack: как правило, для голоса хорошо работает быстрая атака в районе 5–10 мс, она позволяет компрессору срабатывать мгновенно. Если при этом компрессия начинает съедать согласные — атаку нужно увеличить.
● Release: если в компрессоре есть функция авторелиз, можно ей и воспользоваться. Если нет — начать стоит с 40–50 мс.
● Output или make-up: если в компрессоре есть функция автомейкапа, можно применить ее. В противном случае компенсацию громкости можно выполнить вручную на слух — главное, чтобы итоговый сигнал не попадал в красную зону.
● Threshold: здесь нужно смотреть по уровню громкости исходного трека. Начать можно с -8 дБ.
Есть проверенный метод настройки компрессора «на слух» для новичков: нужно выкрутить ratio и threshold на максимум, attack и release — на минимум. Так будет лучше слышно, что прибор делает с сигналом. Далее подбирается атака, потом релиз, а параметрами ratio и threshold регулируется уровень до желаемых значений. Как правило, уровень компрессии отображается на индикаторе «вверх ногами», ведь компрессор работает на понижение сигнала. Параметр threshold следует установить таким образом, чтобы компрессор срезал около 6 дБ для тихого голоса и около 12 дБ для громких участков.
Лимитеринг. Это операция позволяет ограничить максимальный уровень громкости. Сигнал на мастер-шине не должен зашкаливать, и лимитер выступает в роли очень жесткого компрессора, который не позволяет сигналу выбраться за пределы установленного значения. Как правило, среднее арифметическое уровня сигнала (RMS) должно быть около -16 дБ. При рендере на мастер-шине нужно выставить уровень -0.5 дБ, потому что финальная конвертация аудио может сделать звук громче и добавить искажений. При отсутствии лимитера его роль может сыграть компрессор: достаточно выставить ratio на максимум, threshold на -0.5 дБ, и атаку на минимум.
Лимитер и компрессор в роли лимитера
Если фоновая музыка в видео заглушает речь, нужно выставить RMS музыки и RMS голоса одинаковыми, после чего убавить музыку на 5–10 дБ. Если в некоторых местах слова все еще неразборчивы, можно применить к музыкальной подложке эквализацию. Достаточно посмотреть на эквалайзер для речи и сделать все наоборот в эквалайзере для музыки: например, если в речи 5 кГц приподнято широкой полосой, то в музыке эти же 5 кГц нужно убавить.
Обрабатываем звук в онлайне
У стримов и подкастов есть своя специфика при обработке голоса — здесь важно, чтобы плагины не были ресурсоемкими и не сильно грузили компьютер. Поэтому стоит использовать минимально необходимый набор эффектов.
Чаще всего для стримов используется программа OBS Studio. В ней можно загружать точно те же VST-плагины для обработки звука, что и в DAW. Если используется не OBS Studio, то для обработки голоса можно воспользоваться отдельной программой для потоковой обработки звука VSTHost, она работает с любыми приложениями для стримов.
Так выглядит плагин ReaFIR в OBS Studio
Для обработки голоса потребуется необходимый минимум:
1. Шумоподавление. В отличие от оффлайн-видео, звук к которым нередко записывается отдельно на качественный микрофон, в стримах часто используется не самое лучшее оборудование. Недорогой микрофон вкупе со встроенной звуковой картой и включенной функцией Microphone Boost в настройках звука Windows будут сильно шуметь. Для того, чтобы избавиться от этого шума, можно использовать встроенный в OBS фильтр Noise Suppression. У него всего одна настройка — уровень шумоподавления, начать стоит со значения около -20 дБ.
2. Гейт. Если в звуке для оффлайн-видео можно вручную вырезать все крики детей за окном и рев соседского перфоратора за стеной, то с онлайном такой фокус не провернуть. Понадобится гейт.
● Release можно сделать длинным, около 200 мс, поскольку работа гейта будет слишком слышна при быстром релизе. Правильно настроенный гейт почти незаметен для слушателя и удаляет лишь шумы и призвуки в паузах между фразами.
● Уровень гейта нужно сделать чуть выше, чем фоновый шум, не стоит выставлять уровень рядом с уровнем голоса.
● Простой способ настройки гейта для речи — нужно сложить губы трубочкой и шумно выдохнуть воздух в сторону от микрофона, запомнить на индикаторе значение уровня этого шума и выставить его на гейте.
3. Эквалайзер. Здесь все то же самое, что и для оффлайн-видео: нужно отфильтровать лишние частоты, вырезать пару самых противных резонансов и добавить частот в области разборчивости. Также стоит посмотреть на индикатор: если звук после обработки эквалайзером «пикует» в красной зоне, нужно прибрать выходной Gain, если, наоборот, слишком тихий — прибавить.
4. Компрессор. Для стримов он имеет даже большее значение, чем для оффлайн-видео — в онлайне ни один диктор не сможет уследить за динамикой своего голоса на протяжении нескольких часов. Следует быть готовым к тому, что речь будет то едва слышной, то слишком громкой. Поэтому нужно использовать более жесткие настройки компрессора, чем для оффлайн-видео. Начать можно с ratio 10:1, атаки 5 мс и релиза в 30 мс или автоматически.
При подобных настройках нет необходимости в лимитере — компрессор будет выполнять его роль. Но если динамика речи очень большая и не позволяет настроить гейт (то слова начинают обрезаться, то шум просачивается в эфир), тогда можно использовать два компрессора: первый, с более мягкими настройками (ratio 3:1) поставить перед гейтом, второй, в качестве лимитера — в конце цепи (ratio выкрутить на максимум, threshold — так, чтобы компрессор срабатывал только при очень громких фразах).
Дайте послушать результаты!
Разобраться в обработке звука по тексту бывает непросто, но результат того стоит. Смотрите сами. Точнее, слушайте.
Качественный звук в современных видео и стримах значит ничуть не меньше, чем видео в высоком разрешении. А порой и больше — ведь многие ставят ролики на фон, смотря их вполглаза и воспринимая происходящее в основном на слух.
При этом стоит учесть, что данное руководство дает лишь базовые настройки в качестве точки отсчета. Конечный результат должен подбираться аудиально, ведь главный инструмент в работе звукорежиссера — это его собственные уши.
Южноуральцы отказываются от голоса в пользу текста
Необычную статистику представил лидер телекоммуникационного рынка области — почти две трети южноуральцев предпочитают решать вопросы посредством переписки в чате. За последние несколько недель специалисты «Интерсвязи» приняли и обработали 40 000 обращений от пользователей, при этом, впервые в истории провайдера, доля запросов, полученных через специализированный чат, превысила 60% от общего числа. В компании ожидают, что тенденция превалирования «текстового общения» над голосовым в ближайшее время будет только усиливаться.
Ожидания подкрепляются статистикой: согласно данным экспертов за последние несколько лет, 75% аудитории, наиболее заинтересованной в потреблении услуг сфер IT и связи, избегает устного общения, из них ещё 20% могут не ответить даже на звонки от друзей, родственников или коллег. Психологи связывают это с несколькими пунктами: сообщение не требует немедленной реакции, переписываться можно параллельно с другими делами, сообщение проще структурировать, текст можно «заскринить». Поэтому всё больше компаний, работающих в сфере услуг, вкладывают существенные ресурсы в развитие текстовых каналов общения с пользователями.
Компания «Интерсвязь» находится в авангарде этих тенденций — в собственном мобильном приложении компании активно развивается чат, который был создан с использованием технологий машинного обучения. Искусственный интеллект «Ева» отвечает на запросы пользователей не только в удобной для них форме, но и позволяет решить вопрос быстро, не подключая к общению «живого» оператора. Система с точностью в почти 92% определяет смысл сообщения в чате мобильного приложения, это позволяет решать автоматически более 50% обращений. Благодаря этому, даже в период экстренных и непредсказуемых ситуаций, которые провоцируют максимальную нагрузку на специалистов, налаженная система работы позволяет действовать успешнее, чем другие крупные контакт-центры.
«Компания «Интерсвязь» не только отвечает развивающимся тенденциям рынка, но и помогает это делать другим. Ряд государственных структур и частных компаний интересуются возможностью внедрения наших «умных» чатов и call-центров в структуру своей работы. Кроме того, уже сейчас существует большой ряд пилотных и действующих проектов, и речь не только о Челябинской области, России, но и о ближнем зарубежье. При этом, благодаря полученному опыту, с каждым новым проектом «технологии» ещё больше развиваются, становятся комфортнее и удобнее для пользователей», — рассказывает руководитель IT-дирекции компании «Интерсвязь» Иван Багаев.
В компании подчеркивают, что выстроенная система работы с обращениями учитывает не только удобство для конечного потребителя услуги — клиента, но и потребности собственников компаний. Так, например, анализ больших данных о работе каждого оператора call-центра позволил в период пандемии полностью перевести службу технической поддержки на удалённый режим работы, при этом не снизив качество обслуживания. Искусственный интеллект также позволяет максимально эффективно составлять расписание работы операторов, рассчитывая нагрузку в определённые часы и дни.
Работа с вокальной партией. Обработка и Эквализация вокала
Эквализация вокала проходит деликатно. Если в треке присутствует вокал, мы не можем себе позволить ошибки при работе с ним. Если это лидирующая партия, он играет главную роль в миксе. В этом уроке мы даем вам базовые техники эквализации вокала и углубляемся в детали каждой из них, чтобы вы смогли правильно встраивать вокальные партии в миксе.
- Основа. Срезайте частоты ниже 60Hz с помощью High Pass фильтра. Этот диапазон не содержит полезных частот, так что вы срезаете лишний шум, вносимый вокальным треком.
- Исправляем резкость. Чтобы смягчить вокал, добавьте не слишком интенсивный срез в диапазоне 2,5KHz — 4KHz.
- Яркость вместо резкости. Аккуратно усильте Band Pass фильтром область выше 6KHz. Используйте функцию Sweep, чтобы добиться правильного звучания.
- Мягкость. Примените узкий срез частот в диапазоне 1KHz — 2KHz.
- Выделите бас. Примените усиление в диапазоне 200Hz — 600Hz, чтобы добавить объем.
Это базовые техники, следуя которым, мы получаем универсальный подход. Но встраивание вокала в микс — задача частная, поэтому разберемся подробнее.
Когда нужна эквализация вокала
Иногда, при записи, эквализация добавляет голосу натуральных характеристик, записывая естественное окружение. Когда вы слышите голос в комнате, вы слышите и натуральную реверберацию, сопровождающую голос. Эквализация способна добавить натуральной реверберации, если при записи микрофон записал реверберацию в недостаточном количестве или в студийном окружении.
Эквализация вокала повышает качество его звучания в миксе. Здесь сосредоточена немалая часть работы.
Детали эквализации вокала
- “Основа: Срезайте частоты ниже 60Hz с помощью High Pass фильтра.”
Иногда, нижние частоты срезают вплоть до 200 Hz. Связано это с частотным распределением. Дело в том, что этот диапазон редко несет полезные частоты для вокала, добавляя в микс лишнюю “муть”. Срезая эти частоты, мы освобождаем место под бочку и бас. Это распространенная практика, применяемая на микшерных консолях. На каждом канале микшера расположен графический эквалайзер со встроенным High Pass фильтром.
- “Исправляем резкость: Чтобы смягчить вокал, добавьте не слишком сильный срез на диапазоне 2,5kHz — 4kHz.”
Слишком резкий, режущий слух вокал — распространенная проблема. Причины кроются в звукозаписи и в восприятии звука слухом. Микрофон записывает звуки вокала одинаково громко, но для слуха такая громкость не натуральна. Как следствие, шипящие звуки голоса на диапазоне 2,5kHz — 4KHz кажутся нам слишком громкими и неприятными. Чтобы исправить эту проблему и придать вокалу натуральности, ослабьте этот диапазон. Чем шире срез, тем мягче звучит вокал.
- “Яркость вместо резкости: Аккуратно усильте Bandpass фильтром область выше 6KHz.”
Яркость вокала кроется на верхних частотах. Здесь полезно применять High Shelf. Усильте на +12dB чтобы почувствовать разницу, а затем опускайте, прислушиваясь к миксу, пока не найдете удовлетворительный результат. Правильная эквализация верхних частот не затрагивает резкость вокала. Не переусердствуйте, иначе вокал добавит режущие слух частоты. Яркий вокал звучит приближенно и четко присутствует в миксе.
“Мягкость. Примените узкий срез частот в диапазоне 1KHz — 2KHz.”
Мягкость вокала — это натуральные частоты голоса, лежащие в середине. Усилением или срезом середины мы оптимизируем звучание вокала. Ослабьте середину, чтобы предоставить это диапазон другим инструментам. Это конфликтная область для вокала. Инструменты, звучащие тут, размазывают звучание микса в середине. Поэтому, если вокал занимает центральную роль в миксе, ослабление этих частот нежелательно. Вместо этого ослабляйте другие инструменты в этом диапазоне.
В ряде случаев усиление неуместно. Оно «выдает» эквализацию, а звук становится ненатуральным. Ослабив другие инструменты на 4-6 dB, мы получим натуральное и сильное звучание вокала без потерь читаемости инструментов. Поэтому, в профессиональной обработке, срез частот предпочтительней усиления.
И еще один ПОЛЕЗНЫЙ СОВЕТ!
Обращайте внимание на верхнюю середину. В ряде случаев, необходим узкий срез, чтобы избежать конфликтов. Если вокал — лидирующая партия, лучше делать такой срез на других инструментах, освобождая конфликтную область.
Если нужно исправить АЧХ вокала, избавиться от ненужных частот, вырезайте гармоники деликатно. Это касается конфликтной области 300-350 Hz. Слишком грубый срез может привести к потере вокала, утрате мощности и объема звучания.
Напоследок, воспринимайте эквализацию вокала как технику и искусство. Советы выше приведут вас к нужному результату. Они помогут вам двигаться дальше. Слушайте музыкальные жанры и вы заметите разницу в эквализации вокала.
Обработка вокала субъективна для каждого жанра и вкусовых предпочтений. Важно найти то, что вам нравится, тогда у вас появится индивидуальный вкус в обработке аудио-материала, который оценят слушатели.
Подведем итоги. Новичкам, столкнувшимся с эквализацией вокала, рекомендуем три правила:
- Придерживайтесь базовых правил эквализации вокала.
- Эквализируйте согласно общепринятым правилам стиля музыки, в котором вы работаете — слушайте референсные треки, обработанные профессионально.
- Эквализация совпадает с тем, что вы ожидаете услышать в итоге. Не задавайте вопрос: “Хорошо ли это звучит?”. Спрашивайте себя: “Звучит ли это так, как я хочу?”.
Доверяйте вкусу, не забывайте о технической части эквализации и слушайте любимую музыку, тогда у вас обязательно получится встроить вокал и добиться правильного звучания в миксе!
4 техники, превращающие голос в музыкальный инструмент — SAMESOUND
Превращение вокала в струнные
На основе вокала можно создать движущиеся, динамические и в буквальном смысле дышащие пэды. Получающийся звук отлично подходит на роль струнных инструментов. Чтобы создать объёмные и насыщенные пэды, нужно записать много дублей напевов типа «мммм», «оооо» или «аааа», используя для каждого дубля несколько микрофонов. Учитывая, что целый парк микрофонов — крах бюджету, в домашних условиях можно обойтись 2-3 моделями. Главное, чтобы они отличались характером передачи звука.
После записи дублей, измените высоту звучания каждого из них и соберите в одном месте на разных дорожках. Затем внесите правки эквалайзером так, чтобы они не мешали друг другу и другим инструментам, прогоните их через компрессор и объедините в один аудиофайл. Итоговый трек дополнительно обработайте реверберацией и дилэем, подогнав звучание под свой вкус и контекст микса.
Для большего удобства можно собрать дорожки не в один, а в несколько треков, разделённых по высоте. Так вы сможете точнее обработать каждый регистр. К тому же, при желании, звучание отдельных групп можно будет повысить или понизить в Celemony Melodyne или Soundtoys Little AlterBoy.
Единственный минус этой методики в том, что ей не хватает гибкости. Несмотря на питчшифтеры, превращать вокал в инструмент стоит только в тех треках, в гармоническом содержании которых вы уверены на 100%. При изменении аккордов или гармонии велик риск, что партия не сойдётся с остальным содержимым, а редакторы высоты не помогут — придётся начинать все сначала.
Использование питчшифтера в качестве сэмплера
Взяв небольшой отрезок вокальной дорожки с каким-нибудь напевом (или отрезки с разными напевами), вы можете превратить вокал в уникальный лид-синтезатор. Для этого соберите их на дорожке в ритмический рисунок, а затем импортируйте в питчшифтер (например, в Melodyne). В нем измените высоту каждого кусочка так, чтобы он сложился в мелодию, подходящую под тональность.
В принципе, все то же самое можно сделать в сэмплере, но только если используемые отрезки очень просты по своему содержанию. Питчшифтер нужен именно для того, чтобы точнее подстроить звуки под тональность.
Создание полифонических пэдов на основе голоса в реальном времени
Благодаря таким инструментам как iZotope Vocal Synth, iZotope Nectar или TC Helicon VOICELIVE2 можно превратить свой вокал в полифонические пэды или хор в реальном времени. Методика чем-то напоминает работу с вокодером, хотя результат по звуку получится более естественным. Все, что нужно — открыть один из перечисленных процессоров, настроить его работу по вкусу и петь, зажимая подходящие аккорды на MIDI-клавиатуре.
Прогонка напевов через плагины
Как только аранжировка будет закончена, в треке появятся все дорожки, а вокал будет записан, добавьте ещё один вокальный трек. В него запишите какие-нибудь напевы и простые вокализы. Вслед за этим добавьте на дорожку инструменты саунд-дизайна: например, плагины Logic Space Designer, Logic Delay Designer, Soundtoys Crystallizer, Soundtoys FilterFreak или EchoBoy.
Эти мощные обработки оснащаются десятками пресетов. Обработав ими простые монофонические мелодии, вы превратите вокал в перкуссионный инструмент, который может сделать аранжировку намного интереснее. Главное, о чем стоит помнить при просмотре пресетов — время. Перебор пресетов похож на игру в Civilization с постоянными обещаниями «ещё один ход и спать». Следите за временем, иначе рискуете очнуться посреди ночи, не достигнув какого-либо результата.
Работая над следующим треком, не добавляйте в него ничего кроме ударных и баса. Создайте все остальные инструменты вокалом — даже если ничего крутого не получится, опыт будет точно полезным.
What’s Your Reaction?
Записать и обработать голос на нашей студии.
Услуги | Цены |
---|---|
Сведение голоса с минусом | 2000₽ / 1 трэк |
Тюнинг вокала | 1000₽ / 1 дорожка |
Запись голоса/инструмента | 800₽ / час |
Наша студия предлагает своим клиентам такую интересную услугу, как редактирование и запись вокала. Весь процесс происходит при помощи современного профессионального оборудования. Помогают в этом опытные звукорежиссеры. Мы работаем с начинающими и уже опытными творческими исполнителями или группами. Также у нас можно создать песню или композицию любого стиля, направления. Процесс записи всегда происходит последовательно. Притом наши мастера дадут несколько советов и рекомендаций для улучшения звучания трека. В конце работы происходит сведение, редактирование, и тюнинг. Также мы гарантируем индивидуальный подход к каждому клиенту.
Стоимость услуги редактирования и добавления эффектов
Редактирование и добавление эффектов в песню помогает придать новое звучание музыке и голосу исполнителя. Для прослушивания такой трек станет более приятным и естественным. Мы выполняем обработку композиций любых жанров и направлений. Притом специалисты подходят к работе внимательно и ответственно. Среди особенностей редактирования вокала можно отметить:
- Достижение чистой интонации;
- Создание нескольких дублей, среди которых понадобиться выбрать лучший вариант;
- Использование современных компьютерных программ;
- Устранение всех дефектов и проблем в музыкальном сопровождении и голосе исполнителя.
Также нужно отметить, что за счет коррекции вокала удается ликвидировать фальшноты, установить нужную высоту голоса, создать гармоничное звучание. Притом сама композиция звучит более естественно и органично. Грамотная обработка существенно улучшит трек, вне зависимости от его музыкального направления. В будущем его можно будет транслировать на ТВ, радио, в Интернете. Профессиональные специалисты помогут создать качественную и эффективную песню!
7 мифов о биометрии: разбираем с экспертом
Внедрение биометрии, как и любой другой современной технологии, сопровождается мифами. Одни возникают из-за недостатка информации, другие — не без влияния научной фантастики, в которых факты переплетаются с домыслами
Об эксперте: Евгений Золотарев — директор компании-интегратора систем безопасности «Делетрон».
Миф 1. Биометрия позволяет следить за каждым
Распознавание лиц (Face ID, биометрия) — это результат работы видеоаналитики, которая определяет соответствие лица в кадре имеющемуся изображению в базе данных. Вопреки распространенному мнению, биометрия не может идентифицировать людей, которые не являются их целью.
«Поясню на примере системы «Безопасный город» в Москве. Камеры видеонаблюдения, которые установлены в общественных местах и на улице, не могут следить за всеми и каждым человеком в отдельности. Это и не нужно. Она лишь «перебирает» лица в кадре и сверяется с базой данных. Например, это могут быть базы правоохранительных органов».
Иными словами, Face ID используется только для распознавания «интересующих» ее лиц. Остальные данные для системы излишни.
Миф 2. Биометрия распознает лица не на 100%
Сегодня точность распознавания лиц из базы данных — выше 99%.
«Согласно тестам Национального института стандартов и технологий министерства торговли США (NIST), проведенным в ноябре 2018 года, всего 0,2% поисков в базе данных из 26,6 млн фотографий не соответствовали правильному изображению, по сравнению с 4% в 2014 году. А в тестах 2020 года лучший алгоритм идентификации лица имеет коэффициент ошибок 0,08%, что меньше одной ошибки на 1000 изображений. Это 50-кратное улучшение за шесть лет. И система продолжает совершенствоваться. Повысить точность распознавания позволяют алгоритмы нейронной сети».
И если раньше на результат могли повлиять угол зрения, погодные условия, то сейчас система распознает человека из базы даже при наличии головного убора или очков. Такая технология уже используется в офисах компаний и торговых сетях России.
«В целях безопасности «Северсталь» внедрила Face ID в здании своего представительства в Москве. Система сверяет данные магнитного пропуска и показания биометрии. Если обнаружит несоответствие с внесенными в базу сведениями и изображениями, то немедленно подаст сигнал службе охраны. К тому же, она сообщит о несанкционированном доступе лиц, внесенных в «черный список».
Добиться 100% точности тоже можно, но для этого придется задать алгоритму более высокий уровень соответствия. При этом ужесточатся требования и по входной информации, то есть эталону в базе данных и качеству изображения видеоданных. А значит, при малейших несовпадениях с эталоном алгоритм будет отказывать в обслуживании. Такие меры обоснованы в банковских системах. Там внедрение строгого алгоритма оправдано рисками, которые могут понести пользователи при попадании данных в руки мошенников. Но на практике все же нужно соблюдать баланс.
Миф 3. Биометрия — дорогое удовольствие
Здесь важно понимать, как и в случаях с другими технологиями, что стоимость решения зависит от сложности применения и архитектуры системы, от скорости работы и степени надежности (качества «железа»), от возможности масштабирования и даже от цены владения лицензией. Все эти моменты нужно соотнести с теми задачами, которые ставятся перед Face ID.
Например, стоимость терминала для распознавания лиц и комплексной системы распознавания лиц для крупного объекта со всеми необходимыми системами интеграции будут отличаться. Простой терминал может стоить от ₽17 тыс., а комплекс программного обеспечения по распознаванию лиц для сети ресторанов быстрого питания — около ₽180 млн и охватывать полторы тысячи объектов. Здесь речь идет уже о полноценной разработке ПО под конкретные задачи бизнеса, включая интеграцию Face ID с системой учета рабочего времени, фиксацию температуры тела, ограничение на проход уже уволенных или нежелательных к посещению сотрудников из «черного списка». Также можно интегрировать систему контроля нахождения сотрудников на смене, фиксацию обеденного перерыва и даже выбор блюд на обед для дальнейшего списания его себестоимости с сотрудника.
И не стоит забывать, что сейчас большинство поставщиков стараются максимально эффективно интегрировать Face ID в свои системы, например, в привычные всем смартфоны.
Миф 4. Все системы распознавания одинаковы
Схемы работы Face ID могут сильно отличаться друг от друга. Для примера обратимся снова к сравнению простого терминала распознавания и сложной системы для крупного предприятия. Различия в схеме их работы будут не столько в алгоритмах (теоретически они могут быть одинаковыми), сколько в их устройстве, в «железе».
Терминал — автономное устройство. В него, как правило, встроен дополнительный считыватель карт, управление входом/выходом, сама система распознавания. База образов также хранится непосредственно на нем. Решение о допуске или запрете на проход терминал принимает самостоятельно. Настройка может производиться на самом устройстве. Также возможна схема, при которой несколько терминалов объединены в единую систему с общей базой лиц. В таком случае решение принимает софт.
Распознавание лиц средствами системы видеонаблюдения всегда связано с сервером. Отсюда и дороговизна таких систем. Камера выступает просто инструментом получения исходной информации (снимка лица) для дальнейшей обработки на сервере.
При этом нельзя сказать что система на терминалах «неполноценная». Она имеет место быть и на крупных объектах. Все зависит от конкретной задачи и функций системы распознавания лиц.
Миф 5. Технология не справляется с большими объемами информации
Биометрические системы проходят обучение и тестирование на огромных массивах данных, используя несколько идентификационных параметров. И если в процессе работы система получает данные высокого качества, она успешно справится и с большим объемом данных.
«Например, крупнейшая в мире система биометрической идентификации действует в Индии. В ней содержатся сведения о 1,3 млрд жителях страны. Это отпечатки пальцев, радужные оболочки глаз, фотографии, а также персональные данные. Такая система позволила присвоить каждому гражданину уникальный ID. Чтобы получить любые услуги, требующие подтверждения личности, житель должен ввести номер ID-карты и пройти биометрическую проверку. Недавно власти страны сообщили о модернизации системы. К слову, алгоритмы этой разработанной системы получили наивысшие результаты по итогам независимых оценок технологий, включая NIST MINEX, PFT, FRVT, IREX и FVC-onGoing».
Подтверждение эффективности алгоритмов Face ID проводится на конкурсе алгоритмов распознавания лиц Face Recognition Vendor Test (FRVT). Среди победителей конкурса есть и отечественные алгоритмы интеллектуальной видеоаналитики. К примеру, российский FindFace по итогам тестирования в 2021 году показал лучший результат за все время проведения FRVT.
Миф 6. Биометрическую базу могут взломать хакеры и использовать данные в своих целях
Мы констатируем повышенный риск для любых информационных систем со стороны хакерских атак. Это факт сегодняшнего дня. Биометрические данные, причисленные к персональным, всегда требуют повышенного внимания со стороны информационной безопасности.
Для защиты таких данных сейчас используется распределенное хранение. Зашифрованный биометрический шаблон хранится на защищенных серверах в обезличенной форме отдельно от персональных данных. Выглядит он как некая математическая модель биометрических данных (лицо, отпечаток пальца, голос и так далее). Для обычного человека это представляет собой условно набор цифр. Восстановить из таких шаблонов образец голоса, изображение, отпечаток пальца без системы нельзя. А обезличенные сведения, даже с точки зрения внесенных в базу фотографий, не особенно интересны хакерам, поскольку для совершения каких-то мошеннических действий одного лишь изображения будет недостаточно.
«Для противодействия атакам биометрического спруфинга сегодня в банках используются такие механизмы подтверждения личности как liveness detection (дословно «проверка живости»). Это способность системы определять, является ли отпечаток пальца, лицо или другие биометрические данные реальным или поддельным. В качестве такой активной проверки биометрических данных, в частности, видеоизображения, человека могут попросить улыбнуться или повернуть голову. Система следит за естественностью движений пользователя, их соответствием полученному заданию и непрерывностью действий. При этом алгоритмы контролируют статику и динамику, что позволяет обнаружить взлом с использованием маски».
Как показывает практика, в большинстве случаев злоумышленники выбирают другие способы. Алгоритмы аутентификации пользователя мошенники стараются обходить с помощью социальной инженерии или уязвимостей в платежных приложениях.
Но нельзя исключать интерес злоумышленников к таким базам в части вывода системы из строя, что может стать элементом шантажа или вымогательства. Для защиты систем разработчики используют трансформацию биометрических параметров и криптографию. То есть в системе хранится только часть информации — защищенный эскиз.
«К примеру, при защите Единой биометрической системы в России, используется не один, а множество алгоритмов. Взлом даже одного займет у хакера много времени, сил и средств. А таких там десятки. К тому же они постоянно совершенствуются».
Миф 7. Биометрия, распознавая лица, нарушает закон о персональных данных
Обработка данных для систем распознавания не всегда попадает под действие законодательства. Это зависит от множества факторов, например, кем и для чего используется система, где она применена и так далее. Например, распознавание лиц в магазине под действие закона не подпадает, так как торговая точка считается общественным местом, съемка там не запрещена, а данные не персонализированы.
Надо разделять данные, используемые системой распознавания, в соответствии с требованиями Федерального закона N 152-ФЗ «О персональных данных». Но даже в судебной практике встречаются совершенно противоположные подходы относительно того, какие сведения относятся к биометрическим персональным данным (далее — БПД), а какие — нет. Например, фотографии на пропуске они оценивают как БПД.
Законодательство требует наличия согласия носителя БПД в письменной форме. Если у человека не было возможности дать отказ от передачи его персональных данных третьим лицам, это считается нарушением законодательства.
Без согласия идентификация может быть использована лишь:
- при осуществлении правосудия и исполнении судебных актов;
- при проведении обязательной государственной дактилоскопической регистрации;
- в случаях, предусмотренных законодательством об обороне, безопасности, противодействии терроризму, транспортной безопасности, оперативно-розыскной деятельности, государственной службе и так далее.
Обработка вокала: 8 уникальных способов трансформировать свой голос
Вокал — это центральная часть песни.
Им нужно привлечь слушателей и удерживать их внимание на протяжении всего трека.
Вот почему изобретательная вокальная обработка стала важной частью современного вокального производства.
Обработка вокала — это творческие методы производства, которые превращают необработанный вокал в стильный студийный звуковой дизайн.
В этой статье я рассмотрю 10 типов обработки, которые придадут вашему вокалу уникальную текстуру — и даже превратят их во что-то совершенно новое.
1. Двойное отслеживание
Эта первая вокальная техника — один из старейших производственных приемов, но он по-прежнему невероятно эффективен.
Двойное отслеживание вокала означает просто запись строки два (или более) раза. Зачем вам это нужно?
Несколько дублей, наложенных друг на друга, делают звук более плотным, создавая эффект хоруса.
Несколько дублей, наложенных друг на друга, делают звук более плотным, создавая эффект хоруса.
Вы никогда не сможете спеть одну и ту же партию дважды.Небольшие вариации между дублями создают небольшие несогласованности и модуляцию высоты тона, которые действительно могут сделать звук более плотным.
Как только вы попробуете, вы начнете слышать, как часто двойное отслеживание используется в вокале.
Горячий совет : За прошедшие годы было разработано несколько методов для имитации эффекта двухтрекового вокала. Один из самых известных — эффект ADT (автоматическое двойное слежение), разработанный на Abbey Road. Есть даже плагины, которые помогут вам получить классический эффект Abbey Road ADT в вашем миксе.
2. Расширение стерео
Стереорасширение — более тонкий родственник ручного двойного трекинга, который часто предназначен для того, чтобы его больше чувствовали, чем слышали.
Вокал естественно монофонический, так как лучше всего записывать свой голос с одного микрофона крупным планом.
Но в плотном миксе с большой активностью на левой и правой крайних сторонах моновокальный трек может показаться слишком узким.
Эффекты расширения стерео могут помочь преодолеть разрыв с остальной частью микса и расширить вокал в стерео поле.
Стереорасширение обычно работает путем задержки и модуляции копии сигнала. Но в отличие от эффекта хоруса в стиле педали, специальные расширители вокала имеют более тонкий звук, который работает как клей в миксе.
Попробуйте Soundtoys Microshift или Arturia Chorus Dimension D для великолепного эффекта расширения вокала.
3. Обратный звук
В обратном воспроизведении звука всегда будет что-то увлекательное и непонятное.
В обратном воспроизведении звука всегда будет что-то увлекательное и запутанное.
Нет единого мнения о том, почему это звучит так чуждо нам, но тревожный эффект очевиден.
Особенно жутко слышать, как произносимые слова или спетый вокал превращаются в тарабарщину. Это простой метод мгновенного преобразования вокала, о котором часто забывают.
К счастью, реверсирование звука — одна из самых простых операций в вашей DAW.
Попробуйте поменять местами вокальные партии, чтобы увидеть, как они могут усилить вашу аранжировку и привлечь внимание к звучанию голоса.
4. Lo-fi эффекты
Человеческий голос мгновенно распознается нашим ушом и мозгом. Мы так привыкли к этому, что изменение текстуры может радикально изменить то, как мы ее воспринимаем.
ПлагиныLo-fi используют это явление для создания ощущения пространства, места и ностальгии.
Телефонные фильтры, ленточные эффекты или ревербераторы, выложенные песчаной плиткой в комнате, могут изменить то, как вы воспринимаете голос певца в своей голове.
Используйте lo-fi эффекты во время наращивания, срывов или других моментов, когда вам нужно изменить контекст вашего вокала.
5. Искажения
Говоря о lo-fi, искажение — это окончательный эффект lo-fi. Резкое ограничение формы волны, возникающее при сильных искажениях, может привести к совершенно другому звучанию голоса.
Но овердрайв и дисторшн можно использовать и в музыкальном плане. Некоторые из самых знаковых вокальных звуков были записаны с использованием гитарных усилителей, доведенных до точки плавления.
Distortion добавляет резкости, характера и обрезки средних частот вокалу трека — в более тяжелых жанрах это просто необходимо.
Distortion добавляет резкости, характера и обрезки средних частот вокалу трека.
К счастью, вам больше не нужно переделывать стек Маршалла, чтобы получить качественные искажения в вашей DAW.
Существует множество фантастических плагинов для насыщения, которые могут варьироваться от тонкого улучшения гармоник до чистого звукового хаоса.
6. Эффекты окружения
Задержка и реверберация — довольно стандартные вокальные эффекты, но оба они подпадают под действие обработки окружения, которая может выйти далеко за рамки, если вы раздвинете границы.
Стандартные стили задержки и реверберации, такие как slapback или plate, могут показаться скучными, но они все равно могут звучать свежо, если контекст правильный.
Но выходить за рамки основ, и эффекты окружения могут стать очень креативными.
Не ограничивайтесь основами, и эффекты окружения могут стать очень креативными.
Современные плагины реверберации способны моделировать невероятно большие пространства с модуляцией, которая никогда не может возникнуть в реальном мире.
А современные задержки с переключением высоты тона с несколькими нажатиями могут создавать невероятно пышные и неземные эффекты.
7. Отбор проб
Sampling может не полностью соответствовать определению эффекта, но вы можете использовать его для создания потрясающих новых текстур с вашим вокалом.
Разделение вокальной фразы на кусочки и воспроизведение их с помощью MIDI-контроллера откроет вам совершенно новый взгляд на звуки, которые вы можете издавать своим голосом.
Разделение вокальной фразы на кусочки и воспроизведение их с помощью MIDI-контроллера откроет вам совершенно новый взгляд на звуки, которые вы можете издавать своим голосом.
Попробуйте поиграть с высотой тона, точками петли и направлением воспроизведения каждого фрагмента в сэмплере.
Добавьте ADSR и фильтры в стиле синтезатора, и вы получите невероятную «песочницу» звукового дизайна для вокальных эффектов.
8. Агрессивная коррекция высоты звука
Всем известно, что плагины коррекции высоты тона, такие как Antares Auto-Tune, были разработаны для исправления высоких звуков вокала.
Создание гармоничных линий, сдвиг формант и разделение нот — это лишь некоторые из уникальных техник, которые вы можете использовать с коррекцией высоты тона.
Но они более известны благодаря эффекту жесткой настройки роботов, который можно услышать в современной поп-музыке и хип-хопе.
Эта классическая техника до сих пор остается суперэффективной формой обработки голоса.
Но это только начало того, что возможно, если погрузиться в творческий потенциал коррекции высоты тона.
Мощность обработки вокала
Креативная обработка вокала — необходимость в современном производстве.
К счастью, есть множество способов открыть для себя свой собственный уникальный подход.
Если вы прочитали эту статью, у вас будет несколько отличных идей о том, как начать обработку вокала.
Лучшая обработка вокала и эффекты Советы и методы
Основы записи отличного вокального исполнения универсальны.
Вам нужно собрать подходящий микрофон, чистый предусилитель и аудиоинтерфейс, комнату для записи, которая не искажает звук, и вы на полпути.
Тем не менее, остается множество вариантов, как творческих, так и корректирующих, чтобы максимизировать влияние вокала в вашем миксе.
В этой статье мы рассмотрим несколько советов Скотта Киклака из AIMM по обработке голоса и эффектам.
Скотт — декан студенческой службы AIMM и более 20 лет работает звукорежиссером по звукозаписи и микшированию, так что вы в надежных руках! Посмотрите видео ниже, а также дополнительные расшифровки выделенных фрагментов и ссылки.
Содержание
Как записывать вокал имеет значение
Очень важно помнить, что вы не можете записать что-то, что звучит грубо и некачественно, и ожидать, что звукорежиссер просто осветит это и исправит.
То, что входит, то и получается, поэтому, если вы записываете дома, важно, чтобы вы выполняли свою работу как можно лучше, когда записываете вокал.
Добейтесь наилучшего вокального исполнения и убедитесь, что ваш вокал чистый и чистый.
Ключ к четкой записи зависит от комбинации вашего микрофона и предусилителя.
-в начало
Соло Вокал
Первым шагом обработки вокала является соло вокала.
Вы делаете это, чтобы вы могли слушать и слышать детали того, что происходит с вокалом. Ошибка молодых микшеров состоит в том, что они часто используют эквалайзер и компрессию в соло.
Важно то, что происходит, когда все играет, поэтому мы слушаем соло только для подробностей, а затем слушаем все вместе.
-в начало
Плейлисты
Отличная привычка — дублировать плейлисты.
В Pro Tools списки воспроизведения — это способ сделать копию того, над чем вы работаете, не влияя на фактический клип, который вы просматриваете.
Плейлистывеликолепны, потому что позволяют делать что-то быстро, а если они вам не нравятся, вы можете переходить через них.
-в начало
R Компрессор
Rcompressor — отличный инструмент для использования. RCompressor великолепен, потому что он очень прозрачен, а это означает, что он не меняет способ звучания вашего трека.
RCompressor просто выполняет свою работу по сжатию, от самого тихого до самого громкого.
Будет минимизировать динамический диапазон.
-в начало
Делайте все возможное, чтобы получить свой звук
Когда вы микшируете, вам нужно прислушиваться к тому, что вам говорят ваши уши, и добиться того, чтобы вокал звучал так, как вы предпочитаете. Означает ли это сложение или вычитание, решать только вам.
Скотт склонен прибавлять немного больше, чем вычитать, потому что это заставляет звучать больше и полнее.
Дополнительные советы по микшированию вокала от AIMM можно найти здесь.
-в начало
RVOX и Мэнни Марроквин EQ
Второй уровень сжатия и отличный плагин — это Rvox . Rvox — это плагин для волн, и, за неимением лучшего термина, это «поп-внешний».
RVox выдвигает предметы и перемещает их вперед в динамики, так что вы четко слышите вокал, и они будут звучать так, как будто певец подбежал к передней части динамика.
Работая с артистами, многие из них скажут: «Я хочу получить микс прямо в лицо. Я хочу тот микс, в котором все будет прямо здесь». Когда они так говорят, они говорят именно об этом.
Второй, это Manny Marroquin EQ .
Хотя вы можете быть удивлены, увидев, что Скотт использует этот эквалайзер до 20k, он добавляет «воздуха» в песню. Это может быть невероятно тонким и трудным для описания, но, если вы послушаете видео выше, вы без сомнения увидите, что оно дает.
-в начало
Де-Эссер
Следующее, что вы хотите использовать, — это De-Esser .
По сути, это то, что убирает шипение. Это однополосный частотно-зависимый компрессор.
Вы можете нацелить его на частоту, и когда эта частота возникает, она понижает или ослабляет эту частоту, поэтому сжимается на основе частоты, а не уровня.
-в начало
CLA-3
CLA-3 — еще один компрессор р.
Это третий этап сжатия, о котором мы говорили. То, что не уловил первый компрессор, улавливает второй. То, что не хватает второму, найдет третий. Вы видите закономерность?
Вместо того, чтобы сильно нажимать на компрессию и высасывать жизнь из звука, вы просто уменьшите ее.
Мы называем это ступенчатым сжатием, потому что вы медленно понижаете его до тех пор, пока он не станет сжатым и плотным в миксе. Каждое слово нужно услышать.
-в начало
Реверберация
Reverb — это, по сути, пространство, в котором вы находитесь. С помощью реверберации вы как бы создаете фальшивую комнату, в которой находится этот певец.
Есть несколько отличных плагинов реверберации, и один из них — ProR.ProR относительно новый, и вы можете легко адаптировать его и заставить звучать именно так, как вы хотите.
Важно настраивать реверберацию с небольшими приращениями во время соло и всегда проверять свою работу со всем миксом. Вы не хотите постоянно вносить радикальные изменения в трек в соло, потому что это может в конечном итоге нарушить ощущение всей песни.
-в начало
Professional против Rough
Важно помнить, что вы хотите, чтобы ваш микс звучал профессионально.
Грубый микс означает, что вы не тратите время на изучение деталей каждого из звуков, чтобы понять, как вы оживляете вокал.
Ваша задача — не только смешивать и следить за тем, чтобы вокал был достаточно громким или достаточно низким, но и творить волшебство. Это то, что делают микшеры, так что вам нужно пытаться делать это каждый раз.
Вы должны приложить все усилия, потому что все, что вы делаете, ставит под угрозу вашу репутацию.Это может показаться пугающим, но если вы потратите время и потратите время, вы получите известность как инженер, выводящий миксы на новый уровень.
-в начало
Шаг
Следующее, что мы сделаем, это подача. Pitch shift делает довольно крутые вещи.
На видео выше Скотт использует Doubler2 . Doubler2 позволяет вам слегка поднять одну сторону вверх, на центы, а не на полутоны.
Ничего подобного вы не заметите массово, но вы сможете немного поднять одну сторону вверх.Это делает вокал более плотным в миксе.
-в начало
Автоматика
Automation позволяет вам перевернуть вверх и вниз слова, которые вы не слышите, или вещи, которые вы слышите слишком много.
Это то, что многие молодые инженеры пропускают, если он становится слишком динамичным.
Более неопытный инженер может взять другой компрессор и включить его, но это только уберет то естественное ощущение, которое возникает в вокале.
-в начало
Узнайте больше с Scott
Как видите, обработка вокала требует очень много.
Если чтение этой статьи и просмотр видео вдохновили вас взять ноутбук и начать микширование, это здорово!
Возможно, пришло время сделать еще один шаг.Есть гораздо больше советов и приемов, чем мы можем затронуть в одном блоге или видео, так почему бы не поработать лично с ведущим видео Скоттом Киклаком?
Атлантский институт музыки и медиа предлагает следующие программы для инженеров и продюсеров:
Примечание. В это тревожное и трудное время, в котором мы сейчас живем, AIMM с гордостью позволяет студентам полностью контролировать процесс обучения, выбирая онлайн-курсы, курсы на территории кампуса или гибридные курсы.
Нажмите кнопку ниже и узнайте, как AIMM может принести пользу вашей производственной карьере сегодня.
Дополнительные статьи:
Как сделать записи голоса профессиональными с помощью Audacity
В сообщении в блоге на прошлой неделе мы дали вам несколько советов, которые помогут вам получить более качественные записи вокала.
Этот совет должен был использоваться на этапе подготовки, задолго до того, как вы нажмете кнопку записи.
Статья на этой неделе посвящена постобработке, то есть тому, что вы можете сделать для улучшения звука после того, как он уже был записан.
В частности, мы научим вас использовать Audacity — профессиональный инструмент для редактирования аудио — чтобы очистить ваши записи и создать профессионально звучащий голос за кадром для ваших видео.
Поскольку хорошая настройка значительно упростит постобработку, мы настоятельно рекомендуем сначала выполнить шаги, описанные в предыдущей статье, чтобы получить наилучшие результаты.
Выбор программного обеспечения для записи звука
Если вы являетесь пользователем Flixier, вы, вероятно, знаете, что можете записывать звук прямо в наш видеоредактор с помощью микрофона вашего компьютера.Фактически, вы даже можете записать свой экран на камеру!
width = «730»>Этот метод отлично подходит для большинства людей. Это даже сэкономит вам много времени, если вы торопитесь и просто пытаетесь добавить небольшой комментарий к клипу.
Однако, поскольку вы читаете статью о пост-продакшене, я думаю, можно с уверенностью предположить, что вы ищете немного большего, чем это.
Чтобы получить то высококачественное, профессиональное звучание звука, к которому вы привыкли, от ваших любимых подкастеров и пользователей YouTube, вам придется использовать профессиональное программное обеспечение для редактирования аудио.
Существует множество программных решений на выбор, но для доступности и простоты это руководство будет посвящено Audacity, поскольку программное обеспечение бесплатное, с открытым исходным кодом и многоплатформенное.
Но самое главное, Audacity невероятно мощен. Под простым интерфейсом скрывается абсолютное чудовище программы, которое будет хорошо служить вам, даже если вы решите углубиться в изучение производства звука.
Как установить Audacity
Чтобы установить Audacity, просто перейдите по этой ссылке на официальный сайт и загрузите соответствующую версию в зависимости от вашей операционной системы.
Процесс установки чрезвычайно прост.
Благодаря своей природе с открытым исходным кодом, Audacity не поставляется с нежелательным программным обеспечением, поэтому не стесняйтесь нажимать кнопку «Далее», пока весь процесс не будет завершен.
Настройка Audacity в первый раз
Если вы запускаете Audacity впервые, то множество опций и немаркированных кнопок, которые только и ждут, чтобы их щелкнули, может вас немного ошеломить.
Мы знаем, что это выглядит немного устрашающе, но не беспокойтесь: вам никогда не придется взаимодействовать или понимать 90% этих параметров, чтобы следовать нашему руководству.
На самом деле, давайте кратко рассмотрим интерфейс и покажем, что вам нужно сделать, прежде чем начать запись!
Первое, что вам нужно сделать, это взглянуть на эти два раскрывающихся списка. Они позволяют вам выбрать устройства записи и воспроизведения:
Убедитесь, что ваш микрофон отображается как записывающее устройство и что ваши наушники / динамики (в зависимости от того, что вы используете) выбраны в качестве устройства воспроизведения.
Таким образом, вы сможете записывать свой голос и слушать аудио во время редактирования.
Далее идут элементы управления записью и воспроизведением :
Они будут знакомы всем, кто когда-либо раньше использовал музыкальный проигрыватель.
Красная кнопка заставляет Audacity начать запись, а серый квадрат останавливает ее.
Вы используете кнопки воспроизведения и паузы для управления воспроизведением при просмотре звуковых дорожек, точно так же, как при предварительном просмотре видео в Flixier!
Эти два ползунка управляют усилением (значок микрофона) и громкостью воспроизведения (значок динамика) соответственно:
Если вы читали нашу предыдущую статью, вы уже знаете, что правильная установка усиления микрофона является важной частью записи.
Если у вашего микрофона нет шкалы физического усиления, вы можете изменить ее с помощью ползунка в Audacity.
Вверху находится список раскрывающихся меню.
В меню «Файл» вы можете сохранять свои проекты, а также импортировать и экспортировать аудиофайлы.
Внимательно посмотрите на меню «Эффект», потому что именно там мы будем проводить все свое время при редактировании голоса.
Теперь, когда вы познакомились с основными элементами интерфейса Audacity, пора приступить к работе!
1.Запишите звук в Audacity
Первый шаг довольно прост.
Просто нажмите красную кнопку, чтобы начать запись голоса!
Однако, прежде чем начать говорить, позвольте микрофону записать несколько секунд «тишины». Это также известно как «комнатный тон», и он пригодится позже, когда мы будем использовать шумоподавление, чтобы избавиться от всего фонового шума.
Вы также заметите, что на экране появляется временная шкала, отображающая форму звуковой волны и обновляемая в реальном времени по мере того, как вы говорите.
2. Примените шумоподавление
Теперь, когда вы закончили запись закадрового голоса, ваша шкала времени должна выглядеть примерно так:
Плоская часть в начале формы волны представляет «комнатный тон», о котором мы говорили ранее.Вы можете увеличивать и уменьшать масштаб временной шкалы, удерживая клавишу Control и используя колесо мыши.
Точно так же вы можете выбирать объекты на временной шкале, щелкая и перетаскивая левой кнопкой мыши.
Audacity выделяет выбранные областиЕсли вы послушаете свою запись, вы, вероятно, заметите некоторый фоновый шум.Мы собираемся использовать Audacity, чтобы удалить его. Вот как это сделать:
1. Выберите «тихий» сегмент в начале трека. Тот, который сплошной фоновый шум, без разговоров.
2. Затем перейдите в меню Effect вверху и выберите Noise Reduction .
Появится окно с парой ползунков. На скриншоте ниже вы можете увидеть настройки, которые я использую, но настройки по умолчанию подойдут.
3. Прежде чем применять шумоподавление, Audacity необходимо знать, как звучит сам «шум».Вот почему мы выбрали часть фонового шума вашего аудио. Нажмите Получить профиль шума .
4. Теперь, когда Audacity имеет профиль шума, выберите весь звук с помощью Ctrl + A, затем вернитесь в меню «Эффект» и выберите «Повторить шумоподавление». Либо нажатие Ctrl + R автоматически повторяет последний эффект.
Вот и все! Теперь весь фоновый шум должен быть удален.
Если шум все еще есть, вы можете попробовать применить фильтр еще раз, но будьте осторожны, : слишком много раз использование эффекта шумоподавления снизит качество звука и сделает ваш голос жестким и роботизированным, поэтому используйте свое усмотрение .
3. Нормализуйте до 0 дБ
В нашем предыдущем руководстве мы упоминали, что вам следует установить усиление ниже 100%, чтобы предотвратить клиппирование.
Если вы последовали нашему совету, вы заметите, что ваш недавно записанный трек немного тихий. Следующий шаг исправит это.
1. Снова выберите всю дорожку, используя Ctrl + A .
2. Вернитесь в меню Эффект и нажмите Нормализовать .
3.Когда появится это меню, скопируйте настройки, которые вы видите на скриншоте, и нажмите ОК.
Мы использовали параметр «Нормализовать», чтобы усилить звук и сделать его максимально громким, не искажая его. Вы, вероятно, заметили, что звуковая волна становится намного гуще на временной шкале.
Если вы носите наушники, вы можете немного уменьшить громкость, прежде чем просматривать изменения!
4. Сжатие
Теперь, когда звук достаточно громкий, пора его сжать!
С точки зрения непрофессионала, компрессор сделает громкие части немного тише, а тихие — немного громче.
Это может показаться глупым, но поверьте, все будет звучать четко, и вам будет намного легче понять.
Чтобы применить эффект сжатия, выполните те же шаги, что и раньше: выберите всю дорожку с помощью Ctrl + A и затем щелкните Compressor в меню Effect .
Когда дело доходит до сжатия, можно поиграть с множеством ползунков.
Рекомендуем перестраховаться и скопировать настройки, которые вы видите на скриншоте.
Если вы чувствуете, что звук после предварительного просмотра звучит немного странно, вы можете уменьшить соотношение с 3: 1 до 2: 1.
Щелкните OK и снова послушайте звук.
Он будет звучать намного четче, но вы также заметите, что он стал немного тише.
Не волнуйтесь, мы скоро это исправим!
5. Добавьте эквалайзер
Этот следующий шаг будет очень субъективным, так как он во многом зависит от вашего голоса и микрофона.
Когда вы послушаете свою запись, вы можете заметить, что ваш голос звучит немного странно. Он может быть слишком басовитым или (как часто бывает в моем случае) слишком гнусавым и скрипучим.
К счастью, мы можем легко это исправить, немного отрегулировав низкие, средние или высокие частоты в Audacity.
Для этого вам нужно снова выбрать всю дорожку с помощью Ctrl + A , перейти в меню Effect и выбрать Filter Curve .
Не стесняйтесь поэкспериментировать с кривой здесь и отрегулируйте ее по своему вкусу.
Вы всегда можете нажать кнопку Preview в левом нижнем углу, чтобы прослушать изменения перед их применением.
Если вы не уверены, что делаете, перейдите к Управление , затем Заводские предустановки и выберите там одну из предустановок.
Когда я редактирую свои видео, мне нравится применять заводскую предустановку Bass Boost , так как моему голосу немного не хватает на низких частотах.
После того, как вы выбрали настройки эквалайзера, нажмите OK, и Audacity применит их к вашей дорожке!
6.Нормализовать (снова) до -3 дБ
Последний шаг в процессе — вернуть звук на достаточно высокий уровень.
Мы собираемся снова использовать Нормализацию, чтобы сделать это, только на этот раз мы собираемся установить пиковую амплитуду на -3,0 дБ.
Это приведет к тому, что звук будет по-прежнему громким, но даст вам немного места для игры на случай, если вам понадобится еще больше усилить его в будущем.
Использование шумоподавителя для удаления звуков дыхания
Если вы снова послушаете финальную запись, вы, возможно, почувствуете неудовольствие, обнаружив, что, несмотря на подавление шума, которое мы применили на первом этапе, вы все равно можете слышать свое громкое дыхание между предложениями.
Не у всех будет эта проблема, но если вы все же столкнетесь с ней, есть способ исправить!
Установка подключаемого модуля Nyquist Noise Gate
Однако для этого сначала необходимо установить подключаемый модуль для Audacity. Не волнуйтесь, мы проведем вас через этот процесс:
- Загрузите подключаемый модуль с этого веб-сайта. У вас должен получиться файл под названием Noisegate.ny
- Скопируйте файл.
- Перейдите в папку установки Audacity, перейдите в Plug-Ins и вставьте Noisegate.ny файл в эту папку.
По умолчанию путь установки должен быть C: \ Program Files (x86) \ Audacity \ Plug-Ins (если вы используете Windows)
4. Откройте Audacity, перейдите на вкладку Effect и нажмите на Добавление / удаление подключаемых модулей
5. Найдите подключаемый модуль под названием Noise Gate . Выберите его и нажмите Включить .
Теперь, когда подключаемый модуль установлен, приступим к работе по избавлению от нежелательных звуков дыхания:
Сначала щелкните по этой маленькой стрелке на временной шкале.В раскрывающемся меню выберите Форма волны (дБ) .
Теперь увеличьте фрагмент аудио, где слышно дыхание. Проверьте, каких уровней дБ достигает дыхание, посмотрев на измерения в левой части временной шкалы.
В моем примере мое дыхание достигает -40 дБ.
Теперь выберите звуковую дорожку, перейдите на вкладку Effect и щелкните Noise Gate . Появится следующее меню:
Шумовой вентиль анализирует громкость всех звуков в вашей записи.Любой звук, не превышающий определенный порог громкости (например, громкий вдох), отключается!
В нашем случае мы хотим установить Gate Threshold равным -40 дБ.
Так как мой голос значительно громче, чем -40 дБ, Noise Gate оставит его в покое. Однако звуки моего дыхания ниже -40 дБ, поэтому их громкость будет уменьшена.
Используйте ползунок уменьшения уровня, чтобы выбрать, насколько вы хотите уменьшить объем дыхания. Вы можете установить его на что-то вроде -40, чтобы сделать его полностью тихим, или на что-то вроде -20, чтобы он был едва слышен (так как отсутствие звуков дыхания может звучать немного неестественно).
Оставьте для остальных настроек значения по умолчанию.
Нажмите «ОК», и ваш шумоподавитель будет применен, что приведет к резкому переводу голоса без каких-либо громких шумов при вдохе или выдохе.
ПРИМЕЧАНИЕ: Старайтесь не устанавливать Gate Threshold на значение выше -35, так как это может в конечном итоге заглушить часть вашей речи. Имейте в виду, что для того, чтобы шумоподавитель был эффективным, ваш голос должен быть значительно громче, чем шум дыхания.
Вот и все! Теперь ваш голос должен звучать значительно лучше, чем 5 минут назад!
Вы можете сохранить свой проект Audacity, перейдя в меню File и нажав Save Project .
Если вы хотите получить реальный аудиофайл, который можно импортировать в программу для редактирования видео, выберите опцию Экспорт .
Я обычно экспортирую свои файлы в формат .WAV, чтобы обеспечить максимальное качество.
После успешного экспорта аудиофайла вы можете импортировать его во Flixier и приступить к редактированию видео!
Заключительное словоСпасибо, что зашли так далеко! Мы знаем, что Audacity — не самое удобное программное обеспечение, но мы надеемся, что это руководство поможет вам сориентироваться в нем!
Удачи в создании видео. Следите за нашим блогом или подпишитесь на наш канал YouTube, чтобы получить больше руководств по редактированию видео!
Похожие сообщения
8 советов по творческой обработке вокала — профессиональные аудиофайлы
Содержание товара
Вокальная постановка — это весело.Я нахожу, что при создании музыки способ обработки ритм-секций имеет тенденцию следовать условию больше, чем вокал. Человеческий голос — самый выразительный инструмент, и он не только подходит для творческих стилей производства, но иногда и нуждается в нем.
Вот несколько интересных способов, которыми я обрабатываю свой вокал:
1. Длинные автоматические хвосты реверберации
Эта технология производства в моде уже несколько лет. На определенных словах, обычно в конце фраз, продюсеры добавляют длинную сочную реверберацию к голосу, создавая призрачное, затяжное качество.Он также отлично работает как переходный эффект.
На практике я мягко отправляю вокал на вспомогательную дорожку, помещаю реверберацию на эту вспомогательную дорожку, а затем автоматизирую уровень отправки так, чтобы только те слова, которые я хочу пропитать реверберацией, достигли вспомогательного возврата.
Мои любимые плагины для этого приложения — Soundtoys Little Plate, FabFilter Pro-R и несколько ревербераторов UAD, включая EMT 250, EMT 140 Plate и Lexicon 224.
UAD только что выпустила эмуляцию Lexicon 480L, которая, я уверен, отлично подойдет для этой цели.Я часто прикладываю значительную компрессию сразу после реверберации, потому что обычно мне нужен неестественный, почти синтетический хвост. Я только что освоил трек группы Plake, и вы можете услышать эту технику в действии во время куплетов.
2. Классическая «задержка броска» (расширенная)
Испытанный на практике элемент ушных конфет на протяжении десятилетий, вы все еще можете регулярно слышать эту технику в поп-музыке, R&B и рэпе. Вернитесь к абзацу о том, как я настраиваю хвосты реверберации, чтобы получить информацию о моем предпочтительном методе маршрутизации.Ключ в том, чтобы убедиться, что только те слова, которые вы хотите обработать, возвращаются на вспомогательный.
Я использую задержки броска вокала во всех своих миксах. Куплеты, припевы, бриджи, это не имеет значения — это один из тех приемов, которые делают звучание поп-микса «более дорогим». Я также расширяю концепцию и вместо того, чтобы ограничивать задержку 2-3 повторами, увеличиваю обратную связь и позволяю ей выть. Иногда я даже добавляю реверберацию к этой воющей обратной связи, чтобы создать это эфирное, грязное облако, которое следует за вокалом.Этот эффект отлично подходит для переходов и даже для плавных, сказочных затуханий в конце песни.
Мои любимые плагины задержки для этих приложений включают… давайте начнем с моего любимого плагина задержки: Echoboy. Он может справиться с этой и любой другой задачей, связанной с задержкой, которую я ему бросил. Другие примерные плагины задержки включают Softube Tube Delay, UAD EP-34 Tape Echo и (особенно хорошо подходят для гибридного эффекта реверберации / задержки) UAD Galaxy Tape Echo.
Как создать плавный эффект реверберации и задержки
Вокальная постановка — это весело.Я нахожу, что при создании музыки способ обработки ритм-секций имеет тенденцию следовать условию больше, чем вокал. Человеческий голос — самый выразительный инструмент, и он не только подходит для творческих стилей производства, но иногда и нуждается в нем. Вот несколько InterPlay Video
3. Сдвиг высоты тона реверберации и задержки автонастройки
Если вы до сих пор обратили внимание на тему в этой статье, это не просто установка и забывание ваших временных эффектов. Когда вы добавляете дополнительную обработку реверберации и задержки, происходят забавные и интересные вещи.
В недавнем миксе я отправил свой ведущий вокал через реверберацию (разновидность пластин), закрепил эту реверберацию на аудио, а затем сместил его высоту на одну октаву. В конечном итоге, элемент был сбалансирован довольно низко в миксе, но действовал как пэд-подобная сущность, которая добавляла легкое мерцание под ведущий вокал.
Я все время использую программное обеспечение для настройки — автонастройка для «явно настроенного» вокала в стиле поп и хип-хоп и Melodyne для более тонкого эффекта. Иногда я комбинирую их, оставляя ведущий вокал настроенным со вкусом, а затем применяю более заметную автонастройку к задержанному сигналу, так что любые повторы жестко настраиваются.Это, конечно, не работает постоянно, но с ним стоит поэкспериментировать, если вы хотите добавить в свой микс сладости для ушей и повысить производственную ценность.
4. Комбинируйте различные плагины настройки
Программа настройкизаняла достойное место в арсенале музыкальных продюсеров. На данный момент я считаю, что это мало чем отличается от эквализации или сжатия — это помогает лучше записывать звук, поэтому я буду использовать его.
Насколько хороши уроки вокала? Конечно. Является ли использование Auto-tune или любого другого программного обеспечения для настройки автоматическим обвинением в способностях певца? Не в моих мыслях.Моя работа — создавать приятные звуковые впечатления, и если настройка помогает мне достичь этого, то чем она отличается от других типов обработки?
Я использую программное обеспечение для настройки выразительными способами, чтобы преобразовать вокальные записи в музыкальные моменты, которые просто не могут быть исполнены человеком.
Техника, которую я использовал раньше, — это заставить певца записать «оооо» и «ааа» и т. Д. (Разной длины и с минимально возможным вибрато), загрузить эти записи в Melodyne, а затем манипулировать всевозможными способами. способов.Иногда повышают высоту звука на несколько октав, иногда «трансформируют» обычные вокальные партии с фрагментами этих обработанных записей. Слушатели любят удивляться, и это один из способов, которым я обрабатываю вокал так, чтобы он звучал странно и интересно.
Little Alterboy отSoundtoys — еще один плагин, который позволяет мне проявить невероятно творческий подход к обработке вокала. Little Alterboy может даже общаться с MIDI-устройством, позволяя вам «играть ноты», которые вы хотите, чтобы ваш модулированный вокал пел.Я очень ценю любой инструмент, который позволяет мне привнести еще один уровень музыкального самовыражения в мои произведения.
Представляем: Little AlterBoy
Вокальная постановка — это весело. Я нахожу, что при создании музыки способ обработки ритм-секций имеет тенденцию следовать условию больше, чем вокал. Человеческий голос — самый выразительный инструмент, и он не только подходит для творческих стилей производства, но иногда и нуждается в нем. Вот несколько InterPlay Video
5. Используйте вокодер
Хотя вокодеры рискуют злоупотребить, они, несомненно, представляют собой уникальную и забавную звуковую текстуру, которую можно использовать в ваших произведениях.Они создают эффект гибрида человека / робота, а также могут быть неземными и красивыми при правильном исполнении.
Ведущий вокодер может обеспечить интересную основу для построения песни, но я обычно использую вокодеры как псевдо-резервный вокальный элемент. Я считаю, что вокодеры на практике довольно привередливы, особенно когда дело касается звуковой стабильности. Я регулярно использую iZotope VocalSynth 2 и стандартный вокодер в Ableton Live. UAD / Softube только что выпустили плагин вокодера, и я определенно собираюсь его продемонстрировать, так как я дорожу работой, которую делают эти две компании.
В зависимости от того, как вы настроили вокодер, он может быть очень ярким и высококачественным или очень теплым и мягким. Хорошие навыки игры на клавиатуре предпочтительны, но не обязательны для исполнения высококачественной вокодированной партии.
iZotope VocalSynth 2: вокодер, эффекты и многое другое
Вокальная постановка — это весело. Я нахожу, что при создании музыки способ обработки ритм-секций имеет тенденцию следовать условию больше, чем вокал. Человеческий голос — самый выразительный инструмент, и он не только подходит для творческих стилей производства, но иногда и нуждается в нем.Вот несколько InterPlay Video
6. Bit-Crush Automation
До сих пор я упоминал несколько вокальных эффектов, которые, возможно, используются слишком часто и могут стать устаревшими, но один эффект, который, как я считаю, недостаточно представлен в современной музыке, является сокрушающим.
Мы можем использовать битовые дробилки обычным способом для ухудшения качества звука материала или даже как своего рода фильтр / эквалайзер, но мы не часто слышим об использовании битовых дробилок нестатическим способом.
В песне, которую я свел недавно, вступление было неинтересным.С музыкальной точки зрения, концепция была сильной, но для производства требовалось немного сладкого, особенно с учетом того, что первые десять секунд песни имеют решающее значение для того, чтобы слушатель принял участие. Поэтому я автоматизировал разрешение и параметры влажного / сухого звука на моем любимом бите. плагин дробилки (UAD OTO BISCUIT), чтобы сигнал стал более четким и ясным перед первым куплетом.
BISCUIT — фантастический плагин для этого приложения, который также имеет прекрасные возможности задержки, искажения и пошаговой фильтрации.
ПлагиныUAD: многомодовые фильтры Moog, OTO BISCUIT и bx_subsynth
Вокальная постановка — это весело. Я нахожу, что при создании музыки способ обработки ритм-секций имеет тенденцию следовать условию больше, чем вокал. Человеческий голос — самый выразительный инструмент, и он не только подходит для творческих стилей производства, но иногда и нуждается в нем. Вот несколько InterPlay Video
7. Используйте параллельную обработку (с осторожностью)
Если вы читали мои статьи и смотрели мои уроки, вы, вероятно, знакомы с моей техникой multi-bus и знаете, что мой вокальный звук обычно является результатом того, что я обрабатываю вокал с помощью множества типов эффектов, повторяя этот процесс. несколько раз для достижения разного качества, а затем объединение этих обработанных сигналов вместе или «параллельно» — с каждым слоем как частью головоломки.
Мы видели армаду плагинов, выпущенных за последние пять лет, которые включают функцию «влажный / сухой», которая позволяет вам контролировать баланс обработанного и исходного сигнала, и я советую использовать это в ваших интересах. Я часто доводю до крайности такие плагины, как Soundtoys Decapitator или FabFilter Saturn, а затем уменьшаю влажность.
Однако будьте осторожны: то, что вы можете что-то сделать, не означает, что вы должны это делать. Слишком большая параллельная обработка с использованием экстремальных настроек без внимания и внимания к деталям может иногда оставлять миксы нечеткими.
8. Относитесь к вокалу как к аранжировке
В конечном итоге цель состоит в том, чтобы вокал или вокал хорошо сочетался с остальной инструментальной частью, но я часто удивляюсь, слушая а капелла во время печати стемов для клиентов. Сложное взаимодействие реверберации, задержки и других вышеупомянутых вокальных эффектов в сочетании с тем, как я меняю баланс в течение песни, часто приводит к довольно интересному прослушиванию. Я не собираюсь создавать микс, предназначенный для такого прослушивания, но это результат готовности приложить необходимый объем работы, необходимой для того, чтобы песня стала лучшей версией самой себя.
Для рок-музыки более простое обычно лучше, и мой вокал не будет подвергаться многим сложным техникам, которые я упомянул до сих пор, так как я бы предпочел сохранить их «честное» звучание, но для большинства поп-миксов, которые я поработайте, я брошу кухонную раковину на ведущий вокал, а потом снова на резервные копии.
Создание профессиональных диктофонов дома: Часть 1
Чтобы добиться успеха в качестве диктора, озвучивающего себя самостоятельно, вам нужно быть гораздо большим, чем просто хорошим звукорежиссером…
У тебя отличный голос? Может быть, вы не лучший певец в мире, но у вас все равно может быть хороший говорящий голос. Прибавьте к этому домашнюю студию, и вы могли бы рассмотреть побочный вариант в качестве диктора, который сам занимается продюсированием. Зарабатывать деньги в качестве закадрового голоса означало жить в большом городе, рассылать демо-версии и сидеть в пробках между прослушиваниями. Однако, как и в музыкальной индустрии, доступное записывающее оборудование, домашние студии и широкополосный Интернет изменили эту работу. Мама, работающая на дому в Манчестере, может записать телефонное приветствие для туристического агентства в Риме; актер из Нью-Йорка может рассказать видео для шинной компании в России; или, чтобы предложить мой собственный пример, американский эмигрант может записывать для учебника ESL (английский как второй язык), в то время как его жена из Бразилии предоставляет свой голос программному обеспечению, разрабатываемому в Чешской Республике, и все это не выходя из нашего комфорта. дом в Сан-Паулу.
Сейчас в индустрии озвучивания больше возможностей, чем когда-либо прежде — но конкуренция никогда не была такой жесткой — поэтому в этой короткой серии статей я изложу то, что вам нужно знать, чтобы начать работу в качестве исполнителя озвучивания в домашней студии. , и превратить это в оплачиваемую работу. В этом месяце я объясню некоторые различия между озвучкой и музыкальной индустрией и расскажу о различных ролях, которые вам понадобятся, чтобы научиться хорошо. В следующий раз я расскажу, что делает голос хорошим, какой тип домашней студии вам нужен, и как вы можете начать получать работу.
В работе за кадром есть два основных приоритета: сообщение, которое вас просят передать; и невидимость — я имею в виду, что вы никогда не хотите, чтобы люди заметили ваш голос. Это может показаться нелогичным. В конце концов, почему бы не сделать так, чтобы ваш голос звучал великолепно? Что ж, вам нужно, чтобы слушатель сосредоточился на сообщении, которое ваш клиент платит вам за передачу, а не на самом голосе, поэтому он должен звучать естественно. Даже для строк тегов, где вы могли бы подумать, что более полный, теплый, более сжатый (или любой другой) голос будет уместным, продюсер часто захочет выполнить эквалайзер и сжатие самостоятельно.Мне потребовалось много времени, чтобы усвоить этот урок, но мои клиенты намного счастливее, когда я отправляю им красивую сухую запись. Я просто напоминаю себе, что доставляю им сырье, чтобы добавить их в свой микс, и позволяю им творить чудеса.
Даже если вы микшируете сами, лучше добавлять эквалайзер и компрессию только тогда, когда вы слышите, как это будет сочетаться со звуковой дорожкой или спецэффектами. В конечном итоге все сводится к знанию того, для чего будет использоваться ваш голос, и вынесению суждения. Например, если я записываю слоган для теле- или радиорекламы, я обычно вставляю микрофон в хороший предусилитель (где я могу добавить небольшое ламповое тепло, а также тонкий эквалайзер или компрессию, просто чтобы немного улучшить запись. of ‘body’), и я могу сделать небольшое устранение с помощью подключаемого модуля при выполнении любых изменений.Однако при работе с электронным обучением, корпоративных видеороликах и т. Д. Я стараюсь не добавлять никакой творческой обработки во время записи или редактирования, а буду использовать деэссер лишь в незначительной степени.
Почему разница в подходах? Многое из моего электронного обучения и корпоративной работы выполняется для продюсерских компаний, которые будут добавлять другие голоса в смесь. По иронии судьбы, если я запишу свой голос через отличный микрофон и предусилитель и добавлю некоторую приятную обработку, он может в конечном итоге выделиться среди других голосов, привлекая к себе внимание.Продюсерский центр сочтет это тем, что я создаю им проблему, даже если моя запись звучит лучше, чем другие!
Вы начинаете каждую работу в качестве продюсера, консультируясь со своим клиентом и получая инструктаж по текущему проекту. Затем вы становитесь инженером, занимаясь записывающим оборудованием и программным обеспечением, настраивая положение микрофона и уровни. Затем вы подходите к микрофону как актер, убираете сценарий со страницы и соединяетесь со слушателем. Между тем, ваш режиссер сидит за метафорическим стеклом, следя за тем, чтобы актер не произносил слово неправильно и не запинался в отрывке текста.Затем вы редактор, очищающий лучший дубль и отправляющий полученный звук вашему клиенту. Вы должны быть в состоянии выполнять все эти роли на высоком уровне, и чем лучше вы будете в каждой из них, тем больше будет процветать ваш бизнес.
В конце 2009 года моя жена Симона получила электронное письмо из Праги в Чешской Республике. Отправитель, Мирек Джирку, возглавлял проект по записи голосовых сообщений для иностранных версий последней версии Avast! антивирусная программа. Мирек отправил нам восемь сообщений для записи, указал плату и срок и попросил медленное, дружественное чтение.Он попросил нас отправлять отдельные стерео файлы MP3 (со скоростью 160 кбит / с или выше) для каждого сообщения, указав, что мы должны подписать соглашение о неразглашении перед записью, что нам нужно будет выставить счет после этого, и что он платите банковским переводом вместо PayPal (который часто используется для международных платежей).
Другими словами, Мирек дал нам всю информацию, необходимую для начала работы. К сожалению, обычно это не так! Обычно вам нужно много работать, чтобы получить от клиента всю необходимую информацию, чтобы хорошо выполнить свою работу.Если вы вообще не уверены в их ожиданиях, будь то производительность или технические и организационные вопросы, такие как форматы файлов или процедуры оплаты, сэкономьте время и избавьтесь от головной боли, предварительно устраняя все сомнения, и не бейте в рекорд. до тех пор, пока ваш клиент не даст вам зеленый свет по электронной почте. После этого вам будет легче надеть другие шляпы и продолжить работу.
Инженерная роль, вероятно, будет наиболее знакома обычным читателям SOS, а вопросы технического качества цифрового звука при озвучивании не отличаются от тех, которые существуют для любого другого сеанса записи.Ключевое отличие состоит в том, что некоторые клиенты ожидают, что вы доставляете файлы с частотой 48 кГц вместо файлов с частотой 44,1 кГц, которые обычно используются в музыкальном бизнесе. Частота дискретизации 48 кГц обеспечивает наличие целого числа аудиосэмплов для каждого кадра стандартной видеозаписи с частотой 24 или 25 кадров в секунду.
Как инженер, ваша ключевая задача — выбрать и настроить пространство для записи, выбрать и расположить микрофон, установить уровни и убедиться, что вы записываете хороший, чистый сигнал на здоровом уровне.Как и в случае с музыкой, чем громче сигнал, который вы хотите записать, тем менее слышен минимальный уровень шума, но вы не хотите, чтобы вам приходилось говорить громче, чем звучит естественно, и вы не хотите переваривать вещи при отслеживании: любые искажения будут очень заметно на открытой голосовой части, и иначе отличный результат с цифровым отсечением будет неприемлемым. Если вы замечаете обрезку только в начале редактирования, программные инструменты восстановления клипа могут помочь сделать дубль пригодным для использования, но он не будет идеальным. Помните, что, хотя вам, возможно, приходилось записывать «горячую» на аналоговую ленту и старые 16-битные цифровые записывающие системы, современные 24-битные аналого-цифровые преобразователи могут работать с гораздо более широким динамическим диапазоном, поэтому вам больше не придется записывать так громко: вы можете оставить гораздо больше места для головы.
Наконец, по мере того, как вы выполняете больше работы, вы можете получить много разных файлов из ваших проектов, поэтому хорошее «ведение домашнего хозяйства» ваших сессий и записей просто необходимо. Взглянув на имя файла simone_kliass_avast_virus_database_neumann_tlm_103_original.wav, я могу легко сказать, что это оригинальная запись сообщения моей жены «Ваша вирусная база данных обновлена» на португальском языке для Avast! На микрофоне Neumann TLM103. Неважно, какая у вас система. , пока он работает, и вы можете его придерживаться.
Отличное исполнение, записанное на посредственном оборудовании, всегда будет звучать лучше, чем посредственное исполнение, записанное на отличном оборудовании. Хорошо подготовившись перед сеансом, вам будет намного легче расслабиться и сосредоточиться на сообщении и слушателе. Как продюсер, важно четко понимать, какой формат должен быть у окончательного аудиофайла. Хотя существуют определенные «стандарты», ожидания ваших клиентов могут быть разными. Прочтите сценарий, найдите любые сомнительные слова и проверьте их произношение.Что касается американского английского языка, на который приходится большая часть моей работы, мой любимый ресурс по произношению — это онлайн-словарь Merriam ‑ Webster (www.m‑w.com), который включает аудио примеры. Если вы не знаете, как произносится название компании или продукта, позвоните в центр обслуживания клиентов компании (если кто-то может правильно произнести это слово, они могут!). Если вы не знаете, как произносится имя человека или города, попробуйте поискать на YouTube новостные сообщения по этой теме.
Когда вы действительно начинаете записывать свой голос, попробуйте думать о микрофоне как о ухе вашего слушателя.Представьте своего слушателя, выскажите свое мнение и прочитайте сценарий, как если бы слова приходили в голову в этот момент. Расстояние между вашим ртом и микрофоном должно быть примерно таким же, как расстояние между вашим большим пальцем и мизинцем при выполнении жеста «вешать пять» (см. Рисунок выше). Подойдите ближе к микрофону, когда вы понизите голос, и отступите, когда вы говорите громче. Он-лайновые словари, такие как изображенный здесь Merriam-Webster, часто включают аудио-примеры, которые могут помочь вам уточнить произношение.Просто убедитесь, что вы используете версию на американском английском или британском английском (или другом языке!). (Помните, что, когда на вас надет шляпа инженера, это необходимо учитывать при настройке уровней.) Всегда используйте всплывающий экран, и я бы посоветовал попытаться работать немного вне оси, например, разговаривая с точкой справа или слева от микрофона, это предотвратит порчу записи взрывами воздуха и каплями слюны. Я также рекомендовал бы носить наушники только на одном ухе, поскольку это позволяет вам оценивать громкость и прислушиваться к клипам и взрывчатым веществам на записи, а также слышать свой естественный голос, что упрощает сосредоточение на том сообщении, о котором мы говорили.Симона демонстрирует эту технику на картинке на следующей странице. Он работает немного вне оси и отступил на дюйм или два, чтобы передать больше энергии. Обычно вы записываете ртом примерно расстояние между большим и мизинцем от микрофона, как показано на рисунке.
Рекомендуется записывать без наушников, так как это помогает добиться более естественного звучания. При записи соло мне труднее всего играть роль режиссера.Как можно потерять себя в данный момент, если вы ищете ошибки? Если вы останавливаетесь каждый раз, когда неправильно произносите слово или используете неправильную интонацию, ваша запись произнесенного слова будет звучать прерывисто и неестественно. По этой причине я люблю записывать каждое задание дважды. В первый раз я выталкиваю директора из комнаты и сосредотачиваюсь на сообщении. Если возможно, я даже позволяю саундтреку к видео, которое я рассказываю, тихо воспроизводиться в моих наушниках, и я не останавливаюсь на ошибках не больше, чем если бы я рассказывал историю другу.Во время второго дубля я впускаю режиссера обратно в комнату, чтобы убедиться, что я все правильно произношу и подчеркиваю правильную информацию — хотя я все же стараюсь, чтобы исполнение было честным и естественным.
Поскольку я подготовился должным образом, первый дубль часто бывает тем, что я редактирую и отправляю своему клиенту. Второй — просто подстраховка на случай, если мне понадобится исправить какие-либо ошибки при редактировании. Гораздо лучше записывать такие выпадающие сигналы во время той же сессии, что и основное выступление, поскольку вы можете быть уверены, что микрофон будет в одном и том же месте, и ваш голос будет иметь одинаковый характер в обоих дублях.
Как редактор, вам нужно превратить необработанную запись в окончательную версию файла, который вы отправите своему клиенту. Монтаж во время сеанса записи может быть проблематичным, особенно если вы записываете в домашних условиях. Как вы можете ожидать, что услышите, как гудение посудомоечной машины портит вашу запись, если посудомоечная машина все еще работает во время редактирования? В следующий раз я более подробно рассмотрю создание студии закадрового озвучивания, но пока, если запись в отдельной комнате или изолированной кабине невозможна, по крайней мере, попробуйте отредактировать файл на следующее утро (или, может быть, в ночью), когда вокруг меньше шума — потому что прослушивание вашей записи свежим ухом и в более тихой обстановке поможет вам принять более правильные решения при редактировании и выявит шумы, которые раньше ускользали от вашего внимания.
Я использую пакет Adobe Audition, чтобы редактировать свою собственную закадровую речь, но описанные ниже методы можно использовать в большинстве программ для редактирования аудио. Начните с сохранения новой версии вашей исходной записи. (Я оставляю имя файла тем же, но меняю расширение с _original на _edit.) Затем я обращаю внимание на конец записи, где я отошел от микрофона после второго дубля и записал примерно 10 секунд тишины. Хотя обработка обычно сводится к минимуму, работа с шипением важна, и плагин Eiosis De ‑ esser намного точнее, чем большинство других.В наушниках я могу увеличить эту «тишину», увеличить громкость и прислушаться к любому фоновому шуму. Если я замечаю, что в запись проникает постоянный шум, я могу рассмотреть возможность использования инструмента шумоподавления Adobe Audition, чтобы запечатлеть профиль тишины на одну или две секунды, а затем уменьшить неприятный шум примерно на 75 процентов на протяжении всей записи. Я должен подчеркнуть, что это редко требуется, и это всегда крайняя мера, потому что такая обработка может генерировать закрученные металлические артефакты, которые привлекают к себе больше внимания, чем шум, который вы намеревались устранить! Но полезно прислушиваться к таким проблемам свежим взглядом в начале сеанса редактирования.Если вы часто используете шумоподавление, это признак того, что вам следует найти лучшее место для записи или улучшить изоляцию выбранного пространства. Не забывайте, что есть и другие способы борьбы с шумом: часто фильтр верхних частот — это все, что вам нужно, например, для очистки записи. Также помните, что если ваша запись должна быть смешана с музыкой, небольшой фоновый шум не будет заметен, и что чем более уязвим ваш голос в конечном продукте, тем более проблематичным станет шум.
На этом этапе — если вы не отслеживаете широковещательные приложения (где они не работают до пикового уровня) — подумайте о «нормализации» вашей записи до оптимального уровня. Нормализацию можно использовать, чтобы поднять самый громкий пик примерно до -1 дБ и увеличить громкость всей записи в том же соотношении. Конечно, вы также можете сузить динамический диапазон (разницу между самой тихой и самой громкой частью вашей записи), вручную уменьшив самые громкие части записи перед применением нормализации.И последнее: если вы планируете использовать компрессор, то на этом этапе вы можете добавить усиление вместо нормализации.
Как я уже упоминал, большинство наших клиентов предпочитают самостоятельно выполнять пост-продакшн и запрашивать необработанные (но отредактированные) записи. Но иногда, как в Avast! задание, клиент захочет, чтобы файлы были готовы к работе, что может означать использование небольшого эквалайзера и сжатия. Минимальный уровень шума на моих записях обычно колеблется в районе –54 дБ, но, используя эквалайзер для снижения частот ниже 80 Гц и выше 12 кГц, я обычно могу снизить уровень шума примерно до –57 дБ, не прибегая к шумоподавлению.Использование эквалайзера для уменьшения низкочастотного грохота и высокочастотного шума сделает вашу запись лучше и будет особенно полезно, если вы добавите компрессию позже, поскольку дополнительное усиление компрессора не будет повышать уровень этого шум. При умеренном использовании сжатие может с пользой уменьшить динамический диапазон и, таким образом, улучшить разборчивость слов, сохраняя при этом естественное звучание. При чрезмерном использовании он высосет жизнь из записи.
Только после такого рода обработки я начинаю очищать запись и обрабатывать паузы в тишине между речевыми фрагментами.Шумовой вентиль (или автономная функция «полосы тишины») может использоваться для автоматического отключения звука тех участков, уровень которых ниже определенного. Однако, если не использовать их осторожно, эти инструменты будут вырезать буквы «Т» и «П» на концах слов и отключать звуки естественного дыхания. Хуже того, если ваша запись зашумлена, шумоподавитель действительно привлечет внимание к проблеме, поскольку ваш клиент сможет услышать разницу между тоном комнаты и абсолютным отключением звука. Еще одна хитрость — использовать расширитель, направленный вниз, чтобы уменьшить минимальный уровень шума в тихих частях, а не полностью исключить шум.
Однако лучший, более естественный способ очистить запись голоса — это вставить полоски «тишины», которые лучше всего демонстрируют вашу домашнюю студию. Для этого просыпайтесь пораньше (например, когда в вашем доме тихо), включайте свое снаряжение и устанавливайте уровни для нормальной работы. Затем запишите полную минуту молчания с любой битовой глубиной и частотой дискретизации, которую вы, вероятно, будете использовать. Повторите этот процесс для каждого используемого вами микрофона и сохраните каждый файл в папке под названием «Звуки комнаты» или в другом аналогичном месте.
Затем пропустите эти файлы через любой стандартный фильтр верхних и нижних частот эквалайзера, который вы используете, увеличьте масштаб сигнала и выберите односекундную полосу тишины из каждой записи. Сохраните эти полоски как отдельные файлы. Например, в моей системе односекундная полоса тишины, записанная с 16-битной частотой 44,1 кГц на Neumann TLM103, будет называться room_tone_neumann_tlm_103_44100_16_one_second.wav. В идеале минимальный уровень шума каждой полосы должен быть ниже –60 дБ. Теперь, когда вам нужно удалить неровность или скрип между словами, вы можете вставить часть этих полосок вместо отключения звука, чтобы привлечь внимание к редактированию.
Однако не со всеми шумами можно справиться таким способом: вам нужно прислушиваться к щелчкам, взрывчатым веществам, цифровым сбоям и тому подобному. Обычно они могут быть исправлены с помощью инструмента «лечения» или карандаша, чтобы перерисовать форму волны. Выскочившие «p» часто можно «исправить» с помощью фильтра верхних частот, установленного на 100 Гц. Для одного сбоя вы можете увеличить и вырезать цикл формы волны, в котором появляется сбой. Просто будьте осторожны, чтобы начать и закончить разрез там, где форма волны пересекает центральную линию, иначе вы случайно добавите еще один цифровой сбой.Если сбои случаются часто, вероятно, проблема связана с настройками буфера вашего аудиоинтерфейса — это может быть просто проблема с воспроизведением.
Также прислушайтесь к шипению. Сильные звуки «эсс» лучше всего корректировать у источника, используя хорошую микрофонную технику, но иногда они неизбежны. Если вы слышите действительно шипящий звук в записи, вы можете вручную уменьшить его громкость. Вы, конечно, также можете использовать деэссер, но будьте осторожны, так как применение некоторых деэссеров ко всему аудиофайлу может изменить звучание вашей записи.Часто лучше всего применять их к коротким разделам в автономном режиме или с помощью автоматизации. Я предпочитаю плагин деэссера, продаваемый Eiosis (www.eiosis.com). Убедитесь, что вы записываете тишину в конце каждого дубля. Таким образом, если высокая производительность страдает от проблем с шумом, вам будет чем питать ваши шумоподавляющие процессоры. Только не стоит слишком полагаться на эту технику! который умело отделяет esses от остальной части звука и позволяет вам управлять ими независимо. Если вы хотите узнать о более продвинутых стратегиях деэссинга, посмотрите статью Майка Старшего из SOS, май 2009 г. (/ sos / may09 / article / deessing.htm).
Поздравляем! Теперь у вас должна быть законченная запись закадрового голоса. Сохраните окончательную копию с расширением _master и используйте эту версию для сохранения другой копии в формате, запрошенном клиентом. Но не думайте, что ваша работа сделана, когда вы отдаете все обратно своему продюсеру. Для ведения прибыльного домашнего бизнеса по озвучиванию требуется больше, чем просто строительство и оборудование домашней студии, а также запись и редактирование аудиофайлов. Вам все еще нужно разработать веб-сайт, запустить маркетинговую кампанию и привлечь новых клиентов — все это мы рассмотрим в другой раз.
Чтобы узнать больше о «Любимых африканских сказках» Нельсона Манделы, посетите www-mandelasfavoritefolktales-com. Возможно, самые опытные редакторы озвучивания — это те, кто работает над аудиокнигами. «Любимые африканские сказки Нельсона Манделы» были удостоены награды Audies 2010 Audiobook of the Year и включают в себя голоса Мэтта Дэймона, Вупи Голдберга, Хью Джекмана, Сэмюэля Л. Джексона, Скарлетт Йоханссон, Дебры Мессинг, Алана Рикмана, Шарлиз Терон и Фореста Уитакера, среди других художники. Эта аудиокнига, записанная в Нью-Йорке, Лос-Анджелесе, Лондоне, Майами и Йоханнесбурге, была сопродюсирована, отредактирована и сведена Мишель МакГонигл из нью-йоркской компании Hachette Audio.Я пригласил Микеле немного рассказать мне об этом проекте и дать несколько советов художникам озвучивания, работающим из дома:
Как проходили тренировки для исполнителей на сессиях «Любимые африканские народные сказки»?
«Это был режиссерский дебют в аудиокниге Элфри Вударда, и она произвела потрясающее впечатление от людей. Важным [делом] было помнить, что эти истории рассказывались в интимной обстановке, в большинстве случаев один на один, так что талант действительно нужно было поговорить с отдельным слушателем.Образ, который нужно помнить, — это истории, рассказываемые у костра, когда народные сказки передавались устно ».
Сколько дублей требовалось для каждого выступления?
«Мы записали два или три дубля каждой истории, и в этих дублях было несколько наложений [наложений] для определенных строк. Когда я редактировал, я использовал дубли, которые давали наилучшую передачу, с наименьшим движением или другим шумом. , и предоставил самые провокационные изображения. В некоторых случаях [мы использовали] первый дубль.Иногда, повторяя строку снова и снова, человек начинает терять смысл строки. Подсказки должны возвращаться к началу предложения, что значительно упрощает редактирование ».
Вы можете описать свой типичный процесс редактирования?
«Процесс редактирования всех наших титров начинается с получения сессий Pro Tools или файлов WAV и скрипта инженера, в котором есть отметки о том, сколько дублей было и какие из них понравились режиссеру больше всего. В некоторых случаях я использую Strip Выключите тишину и добавьте тона комнаты, чтобы ускорить редактирование сборки.В других случаях я добавляю оттенок комнаты по мере прохождения звука. Когда у меня были все финальные дубли для использования в [Любимых африканских народных сказках], я вернулся к тонкой редакции и создал заметки по любым вопросам, таким как неправильное прочтение, неправильное произношение, шумы и так далее. С этим списком я смог обсудить с Альфре, как мы будем решать проблемы. Поскольку расписание актеров не позволяло им возвращаться для съемок, мне пришлось кое-что отредактировать ».
Как исполнителю закадрового озвучивания следует подготовиться к домашнему сеансу?
«При записи озвучки дома вы должны сосредоточиться на производительности: поддерживать уровень энергии, оставаться верным странице, правильно и последовательно произносить слова и следить за тем, чтобы вы соблюдали график, чтобы успеть к сроку.Подготовьтесь хорошо, чтобы не тратить время на повторные догадки, поиск слов по ходу дела, и не забывайте не чрезмерно или недооценивать себя. Кроме того, убедитесь, что вы хорошо знаете свое записывающее оборудование и комнату; возможность быстро вносить изменения в размещение микрофона, уровни и т. д. сделает вас более эффективным ».
Что вы можете посоветовать по поводу микрофонной техники?
«В идеале талант должен сидеть, оставаясь на оси, примерно в футе от микрофона, который должен быть немного отклонен назад от лица, а не параллельно ему.Вам нужно будет увидеть, какой угол дает наилучшие результаты, обычно несколько градусов от параллели отлично работают — и расположены между лбом и носом, а не прямо на линии рта. Это поможет с взрывчаткой, шумом во рту и некоторыми другими проблемами. Движение в будке должно быть ограничено, так как микрофон может улавливать взмахи рук, их потирание, переворачивание страниц, урчание в животе и т. Д. Поддерживайте согласованность уровней, приближаясь, если сцена требует шепота, или отступайте, чтобы громкий голос или крик.Хорошо осведомленный рассказчик способен демонстрировать динамическое представление, не создавая динамических уровней ».
Как вы справляетесь с такими проблемами, как шипение и шум во рту?
«Всегда лучше решать эти проблемы во время записи. Если человек шипит и / или« говорит »(щелкает, хлопает, свистит), есть способы уменьшить, а иногда и полностью устранить проблемы: сок из зеленых яблок, полоскание с водой, изменив положение микрофона и поп-фильтра и отрегулировав его или ее способ дыхания.Если все еще есть проблемы, я устраняю как можно больше проблем. Часто я перерисовываю осциллограмму, чтобы избавиться от проблем, или использую плагины. Мы только начали использовать Izotope RX 2 Advanced, который творит чудеса с щелчками, треском и тому подобным. То, что я не могу исправить, мы пытаемся вернуть таланты, чтобы пикапы ».
Есть ли у вас последний совет для рассказчиков, работающих на дому?
«Вы должны уметь вовлечь слушателя, помочь ему избавиться от недоверия, стать частью мира, созданного автором, и отправиться в путешествие, руководствуясь своим голосом.Тренируйте голоса своего персонажа; они должны быть правдоподобными и честными. Работайте над своими акцентами, таймингом и подачей в разных жанрах. При чтении читайте вслух, даже если вы не записываете и не получаете за это деньги. Это поможет вам в потоке и диалоге. Послушайте другие аудиокниги и выясните, что вам нравится, а что нет, а затем поработайте над этими факторами в своих выступлениях. Работая в домашней студии, вы должны учитывать гораздо больше обязанностей. Помните о них, ставьте достижимые цели и знайте свои ограничения.Никогда не переусердствуйте и не выполняйте слишком много обещаний для клиента. Есть много признанных и честолюбивых рассказчиков, так что делайте все, что в ваших силах ».
Понимание голосового производства
Анатомия и физиология голосового производства | Понимание того, как производится голос | Изучение голосового механизма | Как срывы приводят к нарушениям голоса
Ключевые термины глоссария
Гортань
Узкоспециализированная структура над дыхательным горлом, отвечающая за производство звука, прохождение воздуха во время дыхания и защиту дыхательных путей во время глотания
Голосовые складки (также называемые голосовыми связками)
«Складчатые» мягкие ткани, которые являются основным вибрирующим компонентом голосового аппарата; состоит из оболочки (эпителий и собственная поверхностная пластинка), голосовой связки (промежуточная и глубокая собственная пластинка) и тела (тиреоаритеноидная мышца)
Glottis (также называемый Rima Glottides)
Разрыв между двумя голосовыми связками; голосовая щель открывается во время дыхания и закрывается во время глотания и звука
Глоссарий
Голос, как мы его знаем = звонкий звук + резонанс + артикуляция
«Разговорное слово» является результатом трех компонентов голосового производства: звонкого звука, резонанса и артикуляции.
Звонкий звук: основной звук, производимый вибрацией голосовых связок, называется «звонким звуком». Это часто называют «жужжащим» звуком. Звонкий звук для пения существенно отличается от озвученного звука для речи.
Резонанс: звонкий звук усиливается и модифицируется резонаторами речевого тракта (горло, полость рта и носовые ходы). Резонаторы воспроизводят узнаваемый голос человека.
Артикуляция: Артикуляторы голосового тракта (язык, мягкое небо и губы) изменяют голос.Артикуляторы производят узнаваемые слова.
Голос зависит от вибрации и резонанса голосовой складки
Звук возникает, когда аэродинамические явления вызывают быструю вибрацию голосовых связок в последовательности циклов вибрации со скоростью около:
- 110 циклов в секунду или Гц (мужчины) = нижний тон
- от 180 до 220 циклов в секунду (женщины) = средний шаг
- 300 циклов в секунду (дети) = более высокий голос более высокий голос: увеличение частоты вибрации голосовой связки громкий голос: увеличение амплитуды вибрации голосовой складки
Цикл вибрации = фаза открытия + закрытия
Цикл вибрации голосовых складок включает фазы, которые включают в себя упорядоченную последовательность открытия и закрытия верхней и нижней части голосовых складок, позволяя коротким вдохам воздуха проходить с высокой скоростью.Давление воздуха преобразуется в звуковые волны.
Не похоже на гитарную струну
Голосовые связки вибрируют при возбуждении аэродинамическими явлениями; они не защипываются, как гитарная струна. Давление воздуха из легких контролирует открытую фазу. Проходящий столб воздуха создает «эффект Бернулли», который контролирует фазу закрытия.
Процесс голоса
Производство голоса включает в себя трехэтапный процесс.
- Столб давления воздуха перемещается в сторону голосовых связок
- Воздух перемещается из легких в голосовые складки за счет скоординированных действий диафрагмы, мышц брюшного пресса, мышц груди и грудной клетки
- Вибрация голосовой складки — последовательность циклов вибрации:
- Голосовые складки перемещаются к средней линии мускулами, нервами и хрящами голосового аппарата
- Вибрационный цикл повторяется многократно; один колебательный цикл выглядит следующим образом:
- Столбик давления воздуха открывает нижнюю часть голосовых складок
- Столб воздуха продолжает двигаться вверх, теперь уже к верхушке голосовых складок, и открывает верхнюю часть
- Низкое давление, создаваемое за быстро движущимся воздушным столбом, создает «эффект Бернулли», в результате которого нижняя часть закрывается, а затем верхняя часть.
- Закрытие голосовых связок отсекает воздушный столб и высвобождает импульс воздуха
- Новый цикл повторяется
- Быстрые импульсы воздуха, создаваемые повторяющимися циклами вибрации, производят «звонкий звук», который на самом деле является просто жужжащим звуком, который затем усиливается и модифицируется резонаторами речевого тракта, производя голос, «какой мы его знаем».”(См. Таблицу ниже)
- Громкость: Увеличение воздушного потока «раздвигает» голосовые связки шире, которые дольше остаются друг от друга во время цикла вибрации, тем самым увеличивая амплитуду волны звукового давления
- Высота звука: Увеличение частоты вибрации голосовых связок повышает высоту звука
Диаграмма вибрации голосовой складки
1 Столб давления воздуха движется вверх по направлению к голосовым складкам в «закрытом» положении2, 3 Столб давления воздуха открывает дно колеблющихся слоев голосовых складок; тело голосовых связок остается на месте
4, 5 Столб давления воздуха продолжает двигаться вверх, теперь к верхушке голосовых связок, и открывает верхние новые колебательные циклы
6–10 Низкое давление, создаваемое за быстрым -движущийся столб воздуха производит эффект Бернулли, который вызывает закрытие нижней части, за которой следует верхняя часть
10 Закрытие голосовых связок отсекает столб воздуха и выпускает импульс воздуха
— повтор 1-10. В закрытом положении (-), поддерживаемом мышцей, открывается и закрывается циклически, упорядоченно и равномерно (1–10) по мере прохождения столба давления воздуха из нижних легких.Это очень быстрое упорядоченное закрытие и открытие, производимое столбом воздуха, называется волной слизистой оболочки. Сначала открывается нижний край (2-3), затем верхний край, пропуская воздух (4-6). Столбик воздуха, который проходит через него, создает «эффект Бернулли», который заставляет нижний край закрываться (7-9), когда он выходит вверх. Выходящие «порывы воздуха» (10) преобразуются в звук, который затем преобразуется в голос резонаторами речевого тракта. Любое изменение, которое влияет на эту волну слизистой оболочки — жесткость слоев голосовых складок, слабость или неспособность смыкания, дисбаланс между правыми и левыми голосовыми складками из-за поражения одной голосовой складки — вызывает проблемы с голосом. (Для получения дополнительной информации см. Анатомия: Как срывы приводят к нарушениям голоса.)
- Голосовой тракт — резонаторы и артикуляторы: Нос, глотка и рот усиливают и изменяют звук, позволяя ему приобретать отличительные качества голоса Способ воспроизведения голоса аналогичен способу воспроизведения звука тромбоном . Тромбонист издает звук в мундштуке инструмента, его губы вибрируют от воздуха, выходящего изо рта.Вибрация внутри мундштука производит звук, который затем изменяется или «формируется» по мере прохождения по инструменту. При изменении слайда тромбона звук музыкального инструмента также изменяется.
Удивительные результаты человеческого голоса
Человеческий голос можно изменять разными способами. Рассмотрим спектр звуков — шепот, речь, ораторское искусство, крик — а также различные звуки, которые возможны в различных формах вокальной музыки, таких как рок-пение, пение госпел и оперное пение.
Ключевые факторы нормальной вибрации голосовой складки
Для эффективной вибрации голосовые связки должны быть:
По средней линии или «закрыто»: Неспособность сдвинуть голосовые связки к средней линии или любое поражение, которое препятствует схождению краев голосовых складок, позволяет воздуху выходить и дает хриплый голос. Ключевые игроки: мышцы, хрящи, нервы
Податливость: естественная «встроенная» эластичность голосовых складок делает их податливыми. Верх, край и низ голосовых складок, которые встречаются по средней линии и вибрируют, должны быть гибкими.Изменения в податливости голосовых связок, даже если они ограничены только одной областью или «пятном», могут вызывать нарушения голоса, что проявляется в рубцевании голосовых связок. Ключевые исполнители: эпителий, поверхностная собственная пластинка
«Правильное» напряжение: Неспособность регулировать напряжение во время пения может привести к неспособности достичь высоких нот или к прерываниям голоса. Ключевые исполнители: мышцы, нервы, хрящи
«Правильная» масса: Изменения в объеме мягких тканей голосовых складок — такие как уменьшение или истончение, как при рубцевании, увеличении или припухлости, как при отеке Рейнке, вызывают множество голосовых симптомов — охриплость, изменение высоты голоса, усиленное звучание, и т.п.(Для получения дополнительной информации см. Рубцы голосовых складок и отек Рейнке.) Ключевые участники: мышцы, нервы, эпителий, собственная поверхностная пластинка
Изучение голосового механизма
Сохранить
Сохранить
Сохранить
Сохранить
Сохранить
Обработка голоса и звука — MTG
Наши исследования в области обработки аудиосигналов обширны и междисциплинарны, с важным акцентом на передачу технологий, подтвержденную десятками патентов и несколькими коммерческими продуктами, пользующимися большим успехом.В настоящее время наши интересы распространились в области синтеза певческого голоса, преобразования голоса, разделения источников и автоматической генерации звуковой сцены.
Основные темы исследования
Синтез певческого голоса
Более десяти лет мы разрабатываем модели и конкретные подходы к синтезу певческого голоса на основе концепции перфоманс-семплирования с целью создания синтезатора естественного пения (например: Bonada & Serra, 2007; Bonada, 2008 ).Мы постоянно сотрудничаем с Yamaha Corp в этой области, и результатом этого сотрудничества стал популярный коммерческий синтезатор Vocaloid.
Последние исследования посвящены применению глубокого обучения к синтезу пения. Этот подход позволяет нам делать такие вещи, как моделирование тембра и выразительности певца из естественных песен (Blaauw & Bonada, 2017 [https://www.mdpi.com/2076-
Демонстрации
Последние демонстрации:
Demo 1 (более новая модель, обученная на данных с небольшим количеством аннотаций)
Demo 2 (старая модель, обученная на данных с большим количеством аннотаций)
Demo 3 (клон с несколькими минутами записи)
Старые демоверсии:
Разделение источников
Разделение музыкальных аудиосигналов решает проблему выделения определенных сигналов из музыкальной смеси.Мы сосредоточились на анализе и извлечении преобладающего голоса из полифонической музыки (например, Marxer et al., 2012) и перкуссионных компонентов (например, Janer et al. 2012). Эти алгоритмы имеют различные приложения, включая музыкальное производство (например, ремиксы), развлечения (например, караоке) или культурное наследие (например, реставрация). В более поздних работах рассматривается случай разделения источников на основе оценок. В демонстрационном видео ниже мы показываем, как можно улучшить различные оркестровые инструменты.
Партитурное разделение оркестровой музыки (2014)
Больше демонстраций и информации на странице проекта.
Другие темы исследований
Алгоритмы обработки голоса в реальном времени (например, Mayor et al., 2011) были интегрированы в лицензированную технологию Kaleivoicecope. Мы исследовали такие темы, как преобразование качества голоса, олицетворение голоса, обработка речи, эмоциональный синтез речи, улучшение голоса, нестационарный синусоидальный анализ.
Демонстрация преобразования голоса (2007)
Демонстрация имитации певца (1999)
Мы внесли свой вклад в область анализа голоса с помощью нескольких методов автоматической расшифровки мелодии и выражения, а также оценки певческого исполнения (например, Mayor et al., 2009). Мы также адаптировали стратегии преобразования голоса, используемые в речи, к особенностям певческого голоса, что позволяет создавать модели певцов, когда доступен только ограниченный объем аудиоматериала (например, Villavicencio & Bonada, 2010).
Обработка полифонического звука также вызвала наш интерес, включая полифоническую шкалу времени, определение темпа, модификацию ритма (например, Janer et al, 2006), тональный анализ и визуализацию (например: Gómez & Bonada, 2005), мозаику звука (например: Coleman et al, 2010), оценка следующая.
Демонстрация преобразования ритма в реальном времени (2006)
Демонстрация звуковой мозаики (2009 г.)
В последние годы мы расширили концепцию семплирования исполнения на футляр скрипки, внося свой вклад в новые подходы к точному улавливанию жестов исполнителя с помощью почти ненавязчивых методов распознавания и статистически моделируя временной контур этих жестов и тембр, который они производят. (например: Maestre et al., 2010). Инструментальное моделирование жестов оказалось естественным подходом к управлению физическими моделями, чтобы заполнить пробел между высокоуровневыми элементами управления символической оценкой и низкоуровневым вводом физической системы.
Демонстрация отслеживания жестов скрипача (2010)
Синтез скрипки, управляемый жестами (2010)
Музыкальная партитура может использоваться в качестве вспомогательной информации в некоторых аудиоприложениях.Например, в аудио для выравнивания партитуры цель состоит в том, чтобы синхронизировать данный аудиосигнал со счетом. Этот процесс может быть выполнен в режиме реального времени или в автономном режиме.
Пример выравнивания звука и партитуры (2014)