Это копия, сохраненная 9 июня 2019 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Пока без шапки, в процессе сделаем.
Обсуждаем вопросы сведения треков, делимся советами, трюками, видео, книгами и так далее.
Исходники для сведения скопировал из шапки старого треда:
1) rutracker.org - пишешь в поиске слово multitrack
2) cambridge-mt.com/ms-mtk.htm
3) puremix.net
Ссылки на прошлые треды:
https://2ch.hk/mus/arch/2017-05-31/res/403552.html (М)
https://2ch.hk/mus/arch/2017-10-20/res/437766.html (М)
Ну вбрось парочку треков на какой-нибудь яндекс-диск. Кому интересно (мне например) попробуют и вкинут результаты в тред. Только если можешь, свои миди-барабаны не одной дорожкой кидай.
Удвою этого. Я например могу попробовать тоже, потом выберешь себе понравившиеся трек.
https://www.soundgym.co
Кто-нибудь пробовал заниматься на этом сайте?
>>581742
>>581745
Вывел проект 2804 в wav, в папке raw лежат дополнительно необработанные инструменты, записанные в линию. Постарался чтобы все было примерно -6 db и не клиповало
https://drive.google.com/open?id=1OtS36iFLOGzGgU7ykqwThxviJtiCLkpC
Ну в мастеринг и сведение я не могу, от скуки сделал вот, тупо на слух.
> А тут ударные валят весь трек, их бы наоборот прибрать. Еще прописать динамику между частями лучше и будет заебок
Ты тот кто реквестировал? Я в принципе могу посидеть ещё с треком если хочешь.
Я просто наспех делал.
подписался на рассылку этого чела. Присылает видео, которых у него нет на канале ютуба. Интересно рассказывает, а главное он сам тебе присылает и это распределено по времени.
это довольно тупой вопрос, скорее всего, учитывая процесс создания такого музла, но всё же.
https://soundcloud.com/flexzig/allengnzgo
И подобную электронщину
https://soundcloud.com/brokennote/dustandshadows
И для сравнения, вот это моё, по сведосу я попадаю хоть немного в рефы выше? Т.к пишу с ведра, лосслес принести не могу.
https://soundcloud.com/followmoth/ep-teaser
бамп, шоб тред с нулевой не уплыл.
Блин, так и знал что что-то с мид сайдом связаное будет. Спасибо
Вот я сейчас скопировал трек гитары и сделал задержку трека на 1мс. Сразу стало широко, но в анализаторе появилась небольшая противофаза. Что странно, я же просто чуть-чуть сместил по времени дорожку. В моно всё еще звучит нормально, но хотелось бы, чтобы все было в синенькой зоне. С другой стороны, я смотрел трек радиохеда там тоже была противофаза чуть-чуть
https://youtu.be/j7Rxl3P4wkg?t=26s
https://youtu.be/_oqWdZsBYuE
>скопировал трек гитары и сделал задержку трека на 1мс. Сразу стало широко
Ха-ха-ха-ха, аааааааа
Широко не стало. Ввиду малого слухового опыта, ты перекошенные фазы между каналами принимаешь за расширение. Все когда то через это проходили. Не пытайся наебать систему, единственный способ получить широкое стерео - это две прописанные партии.
Ну не соглашусь. Противофаза есть конечно, но это не так страшно.
Во-вторых, я как-то ходил на курсы, там звукорежиссер говорил что не обязательно сегодня записывать две дорожки вокала, например. Можно все в миксе сделать. Не углублялся я тогда, но в память запало.
В-третьих, на ютубе полно таких туториалов, там либо трек замедляют, либо чуть-чуть детюнят, либо хорус накладывают. Но это больше к электронным относится как-будто.
А так, меня больше интересует именно вопрос освобождения центра, а не расширения стерео, хотя и это интересно.
вот тут >>583720 я описал задачу, у mgmt хорошо слышно этот эффект.
>ходил на курсы
>звукорежиссер говорил что не обязательно сегодня записывать две дорожки вокала
>можно все в миксе сделать
>не рассказал, как освобождать центр под вокал
Ну просто классика отечественной системы наебизнеса преподавания "звукорежиссуры" лохам "начинающим продюсерам"!
Панорама, hp/lc фильтры, ревера... Короче, начинай свое обучение с начала. Наверни Гибсона, например - https://www.youtube.com/watch?v=TEjOdqZFvhY
Не, это был курс именно звукозаписи и он был так себе на самом деле. Так что это был просто разговор в перерыве.
Но ведь это не будет широким стерео. Это будет две моно записи гитары.
Ага. А большой оркестр - это набор соло инструментов в моно, которые рассажены по панораме
Нихера с тебя не выйдет толкового. Ты лошок, для которых проводят курсы и пилят видосики. Учись думать сам, не будь дном .
Если все эти инструменты записывать по отдельности в моно, то да, будет куча моно записей.
Лень автоматизацию делать, инструменты по одному, особенно во вступлении звучат плохо. Нужно ставить автоматизацию ревера и эквалайзера на первых две вступающих дорожки.
Запись кстати очень хорошая, как вы (ты?) умудрились испортить запись - не понятно.
Почитай описание к видео, лол.
Трек не сводили, не мастерили, проект вообще потеряли, осталась только mp3, на альбом запись не попала.
Но при этом звучит нормально.
Сведение и мастеринг оверрейтед, 99% всего происходит на записи.
И тем не менее звучит хорошо, можно на радио выпускать, на ютуб.
Во первых это не бит за 2 часа, во вторых >>587040 явно сводили (работа в дав да еще и с электронной музыкой подразумевает еще и сведение в любом случае). Прост обычно чувакам на студию присылают мультитреки, которые уже доводят до ума. Именно это она и имеет ввиду под mixing/ mastering, т.е. не отправляла трек профи в этой области. Как бы вы нпр. дома не сводили и не мучались над своими треками, если вы музыканты, по сути в профессиональном мире их так же можно назвать демками "без сведения и мастеринга", тупо из принципа разделения труда.
По поводу того, что "хоть на радио" - ну у граймс стилистика такая действительно. Там и не должно все звучать чисто, с глубоким пространством или специально для больших клубов и т.д. и т.п. Достаточно чтобы просто качало. Поэтому непонятна фраза про сведение оверрейтед. Не у всех есть привычка работать на высокой громкости, особенно дома, а тихие и не динамичные готовые треки сейчас все в основном скипают толком не начав слушать. Тоже уметь надо между прочем - вырулить громкость как надо (а надо сильно к сожалению) не убив к херам звучание.
проходил мимо
лол, а ты смешной. говно, что с ревером что без
Подскажите радикальные способы изменить/извратить исходный сэмпл. Такие существенные как реверс, может есть какой-то сорт оф звуковой негатив, как с фотками. Чуть менее существенные еще дисторшны всякие, изменение питча и/или длины, эквализация, нарезки всякие, перестановка...
Что еще?
> звуковой негатив
Инверсия же. Хотя звучать будет так же.
> Что еще?
Просто хуячишь кучу плагинов и готово. Сатурацию там, LFO, delay, reverse reverb/delay, компрессор/лимитер, в общем все, что видишь.
Wave shaper заюзай, инвертируй просто зависимость выходного звука от входного и будет аналогично инверсии у фоток, но ухи береги.
В harmor закинешь сэмпл и извратишь его до неузнаваемости.
Пусть выделяются. Делай так:
1) По громкости сведи сначала, без всяких обработок. Если не получается просто по громкости инструментов сделать норм звук, значит вмешивайся в нотки, велосити, хуелосити, перенакручивай звук, переигрывай, перезаписывай. Когда хорошо сыграно, само звукоизвлечение, уже должно нормалек звучать, без всяких компрессоров и эквалайзеров.
2) Отрежь/убавь незначительные для каждого инструмента области спектра.
3) Инструменты, у которых спектры похожи и значительно пересекаются, одновременно включи и в моно эквалайзером добейся, чтобы максимально оба было слышно в моно. Желательно выключить один монитор, потому что физически моники отличаются чуть-чуть и уши человека не идеально одинаковые и комната может быть не симметрична. Так с одного моника ты можешь чуть-чуть лучше услышать один инструмент, а с другого другой инструмент. На практике всем это лень делать, но формально, моно - это один включенный моник.
4) Панораму добавляй, должен быть включен circular panning law, без него работают только долбоебы.
5) Еще эквалайзь уже с панорамой, чтобы пространство заебенить.
6) Добавь художественные эффекты и компрессию, если надо. Может так статься, что и не надо.
7) Ебани ревера, если надо. Может так статься, что и не надо. Ну, чуть-чуть может. Некоторые инструменты любят дилей, с лоупасом, еле заметно.
А дальше мустиринг, хуюстиринг. Если хочешь громко и переносимость говникса, то отрежь очень низкие и очень высокие частоты и многополосным компрессором пожми и сравнивай с непожатым вариантом уравненным по громкости (субъективной), так, чтобы ты жал сильней, а звук оставался примерно таким, как был, чтобы не искажалось. Сейчас все говорят, что громко не модно и любят динамику. Если само исполнение музыки не было произведено с макродинамикой, то через лимитер хуярь либо усиление побольше в местах, где должно ебашить, либо перед этим местом слегка ослабляй постепенно, чтобы тип без палева.
https://www.youtube.com/watch?v=4FKTJhgCflY
Анальноговое суммирование.
Может быть чел, конечно, не подписывается за это говно, а просто рекламирует, но как-то все равно неприятно.
Ладно, он сказал, что иначе бы пришлось рекламироваться у казиношников. Значит наверно они не подписываются за хуйню, а просто рекламируют.
Значит можно позырить.
Как создавать динамику в песне при её написании?
Я заебался уже
Звучит все более-менее, но нет той самой динамики
Автоматизацией на посте, либо акцентированием при записи.
http://rgho.st/7jvTtpYlX
В чём плюсы и минусы каждого?
Что лучше и для каких целей?
У Рипера это помню, как-то фиксилось, а у Аудишена как?
Во-первых, не помогает. Во-вторых, с чего ему вообще помогать в таком случае?
транзиент дизайнер
бамп вопросу
Деклиппер (что бы это не значило), динамический эквалайзер или многополосный компрессор, или спектральный компрессор. Условие задачи слишком расплывчатое. Ударная волна при взрыве "п, б" имеет скорость превышающую скорость звука в материале из которого сделан корпус микрофона? Губы вокалиста разбрызгиваются по комнате? Деклиппер не поможет тогда.
>Ударная волна при взрыве "п, б" имеет скорость превышающую скорость звука в материале из которого сделан корпус микрофона? Губы вокалиста разбрызгиваются по комнате?
Я, конечно, всё понимаю, но что это такое?
Ну тот чел мог бы приложить образец звука, чтобы понятно, в чем проблема точно, а не по описанию.
Я и есть "тот чел". Образец звука увы, уже проебал. Но, если что, вкину аналогичный в дальнейшем.
В самом ебучем случае izotope rx, если что. То есть если ты в микрофон сказал взрывную бээ и микрофон взъебался от ужаса и все заклиповало, то это как бы соответствует йобскому нелинейному преобразованию + может быть еще шум потока воздуха приплюсуется. Это чистить нужно чуть не вручную, а целью полагать частичное восстановление, превращения звука из неприятного в приемлемый. Обратное преобразование, которое могло бы восстановить предполагаемый качественно записанный соответствующий звук, наверно возможно теоретически с помощью каких-нибудь хитровыебанных нейросетей будущего.
Спасибо, бро.
Вот пример: https://www.youtube.com/watch?v=N-aK6JnyFmk
Удвою.
Но меня интересует немного другое направление: как добиться винтажного звука 30-х?
Типа как вот здесь:
https://www.youtube.com/watch?v=AY2jPAb6BOQ - голос диктора
https://youtu.be/bGBwmLRNLJ4?t=2m13s - голос солиста
https://youtu.be/SOhO148hOi8?t=25s
https://youtu.be/tnLK5lMY97s?t=1m40s
Интересует в первую очередь голос, потом музыка.
Чё скажете?
Эквалайзер, отрежь высокие и дисторшн (любые имитации нелинейных искажений). Но винтажность звука определяется прежде всего жанром и манерой исполнения. Если ты будешь сводить, то на каждую дорогу повесь нелинейное говно и ограничь спектр до 5-6 кгц.
>(любые имитации нелинейных искажений)
>нелинейное говно
Слушай, я нуб, не бейте сильно, но что такое нелинейные искажения?
Бамп вопросу на всякий случай.
Там в треках хуева куча всего, но звучит нормально, тем не менее.
Как они это делают?.
Какие вы можете выделить особенности подобных треков?
Линейность означает пропорциональность между входом и выходом. Нелинейность - это отсутствие пропорциональности. Считай, что эквализация, реверберация, всякие дилей, хорусы и прочее - это принципиально линейно, но на практике это не обязательно. А всякие дисторшны, апмсимы, сатураторы - это нелинейно и без нелинейности они не делаются. Усек? Все звуковое оборудование физически имеет линейные и нелинейные искажения. Вот динамик у тебя не может хуярить выше определенной громкости, даже если ты подашь на него ебическое напряжение. А вот то, что он не может очень высокие частоты воспроизвести и очень низкие - это линейные искажения, конечно, в рамках матмадели в которой рассматривается данный объект. Вне этой модели не имеет смысла рассморение.
Усилки всякие, особенно олдовые, говенные аудиофильские, чмошные легендарные - у них кривая зависимость выходного сигнала от входного. Понял? Если бы она не была кривая, то не был бы говенный ебаный звук олдовой музыки. Его называют "теплый ламповый звук", не важно, лампа там или пленка, говненка, пластинка. Теплый звук - это искаженный говенный звук.
Тут наши полномочия все. Если челу надо, будет допытываться и переспрашивать всевозможными такими и этакими способами. А в пустоту я говорить не хочу.
Можно любую хуйню по идее пропустить через Antares Tube и любой лоупасс фильтр и получится теплый ламповый звук. И не надо покупать усилки за слезы девственницы и сперму дракона.
Спасибо, бро, красиво расписал, но нихуя не понятно, лол кек.
Но, впрочем, сам найду как-нибудь потом.
По этому принципу все, что написали какие-нибудь Noisia - это тоже демки без сведения и мастеринга. Особенно из того, что они писали в 2003-2005 годах, когда у них еще не было огромной студии с ебическими мониторами за 10k$ каждый. Я это говорю не в пику, а в подтверждение твоих слов.
В живой музыке более консервативный подход, когда пишут, сводят и мастерят разные люди. Ну и в дорогом попе вроде Кэти Перри тот же подход. А Граймс - это инди электронщина, причем чем менее профессиональное сведение, тем больше инди.
> ноизия
Конечно нет. Нормальные продюсеры вешают лимитер и эквалайзер на мастер ещё до того как какую-нибудь музыкальную идею напишешь. Написание такой музыки начинается со "сведения и мастеринга" и только потом начинаются композиторские потуги
Я имел ввиду, что Noisia это пример отсутствия разделения труда. Как подменил анон выше, Граймс имела ввиду под сводкованием процесс, когда она отдает мультитрек звукачу, звукач сводит в студии и отдает фонограмму инженеру по мастерингу.
А так да, лимитер на мастер и вперед.
> Antares Tube
Этот плагин сам уже винтажный, старинный. ^.^
Есть куча всяких ампсимов, ignite amps, у многих из них есть режим clean, который отлично подойдет для имитации олдового звукозасерания.
Послушай как звучат мультитреки LP с рутрекера. Возможно ответишь на свой вопрос.
Как-то так и это только сухой кик, дальше на групповой идёт магия со стереорасширителем и эквализацией, в случае линков ещё и агрессивный сатуратор, который добавляет искажений и собирает все инструменты кучу (никаких компрессоров в данном случае).
Дедмау5 говорил что не надо делать громче. Кому надо громче могут на своем устройстве сами громкость поднять.
нелинейные искажения - это доп. гармоники, которых раньше в сигнале не было.
Отрезал ты низ фильтром - это линейное искажение.
Захуярил ты дисторшн на мастер - получил кучу гармоник - это нелинейные искажения.
меньше басов - больше громкости можно выжать. Также визуально можно сделать микс ярче за счет поднятия высоких частот
Доп. гармоники - это следствие нелинейного искажения, а не само нелинейное искажения. Нелинейное искажение может, например, убрать некоторые гармоники.
Включи tone generator и послушай высокие частоты (19кгц, затем 18 итд). Так узнаешь, какой порог слышимости у каждого уха. Если левое ухо слышит сильно меньше, чем правое (например левое 15к, правое 18к), значит ты его как-то подубил (например всю ночь стоял ухом к колонке на тусе или ещё где).
Вообще есть аудиометрия, но там, вроде как, больше 8кгц не измеряется, зато она покажет, есть ли у тебя проблемы с частотами до 8кцг.
А возможно это проблема с наушниками либо формой твоей головы/ушей, либо у тебя какой-нибудь отит.
сап товарищи. Кароче суть проблемы,нужно сделать плейбэк динамичным по темпу,есть ли какой нить адекватный плагин,который как например регйлятор громкости в треке можно менять по ходу времени. Надо сделать постепенное увеличение,возврат в исходных,где то замедление и практически весь трек так. Я сделал 3 разных части по темпу,мелд,ср и быстр. соответственно,но мне теперь надо что бы переходы из темпа в темп были плавные. Я гипотетически могу взять шифтер или аналог,разбить переходы на части по 0.3 секунды и отредактировать все по этим частям,но уйдет на это у меня часа три. Это все равно,что редактировать громкость локальную таким же способом. Помогите,есть ли удобный плагин? Чтото типа пикрл,ток для темпа
Твоя DAW не умеет в автоматизацию темпа? Logic, например, позволяет автоматизировать темп точно так же, как и все остальное то есть плавно, кривыми, погугли, может и у тебя так можно
Ну я работаю в сонаре,там можно прямо ручками рисовать темп по треку,так же можно разбивать на транзиенты,определять темп дорожки,если ты его не знаешь,и редактировать путем растяжки/сжатия транзиентов. Я думаю в любом адекватном секвенсоре есть подобные функции.
не уж то аудишн неадекватный.а в секвенсоре в принципе тоже можно сделать,но я еще не разбирался как.попробую
Так он на макс громкости тихий, и как бы громкость прямое влияние на человека оказывает, чем громче тем пизже кажется.
А если нет варианта басы делать тише? Вообще часто сталкиваюсь с тем, что некоторые мои треки тихие, в смысле лимитером когда поднимаешь общую громкость, уже появляются искажения, но громокость не поднялась до нужного мне значения.
многополосную компрессию юзаешь при этом?она может решить искажения убрав пики определеных частот и в целом плотность создать, после этого лимитером поднимаешь
И с ней и без неё делал, не особо разница была, я возможно в какой-то фундаментальной штуке проёбываюсь при сведение или аранжировке.
что делать, если я, просмотрев уроки по сведению(компрессия, ревербация и т.д.) большинство объяснений не смог понять
есть ли какие-то общие правила по настройке, например, компрессора на акустическую гитару, или на барабаны, или ещё что-то
я заебался уже в край сук
Нахуя тебе это? Открывай компрессор и крути ручки, пока не получишь нужный звук, со временем запомнишь, что именно нужно крутить.
Компрессор это просто автоматизация громкости. Можешь даже сам вручную автоматизацию прописать.
Несовсем.
Посмотри от викисаунд, там годно объясняется и с примерами хорошими без всякой лишней залупы.
может как то это можно адекватно отрегулировать уже в вав формате и уже в аудишене? какой нибудь вст приблудой,мне надо что бы инструменты все строили в 442
уже понял,полезная функция очень. адекватный вст питчер не подскажешь?
https://vimeo.com/33583707
Запись музыканта за работой, как источник вдохновения и тыринга фишек.
Видеокурс Джона Олина.
Гармоники не бывают широкие или узкие, у них только частота, амплитуда и фаза. Резать ничего не нужно, кроме устранения линейных искажений микрофона, если они заметны. Никакой потребности в имитации какого-то "легендарного" древнего говна нет, поэтому пользоваться компрессорами, графический интерфейс которых похож на что-то старинное не нужно, это плохие компрессоры, они делают из расчета на тех, кто любит что-то воображать о "винтажном звуке". Стрелочки.
Если нужно добавить нелинейные искажения, для этого найдутся отдельные плагины, искажения у которых приятны. Существуют очень гибкие, например, у melda, чуть ли не напрямую контролируются какие должны гармоники и где возникать. Это если уж прям так нужно. Есть decapitator для тех, кто любит воображать винтаж. А можешь Boz Rack Spacer ебануть.
Делаю тестовое задание, тв-продакшн, несколько сцен из мувика, в сумме - 10 минут. Результат: -24 ЛУФС, -14 ММЛУФС, -3 ДБТП, 11.8 ДД. Это прокатит?
Хз как на ебу найти эти рекомендации. У них одна там всякая хуйня бесконечным потоком льется, потому что они изображают бурную деятельность.
https://tech.ebu.ch/docs/r/R128s1_2014_RUS.pdf
https://www.youtube.com/watch?v=8ej973yI9co
Блин, ну возьми анализатор и посмотри. По сути, убираешь все, кроме частот, окружающих 200-250 герц.
Смотришь на "коммерческие миксы", там всё ровненько. Играет бочка+бас, смотришь на анализаторе, ачх вообще не изменяется, как нарисованная. Как так делают? ... ну я в курсе, компрессия, эквализация, сайдчейн, но, у меня всё-равно всё прыгает сильно. Может, есть какие-нибудь более толковые уроки, чем просто начальные.
зы - Я не могу найти совета нигде, сам искал... запарился конкретно.
Так я и говорю, у меня там пустота, чем заполнить - хз. Ещё один бас что-ли? Так по-задумке не нужен.
Слушаешь другие миксы, с синусоидным басом, всё заполнено, и ничего не скачет. Как так сделано - хз.
Раскрою мысль, чтобы не ныл. Слушай только, сравнивай с референсами, с реальными звуками, слушай на мониках, на шитконтроле, в наушниках, слушай, а не смотри ни на анализаторы, ни на какие-либо еще графические элементы. И тогда у тебя само все встанет туда куда надо. надо будет 150-300 чебы не пусто было, то и не будет. Вот увидишь.
Общие фразы вконтактные какие-то.
Дай демку послушать, может, скажу в чём конкретно дело.
А то у тебя общий вопрос какой-то вконтактный. И ответ на него - лоускилл или отсуствие опыта.
150-300 район гармоник баса и "тела" ритм- секции, то бишь, гитар всяких или пэдов.
>>601455
P.S. Так что всегда есть чем заполнить. Я ещё в 90 процентах своих миксов посылаю малый в aux, где поднимаю красящим eq как раз район твоих частот, чтобы долбило как следует, компрессирую 76-ым с минимальной атакой и длинным релизом, затем удлиняю транзиент транзиент десигнером (извиняюсь за тавтологию), выбираю плейт с миксом на 20-30% (длина реверба зависит от темпа песни), получившийся звук очень аккуратно подмешиваю к основному малому, вследствие чего получаю уплотнённое звучание малого и общий подъем по рмс. Можешь попробовать.
Как бы банальны ни были мои слова, но универсального рецепта нет. Baby steps.
Эту aux дорожку желательно автоматизировать: в куплетах и барабанных сбивках потише, в припеве и мясных частях песни погромче.
Купил лампу
@
Вылезли все косяки звукоизвлечения
Там кроме медиатора много чего еще, если прислушаться. В транзистор/цифру было вообще не слышно. Я последние пол-года по сути переучиваюсь и ломаю устоявшиеся годами привычки - от этого медиаторного лязга хуй избавишься.
Клавиши отдельно от всего трэка. Как-то не в пространстве.
Мы с тобой оба долбоёбы, %юзернейм%
Просидел джва часа в попытках избавиться от лязга - не смог повторить. Как только не пиздил струны - нету его. Сел разбираться с записью. Обнаружил, что лязгает не в момент атаки, а под самый конец (пикрелейтед, обведено красным).
Во-первых, это 1700Гц и прекрасно вырезается эквалайзером.
Во-вторых - это не медиатор. Это струны задевают звукосниматель, когда на них падает кисть правой руки. Пиздец. Пойду высоту звучков регулировать.
оу, спасибо. Интресно.
Топы с Кэлвинами Харрисами, Дипло и т.п. как-то не интересны. Или, неужели, они и есть у всех ориентиры?
Alon mor, rawtekk, продукция лейблов interval audio, ignite rec и вот это всё, Всяких vorso, kursa, kurve, audeka.
Электроника не жанр, нужно слушать то, что хочется делать, это ж рефы.
Нахуй дипло, лучше уж послушать дедмауса, у его музыки есть что-то универсальное, что можно почерпнуть. гармонии, саунддизайн на кончиках пальцев
Он много на чём, на самом деле, пшто универсальный солдат.
С серумом такие выкрутасы вытворяет, стоит даже стримы глянуть.
Звук не может быть старым. Может быть какая-нибудь винтажная задумка, но звук универсален. Вся индустрия занята придумыванием способов интереснее загадить звук.
Тот же Маус, например, принимал участие в создании Серума, и активно его использует. У него невероятно дорогая студия, да, но это не значит, что он не использует цифровые средства.
Звук у него конечно классный, но, он более близок к прямому аналоговому звуку, классика в общем.
Так-то согласен, кто на что горазд, и даже на старом железе умудряются офигенной звучание замутить.
Меня больше какие-то новые идеи интересуют. Я думал, может что-то пропустил интересное.
Щас мутантфанк ну и неограйм всякий, деконстракт клаб крч и халфстеп поднимаются вывод сделан на основе того что всё больше тех кто делали раньше глитчхоп всякий и бейс музыку в других направлениях сейчас делают халфу, mindex, sixis и прочие. там новый саунд, эксперименты и фьюче мюзик.
Как-будто халва не имеет отношения к глитчу или басовой музыке, лель.
Я бы сказал, все сейчас делают эксперименты на грани соединения поджанров днб, дубстепа и футурового хип-хопа и другой битсовой музыки.
Попадаешь.
Как сводить - сайдчейнить все к кику, возможно, даже к снеру.
Когда сайдчейнишь, если релиз компрессора сделать совпадающим с темпом трека (посчитать миллисекунды можно тут: http://www.sengpielaudio.com/calculator-bpmtempotime.htm), то будет хорошо держаться ритм.
Но можно не заебываться с рассчетом сайдчейна, а просто сделать автоматизацию громкости под каждый кик в нужном размере. Так еще будет моментальная атака, в компрессоре может быть миллисекундная задержка, если это тебе важно. Просто поэкспериментировать может быть интересно.
Обрати внимание на динамику в первом треке, который ты линканул - там все раздавлено компрессором, и за счет этого воспринимается громче. Превьюха в саундклауде, конечно, это такой себе ориентир, но все равно, в твоем треке видно транзиенты от ударных, можно поднять уровень всего остального по отношению к ним, и будет восприниматься, как более громкий трек.
Есть такая хуйня, называется Crest Factor.
https://youtu.be/lk4D4bMu8uo
А то сразу мультибанд компрессорами лезут шатать.
>что делать, если я, просмотрев уроки по сведению(компрессия, ревербация и т.д.) большинство объяснений не смог понять
Смотреть и читать еще, пока не поймешь. Пробуй разные источники, один и тот же материал может быть по-разному в них изложен, это помогает понять тему лучше.
>есть ли какие-то общие правила по настройке, например, компрессора на акустическую гитару, или на барабаны, или ещё что-то
Есть, называются пресеты в твоей DAW, но использовать их для серьезного продакшена вряд ли получится, разве что для черновиков. Необязательно исходить из инструмента, над которым ты работаешь, как по мне, лучшая стратегия - это знать, что ты хочешь этим инструментом сделать. Другими словами, ты можешь гитарную партию обработать очень по-разному, в зависимости от того, хочешь ли ты, чтоб она была главной в миксе, или держалась на заднем плане.
Audacity, если на винде, может записывать с loopback интерфейса - конкретное приложение не выберешь, но будет писать все, что идет на выход аудиокарты.
Еще на мак и винду есть всякие роутеры, которыми можно аудио отправить, куда надо, погугли, их не так много. Но оперативку и процессор очень жрут.
Неуверенные в себе сведунцы клянчат, позяластя можн сведу вам дорожечку посюсють чучуть компрессь жмяк жмяк бас бочечку сведу высокие дорожечки эквалайзером чучуууть.
А музыканты просто трепетно относятся к говну, которое высирают, дорожат говном, поэтому чсв возрастает.
Звукари - практикуются и набивают клиентскую базу, все же через сарафан делается.
Музыканты - ленивые мудаки, делающие все, чтобы не достичь успеха, в том числе - экономящие на всем подряд. Это естественное событие, найти своего музыканта, не жалеющего средств на хороший продукт - мечта каждого звукорежисера.
>>603448
Собсна, у меня от совета использовать мультибанд компрессор так бомбануло, что я написал небольшой гайд, запощу его ниже.
Q: Хочу такие же громкие миксы, как у моего любимого экспериментального инди хип хоп квартета. Как?
A: Принимай во внимание соотношение пиков и самых тихих частей в твоем аудио.
Скажем, трек выглядит как пикрилейтед. Очень заметны транзиенты от ударных, в то время, как остальные дорожки постоянно держатся ниже.
Само по себе это не плохо, потому что у трека есть dynamic range, но как сделать из него вкусную сосиску, которая при этом нормально звучит? Сейчас это стало стандартом в индустрии, как бы кто к такому не относился.
Ответ - компрессия и лимитинг, но с умом. Если начать компрессить трек в таком виде, в котором он сейчас, транзиенты от ударных не дадут выжать из компрессора максимум, потому что они будут триггерить его раньше, чем он доберется до других частей трека.
"Ну так опусти трешхолд в компрессоре до уровня, на котором компрессор начнет влиять на другие части трека" - скажет особенно внимательный читатель. Это действительно превратит трек в сосиску, но в очень херово звучащую сосиску.
Красным отмечен трешхолд компрессора. Он действительно будет влиять на тихие части трека, и сделает их громче, если поднять gain, но что произойдет с ударными? Поскольку они намного выше, чем трешхолд, в лучшем случае, они начнут звучать плоско и безжизненно, в худшем получится пиздец уровня бас бустед мемов.
Ответ? Уменьшить разницу между самыми громкими и самыми тихими частями трека перед тем, как компрессить и лимитировать его.
На скрине видно, насколько легче будет контролировать такую волну компрессором и лимитером - при этом в ней сохранена динамика, и ударные будут продолжать быть на первом плане, если это необходимо (в таких случаях сайдчейн - отличный помощник).
Кому интересен подобный контент вперемешку с мемасиками на музыкальную тематику, буду рад видеть на @audiomemery в телеге
Как не испортить микс hipass фильтром
Казалось бы, какие неприятности может создать hipass фильтр? Обычно ведь его использование как раз наоборот ассоциируется с чисткой дорожек от нежелательного контента ниже определенной частоты. Хочу поделиться одной из проблем, которую можно заметить только ориентируясь на метры, другими словами, пресловутый совет "доверять своим ушам" тут не сработает.
Тем, кто использует семплы в своей музыке, наверняка известна техника создания ударных из нескольких слоев. Например, очень часто снер складывают из двух частей: нижней и верхней. В такой конфигурации в нижней части эквалайзером убирают верхние частоты, а в верхней - нижние, чтобы два семпла не наслаивались друг на друга слишком сильно.
К примеру, есть семпл снера, который пикует на -0.52:
Допустим, мы бы хотели использовать его как верхнюю часть нашего двухслойного семпла. Соответственно, низкие частоты в данном семпле нам не нужны, потому что они будут взяты из другого семпла. Расчехляем эквазайзер и отрезаем все ниже, к примеру 130 Hz, смотрим на метр, и, внезапно, видим клиппинг:
При этом сам семпл может начать звучать даже тише, что контринтуитивно, поскольку фактически его пик поднялся на два с небольшим db. Почему так происходит? Фильтр изменяет структуру волны, и ее амплитуду включительно. Сверху - оригинальный семпл снера, снизу - с hipass фильтром на 130 Hz:
На скриншоте видно, что изменилась даже фаза волны. Это, кстати, тоже может повлиять на качество слоеного семпла, но фаза - это тема для отдельного поста.
Такая проблема может возникнуть при использовании hipass фильтра на транзиентах. Транзиент - это звук с быстрой атакой и (в большинстве случаев) быстрым релизом. Провести смычком по струнам скрипки - не транзиент, поскольку у данного звука длинная атака. С другой стороны, игра на той же скрипке с помощью техники пиццикато вполне подпадает под определение транзиента. Звуки, которые издают перкуссионные инструменты - также транзиенты.
Почему все вышеперечисленное может быть важно? Такой некотролируемый пик в треке съедает headroom, а headroom важен для мастеринга и того, насколько громко будет звучать финальный трек, а громкость в 2018 это чуть ли не основной параметр оценки качества мейнстримной музыки.
Как этого избежать?
-использовать более пологие фильтры, если в эквалайзере есть такая настройка
-срезать от частоты повыше, но от этого звук может стать тонким и хлипким
-контролировать пики компрессором с быстрой атакой; в данном случае нужно быть внимательным, чтоб полностью не задавить транзиенты
-лучший вариант, как по мне - использовать другой семпл, в котором изначально нет ненужных частот
-еще неплохой вариант - просто сделать семпл тише, вы можете обнаружить, что больше ничего и не надо было.
По адресу на пике регулярно будет больше подобного контента.
У меня был, англоязычный, но со временем я на него забил, потому что делать видео намного более трудоемкая работа, чем писать посты. Плюс, в англоязычном интернете таких туториалов достаточно, а, судя по тому, что я видел в рунете, у нас такого как раз не хватает. Вкатывайся в телегу, если интересно.
>делать видео намного более трудоемкая работа
Имел ввиду, что не хватало времени и сил, а не что мне было влом.
Блин, а звучат нормально. Прикол. Тут потеешь всё чего-то, и хз зачем)
Вообще годно пишешь, продолжай. И сюда дублируй (как сейчас), а то в телеге затеряться могут среди сотен подписок
Таков план, правда, думаю в разные тхреды постить, в зависимости от тематики поста.
Не знаю насчет ценности в определении частот на слух. Если эта способность не встроена в знание музтеории, то особого толку в том, что ты можешь распознать на слух, как звучит, скажем, 260 Гц, нету. А вот, если ты знаешь, что 260 Гц - это middle C, это совсем другое дело. Веду к тому, что учиться распознавать лучше ноты.
Посему, рекомендую отличный бесплатный сайт для тренировки слуха (промотать вниз страницы к разделу EAR TRAINING):
https://www.musictheory.net/exercises
Сложность всех упражнений можно настраивать, 10-20 минут в день хотя бы две недели ощутимо улучшат способность различать типы аккордов, интервалы, и индивидуальные ноты (проверено на себе).
Пригодится музыкантам, продюссерам, певцам, аудио инженерам, да и вообще всем, кто хочет отсрочить свой Альцгеймер, но не имеет музыкального инструмента.
Подобную инфу регулярно пощу на канале на пикрилейтеде, присоединяйтесь.
Спасибо.
Rhythm Roulette поищи на ютубе.
Положим, так: есть трек, на нём маленький отрезок с изменённой громкостью. Можно отследить границы этого отрезка, но невозможно отследить, как была изменена громкость, стала ли больше, меньше, и на сколько.
Нужно вернуть в исходную громкость этот отрезок (или внешнюю часть подогнать под него). Как называется это действие, и как его осуществить, например, в Audacity? То есть так: выделить отрезок, и где-нибудь какой-нибудь ползунок подёргать, чтобы сделать громче/тише, и чтобы даже визуально волны растягивались на отрезке (чтобы можно было визуально подогнать под границы).
Кнопки чтобы сделать "как было" нет, если действие не было совершенно вот непосредственно в твоем проекте в этой программе. Выдели кусок и подгони его гейн к остальному, больше ничего особо не придумаешь. Ну, это если без деталей, т.к. хрен поймешь что там у тебя за отрезок чего и что конкретно ты хочешь с ним сделать.
Как правило - выделить кусочек, найти в инструментах "Гейн" и поднять или опустить его.
Я запускаю в audacity оба, ищу какой-нибудь хороший пик. Потом использую формулу: 20*lg(a/b), и так нахожу сколько дБ нужно добавить к более тихой, чтобы получить более громкую. Но блять сука нихуя не выходит.
Проблема в том, что я не понимаю, что это за шкалы от -1 до 1 и от 0 и вниз в отрицательные значения (осциллограмма). В чём между ними связь, в каких величинах они измеряются, как соотносятся. То есть я не знаю, какой именно параметр в каких единицах измерения я нахожу по своему пику. Гугление совсем не помогает, я уже весь бля извёлся и изматерился от неспособности найти понятное объяснение, чем в audacity отличаются эти шкалы, что на них, что такое дБ и как найти точную формулу перевода одного пика в другой.
Помогите, пожалуйста.
Мудила, блеать :3 я любя, подгони громкость по уху, никогда ты два фрагментам по приборам не выровняешь. И пока ты продолжаешь писать про какие-то абстрактные "фрагменты", не указывая ни их длину, ни содержание, ни, что главное - задачу - зачем тебе все это нужно, что конкретно ты делаешь - никто тебе ничего не скажет, т.к. все приемы, помимо простейших - напрямую зависят от твоей задачи.
А если тебя интересует инстурментарий аудасити, что какая ручка делает - иди читай мануал, там лучше написано, чем любой тут ответит.
Тебе нужно подогнать RMS одного трека к другому. Ну, либо пики дБ, но это подгонит только тренсиенты, perceived volume это не поднимет
>Цель: усилить более тихий трек так, чтобы он стал идентичен более громкому.
Так поднимай RMS, что ж ты мозги ебешь формулами, величинами и осциллограммами?
Он спрашивает, какую ручку ему нажать, чтобы сделать громче. Ты думаешь, фраза "Поднимай РМС" ему о чем-то скажет? Или ты в курсе, что у него за материал там, и можешь сходу, не слушав, сказать, как поднять РМС? Предложишь ему лимитера добавить, или сразу десяток решений, на случай, если жать уже некуда? Я вот не ебу, что у него за шкала от -1 до 1, но от нуля вниз-то понятно, что дбфс - а он и этого определить не может, и "гугл не помогает". Зато логарифмы какие-то накручивает, высчитывает что-то.
Вот он сейчас выровняет РМС, а у него эти два куска окажутся двумя атмоферами с совершенно разными текстурами и огромными пиками в разных участках спектра. РМС будет ровным, но звучать ровно это не будет ни для одного уха на планете.
Начинать надо не с дроча показаний приборов, а изучения динамической обработки и применения ее для подгонки по слуху, результат которой надо проверить на нескольких системах в разных помещениях. Собственно, всё. Потом с удивлением обнаруживается, что и по цифрам у тебя все в пределах допустимых колебаний. Приборы - они для подтверждения результатов, или уточнения источника проблемы, это продолжение твоих ушей, а не замена оных.
Ну это уже из разряда "гыгы ребята как зделать так громче и шоб долбило))0".
Зачем же в резонерство и схоластику пускаешься со своими философскими мыслями, просто посоветуй ему курить мат. часть.
Спасибо!
0 философии же. "Кури матчасть" это такая же абстрактная хуйня, как "подними РМС". Т.е. всё равно что нахуй послать. А так у него есть прямо вот инструкция, хоть и написаная чсвшным мудаком с двача. Большая часть начинающих просто не знает, с чего, собственно, начинать, в этом и проблема.
Громкость звука - это субъективная вещь и для человека она измеряется по какому-нибудь стандарту и для этого есть отдельные измерительные шняги.
https://www.kvraudio.com/product/ac_r128_by_audiocation
-1 до 1 - это линейная шкала амплитуды. 1 и -1 - это 0db. -10 db - это 0.1 и -0.1. -20 db - это 0.01 и -0.01. -90 db - это 0.000000001 и -0.000000001. 0 - это -бесконечность db.
>-1 до 1 - это линейная шкала амплитуды
Зависимость количества децибел от точки на осциллограмме не линейная, а логарифмическая.
>-10 db - это 0.1 и -0.1. -20 db - это 0.01 и -0.01
Нет, это будет 0.316 и 0.1 соответственно.
>>605129
Пики точеные в децибелы дроченые перевести очень легко - по формуле 20log(x), где x это число, обозначающее, во сколько раз значение точки на осциллограмме меньше единицы. Допустим, у тебя пик на +0,628. 1/0,628 = 1,592. Подставляем в формулу 20log(1.592) = 4.03, т.е уровень сигнала в этой точке равен -4.03 дб.
В аудасити есть переключение шкал, одна из них линейная, другая логарифмическая.
Насчет 0.316 правильно, я перепутал с залупками.
>В аудасити есть переключение шкал, одна из них линейная, другая логарифмическая
Ну тогда ладно.
И, кстати, эта шкала тоже не линейная, а логарифмическая, просто формула не 20log(x), а 10log(x)
Во, хорошо, можно на примере.
Пик 1 = 0,49. 20log(1/0,49) = -6.2db (Или 10log(1/0.49) = -3.1db)
Пик 2 = 0,35. 20log(1/0.35) = -9.2db (или 10log(1/0.35) = -4.6db)
Только нахуй вообще это нужно, я так и не понял. Два одинаковых трека с разной громкостью, вычислять пики в децибелах, вообще охуеть.
Там можно переключить на логарифмическую шкалу. Это ничего не важно.
Я челу скинул ссылку на бесплатный измеритель LUFS.
Если тебе при этом приятно звучит при всех вариантах прослушивания - да. В электронике и больше может жать с кика-снейра. Проль вообще молодец в этом плане.
Если можно, дайте ссылку на скачивание.
Если можно, дайте ссылку на скачивание.
Нужно сначала узнать, где живет Эхо, придти к нему и ебало набить, за то, что дразнится.
Реверберацию чистит unveil и izotope rx. Скорей всего ничего удалить не получится. Неизвестно вообще что у тебя за трабла, потому что ты не даешь сам звук, а просто своими словами описываешь ее. Эхо, блять. Эхо.
Скорее всего речь про делэй. Эхо это тащем-то конкретный звуковой эффект, а вот чем его получили - другой вопрос.
Нужны рекомендации от общих до вполне конкретных, как сие сводить и располагать в пространстве теже гитарки, фанно, саксы ибо они практически на одной частоте, при помощи каких приемов (помимо эквализации), что с компрессией? По ударке понятно - параллельная, по остальному нет, какие комнаты, что с дилеями? Если впадлу писать скиньте сурс где почитать, это очень ВАЖНО, всю жизнь сводил электронику, а освоить живяк очень охото, спасибо!
сводить не сложно, сложно понять как оно на самом деле должно быть. а это сложнее, чем написать хорошую музыку и не сводить вовсе
Я бы сказал, сложно найти баланс между вещами, которые ты действительно можешь сделать сейчас и идеальными вариантами, дабы работать и развиваться, а не месяцами пересводить одну и ту же композицию. Как оно "должно быть" понять не сложно, есть же референсы. Но "как должно быть", "как тебе нравится", "как ты можешь" (в контексте, банально, имеющихся в запасе приёмов, понимания инструментария профессии) и "как хочет клиент" - как правило, четыре отдельных мира.
Сведи как фанковую электронику. Ты просишь придумать за тебя всю звуковую картину. Если ты хочешь откуда-нибудь все скопировать - ну, послушай какого-нибудь похожего по задумке фанка, скопируй. Принципы все те же, ты ведь сводишь в коробке - не слишком широко, не слишком узко, низы уже середины, середина уже верха. Да, параллельная в джаз-фанке звучит диковато, я бы пошел с сатурейшн-шиной, в которую послал бы по чуть-чуть почти всю ударку и часть гармонических инструментов. "Что с компрессией" зависит от того, "что с сигналом". Главное правило Джаза - инструменты должны говорить друг с другом, отвечать друг другу на фразы. Постарайся проникнуться драматургией композиции, и стерео-позиции для каждого акцента сами найдут тебя.
Нуждаюсь в сведении трека, жанр где-то на перепутье лоу-фая и пост пунка
так же нужно свести несколько битов
@mydlann тг забыл запилить
Можно отрезать самый низ, после сотки, и самый верх, аккуратно найдя правильный угол среза в районе 10к. В остальном, если у тебя ничего кроме них не звучит - ничего трогать скорее всего не стоит. Правда, два инструмента - такая себе аранжировка, если уж прямо.
Сейчас в аккомпанирующей гитаре почти нет серединки, все давят ее басы, плюс щелчки сверху. Большая часть людей не сочтет это красивым. Рекомендую поиграть с реверберацией и стерео-позициями для обеих гитар, подыскать состояния, в которых оба инстурмента доносили бы свой полезный материал лучше всего, и без лишней эквализации, и потом уже - аккуратно подпилить неприятные резонансы, вроде 1к или 7к.
Если тебе главное звучание, звучит нормально. Я не знаю как эквализировать гитару, как и всё остальное наверное. Обычно эквалайзером все что плохо звучит фильтрую. Вот и вся эквализация.
Отрезать весь низ до самой низкой ноты. В твоем случае можно даже прям фильтром и по верхам пройтись, ну или конкретно так задавить их. Вообще, тут чисто по вкусу же. Можешь взять какой-нибудь референс с похожими гитарками и по нему эквализировать. Можешь заюзать читы, как в видосе вот этом, если вообще ничего не знаешь и не понимаешь:
https://www.youtube.com/watch?v=WwhcL0BRyNs
Он там на примере митола показывает, но принцип тот же.
Компрессор бы не помешал, очень уж "волосато". Если умеешь ровно играть, можешь дабл-треков записать. Реверка набросить не мешало бы. Панорамировать это всё дело.
А, ну и главное, у тебя там жужжит что-то пиздец. В первую очередь с этим разберись.
Цепь у него жужжит. Но не гейтовать же ему акустическую гитару, говно получится.
>>611917
Это конкурс методических разработок, работаю в музыкальной школе. Так что оркестровых партитур или всяких современных штук с синтами и барабанами там не поймут. Всё максимально академично. Пьеса для двух гитар, в джазовом стиле, переложение стандарта Lullaby of Birdland пианиста Джорджа Ширигнга.
>>стерео-позициями для обеих гитар
Имеешь ввиду панормирование? Например, одну гитару на 20% влево, другую на 20% вправо? Или побольше принято делать?
Спасибо за советы, сейчас буду пробовать. Если бы ещё уроки не мешали, было бы совсем хорошо. Я прямо на работе хуячу, аврал же, бля, до субботы надо сдать
Ну, можешь еще фазу покрутить, если захочется. Принято - "не слишком широко". Покопайся, поймешь сам, ты же тем более, выходит, педагог, слушать умеешь. Должно создаваться ощущение, если закрыть глаза, лел что перед тобой - сцена, и сидят два гитариста. Если по твоему замыслу они сидят в разных углах - ну, сделай так. Но скорее всего они будут сидеть чуть-чуть по сторонам в центре. Разводи, пока не будет приятно и удобно. Можно заморочиться и поиграть с пространством, задвинув их глубже в сцену, через размытие реверберацией и сокращение эффективного спектра по краям. Персонально, я бы сказал, что ДОЛЖЕН ощущаться центр, сильно разведенные инстрменты - как правило, звучат неестественно относительно друг друга, разве что идут в один моно-ревербератор, например.
Ну или просто проверь, не ломается ли все к хуям, когда слушаешь в моно.
Спасибо тоже, не сразу увидел ответ... Нет времени читать гайды и мануалы, к сожалению, надо сделать быстро. В дальнейшем обязательно посмотрю
70 на 70 раньше делал, сейчас делаю 100 на 100, так сказать по забугорному
За сегодня успел кое-как записать первую гитару, записывал кусочками, играл кривовато, но зато готова вся партия целиком. Убирал низкие, высокие, добавлял ревер... Ещё нашёл такую штуку - компрессор-эквалайзер, как я понял, он компрессирует отдельные полосы частот, потыкал его тоже, оставил... Пока заметил такую штуку - на бытовой акустике звучит приемлемо (у меня в классе старый музыкальный центр подключен к компу в качестве колонок, лол, на нём ещё кассетные деки есть и сами колонки четырёхполосные с йоба-сабвуфером), а когда слушаю в плеере на дрянных затычках philips - пропадают напрочь низкие и лезут противные призвуки от струн, ногтей, ладов. В общем, буду делать, спасибо за помощь, как будет готово - вброшу в тред на оценку.
Что нужно, чтобы этого не было? У меня сейчас так - гитара Godin la Patrie с пьезозвукоснимателем, пульт Behringer 12 канальный, из пульта через tape out идёт сигнал в компьютер, в линейный вход на материнской плате
Пульт бы сменить на вменяемый аудио-интерфейс, это совершенно не нужный в цепи элемент, и, видимо, выполняет в ней задачу питания для пьезы.
>>611956
Если ты хочешь меньше призвуков атаки - рекомендую снять себя микрофоном, или подыскать другой сниматель\инструмент, адекватно и красиво задвинуть их не получится. У тебя вообще мало что получится сделать в плане продакшена в коробке, т.к. живой акустический сигнал, все твои действия будут его только ухудшать, и вся органика проебется. Наиболее важным для тебя является этап снятия, собственно, звука - если есть возможность, микрофонная пара, одна фронтально в деку, одна - ~45 градусов к струнам на грифе, получишь отдельно суть, отдельно - атаки, и миксуй их между собой как хочешь. Компрессию не рекомендую (ну может разве что сосвсем-совсем чуть-чуть), убьешь свою "живую" динамику, академические точно не поймут такой хуйни.
>>611963
Для питания в гитаре есть батарейка, так что пульт совсем не нужен. Но у меня из кабелей был только инструментальный, с большими джеками, и RCA на маленький джек, так что без пульта не подключиться вообще. Вот такой пиздец. А уж про снятие двумя микрофонами я пока и не мечтаю, есть правда какие-то караочные в школе, но ни одной живой стойки для них даже. Я ж этим не занимался. Но кстати мне понравилось, так что буду думать про аудиоинтефейс и всё остальное. Ещё не раз приду спрашивать совета, лол. Пока что подписался на тред, всем добра
На мой вкус, еще бы чуть поуже их. Есть кстати интересный прием, где ты делаешь сенд с разведенных инструментов на один канал, сворачиваешь в моно и убиваешь по частотам, прежде чем подмешать к общему ревербу, дабы у тебя четко сохранялся центр при сильной панораме.
В лид-гитаре можно срезать верх при записи, и насытить пост-фактум, чтобы как-то скрасить атаки. Но в целом все норм.
>vst vitalizer mk2-t
На ньюсах и рутрекере есть. Только нахуй он нужен
Там только стерео кнопка норм, а остальное кал.
Железный вроде ещё окрашивает и фазу крутит интересно, но на плагине это плохо реализовано
Двачую, ггг.
Куда вы его панируете?
Пишу трэп, фонк, всегда делаю направо на 10 (Ableton)
Недавно нашел "сведение-грамму" и еще несколько, везде хэт слева. Есть ли большая разница вообще? Как вы делаете?
Это важно лишь для живых удрарных, так как для них существует 2 перспективы (ну джазовую не в счёт): со стороны барабанщика и со стороны слушателей.
Для электронных хай хэтов типо 808 как хочешь панаромируй, так как они не существуют в реале. Часто справа на 14:00 ставят хэт судя по многим трекам, но кому-то и слева нравится
Хэт "под установку" в электронной музыке - дно, т.к. твой хэт ебашит почти одним саундом, огромное, бессчетное количество раз. Хэт надо либо панорамировать динамически, водя под каждый акцент в разные стороны, либо делать что-то похожее через делэй, либо, самый сок - разделить партию на несколько хэтов с чуть-чуть разными характеристиками, и развести их в разные стороны, сдобрив единым ревербератором. Или другой высокой перкуссией, короче, сбалансировать адовый покот чопанных высоких частот, которые ты решил задвинуть в угол - похожим потоком высоких частот в противоположном углу.
Если же ты прямо "имитируешь ударную установку", и тебе это принципиально - да, уводи влево, справа его слышит только ударник.
А где про все это прочитать? Вот эти все сенды с сатурацией и панорамирование неживых инструментов. И полюбому ведь тысяча таких фишек есть. Откуда вообще берут подобного рода инфу? Вот книгу по сведению прочитал, но там только общая инфа. В курсах в интернете тоже в принципе.
https://yadi.sk/d/hh_FVoC6OjOp5g
https://yadi.sk/d/Mrm2dvig4kKZAQ
https://yadi.sk/d/3KecabT9A7Zd_w
https://yadi.sk/d/fuBrpYmw-5LUSg
(да, сэмпл из карлсона, Merv Griffin - House of Horrors)
То есть все на своем опыте?
Следует сразу понять одно. Звукорежиссура - не химия, тут нет рецептов с точными формулами. "Правила" существуют, но заключаются прежде всего в понимании основных свойств звука, и соответственно, дают тебе не точные инструкции "что делать", а подсказывают поле, в котором следует искать решение. Например, мы слышим, что два инструмента дают на конфликте неприятный звук, и идентифицируем его как фазовое искажение. Соответственно, мы знаем, что можем применить один из тысяч способов хитрой ебли с фазой, или и вовсе, сместить один из звуков на 5-10 мс - но нет "священной книги", предписывающей поступать конкретным образом и утверждающей, что так будет "лучше".
Если твоя звуковая картина про передачу записанных инструментов - там "лучше" = ближе к источнику. В электронных вещах, не имеющих прямых референсов из "реального" мира, "лучше" = ближе к замыслу звукорежиссера. В итоге, работа с каждым звуком будет сводиться к вопросу "зачем этот звук здесь нужен", и все, что мы с ним делаем, должно работать на подчеркивание этой задачи. Каким же конкретно образом ты добился того или иного звучания, в конечном итоге, вообще никого не трогает - главное, работает ли.
Иными словами, да, экспериментируй больше. Можно красть чужие приемы и пытаться адаптировать их под свой материал и свои замыслы, но лучше красть прямо общие "идеи" а не конкретные примеры исполнения.
Т.е. например "распределить хэт в пространстве" - задача, решаемая тысячей разных способов, каждый из них будет звучать уникально и интересно, и хуй знает, какой подойдет тебе лучше. Попробуй все подряд?
Опыт вроде и большой, но в как таковом сведении его не так много. Поэтому буду раз в день что-то сводить, надо набить опыт именно здесь. тест трип кода
Сквозь время и пространство. какие же противные искажение во фрукте, однако. Хер с ним с дисторшеном на средне-высоких на хетах, сам звук какой-то ущербный получился. Переучиваюсь потихоньку.
Круто свёл, но слышен алиасинг, возможно т.к ты работал в 44.1, а там говнится звук. Но услышать это очень тяжело. посты старые, всё равно всем похуй на ответы уже, остальное не буду коментить
Приехали. Фрукты выгодны в первую очередь отсутствием искажений на экспорте. Сравни, например, с Аблой.
Вариант "фрукт" ты как-будто специально пытался сделать настолько плохо, насколько это возможно, лол.
Только если висит на канале что-то одно или совсем по чуть-чуть. Если же мутить обработку длинными цепями то всё, можно хоронить звук, особенно если он уже финальный и вроде бы готовый: на выходе он полюбому будет уничтожен. А его-то всё равно надо обрабатывать чтобы посадить в микс. Работал в рипере как обычно, и поставил его недавно, а результат настолько чище и нет этих непонятных искажений. Всё чисто, ровно.
Может быть промежуточная обработка во фрукте создаёт алиасинг на каждом этапе по чуть чуть, а потом его становится больше, но совсем незаметно на слух первоначально? Как это запруфать я не знаю.
Недавно перенёс один сложный презет с фрукта на рипер, его суть в дублировании одного и того же сигнала. Так вот, во фрукте он уговнён по максимуму, из-за алиасинга непонятно откуда берущегося, а в рипере - чист. Просто потому что он не генерирует говна в звук, я не специально так извращался чтоб уговнить фруктовую версию, я работаю так _всегда_. И решил поставить рипер. Но вот когда закончил в рипере делать и послушал фруктовую версию, уже решил забить на ударку где дисторшен на верхах и вбросить так. Просто в сравнении с остальным звуком при работе этот дисторшен не настолько бросался в замыленые уши. Это же как должно всё уговниться чтобы в итоге не был слышен дисторшен на ударке при сведении, сведении, где я не кидаю дисторшен никуда специально? я может и ебанутый, но дисторшен кидать на ударку на мастер? Алсо, этот ебаный дисторшен отчётливо слышен у других но его слышу только я(?), как мне его отдельно выдавить?, если послушать мой пример из рипера и часть примеров из треда. Откуда он берётся? Сто процентов большинство вброшенного было запилено во фрукте и это не вина тех кто пилил.
tl;dr
подскажите, пожалуйста
>soundgym
Не знаю что это за хуйня, но можешь пробовать делать так - берёшь acon defilter, zynaptiq unfilter, создаёшь там отпимальные презеты выравнивающие звук. И пытаешься делать также как эти плагины, но без этих плагинов. Смотришь как они ровняют твою любимую музыку, пытаешься въехать что именно происходит.
Но если гуглить аналоги soundgym то на реддите выдаст вот эту приложуху
http://harmanhowtolisten.blogspot.com/
или сразу ссылка на эту хуйню
https://drive.google.com/file/d/0B97zTRsdcJTfNWEyNzhhOTctYTk2ZC00NDI2LWFlMmQtZmEyNjExNjE3MWI3/view?sort=name&layout=list&num=50
Какие-то искажения, которые только ты слышишь при сравнении двух разных треков с разным сведением, ты объясняешь процессами, которые называшь "промежуточная обработка, создающая алиасинг". Это не круто.
Все DAW работают в числах с плавающей точкой, вплоть до расширенной точности, никаких ошибок округления быть не может ни в какой DAW. Все операции транспонирования готового аудио производятся с избыточным качеством интерполяции. Во всех DAW избыточно. В FL интерполяция сверхизбыточная, вплоть до 512 point sinc и она добавлена только ради успокоения гуманитариев. То есть манипуляции с аудио исключают алиасинг . Все синтезаторы и эффекты генерируют звук так, как хотят разработчики этих синтезаторов и эффектов, DAW не могут менять код в dll. Алиасинг от сторонних синтезаторов и эффектов, когда есть, то он везде один и тот же.
Вероятнее всего он как раз и наубивал себе цепь, пользуясь разными вещами, плохо подогнанными друг к другу. Я как-то очень долго не мог понять в одном треке, почему у меня 808 иногда теряет базу, оставляя только верхние гармоники, крутил патч, баунсил-ребаунсил, эффект возникал "рандомно" в разных частях композиции. Естественно, дело было всего-лишь в хуево настроенном под текстуру лимитере в начале цепи.
А вообще, да, придумывать себе "алиасинг" - любимое развлечение свежевкатывающихся. Как и попытка выбрать DAW, ориентируясь на какие-то "технические аспекты", окромя собственно удобства рабочего процесса, и иногда - наличия или отсутствия некоторых функций. Редактировать звук в видео я бы в ФЛ точно не стал, например - но исключительно из-за подразумевающегося рабочего процесса.
Я вообще никак не объясняю, а задаю вопрос в пустоту(?)
Раньше работал в 44.1, типа нинужно, для гуманитариев всё что лучше 44.1, все хуесосы а я вот умный долбоёб, уж я-то знаю, я же элита, я технарь. А это всё от советсткой пропаганды пошло, прошилось всем в мозги.
Практика - главный критерий истины, вот на практике почему-то получается дисторшен, я не знаю откуда, и вот именно я слышу в данном случае это замечательно, на примерах сведения других в данном треде, и своего собственного.
Сначала сделай абсолютно идентичные операции в двух программах, все обработай одинаково, каждый параметр. Не пропусти ни одного. Если аудио где-то растягиваешь, то сделай настройки качества интерполяции в обеих прожках аналогичные. Потом оба образца сравни в программе lacinato abx, так как там написано, не менее 15 пропыток. Тогда это будет практическая проверка того, что все прожки работают так, как документировано.
Бывают экзотические DAW, у которых в микшере имитируется аналоговая говнистость. Т.н. "продвинутые алгоритмы микширования". В остальных DAW микширование это операция += .
>Потом оба образца сравни в программе lacinato abx
Это будет практическая проверка того как ты проходишь слепые тесты, а не того что
>прожки работают так, как документировано.
Ты подменяешь одно другим.
Алсо, ни о какой документации речи не шло, никто никогда не будет работать одними и теми же плагинами одинаково в двух разных программах в реальной жизни. Поэтому корректнее сравнивать работу в одной daw и другой daw как получится, хотя это и выглядит как логика тп на первый взгляд.
В одной и той же программе в реальной жизни не удастся повторить что-то 1 в 1, начиная с нуля. Что уже говорить о двух разных прогах с разными воркфлоу. Один анон мне как-то в разделе писал, что разный результат получается даже при работе за разными железными синтами, вроде бы идентичными. Также, недавно читал, что переменной в "уравнении" при исследованиях может быть сам человек, при, вроде бы, очевидно одинаковых условиях эксперимента. Лично сам замечал, абсолютно по разному идёт работа с гуглом за разными устройствами, в разных местах.
Не вполне понятно (мне по крайней мере не понятно) как именно можно в таких условиях сравнивать работу с одним и другим.
Можно анализировать адекватность восприятия на слух перекодированных по разному звуковых данных, это уже наверное нейронауки этим занимаются. Но если говорить об этом, лично я уже не слышу в том файле который я слушал много раз (возможно это имеет значение(?)) даже очень значительных искажений. Вот к примеру трек, который я вбрасывал в соседний тред (ты 90 процентов тот же анон)
Он перекодирован в саундклаудовские 128 килобит ogg из флака, потом в 320 килобит мр3 (возможно в таком качестве он будет, после того как будет скачен даунлоадером с саундклауда, они все кодируют файл опять в мр3)
То есть цепочка тут flac within temptation - destroyed https://volafile.org/get/BhW_VbMBLfmbI/02 - Destroyed -Unreleased Demo Track.flac => ogg 128 => mp3 320
Ни оригинал, ни перекодированный через жопу именно этот мр3 я на слух не различаю совсем. Хотя искажения значительные.
P.S: В посте отдельно искажения, отдельно mp3, ogg по ссылке https://instaud.io/2MwJ
пиздец запутался после того как написал пост, сложна, нихуя непонятно, как что сравнивать, хуй его знает вообще. нескончаемый поток аудифильщины никогда не кончится. и меня тоже аудиофилом назвали сегодня, охуеть просто, вообще пиздец. пиздец. пиздец. [/spoiler]
>Потом оба образца сравни в программе lacinato abx
Это будет практическая проверка того как ты проходишь слепые тесты, а не того что
>прожки работают так, как документировано.
Ты подменяешь одно другим.
Алсо, ни о какой документации речи не шло, никто никогда не будет работать одними и теми же плагинами одинаково в двух разных программах в реальной жизни. Поэтому корректнее сравнивать работу в одной daw и другой daw как получится, хотя это и выглядит как логика тп на первый взгляд.
В одной и той же программе в реальной жизни не удастся повторить что-то 1 в 1, начиная с нуля. Что уже говорить о двух разных прогах с разными воркфлоу. Один анон мне как-то в разделе писал, что разный результат получается даже при работе за разными железными синтами, вроде бы идентичными. Также, недавно читал, что переменной в "уравнении" при исследованиях может быть сам человек, при, вроде бы, очевидно одинаковых условиях эксперимента. Лично сам замечал, абсолютно по разному идёт работа с гуглом за разными устройствами, в разных местах.
Не вполне понятно (мне по крайней мере не понятно) как именно можно в таких условиях сравнивать работу с одним и другим.
Можно анализировать адекватность восприятия на слух перекодированных по разному звуковых данных, это уже наверное нейронауки этим занимаются. Но если говорить об этом, лично я уже не слышу в том файле который я слушал много раз (возможно это имеет значение(?)) даже очень значительных искажений. Вот к примеру трек, который я вбрасывал в соседний тред (ты 90 процентов тот же анон)
Он перекодирован в саундклаудовские 128 килобит ogg из флака, потом в 320 килобит мр3 (возможно в таком качестве он будет, после того как будет скачен даунлоадером с саундклауда, они все кодируют файл опять в мр3)
То есть цепочка тут flac within temptation - destroyed https://volafile.org/get/BhW_VbMBLfmbI/02 - Destroyed -Unreleased Demo Track.flac => ogg 128 => mp3 320
Ни оригинал, ни перекодированный через жопу именно этот мр3 я на слух не различаю совсем. Хотя искажения значительные.
P.S: В посте отдельно искажения, отдельно mp3, ogg по ссылке https://instaud.io/2MwJ
пиздец запутался после того как написал пост, сложна, нихуя непонятно, как что сравнивать, хуй его знает вообще. нескончаемый поток аудифильщины никогда не кончится. и меня тоже аудиофилом назвали сегодня, охуеть просто, вообще пиздец. пиздец. пиздец. [/spoiler]
Объебался с файлом искажений, сорь. В том уже 2-pass, ещё раз кодировано в ogg и mp3
Синты и эффекты в одной и той же прожке не обязаны работать одинаково, потому что некоторые юзают рандом. Далее, через графический интерфейс могут вводиться разные значения параметров и это может создавать дополнительные различия. Поэтому результаты работы разных DAW не обязаны быть идентичными. То, что технически они однохуйственные >>614457, это не предмет дискуссии, это была справочная информация, которую ты должен был принять к сведению, а не писать мистический лозунг "практика- критерий истины". Хуистины.
Те, кто страдает какими-либо беспокойствами о "разнице", "качестве", "математике микширования", могут лишь сравнивать на слух, когда делают одинаковые действия в разных DAW, то есть используют одни и те или аналогичные синтезаторы и эффекты, а так же производят аналогичные операции микширования. Но сравнение на слух - это только слепое тестирование. Других сравнений на слух не бывает.
Сравнение двух треков, которые просто разные, сведены по-разному, когда нахуевертишь разные нагромождения в разных daw - это ваще дно и хуйня, даже по этому поводу фантазировать не нужно.
> Поэтому корректнее сравнивать работу в одной daw и другой daw как получится, хотя это и выглядит как логика тп на первый взгляд
Это и есть логика тп. Ты утверждал не то, что лично у тебя получается разный результат, и в FL - хуже, а то, что FL вносит _искажения_. Так вот чтобы утверждать такое, нужно сравнивать идентичные проекты, чтобы исключить влияние любых других факторов.
По-хорошему надо продуть в каждой DAW синусом \ квадратом с одного и того же синтезатора без каких-либо дальнейших изменений, сделать варианты в разной битности и дискретности, и вот это уже пихать в анализаторы. Ну, если хочется самому убедиться. А так, это цифра, тут нет коэффициента передачи и "нативного шума прибора".
Одно разве что добавлю, в ФЛ ранее были проблемы с воспроизведением большого количества начопанных сэмплов в единицу времени, приводящие к тому, что иногда звук просто заклиповывает всю дорогу на пару секунд. Естественно, это могло случиться и во время экспорта трека.
Ну это потому что сил не хватает у фл много начопанных сжмпло в единицу времени воспроизводить и поэтому движок прокручивает, звуковые шестеренки.
>переменной в "уравнении" при исследованиях может быть сам человек
>ВРЁТИ!! СЛИПЫЙИ ТЕСТЫ НИ РАБОТАЮТ!!!!
>корректнее сравнивать работу в одной daw и другой daw как получится
>технарь
>слышен алиасинг
>Ни оригинал, ни перекодированный через жопу именно этот мр3 я на слух не различаю совсем
Перестань делить на 0.
А я думал, бошку ломал, чего это за хрень необъяснимая. Я этот ФЛ дисторшена на лидах, на высоких частотах слышу иногда. Я уж думал, перекомпрессия что-ли получилась, убирал вообще компрессию... В общем, даже с некоторыми синтами (в основном старыми довольно) расстался даже. Именно на них этот странный дисторшен мне казался. Да, стоит добавить, что при работе в проекте то вроде всё нормально звучало. В общем, у меня тоже странности с ФЛ, подозрения.
Покажи, как ты получаешь дисторшен, покажи все, что ты делаешь со звуком, что за источники и что за обработки.
Вот как пример, какого хуя у тебя интерсэмпловые пики во фруктовой версии? Ты специально их сделал? В рипечьей ты их не сделал, намеренно или случайно, либо кто-то за тебя их постарался избежать.
Я с телефона. Синты - FM8, Redominator, Absynth, Kairatune, Sylenth, Synth1.
Это которые точно помню. Бесплатных много пробовал, часто казалось такое... Повторюсь, казалось на высоких частотах, неприятное искажение.
Обработки, да минимум, компрессор, или Fabfilter или Molot, эквалайзер Fabfilter, панорамирующий какой-нибудь вст., чаще от waves. На мастере Limiter 6 или TDR Limiter6. Всё.
>>614725
Что я должен сказать в ответ на перечисление сторонних плагинов? То, что я просил, по смыслу, означало, чтобы ты продемонстрировал проблему. Ты сказал "перекомпрессия что-ли получилась". О чем ты говоришь? То есть не ты перекомпрессировал, а какие-то неведомые силы тебе вставляли палки в колеса. В общем случае, ты все знаешь, что ты делаешь, ты знаешь, какой звук должен быть, когда ты используешь сознательно выбранные тобой синтезатора и эффекты, но из-за каких-то скрытых причин в DAW, звук портится. По смыслу твое утверждение такое.
Да, примерно такое, звук каким то неведанным образом, кажется, что портится. Дешевеет, алиасинг (удел новичков, ага). Думал, что много жму может, порог или ратио слишком большие.
А моя тетя видела домового. Прям в лаптях.
У меня друг тоже слышит. Вбрасывал ему постоянно результаты работы. Он говорил про хуйню с верхами. А я не слышал нифига, но каждый раз после рендера я вкидывал - и оказывалось что у меня проблемы с верхами. Так до сих пор особо его и не слышу этот дисторшен _ у себя _, но слышу у других. Также как друг, он же слушал свежий материал, новый для него. На своём материале уши замыливаются, привыкают, адаптируются к сигналу. Но на чужом, свежем - всё немного очевидней. Как в таких условиях сравнивать не особо ясно. Надо как-то работать с аудио в слепую так, чтобы материал был каждый раз новым для адекватного сравнения.
Свидетели разницы звучания DAW были подвергнуты естественному отбору и до 2к18 докатились только самые изощренные аморфные формы этих бредней в виде "Что-то слышу, сам не знаю что. Друг у меня слышит, а я у него слышу."
Не звучания daw. Ты жопой читаешь, ищешь только то в сообщениях что уже тебе знакомо, игнорируя новые факты.
Пока я только вижу мутные маневры и таинственные намеки. Если ты в данном споре возник и разговариваешь о чем-то другом, а не мифической "разнице звучания DAW", то это как-то ваще муть. Никаких "новых фактов" ты не сообщил.
Интересно, а какие новые факты ты ждёшь? Научное подтверждение? Или в спектре копаться под микроскопом?
Тебе сказали, что люди слышат. И это не предубеждение какое-то глупое, не домыслы на daw. Я вообще, был до какого-то мнения на стороне ФЛ. Кстати, люди говорили (по вашему, свидетели старого советского хакера), что звук от у тебя говняет daw, я лишь пожимал плечами, и ссылал всё на недостаток опыта. Да и результат на радостях затмевал всё, т.к. реально сразу вроде пошли релизы. Сейчас пришёл к такому выводу, что всё-таки говняет. Может и на спектре не заметно, но что-то не так происходит с ним.
Кстати, на примере к примеру Z3ta+2, Ace слышна ведь разница при смене качества в синте? Вот и тут также, слышно, не глобально, но что-то есть.
Я уже выше говорил про слепой тест и чел с логикой тп (без обид) пытается от этого увернуться. И ты туда же. Слышание - это только когда в слепом тесте. Без слепого теста никаких слышний нет.
Все твои кулстори в духе "я раньше не верил, а потом уверовал, мне открыли глаза светочи древней мудрости." - это просто говорит о том, что тебе строго показаны слепые тесты.
Хуяссека. Всегда ухо врет у фантазеров верунов.
>Или в спектре копаться под микроскопом
Бывают индивиды, которые в двух абсолютно одинаковых звуках слышат разницу. Но это еще нормально. Но бывают такие, когда им покажут, что звук одинаковый, они говорят "ну я же слышу, зачем мне какие-то графики смотреть."
В твоем случае ты пока что просто думаешь, то либо работа плагинов зависит от daw, якобы плагины и daw как-то соединяются друг с другом волшебным образом и вместе рожают звук. Либо у daw бывают этакие таинственные "алгоритмы микширования", которые отличаются от таковых у других daw, что бывает "продвинутая математика суммирования" и продвинутость как-будто может варьироваться.
>слышна ведь разница при смене качества в синте
Всегда за "сменой качества" стоит что-то конкретное, будь то использование чисел двойной точности, будь то оверсэмплинг. Это всегда известно что, не важно, слышишь это или не слышишь, это не предмет мифологии. Звуковые мифы зиждятся на неизвестности и "ну я же слышу", "друг слышит", "мне говорили, а я не верил, но потом удалил серные пробки у отоларинголога и услышал", "я купил новую звуковую карту sound blaster, у нее 24 бит, вот это да, в контерстрайке все шаги слышу".
Не знаю какие из них будут новыми, поэтому перечислю с дополнениями:
1) Слух штука адаптивная. Искажения можно слышать только на новом неизвестном материале с непривычным звуком
2) При работе над своим материалом слух замыливается так, что искажения больше не воспринимаются как негативные и игнорируются.
3) Искажения идут на верхах, на самой проблемной области, где чувствительность слуха достаточно хуёва, и скорее воспринимается как бинарное: есть верха, нет верхов, хуёвые верха, обычные верха, "песок", нет песка.
4) Чтобы понять проблему этих искажений надо работать с аудио в слепую, чтобы итоговый результат был в итоге новым для слуха и неизвестным.
5) Искажения наблюдаются у людей с разным набором применяемых плагинов (это можно понять из треда)
6) Неизвестно какая тут должна быть методология чтоб к чему-то придти конструктивному.
7) У тебя паттерн - "свидетели разницы звучания daw", где надо хейтить даунов, которые не понимают что всё звучит одинаково.
8) Ты, вероятно, не ловишь в сообщении больше одной главной мысли, а остальное игноришь.
Помню где-то был папир, не знаю где его теперь искать, где говорилось про воспринимаемость реконструированных, обрезанных и натуральных верхов в звуковом сигнале, не знаю где его теперь искать. Суть такова - человек всё равно воспринимает тот сигнал, которого "нет", который он не осознаёт. И если этот сигнал есть, то можно подобрать такие его параметры, что сигнал будет восприниматься более приятно, или резко отталкивающим. Хотя формально звук этот вне порога слышимости.
1, 2) Адаптивная штука, устает, отдыхает. Но хуйни к этом лишней придумывать не надо. Мы даже еще не определили, что это за искажения. Это не я виноват, что ты, вы или кто, "что-то слышат", но не знают, что это.
3) На это может влиять алиасинг в одном из твоих плагинов. Но выяснить, как работает каждый плагин можно в слепом тесте, а не переключением настроек и думая, что ты в этом момент можешь сравнивать.
4) а) Создай какой-нибудь короткий отрывок музыки, содержащий какие-нибудь инструменты. По твоей гипотезе, должны быть искажения, которые вносятся не алиасингом синтезаторов и компрессоров, не сатурацией в синтах и эффектах, а дав вносит. Перенеси все пресеты в другую дав и отрендерь два образца. В слепом тесте проверь, есть ли разница.
b) Микшер любой daw точней, чем ты можешь себе представить. Нигде в мире ты не найдешь средств для воcпроизведения звука с такой точностью, чтобы можно было зафиксировать какие-нибудь огрехи сложения, умножения, которые производит микшер с числами с плавающей точкой. Просто пойми это мозгом и не нужно будет переживать или возиться с тестами.
5) Алиасинг везде однохуйственный, во всех твоих синтах. В самой DAW-его нет.
6) Если сам не будешь придумывать уход от выяснения сути, а будешь придумывать условия невозможности опровержения твоей гипотезы, то из этого просто будет следовать и следует и так отсутствие эмпирических данных, а их них следует воображаемость искомого. Но в данном случае у нас что-то существующее могло быть идентифицировано неправильно. Люди часто всякую хуйню видят и думаю, что это снежный человек.
7) Хуяттерн. Ты говоришь "слышу то, не знаю что". Сформулируй по-другому, например, "я иногда слышу алиасинг некоторых говносинтов, но в слепом тесте я свои плагины не проверял, поэтому не могу утверждать точно"
8) Не.
Нет, адаптивность это способность привыкать, приспосабливаться.
Ты привык и всё. С этим ничего не сделаешь, сигнал заебись, он замыленный, у него исчезают недостатки. Синт, эффект, не важно что. Пока работаешь - уже всё. Можно хоронить. Адаптировался. Но не смотря на то что ты привык, всё равно знаешь что какая-то происходит хуйня. (тут из последнего безымянного пункта, если вдруг. с конкретной ссылью на папир напряг) Поэтому надо делать в слепую, иначе адаптируешься и всё, можно закапывать.
Тебе это не очевидно, я так понял, поэтому раскрою.
Ты предлагаешь делать какой-то слепой тест. Не знаю из какого материала и зачем, что будет сравниваться - мне непонятно. Разные daw? Так уже всё, это твой синт, твой микс, ты к нему привык пока работал. То есть приехали. Сравнение уже невозможно, потому что тест уже не слепой. Ты уже слышал этот сигнал длительное время.
А надо чтоб не слышал, надо чтоб сигнал был новым и невозможно было успеть адаптироваться.
Ты просто придумал отмазку от сравнивания в слепом тесте одинаковых проектов сделанных в разных daw и прикидываешься, типа не пониаешь, что с чем сравнивать. "Что-то есть, но мы это не слышим и не сможем никак проверить". Нефальсифицируемая хуйня называется. Как и твоя гипотеза о перманентном замыливании.
Но вопрос о твоих личных слуховых глюках и квалиа - это последнее что мне интересно. Это твоя проблема, ты слышишь голоса усопших - это лечится слепыми тестами. Я сказал, как проверить. Не хочешь - твоя проблема.
А таинственных искажений, о которых ты и чел до тебя говорите, в контексте того, как вы о них рассказываете, нет и быть не может по техническим причинам. Ты просто услышал хоть что, алиасинг в одном плагинов, скорей всего в синте, что все равно маловероятно, какую-нибудь сатурацию или какую-нибудь дрисню уже выходного звука после звкарты. А то, как вы маневрируете, пытаясь свои сказочные версии сохранить, это просто дерьмо. Мне даже кажется, что ты тот же самый чел, просто решил сам себя поддержать. Логика у вас одинаковая.
Просто я нихуя не объяснил что делаю, а ты и не понял, это вся причина. Разговор был бесплодным абсолютно, поинта не было вообще, а ты нашёл наиболее узнаваемый, тот который ты мог распознать на основе прошлого опыта.
Если долго пользоваться одними и теми же звуками, которые достаточно простые, чтобы храниться в памяти, то постепенно они очень сильно забывают и начитают восприниматься, как говно. Если синтезатор может варьировать звучание, делать его сложным, чтобы постоянно было что-то новое, то звук будет всегда приятным.
Например, какой-нибудь популярный пресет популярного синта многих может бесить. Дефолтный пресет аддиктив друмс может нравится только тем, кого он еще не заебал.
Я уже сказал тебе, что мутные маневры и таинственные намеки. Если ты что-то говоришь расплывчатое, в надежде в любой момент сманеврировать, то это не моя проблема.
У меня было написано, "если синтезатор может варьировать звучание, делать его сложным, чтобы постоянно было что-то новое, то звук будет всегда приятным.". Это цельное предложение. А твой фикс относится к искаженной по смыслу, вырванной из контекста, фразе. Приятный и заебавший звук противопоставлены по смыслу. Твои, мои или чьих-то еще личные субъективные критерии "приятности/неприятности" - это ничто. Просто не пытайся.
Это логическая ошибка, и я её исправил. Приятность тут берётся из ниоткуда, из воздуха. Сложность звука не означает приятность. У тебя же - означает. Да и хуй с ним, я уже сам дал ответ на свой же вопрос.
Не аудиофилы, а хуй который не понял откуда берутся искажения в файлах у анонов и у себя, но нихуя не объяснил. Чего вообще хочет, и взялся отвечать на провокации долбоёбов, не желающих вникать, а видящих только то что видели раньше.
Началось с вопроса - откуда берётся в файлах дисторшен.
закончилось ответом >>614870
Предыдущие посты не актуальны, всё теперь понятно.
У меня по смыслу два утверждения, одно, что некоторые звуки заебывают и воспринимаются, как говно, другое, что если синтезатор может делать звук сложным, чтобы постоянно было что-то новое, то звук будет всегда приятным.
Если ты решил, что уместно указывать на нестрогость естественного языка, то к твоему сведению из ниоткуда != из воздуха.
Пока что похоже, что ты пытаешься развести сранье, внести путаницу.
Ты вообще ничего внятного не сказал, а только развел белеберду. И не ответил на прямые вопросы >>614719 Пока что это единственные идентифицированные искажения, которые у тебя есть. Остальные недостатки звука, которые есть в твоем субъективном восприятии при сравнении двух аудиофайлов не конкретизированы, а ты только придумал сказочные гипотезы про несуществующий "алиасинг промежуточных обработок".
Ты хотя бы скажи, "нет, этот алиансинг промежуточных обработок существует, эти промежуточные обработки тоже существуют". Может быть расскажешь, что это за обработки.
А ты вообще знаешь, что такое алиасинг и как он получается? Потом ты скажешь "ну ладно, это не алиасинг, но же слышу"
Просто ты еда и не нужен, я использую тред в своих целях, мне не нужно чтобы меня кто-то понял. Мне нужно найти ответы и получить результат.
То есть у тебя не просто логика тупой пизды, а еще ты сам гнилушка.
У тебя, прости, практики сколько вообще? Если ты сидишь над одним материалом по 10-12 часов, не делая перерывов, и твой мозг уже охуевает, не понимая, что получают уши - это личная проблема твоего воркфлоу. То, что уши приспосабливаются - это причина, по которой ты, приходя на концерт, и думая, что звук - говно, через 10 минут решишь, что "уже норм". Выйди оттуда на 10 минут и вернись - снова будет "говно".
Если физически не получается прерываться, не получается делать что-то еще - смени трек, над которым работаешь, или просто сядь, послушай полчаса тихонечко музыку. Подобный поиск проблем - всего лишь другая форма болезни "Мне нужны прогарммы\плагины\мониторы\помещение". Ты как-бы по-умолчанию ищешь причины полужопить свои миксы, т.к. "Все равно Алиасинг", это как-бы снимает с тебя ответственность за то, что звучит в результате.
Такая маленькая задержка не считается за задержку. Например, звук от моников до тебя летит за большее время, чем 2 мс.
Люди ощущают изменения времени начиная со значений около 100мс. Остальное - нервы.
Че? Попробуй поиграть на гейтаре с задержкой больше 15мс. Заметишь, отвечаю. А уж какие нибудь 30мс вообще атас.
Ну не. Для комфортной игры в контерстрайк нужно не более 20-30 мс, максимум 50, дальше уже неприятно ваще, хотя реакция человека в районе 170-200 мс. Можно условно считать 20 мс, то есть промежуток времени когда человек начинает считать последовательность отдельных событий как сплошной тон.
Ну как раз 20 где-то. Буфер вносит, плюс еще какие-нибудь задержки дополнительные и получится около 20-30 и будет заметно, что есть задержка.
Так не должно быть. Где-то есть какая-то задержка еще на входе и/или выходе в дав. У некоторых звкарт может быть asio хуевое. Тогда нужно юзать asio4all.
По мере уменьшения размера буфера у тебя должно просто увеличиваться отношение между временем заполнения буфера и длиной буфера плоть до того, что компьютер не успевал бы это делать и начались бы заикания. Раз успевает, то значит звук дальше передается и что с ним происходит уже в винде, в драйвере звкарты - это к экстрасенсам.
>это к экстрасенсам.
я поэтому и зашел на двач. мб я что то не так делаю? просто в фл ставлю инпут чанел 1, говорю в микро и прям слышу вот задержку, хотя буфер и латенси стоят очень низкие. в чем именно может быть еще проблема?
В данном случае есть только один буфер, точней два, на вход и выход. У него в фл должна быть написана общая задержка + всякие прочие, в настройках.
Я тебе сказал про экстрасенсов, потому что ты нихуя не сказал про то, что у тебя юзби-звуковая карта, юзби-микрофон или что? Юзби - вот может быть проблема. Но в 2к18 не должно быть проблем, кроме вин10.
>>614925
20 гц - цикл 50мс, звуки расположенные друг к другу ближе мы физически не можем воспринимать как разные due to perception inertia. Для большинства юзеров, или для любого юзера, не находящегося в состоянии абсолютной концентрации - гораздо больше.
В случае с игрой на гитаре или в контрстрайк мы синхронизируем тактильные ощущения с, соответственно, слуховыми и визуальными, 20мс это САМЫЙ-САМЫЙ низкий порог в таком случае, у надроченного исполнителя, находящегося в абсолютной концентрации. Не стоит забывать, что в этих случаях инертность самих органов происходит как-бы параллельно друг к другу, и технически, мы можем заметить что "что-то не так" - раньше.
Ну когда сенд канал на инструмент делаешь, то его громкость в два раза увеличивается, а если эффектов навалишь, то на еще больше или меньше. И чет я заебался выставлять постоянно обратно.
Есть шаблон empty с четырьмя сендами. Один из таких сендов тебе может понадобиться, чтобы туда повесить ревербератор, например, fruity convolver, только wet и на этот сенд слегка подмешивать инструменты. Важно только соотношение, что на некоторые больше, некоторые меньше, тип дальше, ближе. А громкости самих дорожек уже независимо от этого малафишь в рамках сведения. Сам конвольвер почти не нуждается ни в чем, в нем все есть внутри, но можно чем-то обработать, но вряд ли это что-то даст, кроме ухудшения и нагромождения. Заготовлены 4 сэнда на случай, вдруг ты хочешь 4 разных ревербератора использовать, чтобы миксы у тебя были в четыре раза сочней, в четыре раза жирней, в четыре раза плотней, в четыре раза ревреберей. Да? Надо четыре ревербератора? А лучше сто.
Для иной обработки есть колесики dry/wet, но правильно использовать dry/wet внутри каждого плагина, потому что разработчик плагина может не включить сообщение о задержке плагина, даже если она есть хотя бы маленькая. Разработчик просто подумает "и так сойдет!".
Если ты делаешь куда-то сенд - убедись в том, что твоя обработка имеет 100% wet, иначе подмешивать сэндом просто бессмысленно. Обычно - да, общий реверберационный бус, как описал товарищ выше - но например параллельная компрессия делается по тому же принципу, да и никто не мешает тебе сделать бус с сатуратором, например.
Более того, в ФЛ выделенные "сэнд" каналы не отличаются от обычных каналов ни чем, кроме невозможности отправить их куда-то, кроме друг друга и мастера. Т.е. обычные каналы - это те же сенд каналы, только лучше.
На самом деле вопще ничем не отличаются, в хруктах ща просто 125 одинаковых дорожек и мастер. А сендтреки можно делать самостоятельно, просто сайдчейнить все остальные треки на них и сохранять шаблон.
>>616245
Спасибо за ответы. А сатурацию как подмешивать? Там как такового 100% wet нету, просто количество гармоник, там чисто на слух уже?
Вот еще слушаю во многих треках драмки звучат прям воздушно как-то, с каким-то шумком подмешанным как будто. Это какой-то хитро настроенный ревер или сатурация? Как вообще самому так сделать? Вот как в этом треке например.
https://youtu.be/8pRMGkjRYBo
С сатурацией так же, просто обычно у таких обработок про дрю/вет забывают, а только крутят выраженность искажений, но имеет смысл и дрю/вет тоже регулировать. На слух.
На видео у друмок есть реверберация. Реверберацию нужно настраивать, длину, хуйну, эквализировать. Я рекомендую fruity convolver и больше ничего никогда не понадобится для реверберации, выискивать дополнительные отклики импульсов не нужно, но можно. Можно их создавать, синтезировать, смешивать, все, что только хочешь. Просто шум можно использовать и пусть он затухает. Ты просто пойми что такое свертка.
https://soundcloud.com/thevoid-12/tantsuyut-vse-miksteyp
То что нужно, спасибо! Про свертку что-то очень сложно, но примерно я понял.
>выискивать дополнительные отклики импульсов не нужно, но можно
А можно пример обработки тогда? Вот например есть у нас сенд канал с конволером, куда мы хотим ударные послать, чтобы привести к общему звучанию. Какой лучше импульс юзать?
Тебе вероятно в диджей-тред, тут о другом сведении
Любой какой нравки юзай, просто регулируй огибающими длину, потом там ручки на ширину, можно растягивать, задержку давать, там есть и эквалайзер. Тут не бывает универсального рецепта, все на личный вкус. В старину, какие-нибудь музыканты покупали реверебратор за большие деньги и потом хуярили ревер. Потом это вышло из моды. Это все только эстетические заебы.
На какую-нибудь бочку если повесишь ревер, то от щелчка бочки может быть яркий хвост, тогда эквализация реверберации поможет.
в 20-х я могу отправить выделенный сенд в бус где-нибудь в середине микшера? Если да - это очень весомый повод срочно обновляться, конечно.
У меня уже голова кругом от компрессии, изотопа, уровня рмс и прочего. Ответьте, пожалуйста, умные люди, на несколько вопросов.
1. Каков должен быть уровень рмс, если я отправляю проданный бит клиенту? Всегда думал что -6 в среднем, но останется ли тогда в нем место чтобы записать голос?
2. Тогда какой должен быть рмс если я выкладываю этот же бит на ютуб в ознакомительных/рекламных целях? Нужно же чтобы громко было.
3. Если стоит озон вст на мастере, что произойдет с композицией при экспорте в трекаут?
Пишу хип-хоп инструменталы.
Спасибо.
>3. Если стоит озон вст на мастере, что произойдет с композицией при экспорте в трекаут?
Это не кирпич, всегда делающий одно и то же. Может у тебя вообще на байпасе стоит, тогда - ничего.
>Каков должен быть уровень рмс, если я отправляю проданный бит клиенту?
Приятный для уха, средний по рынку. Разные жанры - по разному. Бум-бэп, или фонк, думаю, жмут меньше, чем трэп. -6 это очень громко, если у тебя какой-нибудь мягенький лоу-фай бит - -10 вполне достаточно.
>Тогда какой должен быть рмс если я выкладываю этот же бит на ютуб в ознакомительных/рекламных целях? Нужно же чтобы громко было.
Гугли конкретные спецификации для ресурса. Смысл в том, что у разных медиа-платформ, как и в разных залах, если бы ты играл эти биты вживую - будет стоять "своя обработка на мастере", гарантирующая, что ты никому уши не убьешь своей музыкой. Грубо говоря, если ебнуть слишком громко - качество сильно пострадает.
Но самое главное, ты когда думаешь, как громко ты хочешь сделать мастер , а работаешь в каком-то конкретном жанре - ну найди референс из этого жанра, что-то близкое к твоей теме, и сравни уровни, частотку. Попытайся сделать баланс под этот референс. Это всегда лучший путь.
Спасибо, уже собрал пачку референсов по разным жанрам. И как я понимаю, референс делать лучше по инструменталам, а не по готовым трекам, чтобы с мидами не переборщить при подгоне к этим частотам.
Да мне вот просто интересно сегодня стало, например, те тайп биты, которые висят на ютубе, звучат так же, как и когда они отправяют их исполнителям, вот и задался вопросом.
Спасибо за ответ.
Любым метром, желательно интерсэмпловым. Хотя я не уверен, что другие еще бывают. Инсайт, например. Кинь его на мастер, проиграй трек целиком. дбтп - пики, интгрейтед луфс - твой средний луфс за вещь.
ЧТО ОН ДЕЛАЕТ НА 0:39 - 0:56??? ОБЪЯСНИТЕ НУБУ ПЛИЗ.
Я не понимаю, как он сделал такую бочку
щелчок *
это расхожий прием в техно, рецепт простой:
1. берешь две бочки, можно одинаковых
2. одну оставляешь как есть
3. вторую целиком подаешь на ревербератор
4. настраиваешь на вторую бочку сайдчейн от первой после ревербератора
5. прибираешь на второй верх фильтром после ревербератора
Спасибо!!!
Вырезай ненужные частоты же. Твой еще и тише ведь наверняка. Линия, которую ты выделил, в сабе, у тебя отсутствуется скорее всего из-за необрезанных снизу инструментов. Саб-бас отрезай в районе 25-26 герц, с бочкой уже чуть сложнее, и зависит от текстуры и окружения. Всему остальному низ срезается в диапазоне от 100 до 400 герц, в зависимости от инструмента. Когда ты срезаешь ненужную муть, полезные частоты того же саба сразу дадут больше энергии.
Я начинаю вырезать и мне перестает нравится, может сэмплы хуевые подбираю? Я только, что кстати чекнул другие кики из тех же паков, там эта линия как раз выражена, но когда я их слушаю они мне кажутся не очень, но щас пытаюсь подход менять, может к чему-то приду.
Но а как все равно такие линии четкие получаются на всем треке, я не понимаю? Вот именно 11 что ли, я где-то слышал что их столько должно быть, может плагин какой или ещё что-то как-то на это влияет, у гостмейна какой-то трек был, там прям четко чисто эти линии были.
Сделай кавер на тот же трек, тогда можно будет сравнивать и рассуждать о "мутности", "текстуре", "окружении" и прочей округлости. А так только видно, что у тебя используется больше нот.
Я не знаю, где ты там насчитал 11 линий, я бы на твоем месте анализировал адекватным спектрографом, хотя бы Инсайтом, а не параметрикой ФЛ. Вырезай так, чтобы нравилось. Если ты срезаешь низ, и тебе перестает нравится - это либо проблема восприятия, либо отсутствие аппаратуры, адекватно играющей саб-бас. Если твой трек чуть тоньше, но ровный, и работает на любой аппаратуре - это лучше, чем жирный трек, адекватно звучащий только на твоей системе.
Просто треки изначально рисуются на спектрограмме. Не важно, нравится тебе или нет. Качаство звука для быдла, настоящие посоны будут уважать только за правильное количество линий на графике.
Плюс к этому на грузится обложка плагина. Просто белый экран.
Срендерить остальные в один файл, обработать те две с этим одним файлом, и срендерить их с обработкой.
Так не делается. Сначала синтезатерами или чем сделай, чтобы было нормалек, а потом сведение. Не может так быть, чтобы хет поверх бочки не был слышен, значит плохая бочка или плохой хет, новые накрути, замени. Велосити шатай, когда мелодии пишешь. Велоситями сделай норм. А потом уже будешь сводить.
> Велосити шатай, когда мелодии пишешь.
Лол, я примерно это и имел в виду. И элементарную эквализацию каждого инструмента тоже.
Вот велосити как крутить, например. Онли на слух?
Сам инструмент должен быть изготовлен, настроен изначально благозвучно, на синтезаторе должен быть звук накручен благозвучно. Тебе должно быть приятно с этими звуками сочинять мелодии. Велосити, хуелосити, все чем ты управляешь звуком - это средство воплощения твоей творческой задумки. Ты свою мелодию должен сочинить и принимать решение, какие звуки тише, громче, глуше, ярче, длинней, короче, хуече.
Никто тебя этому не научит, это творчество. Нет правильных рецептов. Когда кто-то делает видео, мол, хуярим бит, как у Подзалупа в треке "Сися", то это значит, что эта "Сися" уже нахуя никому не всралась, поезд ушел и не нужно подражать этому говну, это уже не актуально и каждый школьник теперь может высрать тонны однотипного подобного дерьма. Ищи новый звук, свой, сочиняй, делай так, чтобы тебе нравилось, сочно, жирно, задорно, чтобы музыка лилася, как малафья, как ручей.
Простейший пример. Вот пила исходная, это самая обычная пила. А вот пила более ровная, то есть у нее низ не выпирает. Сделай такую пилу, что не эквалайзером, а сразу чтобы твой синтезатор выдавал такую пилу. А на ее основе накрути суперсав. и тебе будет не нужно эквалайзером вырезать всякие гудения. Другие инструменты тоже, бочки, хуечки, бас, хуяс. Тоже сразу изначально прям хуярь, чтобы он был такой легкий, приятный. Контролируй звук сразу на этапе его получения, непосредственно.
>гайды по базовому сведению
Lowpass +Highpass согласно задаче инструмента же. Ну, можно сайдчейн сразу настроить, если ЕДМ пишешь. Остальное - потом.
Он тебе хуйню показывает какую-то, полоски разной жирности какие-то. Тебя интересует реальная громкость пиков в конкретных диапазонах же. Почему - потому что нельзя иметь много давления ниже 20 герц в треке, так же как и с высокими - опасно и для аппаратуры, и для ушей. То что у тебя там в сабе "много линий" это как раз и плохо, т.к. скорее всего сабит у тебя все подряд, и внизу звучит лютая каша.
Вообще, если ты хочешь адекватной помощи - скидывай трек, по твоей картинке параметрик еку ничего не понять.
Но она выглядит как просто скомпрессованная. Это не дает гарантии, что она зазвучит "ровно и хорошо", а низ ты ей всё равно отрежешь после. Все будет зависеть от окружения, и задачи, которую ты ей выделил.
Да не, зачем мне творчество? Мне нужно, чтобы линия на спектрограмме была как у "Сиси". На самом деле, всё правильно сказал
>>616810
Удвою куна выше - звук должен быть "правильным" уже на этапе игры на инструменте, чтобы просто хотелось играть. Если исходники говно, то сведение не поможет. Если исходники годные, то громкости и панорамы должно быть достаточно для грубого сведения. Во время записи не думают "ну норм, вот только потом подкручу на эквалайзере", а меняют угол и положение микрофона (или сам микрофон, или инструмент, или исполнителя), чтобы добиться нужного звучания без подкруток.
Гугли про запись и обработку конкретных инструментов, какие частоты за что отвечают и т.п. Пиздани на эквалайзере +-10 дБ и двигай частоту, слушай, что меняется. Копировать "Сисю" с точки зрения творчества бессмысленно, но для тренировки слуха и изучения технических инструментов очень даже полезно.
А может ты насочинял так, что всё в кашу? Что за барабаны? В нормальных семплерах пресеты норм звучат, и есть примеры МИДИ. Посмотри, какие там велосити или вообще скопипасти нужные рисунки.
Почитай Bobby Owsinski - The Mixing Engineers Handbook. Там про построение песни в целом, важность аранжировки и т.п.
Потом вот тут посмотри. Есть про запись гитары и баса, вокала, живых барабанов, программирование МИДИ, сочинение, продакшен, сведение... Самая годная инфа, которую я находил. Но нахаляву только ретрансляции по расписанию.
https://www.creativelive.com/onair/audio
>Но она выглядит как просто скомпрессованная.
Компрессия тут никаким боком не участвует, ни в плане того, как "выгдядит", ни в плане того, как работает.
>Это не дает гарантии
Ничего не дает гарантии.
>а низ ты ей всё равно отрежешь после
Нахуя?
>Все будет зависеть от окружения, и задачи, которую ты ей выделил.
Будет.
Я ваще чет не понял твою позиции, что ты хотел донести. Эквалайзером исправлять косяки? Да ну. Микшер должен быть пустой, как совковые прилавки.
Лол, микшер никому ничего не должен. Ты вот вроде про синтезаторы затираешь - пост-обработку ты то-есть не используешь? Сатурацией не увлекаешься? Пилы тонковатыми не получаются? Боюсь спросить, что конкретно ты продьюсишь?
>Нахуя?
Нахуя отрезать низ не-басовому инструменту? Сириузли?
> ни в плане того, как "выгдядит"
Справа ДД меньше, вот и вся разница же. Как ты там конкретно этого добился - не имеет большого значения. При том, это картинка, текстуру мы не слышим, понять что там у тебя в реальности звучит - невозможно.
>исправлять косяки
Какие косяки-то? Вот сам соглашаешься, что будет зависеть от окружения. Еку нужен в первую очередь для того, чтобы согласовать все элементы друг с другом. Это значит, в т.ч. адское исполосовывание некоторых элементов, дабы дать другим больше спектра и пространства.
>Я ваще чет не понял твою позиции
Источник звука - не более чем начальный этап, стремление сохранить звук максимально приближенным к "оригиналу" - актуально исключительно при попытке передать "живых музыкантов", да и то - не всегда. С логикой "Звук сразу из синта должен быть крутым" вообще далеко не уехать. А если мне не нравится FX синта, но нравятся осцилляторы? А если мне по замыслу нужно все перехучить автоматизированным дисторшеном с биткрашем и вокодингом? А если фильтры в синте не имеют нужных мне углов среза или форм? Не представляю себе такую работу "с пустым микшером", и ни разу не видел продюсера, который бы представлял, ни ИРЛ ни в интернетах.
На такой спектрограмме ДД не показывается. ДД показывается, когда меняется эта спектрограмма во времени. Показаны две пилы с разным тембром. Данная спектрограмма компенсирует спад 3db на октаву.
>Сириузли?
Хуириузли.
Что в синте обработки, что снаружи синта, один хуй. Это не принципиально. Но это разные вещи, когда у тебя изначально форма волны высирается из осциллятора с нужным тембром и когда ты пытаешься ее ровнять эквалайзером опосля, но так и не подровняешь, потому что нотки разные, нужно чтобы ачх плавала вслед за нотками, тогда нужно будет навесить ченить, контроллеры. Это гемор. Потом динамической обработкой исправлять динамику же самого исполнения - это тоже мудачество. Считать, что "сатурация" исправляет "тонкость" - это вкусовщина, тем более в отношении пилы. Некоторые "сатураторы" приближают пилу к квадратной залупе, при этом гармоники наоборот уменьшаются, четные съябывают и это получается нихуя не сатурация, а хуяция.
>Это гемор
Это банальная автоматизация, и сложные звуки ты иначе вообще не выровняешь. И не создашь. И не придумаешь. Или будешь писать унылый ЕДМ с полутора звуками единовременно.
>хуяция.
У тебя там вообще нет выделенных гармоник, не представляю, кого ты собрался удивлять такой пилой. Сатурация нужна в первую очередь для сохранения жира при заполнении спектра другими элементами. Да, даже голая пила на бите может звучать тонко относительно бита. И это не вопрос вкусовщины, вкусовщина это конкретная текстура, которую ты хочешь получить в результате.
>ДД не показывается
Ему не надо "показываться" в отдельном окошечке. ДД не равен нулю при любом сигнале, имеющим разность амплитуды в разных участках спектра. Результат твоих манипуляций - уменьшение громкости наиболее громкой спектральной составляющей и увеличение громкости наиболее тихой. Читай - компрессия.
И что значит "компенсирует"? Спектрограмма - только показывает. В данном случае - компрессию. Как ты ее выполнил - вообще не важно, хоть ручками в RX.
Начались семантические маневры в приступе антагонизма. Можешь эквалайзер компрессором называть. Это не моя трабла.
Та спектрограмма, которую я показал, компенсирует спад 3дб на октаву, то есть, она ней розовый шум выглядел бы как белый.
Пидец браток ты чет срешься со мной, что я собрался пилой удивлять. Это просто пила самая сферическая в вакууме. Сатурация нужна для сохранения жира. Жир - хуир. Зачем ты мне это говоришь?
Охуенная позиция, высрать какую-то абстрактную хуйню, а потом не понимать, зачем ему что-то говорят. Ты убеждаешь человека в какой-то дичи драной, вместо элементарной рекомендации заранее продумать спектрал рэнджи у инструментов, и писать с обрезкой. Кидаешь сжатую волну против несжатой, говоря, что она якобы чем-то "лучше", хотя о текстуре можно только догадываться.
В итоге, вместо облегчения творческого процесса, ты загрузил анона какой-то хуйней, никак не способной ему помочь справиться с тем, что у него хэты за бочкой пропадают. Он там наверняка банально саб своей бочки вообще не слышит, и вытягивает ее вверх, так, что саб клипует и маскирует все. Сейчас он пойдет искать другой сэмпл, вместо того чтобы хайпас накинуть. 10\10 просто, иди преподавать.
Все еще не догадываешься? Нет, можно конечно хуи к разным словам поприставлять, только это не сделает твои советы полезнее и ближе к реальности.
>Можешь эквалайзер компрессором называть
Повторюсь, каким образом ты сократил сигналу ДД - не имеет значения. Ты произвел компрессию. Волна справа НИЧЕМ не лучше волны слева, у нее другие характеристики, и всё.
>Повторюсь
Да хоть обосрись. Давай будем теперь компрессию считать линейным преобразованием, чисто чтобы тебе не приходилось признавать свою ошибку. Теперь до усрачки будешь натягивать ДД даже не под то, что под этим обычно ошибочно понимают, а даже под совсем далекую от ДД вещь. Нахуй, нахуй.
> спектрал рэнджи у инструментов, и писать с обрезкой.
Хуенджи. Белены совсем объелись, писать с обрезкой. Не режь подумой.
Понятно, в общем, кукования на месте, ДД теперь не ДД, при чем тут линейность-нелинейность? У тебя преобразовалась вся ачх по амплитуде, лол. Ты все усираешься в то-что-ты-там-с-ней-сделал, а результат-то однохуйственный.
>Белены совсем объелись, писать с обрезкой
Удачно поплавать в маскинге, надеясь, что понимаешь, что звучит в материале.
Заебал, найди определение ДД. Уплющь пилу в квадрат, по твоей логике маня-ДД вырастет. Замыль пилу - твое маня-ДД вырастет, домыль пилу до состояния синусоиды, будет бесконечное ДД имени Подзалупа Аноновича по кличке "Сися".
>в маскинге
В хуяскинге.
Ну так и где несоответствие-то? Да, блядь, внезапно, у сайна и пилы разные базовые характеристики. Ну охуеть - не встать.
>Динамический диапазон — это разница (или соотношение) между самым громким и самым тихим звуком, выраженная в децибелах.
Никто не заставляет тебя считать, что это должны быть два разных источника.
Динамика существует внутри отдельно взятого сигнала. Вот возьми свою пилу, вырежи нахуй середину на 20 после лимитера, будет огромный ДД. Который умрет от компрессии, так же, как и от вытягивания белл-фильтрами.
Это, как ты там сказал, "семантические маневры"? Компрессия это процесс преобразования амплитуды по сжатию ДД, а не дроч на использование конкретных алгоритмов. Я вот давеча сидел и запись с площадки по слогам гейном крутил. Из-за того, что я не использовал компрессор - это теперь не компрессия что ли? Я сжимал, не экспандил, если чо
>в хуяскинге
Можешь и в хуяскинге поплавать, количество съеденных тобой хуёв не увеличит твою продуктивность :р
Ты уже начал приписывать мне всякий бред, что два разных источника, что конкретные алгоритмы, чтобы было, чем наполнить твои личные сказочные представления об обработке сигналов.
У какого сигнала твой ДД больше? У какой обезьянки ДД больше? Каким боком вырезание середины делает огромный ДД?
До последнего будешь свою хуйню бредовую выгораживать. Нахуй тебе это надо? Все равно потом переобуешься.
Я тебе ничего не приписываю, ты пытаешься притвориться, что сужение ДД это не компрессия.
>каким боком
Вот как только ты ее поднимаешь из минус бесконечности, составляющая проявляется, и возникает огромная разница между ее амплитудой, и амплитудой остальных частей спектра.
Что в этом сложного-то? Я тебе всю дорогу талдычу о том, что преобразование из твоего первого примера можно получить с помощью мягкой компрессии. И выглядеть это будет на графике - именно так. Но нет блядь, мы уже до переосмысления терминов добрались, ДД у него нет у отдельного сигнала, "только при изменении во времени" - ебануться вообще, как-будто в отдельно взятый момент времени, как на скрине, в сигнале нет разности в АЧХ. И как-будто звук вообще существует вне времени.
О том, кстати, и речь в совете "срезать" - если про какие-то куски середины еще есть варианты, пригодится ли тебе существующая там информация, то саб и хай тебя гадать не заставят. Если у тебя, например, в бас-гитаре, непонятный тихий треск выше десятки - никому не убудет от того, что ты его отпилишь. Зато если не отпилишь, внезапно, бесполезная информация будет конфликтовать с инструментами, имеющими в этом диапазоне полезную информацию. Железом, возвращаясь к примеру с бас-гитарой. И не позволит тебе адекватно выстроить ни уровень, ни текстуру этих звуков.
И да, я готов кровью расписаться, что этот совет для нуба будет в тысячу раз полезнее, чем "Ну ты просто готовь свои звуки изначально хорошо, йопта".
Как, снова дурачком притворишься? Подчеркну мысль еще раз:
а) совет - говно
б) "простейший пример" - нихуя не простейший, и вовсе - не пример. Т.к. позиционируют пилу справа как более хорошую и удобную для "накручивания суперсав", а в действительности это будет ПОЛНОСТЬЮ зависеть от окружения этого суперсав, ее задачи в миксе, и общих решений микса, вроде сцены и ревереберации.
>возникает огромная разница между ее амплитудой, и амплитудой остальных частей спектра.
Это не ДД.
> преобразование из твоего первого примера можно получить с помощью мягкой компрессии.
Нихуя, если ты вдруг не придумаешь на ходу называть примерно такое преобразование "мягкой компрессией". У тебя это хуй пойми что может быть, любая фееричная бредятина на подобии того, что разница между составляющими спектра является ДД.
ДД, например, равен сумме амплитуд двух синусоид на картинке. При увеличении второй, ДД будет расти, а разница между амплитудами синусоид сначала будет уменьшаться, а потом снова расти при дальнейшем увеличении амплитуды второй синусоиды.
Нахуя ты мне хамишь?
>разница между составляющими спектра является ДД.
Является, конечно, если другой сигнал не представлен. Ты дальше и затираешь про необходимость двух сигналов, а я тебе давно сказал что это хуйня собачья, и хоть ты как изъебывайся, а динамика есть у любого сигнала, и точка. Ты просто вцепился в попытки придраться к "ДД", защищая хуевый пример хуевого совета, игнорируя суть претензии. В который уже раз.
>Нихуя
Хуя. Сядь, пожми, убедишься.
>Нахуя ты мне хамишь?
Нахуя ты мне хамишь? Перечитай дискуссию что ли.
Есть единственный гайд по сведению - сводить. Всё. Других гайдов нет. Шли нахуй пидоров с универсальными советами. Решения всегда разнятся в зависимости от конкретной ситуации.
Этот парень смотрит на мелочи, приёбывается к ним, возможно, полагая, что если каждая мелочь будет "правильной", то правильной будет вся картина. Хуй его знает, это предположение, тяжело с ним вести диалог.
Откуда ты взял просто два сигнала? Нахуя ты придумываешь эту бредятину? Я вцепился? Это ты мне втираешь дичь про свой вымышленный ДД, потому что ты по ошибке ляпнул, что это разница между составляющими спектра.
>Хуя. Сядь, пожми, убедишься.
Ты сначала придумай, что ты имел в виду, когда говорил "мягкая компрессия". Это ты так называешь вейвшейпер? Или ты эквалайзером "компрессируешь"? Ты продемонстрируй свою фэнтезийную "мягкую компрессию", как ты с помощью нее получишь преобразование из моего первого примера. Во вселенной, в которой я живу, то, что обычно называется компрессией, тем более мягкой, так не работает.
> Перечитай дискуссию что ли.
>Как, снова дурачком притворишься?
Таки нахуя ты мне хамишь?
>потому что ты по ошибке ляпнул, что это разница между составляющими спектра.
Нет, я сказал, что у любого сигнала есть динамика, а значит и ДД. В случае с одним статичным сигналом в качестве ДД будет выступать естественная разница уровней его составляющих.
>Откуда ты взял просто два сигнала?
>ДД, например, равен сумме амплитуд двух синусоид
Ты в смысле это, совсем аутист?
>Ты сначала придумай, что ты имел в виду, когда говорил "мягкая компрессия"
Я имел ввиду компрессию. "Мягкая" это такое прилагательное, в значении "Не очень строгий, снисходительный, не суровый". Говорю же, ты вцепился, придираешься к каждому слову, пытаясь вложить в мой текст какие-то непонятные конструкции, притворяешься дурачком, не понимающим простых русских слов. А все потому что "белены объелся" и решил, что распределять инструменты по спектру - нахуй не надо, и надо писать композицию по уши в конфликтах.
>таки
За вами, сударь, и первый мат, и пренебрежительное передразнивание. "Дурачок" это тут не хамство, мягкое описание ситуации. Ты же теперь собственный прошлый пост забываешь, пока новый строчишь.
Правильность какой картины нужна? До меня доебался чел и начал мне втирать, что пила с более ровным спектром скомпрессирована и имеет меньший ДД по сравнению с исходной пилой. По его логике и розовый шум можно превратить в белый с помощью компрессора.
На этом фоне я не могу серьезно отнестись к тому, что чел мне говорит, что мой совет - говно. Это более сложный вопрос, дискутировать по его поводу невозможно при таком ебанутом анатогонизме, когда даже простейщие очевидные вещи доведены до абсурда.
>можно превратить в белый с помощью компрессора.
Конечно можно. Выравниваешь АЧХ - получаешь белый шум. Проблемы, офицер?
>Это более сложный вопрос, дискутировать по его поводу невозможно
Ни одного аргумента в пользу не-обрезания инструментов сверху и снизу до начала продакшена, за весь разговор. Только история про белену. Инбифо "Можно обрезать слишком сильно", это уже человеческий фактор.
Очевидно, что если сигнал представляет их себя последовательность значений, которые изменяются, то динамика есть в качестве обозначения того, что значения меняются. Диапазон этих значений называют динамическим. И все. А вот эта хуйня про статичный сигнал - это плод твоего воображения на почве манеров. "Макродинамика", "микродинамика", когда это не музыкальные термины, измеряется в отношении разных частей спектра, но так без какой-либо связи с разницей между спектральными с оставляющими.
>Ты в смысле это, совсем аутист?
Я привел пример одного сигнала, состоящего из двух простых. Похуй, что ты нарочито невнимательным притворяешься и пытаешь все запутать, но вот тут внимательно будь, у тебя "один статичный сигнал" с "естественной разницей уровней его составляющих", где ты воображаешь некий "ДД".
Продемонстрируй свою фэнтезийную "мягкую компрессию", как ты с помощью нее получишь преобразование из моего первого примера. Заодно покажи, как ты розовый шум "сожмешь" в белый.
>За вами, сударь, и первый мат, и пренебрежительное передразнивание.
В твой адрес я не писал мат, я его использовал просто в своей речи. Ну хрен с ним, хами дальше. Главное, продемонстрируй свою волшебную "компрессию". А то все вокруг да около.
>Конечно можно. Выравниваешь АЧХ - получаешь белый шум. Проблемы, офицер?
Покажи, как ты компрессором выравниваешь АЧХ. Или ты "спектральный компрессор" подразумевал, но забыл сказать? Я жду.
>Ни одного аргумента в пользу не-обрезания инструментов сверху и снизу до начала продакшена, за весь разговор.
Мы с тобой еще не разобрались с ДД, а ты на меня пытаешься возложить пользу необрезания. Надо будет потом обрежет, когда сводить будет.
Опять я ему что-то продемонстрировать должен. Вон сходи и проверь со своим спектрографом, как оно будет выглядеть. Продолжаешь отстаивать идиотический аргумент про превосходство правой над левой, без звука, без ничего, придравшись к моему выбору слов, абсолютно, замечу, оправданному.
>но так без какой-либо связи с разницей между спектральными с оставляющими
Приплыли, лол. И что же тогда такое микродинамика, если не мелкие изменения в спектре сигнала отдельного звука? Или он может измениться, сохранив спектр? Что? Ты только в масштабах комплексных сигналов можешь мыслить, и применить тот же принцип к простой волне - это абстракция за пределами твоей фантазии?
>Я привел пример одного сигнала, состоящего из двух простых
Да, давай тогда про многолэерные конструкции поговорим, когда речь шла о базовой пиле, и том, что пожатой - она якобы "лучше". Который пост пишу о простом сигнале, ты мне рассказываешь опять про две синусоиды.
Про обрезку - снова тишина. И это я еще что-то там якобы "ляпнул по ошибке" и испытываю "ебанутый антагонизм". Ну, хоть веселый день в музаче, а не как обычно. Жаль - без толку.
> Надо будет потом обрежет, когда сводить будет
Надо будет - потом в синте докрутит. А чо, норм логика.
>>616989
>забыл сказать
Ты тут единственный цепляешься за каждую мелочь в слове, дабы было к чему доебаться. Я вот таким не занимаюсь, например. Тут я типа должен сказать, что один хуй при компрессии АЧХ изменяется, а ты тут такой скажешь, что бесконтрольно, и хуй что выровняешь - а я такой говорю "но в теории, это лишь вопрос бесконечного ратио", а ты пишешь "хуятио" и цепляешься к чему-нибудь другому.
А может и "забыл", лол, я тебе всю дорогу вообще про "компрессию" а не про "компрессор". Про то, что то, что ты сделал с волной, технически - компрессия, можно было сделать это компрессором. Теперь иди к своей волне, ебни по ней компрессором, и убедись. Не забудь поставить ебанутые настройки, перехуячить АЧХ к чертовой матери и запостить скрин с криком "НЕТ, ВИДИШЬ, НИХУЯ НЕ ВЫХОДИТ".
>Опять я ему что-то продемонстрировать должен
Ты не сможешь. Я жду, когда ты начнешь пытаться и примешь решение дальше тупить или показать наглядно, как свершится чудо.
> отстаивать идиотический аргумент про превосходство правой над левой
Это был просто маленький простой пример коррекции тембра. Сейчас мы занимаемся разбором базовых вещей, что такое звук, спектр.
>И что же тогда такое микродинамика, если не мелкие изменения в спектре сигнала отдельного звука?
Вот посмотри на картинке, макродинамика такого сигнала выражена синусоидой, а микродинамика множеством высокочастотных гармоник, которые появляются и затухают хаотично. Чтобы измерить микродинамику такого сигнала, достаточно отфильтровать низкочастотную составляющую. И ты не понимаешь как звук устроен?
>Да, давай тогда про многолэерные конструкции поговорим, когда речь шла о базовой пиле, и том, что пожатой - она якобы "лучше". Который пост пишу о простом сигнале, ты мне рассказываешь опять про две синусоиды.
Похоже, что не понимаешь. Пила представляет из себя огромное количество синусоид, основной тон и гармоники, кратные частоте основного тона со спадом амплитуды 6дб на октаву. Суммой всех этих синусоид является пилообразный сигнал. О каком простом сигнале ты пишешь? О синусоиде? С какого перепуга у твоей синусоиды есть спектральные составляющие, между которыми есть разница? Это тебе приснилось наверно. Сумма двух синусоид - это намного более простой сигнал, чем пила.
>Жаль - без толку.
Как же, ты знаешь теперь, как звук устроен. Что пила - это не простой сигнал, и что две синусоиды вместе означают некоторый один более сложный сигнал, нежели простой, которым является одна синусоида.
Я тебе сразу сказал "компрессия тут никаким боком не участвует, ни в плане того, как "выгдядит", ни в плане того, как работает.". То, что я сделал с волной, технически, это изменение тембра, в частности, отношение между амплитудой гармоник. Эти гармоники не существуют независимо друг от друга, чтобы они были видны, звук преобразуется с помощью преобразования фурье, чтобы можно было посмотреть на гармоники, при том, что в зависимости размера входного блока, некоторые гармоники могут не поместиться и не различаться на спектрограмме, которые близко друг к другу, особенно низкие. Компрессор с гармониками не работает.
Мне нахуй не нужно к тебя цепляться, к словам. Сраться со мной начал ты, доказывать мне безграмотную белеберду.
Я и пытаться не буду, это тебе нужно. Ждет чего-то там, лол.
>Это был просто маленький простой пример коррекции тембра
А не
> Сделай такую пилу, что не эквалайзером, а сразу чтобы твой синтезатор выдавал такую пилу.
Ну да.
Дальше ты опять охуенно придумал, что я чего-то там не понимаю, и падаешь в демагогию про структуру пилы, тогда как одна пила из одного осциллятора будет одной пилой, и всё тут. А то, что любую волну можно разложить на сумму синусов - это и так понятно, только к чему это? Ты свою пилу из синусов руками собирал? И как все это относится к тому, что если ты МЯГКО ОТКОМПРЕССИРУЕШЬ свою пилу слева, она станет выглядеть на картинке как пила справа?
>Я тебе сразу сказал
Я тебе сразу сказал, что говорю о том, как выглядит твоя спектрограмма, что это комментарий - бесполезен без звучания самого материала, и что сжав свою пилу, ты получил бы спектрограмму справа. Но нет, давай дальше про структуру пилы, я весь внимание. А ведь мог просто сказать, что пила справа ближе соответствует тому, что ты от нее хочешь, и потому она - лучше, что в рамках твоего абстрактного примера - вполне бы прокатило.
>доказывать мне безграмотную белеберду
Ноуп, я поясняю анонам, что совет - говно, а ты - поехавший, неспособный применить концепт из одной системы к другой, только и всего. Еще и компрессия у него на АЧХ не влияет, вообще охуеть.
Сколько же всего понаписал, вместо того чтобы пояснить, почему обрезать - плохо.
>что я чего-то там не понимаю
Тебе даже гугл и википедия что-то не помогают.
>то, что любую волну можно разложить на сумму синусов - это и так понятно
Похоже, что ты только сегодня это узнал, но еще не до конца переварил.
>пилу из синусов руками собирал?
Хуем собирал. Что от этого меняется?
>И как все это относится к тому, что если ты МЯГКО ОТКОМПРЕССИРУЕШЬ свою пилу слева, она станет выглядеть на картинке как пила справа?
Ты давно бы уже сам проверил и убедился. И скорей всего ты так и сделал, просто что-то тебе не нравится в результатах.
>бесполезен без звучания самого материала
Любой может раздобыть пилу и такую как слева, и как справа. По форме волны и по спектру все очевидно, я дополнительно пояснил, что у пилы справа спад не 6дб на октаву, а 3дб на октаву.
>Еще и компрессия у него на АЧХ не влияет
Влияет, но совсем не так, как ты себе это воображаешь.
>я поясняю анонам, что совет - говно, а ты - поехавший, неспособный применить концепт из одной системы к другой, только и всего.
Ты эталон чсвшного тупого зазнайки с нулем технических знаний, пытающегося сраться, но срешь только себе в колготки.
Хорошая тактика, написать хуйню, потом убеждать оппонента, что он нихуя не знает, рассказывая базовые вещи с пафосной подачей специалиста, игнорируя каждый удар хуем в свой зловонный рот, будто этого не произошло. Более того, придумывать, что оппонент делает между ответами, и прятать собственный обосрамс за валом технических данных, не имеющих никакого отношения к сути вопроса.
Ты давай, поясняй, какого лешего твоя пила справа "лучше" пилы слева, и почему анон должен стремиться именно к ней, почему микшер "должен быть пустым" Хотя тут ты уже слился, сказав что "пост-обработка это другой вопрос", даже это попытался вывернуть так, будто хуя в жопе - нет, и почему плохо обрезать. А потом можешь идти собирать хуем пилы в харморе, или пытаться понтоваться перед мамкой и друзяшками, делая вид, что не понимаешь, что меняется от того, что твоя пила вышла целиком из одного осциллятора, в сравнении с ручным склеиванием двух синусов. Еще и такая гордость за наличие знаний уровня ассистента на звукокафедре ВГИКа. И сожми уже ее сам, я не буду ради рандомного поехавшего бежать дрочить хармор и разбираться, что у тебя за аналайзер.
Да, а вот это
>Влияет, но совсем не так, как ты себе это воображаешь.
Просто левел девочки из детского сада, с которой мы друг другу показывали гениталии. Я тоже был в детском саду, товарищ майор. Надеюсь, когда ты это писал, ты двигал пальцем и головой в разные стороны, и сделал губы уточкой.
1920x1080, 1:10
Я двигаю пальцем и головой в разные стороны и делаю губы уточкой, вот сейчас.
Давай каким словесным поносом ты будешь маневрировать на демонстрацию того, что до этого момента не понимал, как работает компрессор. По-любому будет что-то такое ряряря
>не понимаешь, что меняется от того, что твоя пила вышла целиком из одного осциллятора, в сравнении с ручным склеиванием двух синусов
Холистическое мышление - это вариант олигофрении, если что. Лечись.
>левел девочки из детского сада
Он так и называется signal analyzer vst. Скачай и рассматривай. Заодно покажешь "правильные" настройки волшебного компрессора, который жмет так, как тебе приснилось. А я пойду гениталии дрочить.
Слушай, ну ты ведь на самом деле неправ. Обычный компрессор из левой картинки правую никак не сделает, потому что в единицу времени все гармоники на одно и то же число домножит.
Хуево накрутил же, продолжай крутить. Не знаю что ты там накрутил со своим аналайзером, но вот даже стандартная пила серума может быть расхуячена его же сингл-бэндед компрессором так, что гармоники шифтятся.
>Лечись
Говорит поехавший, уже 20 часов пишущий обиженные посты, вместо того чтобы пояснить, чем плохо обрезать инструменты и почему пила справа - лучше.
Я вообще про "обычный компрессор" ничего не писал, я сказал, что справа -выглядит сжато. Ну лимитер дожмет, действие один хуй будет сжатием. Мне это приебство к выбору коробочки для пожатия - вообще малоинтересно, если по факту все равно происходит сокращение динамики. Интереснее, почему нельзя инструменты обрезать.
>выглядит сжато
>происходит сокращение динамики
Мало ли что там для тебя выглядит. Давай объективно: чтобы судить о сокращении некоторой величины, нужно её измерить до и после обработки. Так? Какой способ измерения динамики сигнала тебя устроит?
Ебачь, по определению ДД на твоей спектрограмме все видно же, от самого высокого до самого тихого элемента.
Ты лучше рассказывай давай, почему обрезать плохо.
Мне вот не видно. Можешь выделить эти элементы?
Респект.
Но теперь мне хотелось бы делать то же самое для записи голоса в реальном времени. В Windows 7. Создать аудиоустройство, которое захватывало бы всё записываемое моим микрофоном, программно обрабатывало. И чтоб выход можно было отправлять на скайп, дискорд и т.п., и вообще сделать стандартным в системе.
Какие программы для этого есть? По-хорошему надо бы кроссплатформенные, но сейчас некогда привередничать, так что лучше без лишнего пердолинга.
Ну и бесплатные тоже есть https://www.dxzone.com/5-free-virtual-audio-cable-software/
Я ни тот кабель, ни какие из этих не проверял, никогда не было необходимости, поэтому я ничего больше знаю.
Сокращения динамики не происходит. И слева, и справа у него волна одной и той же амплитуды, что легко увидеть по нижней половине картинки, где, собственно, нарисована сама волна, которая не меняется со временем, т.е. динамики там и нет. Ты путаешь временную шкалу и спектральную.
Легкую сайдчейн компрессию, в любых жанрах, с любого на любой источник - действительно проще сделать в процессе сведения, ведь её задача - слегка вывести вперед нужные элементы, теряющиеся в других схожих.
В едм, и вообще в 4-to-the-floor, дакинг с кика есть важнейшая часть текстуры звука, отсутствие которой с начала работы может привести к созданию тонны лишних движений в инструментах, например, к попытке добиться схожего эффекта через модуляцию амплитуды синтезатора. Потому, собственно, многие уже не используют непосредственно СЧ компрессию, а втыкают LFOTool, дабы дакинг работал независимо от существования кика, и его силы.
Если всякие ломаные жанры ты тоже относишь к ЕДМ - они тоже не пострадают от наличия СЧ с самого начала работы, главное - сразу определиться с настройкам, и стараться не менять в середине пути.
Пожал или не пожал я не знаю, я тупенький. Хотя вроде как эквалайзер работает как экспендер, да? То есть тоже компрессор? ну или нет.
Если вычесть rms будет вот такое вот
43.20-1.76 = 41.44
59.66-20.55 = 39.11
http://ge.tt/87BKEQs2 тута файл с вавками нормализованными, не знаю зачем.
а вообще хуёво сгенерилось, ничо не происходит былять! надо было начало и конец файлоф обрезоть сукпздц(((990
RMS - это просто среднеквадратичное для заданного интервала, часто, например, берут 300 мс.
Приведение ачх пилы к ачх белого шума, очевидно, будет уменьшать rms при прочих равных, потому что тогда пила будет, как слева на картинке.
А в чем принципиальное отличие сайдчейн компрессии от просто сайдчейна громкости? Почему нельзя просто volume сайдчейнить? Чтоб тихие частоты не пропадали?
Давай подумаем вместе:
1) Че буит, если ты управляешь просто громкостью одной дорожки от громкости другой дорожки?
2) Че буит, есть ты управляешь ratio компрессора от громкости другой дорожки?
3) Че буит, если компрессор срабатывает не на текущую дорожку, а какую-то другую дорожку, а жмет текущую?
1) У одной будет снижаться громкость, когда громкость другой повышается
2) У одной будет увеличиваться ратио, когда громкость другой повышается
3) Ну если я правильно понял, то будет увеличиваться ратио одной дорожки, когда у левой третьей повышается громкость, а вторая просто себе играет?
1) Правильно, если мы хотим именно так управлять громкостью.
2) Ратио у компрессора, а не у дорожки. Подумай еще.
3) У нас две дорожки. Та, на которой висит компрессор и какая-то еще. У компрессора есть порог. Компрессор меняет громкость, в соответствии с заданными правилами, когда звук на входе или его rms превышает заданный порог. Если разработчик предусмотрел, то можно сказать компрессору, чтобы он реагировал на звук, какой-нибудь другой дорожки, а сжимал ту, на которой висит.
Принципиальное отличие в том, что компрессия это не уменьшение уровня, а компрессия, так-то. Мы тут выше про компрессию много всего насрали. Но вышеупомянутый ЛФО тул, например, именно что автоматизирует уровень. И вообще, это нормальная практика. Само слово "сайдчейн" означает исключительно, что триггером того, что ты настраиваешь, будет не сама эта дорожка, а другая, по сайдчейну можно делать и экспансию, да хоть перегруз, и вокодер включать.
Если совсем просто, компрессия будет тем сильнее влиять на текстуру сжимаемого звука, чем дольше продолжается цикл работы, тогда как автоматизация уровня просто автоматизирует уровень. Не забывай еще, что очень редко делают на "основных" источниках (кик-снейр) миллион разных сайдчейнов, как правило это будет один бус, в котором все и жмется. Чем больше сигналов суммируются в этом канале, тем значительнее будет разница между компрессией и автоматизацией уровня на слух. Опять же, различные настройки компрессии дают различный результат для текстуры звука. Можно делать сайдчейн компрессию с мультибэнд-компрессором. Можно и с динамическим эквалайзером, но если не касаться механики, то суть остается той же.
Во-первых, ты можешь сайдчейнить не только низкие частоты, но и все, что имеет плотный звук, кик же у тебя не только внизу звучит - это значит, не только бас, но и все инструменты вообще. Напротив, пуская в такой ситуации какие-то инструменты мимо сайдчейна - получишь интересный способ выделить дорожку.
Потом, есть бесчисленное количество приемов, вроде сайдчейн со снейра на реверберацию этого снейра, или я иногда делаю сайдчейн с "режущих" хэтов на падики или фьюча аккорды.
Это как бы просто один из многих приемов, которые ты можешь использовать. Если у тебя есть объект, который ты хочешь вытащить из других, похожих по характеру - сайдчейн компрессия может тебе помочь.
От души, спасибо.
Нет, в высер-треде
Попробывал сводить мультитрек из треда, но барабаны говно жесткое по верху получаются относительно референсов.
Типо если румы кал с утечкой крашей, то уже рум не пожмёшь норм, чтобы взрывным получился?
И как тогда на норм записях делают? Типо отдельно краши от рума пишут, чтобы потом проблем не было?
Как вообще краши связаны с румом? Основная их часть должна быть в оверхедах. Если оверхедов нет - кроме параллелки и дальнейшего разделения по частотке, ничего придумать не могу. Можно насытить верха, разве что.
Не смотрел. Попробуй продублировать рум, отфильтровать все снизу, и сильно пережать и насытить то, что осталось, подмешав к общей сумме (т.е. обычный рум никуда не убирай, дай им слиться).
Я бы вообще так сказал. Прямо подавляющая часть звука ударных заключается в том, как они были записаны - сами ударные, музыкант, микрофоны и их расстановка. Если ты берешь референс, сделанный ВООБЩЕ в других условиях - ты скорее сойдешь с ума, чем добьешься "точного" повторения. Я бы рекомендовал просто делать максимально близко к "задаче", но без излишеств, и без излишней ебли с референсом - по крайней мере, если ты не можешь воздействовать на процесс записи ударных.
Ну да, ты прав. Если соурс барабанов говно, то хоть часами ебись с ним, то всё равно не получишь топовый звук.
Там в том мультитреке ещё микрофоны по фазе не скомпенсированы, а значит кто их записывал не знал как расставлять микрофоны и чекать фазу
Фаза это в целом не так страшно, милисекундные сдвиги, или вовсе "трэк делэй" могут помочь. Еще есть всякие сумматоры-компенсаторы.
Я очень рекомендую попробовать бесплатный плагин WIDER от Polyverse Music. По сути, это стерео-расширитель, такой же, как в их плагине "Manipulator", отличающийся крайне интересной механикой сохранения фазы при конвертации звука в моно. Пару раз использование этой херни на бусе с большим количеством фазовых искажений помогло мне сохранить текстурку, но "починить" фазу. Еще можно попробовать работать сразу с очень жестко отлимитированным сигналом. Еще всегда есть шанс, что фазовая поебень - результат хитрожопой задумки, связанной с планами записывавшего на конкретные манипуляции по сведению.
Вообще, полностью сводить чужой мультитрек, не имея даже задачи, поставленной со стороны - очень неблагодарное и унылое дело, кажется. Если хочется прямо попрактиковаться - рекомендую потыкать рандомных музыкантов в ВК, или звукорежиссерские паблики, лучше выбирать команды, выступающие, имеющие больше одного трека.
Хорошей ушной практикой может быть запрос мультитрека композиции, которую они уже свели и отмастерили, дабы использовать ее за референс, и попытаться сделать "точно так же из такого же материала."
Знаю живые барабаны порой просто перезаписывают в норм помещении с норм микрофонами или делают драм реплейсмент, чтобы потом часами с ними не ебаться на сведении.
Я когда что-либо с фазой делаю всегда в моно все операции провожу, а иначе можно потом потерять всю моносовместимость или гребенчетое фильтрование по верху получить или тонкий звук в сумме или хорусинг.
WIDER я пробывал - збс плагин. Там все плагины от Infected Mushroom стоят внимания. Есть ещё от Nugen Audio классный вайднер с хорошей моносовместимостью, название не помню к сожалению.
VK у меня нету( Сведение для меня скорее хобби, я просто недавно на дваче на тред наткнулся, до этого по книжкам и видосам-курсам учился just for lulz
На хорошо записном и спродюсированном материале трек вообще сам себя сводит. Референсы я обычно всегда юзаю, без них чувствуешь себя ёжиком в тумане, главное лэвелматчинг делать
Замечу, это создано на софте в 2010ом году
https://www.youtube.com/watch?v=IddDWBpkzYg
Тут явно, работа с панормаированием и пространством решает. Какие-то ревера обработанные-чудные.
Ну, и звуки всякие прикольные, это ладно, чего-бы почитать-посмотреть толкового, чтобы чего-то похожее получалось?
Я не про саб конечно же, а про все что выше 80гц. Не вырезать полностью, а убавить чтобы не проебать объем?
Мы не знаем, сколько его у тебя там. Чувствуешь что много - убирай. Все зависит от окружения и задачи этого баса. Ниже 150-200 я бы в стерео ничего не держал вообще. Для винила сейчас вообще рекомендуют все ниже 400 в моно, а ширины баса добиваться более высокими гармониками. Эффект "Широких сабов" достигается за счет верхних гармоник перегруженного саба и отсутствия иной плотной нагрузки в 200-1000.
Ozone 8> Spectral Shaper
izotope rx 7 балансирует вокал, бас, перкуссию и остальное, вплоть до полного удаления, хотя это не всегда возможно полность.
zynaptiq утверждает, что юзает нейросетку для слепой деконволюции в unfilter и для дереверберации в unveil.
Я не занимаюсь реставрацией по хардкору. Раньше rx для меня представлял просто прожку, где есть хороший дейнойзер и деревербератор, а теперь еще добавилась нейросетка, наученная отделять спектры голоса, баса, перкусси и прочей хуйни. Остальнеое для меня все так же, просто потому что какие-то мелочи я не знаю, которые могут быть в связи с глубокой ручной чисткой, если это вообще там имеет смысл.
Попробуй на дорожку навернуть Izotope Vocal doubler. Его как раз за бесплатно раздают.
Мне RX больше интересен в контексте чистки дорог со съемок. Попытки сделать выделитель диалогов были уже в 6-м. Я так понял, эта нейросетевая штуковина в 7 имеет именно музыкальную направленность?
Если делешь даблтрек - рекомендую не раздвигать дороги по времени, а играть с панорамой, эквализацией и реверберацией, дабы не пришлось потом ебаться с попытками минимизировать ущерб от поплывшей фазы. "Раздвинуть" можно для того чтобы "быстро" показать клиенту, как "может быть".
Напротив, если у тебя в записи возникает проблема с фазой, и материал уже не переписать (или это часть задумки в сложной электронной конструкции) - эти кусочки можно подвигать туда-сюда, дабы попытаться минимизировать проблемы до обработки. Как-то так.
Судя по названию имеет музыкальную направленность. Там еще другие всякие.
Благодарю. Диалог контур звучит интересно, раньше был только айзолэйт.
Тренировался в компрессии, и передо мной стояла задача выровнять динамику сигнала, и убрать вылетающие звуки.
Крутил всякие ручки, разбирался во всем этом, как итог - сустейн выровнял, но не знаю что делать с вылетающем щелчком на последней ноте.
Первый файл без компрессии, второй с компрессией.
ЧЯДНТ? Спасите помогите.
Добавлю пожалуй только то что с высоты своей неопытности, единственное решение которое мне приходит на ум, это сделать автоматизацию громкости на последней ноте.
Но выглядит это по инвалидски, и очевидно что я неверно пытаюсь решить эту проблему.
Прикладываю файл и скрин как это выглядит.
Upd:
Накатил многополосной компресии, и сжал все что выше 400.
Вроде как получил желаемый результат. Рейт.
Да вроде норм, самому-то нравится?
А чо трансиент процессором пик не выпилишь? По крайней мере его сгладить можно перед компрессией.
Норм. Ящитаю, это ошибка исполнения, хочешь "идеально" - нужно переписывать.
Если уж надо именно пофиксить, то в автоматизации нет ничего плохого. Только в данном случае дело не в уровне, а в верхних частотах. Мультибэнд компрессия (ближе к лимитированию) - хороший вариант, если у тебя через ноту такая хуйня.
>Да вроде норм, самому-то нравится?
Ну, определено не вылетает больше, это заебись.
>А чо трансиент процессором пик не выпилишь?
Китайская наука, не понимат.
>>>620843
>Норм. Ящитаю, это ошибка исполнения, хочешь "идеально" - нужно переписывать.
Это был Trilian. Нарисовал в пианороле партию баса, и с одинаковыми велосити она пиздец какая неровная по динамике.
Это как раз то что мне было нужно, осваивал компрессию. Долго понять не мог почему даже самая жесткая компрессия нихуя не выравнивает последнюю ноту, полез в эквалайзер и понял что низы ровные, а высокие частоты вылетают на последней ноте. Так собственно и решил проблему мультибендом.
> Нарисовал в пианороле партию баса, и с одинаковыми велосити она пиздец какая неровная по динамике.
Это связано с frequency response твоей акустики, комнаты и ушей. Чем выше нота баса, тем ниже нужно делать велосити
В FL Studio (не только в ней, конечно, но у тебя она) есть Transient Processor. Он как раз для обработки атаки и хвостов. Т.е. можно именно сам пик сделать тише, а остальное не трогать.
Я не могу сказать, что в твоём случае он лучше подойдёт, но можно иметь в виду, что есть и такой способ.
тут первый раз решил в диско пописать, рейтми
и киньте идей для подбора синтов+драмсов для этого, так как первый раз в такое залез, а если хочешь, то можешь всё сам сделать и свести и скинуть тут, в благодарность с меня нихуя
https://drive.google.com/open?id=1prINKxAnPZCgO1YO4iuSmKeWFg9WPPfN
Перекатываюсь к вам из высертреда, т.к. уже заебал местного анона.
Наклепал вот такой тяжёлый дабстеп
https://instaud.io/2UXf
Анон говорит, что со сведением всё хуёво. И я ему верю. Я же ничего хуёвого не слышу. Наверное, потому что пиздец уши замылены.
Собственно, возник вопрос, что курить, чтобы понять это выше сведение? Что крутить, чтобы трек стало приятно слушать насколько это возможно в жанре? Что делать со сведенченской глухотой?
Алсо это не тот, что в высертреде лежит. Тут я что-то пересводил.
Ну вот там на первой минуте хэты что есть, что нету, еле слышно их, они пропадают постоянно. Кик и снейр тоже. Жу-жу-жу зато занимает всё пространство.
Там какие-то а-ля колокольчики играют, они тоже пропадают вообще, хотя если прислушаться - они есть.
Особенно на 3:37 хорошо заметно. Вот на 3:33 их почти не слышно, а потом "жужужу" отключается, и херак - они выходят на первый план. Ощущение такое, что "жужужу" сильно громче просто, и всё это компрессией пожато, в итоге когда оно звучит, всё остальное давится.
Грубо говоря, должно быть всё слышно, как надо (где "надо" - понятное дело, разное). Т.е. важные элементы должны быть хорошо и чётко различимы. Да даже неважные должны быть различимы (просто играть дальше/тише), а не исчезать местами наглухо.
Кик, который то слышен, то пропадает, максируясь чем-то другим - это вряд ли то, что ты хочешь получить в дабстепе.
Колокольчики вроде как сами по себе не самый важный элемент, но когда их вообще почти не слышно, а потом они _внезапно_ вылезают - это тоже не похоже на задумку, а похоже просто на херовое звучание.
Послушай каждый элемент отдельно (соло), оцени, так ли ты себе это представляешь. И послушай каждый элемент в миксе, действительно ли слышно всё, как ты и хотел.
>что курить, чтобы понять это выше сведение?
Слушать музыку осознанно (даже в других жанрах). Анализировать. Крутить ручки, если ты не слышишь разницы, бессмысленно. Покури Bobby Owsinski - The Mixing Engineers Handbook.
КАК НАКРУТИТЬ ТАКОЙ ЖЕ БАСС КАК У ФРЕДДИ ДРЕДДА (он же Ryan C), Посланника Люцифера, спасителя Фонка, Апостола Думшопа и Вестника Сихсета, Хранителя тайны Святого Ковбелла и Хрустального Хай-Хета и Чугунного Снейра.
Хотелось бы услышать ваши идеи на этот счет! Спасибо!
https://www.youtube.com/watch?v=Tks_gp6GjHA
https://www.youtube.com/watch?v=uTJQI7SWV7A
https://www.youtube.com/watch?v=5PPGMdydvwU
https://www.youtube.com/watch?v=jZvfKWuKypM
https://www.youtube.com/watch?v=BFwIV1oTRCs
Я хуже этого по низу давно не слышал лол
>НАКРУТИТЬ
Если тебе такое говно нравится, то это хард клиппером достигается, а не накруткой синтов.
Только с таким звуком можно себе слух посадить если долго за ним сидеть
Говно, видео на 45 процентов состоят из воды, на 45 из какой-то претенциозной хуйни и только 10 процентов годных советов и чего-то полезного, при том что видео по 15 минут идут
Это снова я.
Покрутил, повертел ручки. Усердно так. АЖ 6 ДНЕЙ!
Спасибо этому >>621963 >>621965 анону за советы и этому >>621987 за книгу.
В целом, как мне кажется, стало намного лучше. Вроде бы даже всё занимает своё место. Только мне второй бас кажется грязным. Но это уже косяк синтеза.
Рейтани, пожалуйста, напоследок. Что-то глобальное, конечно, вряд ли менять буду, но в следующий раз хоть на те же грабли не наступлю надеюсь.
https://instaud.io/2WfN
Да, стало значительно чище звучать, молоток.
Сажу случайно поставил
Без СМС и регистрации поищи Groove3 - mixing rock.
Если готов потратить немного денег, то рекомендую duelingmixes.com или nailthemix.com
Если есть время, то creativelive.com
Поискал на РуТрекере Groove3 - mixing <..>, нашел несколько курсов по разным жанрам: rock, jazz fusion, heavy rock / metal и urban pop. Правда на некоторых написано "среднего и продвинутого уровня".
Я про умение слышать определенные частоты.
Если я научусь безошибочно распознавать эти частоты, не в миксе, а просто частоту синусоиды - насколько это полезный скилл, и как он мне поможет в сведении?
видел аудиокурс с семплами шумов на определенных частотах
типа, как раз для тренировки звукарей
насколько практично - не знаю. сомневаюсь, честно говоря
Какие же вы тупые, просто пихдец
Весь секрет в нормальных дорогих мониторах на подставках и хорошей акустике комнаты
Частоты тогда будут просто вертикальной линией перед тобой располагаться - выше/ниже и без всяких ухищрений будешь определять где проблемы в миксе.
Пиздани 10-20 дБ на эквалайзере и двигай полосу по 1/3 октавы например. Слушай, что меняется при вкл/выкл эквалайзера. Так же полезно узнать как звучат общепринятые субъективные термины ("теплота", "яркость", "мутность", ...) и характерные частоты инструментов.
Скачай мультитреки с торрентов (на самом деле там уже сведённые стемы). Тем же методом тренируйся слушать инструмент в миксе.
Есть плагин "Tune", который рандомом эквализует. Можешь в режиме угадайки потренироваться (но только не на розовом шуме, а на известных тебе треках). А можно вот так: делаешь миксдаун стемов для референса, рандомно эквализуешь каждый стем, пытаешься вернуть звучание к первоначальному.
Распознавать частоту синусоиды - это уже абсолютный музыкальный слух. Не является обязательным условием, тем более для звукача. Важно умение вообще слышать наличие синусоиды (резонанса), а там уже применяешь ту же передвижную полосу эквалайзера (только очень узкую), можешь проверять себя по спектроанализатору. Сначала будешь искать по всему диапазону, со временем научишься попадать всё ближе к нужной частоте.
>Распознавать частоту синусоиды - это уже абсолютный музыкальный слух.
Это да, но, думаю, анон имел в виду другое: "здесь слишком много из такой полосы, тут слишком мало из другой полосы, здесь явно горб в таких-то частотах".
Конечно, тут дело не упирается в синусоиду, у тебя еще полно другой информации - в каких инструментах ты слышишь переизбыток/недостаток, каков характер этого переизбытка.
Ну, наверное, ты отличишь же "сына, иди котлеты жрать", сказанное мамой и папой, да?
хотя, кто я такой, чтобы гадать, чего хотел анон?
>>623546
я посмотрел, думаю, что я говорю вот про это:
http://www.moultonlabs.com/full/product01
можешь посмотреть еще сюда:
https://www.trainyourears.com/
хотя не знаю, что тебе мешает вместо двача задавать этот вопрос гуглу, и получать сразу тонну советов
хотя бы:
https://www.youtube.com/watch?v=VSPkmKv3mZ4
Ну тащемта синусоиды и резонансы я вроде как слышу, с переменным успехом даже получается что то вырезать.
Алсо рейтаните что я наэквализировал.
Сделал пилообразные аккорды, и попытался вырезать всякий мусор.
В верном направлении иду, или что то проебал?
Забыл сказать, первое - это до обработки, второе - после нее.
>В верном направлении иду
Нет, хуйней какой-то занимаешься
>что то проебал?
Самое главное - остальной микс. Какая разница, как инструмент звучит в соло? Шо первый вариант может подойти, шо второй.
Пытаюсь вот вкатиться, записывать музыку, есть 2 гитары, комбик. Хочу это все как-то записывать и сводить на компе. С чего начать, что почитать? Попробовал врубить гитару через line-in, звук с задержкой, лол, ну аудиокарта встроенная у меня.
Потом еще такой вопрос, одно время баловался в разных редакторах, из сэмплов делал всякую фигню, так вот замечал, что если дорожек штук 6 - то более новые дорожки звучат как-то тише, чем должны.
Вообще, что прочитать можно, чтобы хотя бы примерно понимать, как мне допустим записать бас, гитару, в чем-то создать ударные и все это более-менее прилично скомпоновать?
> если дорожек штук 6 - то более новые дорожки звучат как-то тише, чем должны.
Если на мастере, вдруг, стоит лимитер, то это он глушит. Во всяком случае, хедрум не бесконечный, и дорожки не должны уходить в 0 dBFS
Понятно.
А с чего вообще начать, чтобы вкатиться в запись гитары, в чем лучше записывать и дорожки сводить?
Я использую для записи гитар fl studio, так что могу подсказать только по нему. В общем-то, тут ничего сложного, только для более-менее качественной записи тебе нужна внешняя звуковая карта. Если побаловаться и не нужно СТУДИЙНОЕ звучание, то хватит и бюджетной звуковухи штуки за 3. А так - в фрутах настраиваешь asio, чтобы не было задержки, подключаешь звуковую карту, втыкаешь гитару в звуковуху и записываешь. Ну, вообще, нужен ещё эмулятор комбоусилителей/педалек - я использую гитар риг. В остальном - найдешь инфу в интернете.
Для ударных также дохуя vst есть, я использую addictiv drums - один из самых простых и понятных.
Я признаю только эмуляции гитарных преампов и только poulin, и ignite amps, остальное мне не нравки, потому что не удобно, может не быть например даже просто переключателя стерео. Или всякая громоздкая хуйня с нарисованными проводами для дебилов.
Например, Николай Воронин сделал так, что стерео срабатывает, если звук в левом и правом канале отличается. Genius. Ну он конечно красавчик, но блять, нахуя не просто переключаетель, это же крутой программист.
Разве что еще нравится simulanalog guitar suite, они заебца, хоть и нет переключателя стерео, но они ваще такие прям чет нравки. Ненай.
Оверлауд говно относительно конкурентов. Наверное они жрут мало потому что в них самих мало кода.
>стоит ли вообще упарываться в сторону "эмуляций железяк"?
Ну сейчас можно получить 80% результата даже на тех же сток плагинах если руки, комната и мониторинг прямые.
Вся проблема это умение разбираться в сортах говна, так как сейчас овер дохуя плагинов и все утверждают, что на 100% эмитируют аналог, хотя часто сливаются в сравнении с ним
Если есть деньги, то Акустика и Уад самые годные сейчас и то не все подряд, ещё Акустика требует ёба пука, а у Уад плагины дорогущие и с наислабейшим дсп уровня пентиум 4
>ЫЫЫ, МАМ, А Я ВОТ САМ НАУЧИЛСЯ, НА КУРСЫ НЕ ПОШЁЛ И 10000 НА ПИДОРСКУЮ КЕПКУ ПОТРАТИЛ))
Молодец, что сам изобрел велосипед
>втыкаешь гитару в звуковуху и записываешь. Ну, вообще, нужен ещё эмулятор комбоусилителей/педалек
Вроде все понятно, роликов на ютюбе нашел много.
Но вопрос: а если комбик есть и педальки имеются, несколько штук. Как это записать? Эмуляторы это гуд, но хотелось бы свои педальки использовать.
Через инструментальный вход звуковухи или как лучше через дибокс в линию.
Ещё когда подключаешь комбики и педали к звуковухе могут быть проблемы с заземлением и хамом, если в квартире не проведено заземление или есть grounding loop на компе/комбике/гитаре/пилоте, тогда нужно дибокс с ground lift покупать, ну или заземление делать
Классическая схема: гитару в педали, педали в комбик, комбик снимаешь микрофоном. Таких видео не нашёл чтоли?
>Как это записать? Эмуляторы это гуд, но хотелось бы свои педальки использовать.
Ну втыкай да записывай. Можешь в один микрофон, а можно сразу в два. Рецепта записи одного нет, но тебе должно как минимум нравится как звучит. Выбери место, где комбик лучше всего звучит, там подрубай свои педальки, настраивай и записывай.
почему это начинается без моего ведома в любой момент, а так же почему это происходит бесконечно.
бле, но это длиться бесконечно, я не могу работать с дорожкой.
если нажать на крестик, то дорожка перестанет проигрываться.
ебанное говно.
https://2ch.hk/mus/res/625424.html (М)
https://2ch.hk/mus/res/625424.html (М)
https://2ch.hk/mus/res/625424.html (М)
https://2ch.hk/mus/res/625424.html (М)
https://2ch.hk/mus/res/625424.html (М)
https://2ch.hk/mus/res/625424.html (М)
https://2ch.hk/mus/res/625424.html (М)
https://2ch.hk/mus/res/625424.html (М)
https://2ch.hk/mus/res/625424.html (М)
Я если честно даже не знаю что у тебя за DAW. В настройках наверняка можно отключить
Кабинет легко можешь собрать, например. Это коробка + динамик с гнездом для провода. Более того, можешь нихуево съэкономить на брендах, сборке и материалах. А усилитель можно приобрести отдельно https://www.muztorg.ru/product/A044639
Зачем ему фазоинверторы? Там внутри четвертая полоса работает в стенку?
Суть в том, что звук получается без реверберации безжизненный и дохуя сухой. Как будто звук у тебя в башке звучит. Тебе придётся добавлять пространство плагинами, но натуральную реверберацию сложно воссоздать на компе. Можно реампингом потом сделать интересный реверб в каком-нибудь длинном пустом коридоре или в спорт зале если тебе охота заморочиться с этом.
Поэтому даже самая неправильная комната звучит лучше каморки напичканной паралоном.
Тебе какую именно библиотеку? Имени В. И. Ленина?
Не слушай ебланов что ответили ранее.
Секрет простой:
1. Задранные низы на всей установке.
2. Правильно подобранный рум.
3. Резкий релиз на компрессоре, практически моментальный. Гугли как обрабатывались ударные в 80-х. Тут то же, только в меньшей степени.
В итоге получаются классические хип-хоп барабаны, которые так любят всякие хисторы и любители нигро-музла.
ебать ты говноед ))0 сириусли
пробывал увеличить. что на 512, что на 2048 треск остаётся. в принципе он должен быть, так как пк слабый. по сути, если просто включить трек и не перематывать его, то всё нормально вучит, так что треск не проблема.
постараюсь русским языком объяснить:
когда инструмент начинает играть свою партию заранее
такое ещё часто с перкуссией делают
например, если уж утрировать, в поп-музыке часто такой эффект накладывают на рабочий/хэндклэп
надеюсь, понятно объяснил
Это копия, сохраненная 9 июня 2019 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.