wonderboy Postat 28 oktober 2004 Postat 28 oktober 2004 Jag arbetar som ljudlärare på Medieprogrammet, Ale Gymnasium. Jag har 5 G4:or och Protools 6.4. När vi för tre år sedan köpte ny utrustning (Protools och Mac) var två killar från leverantören här och installerade produkterna och körde lite grundutbildning med mig. Den ena förordade att jag skulle köra "Normalize"-funktionen på allt jag spelade in. Speciellt viktigt var det när man dubbade gitarrer, sång, kör etc. Den andra killen förordade att jag inte gjorde det eftersom "det ändrar karaktären på ljudfilen". Han menade att man kunde se det om man tittar på ljudfilen och i detta avseende får jag hålla med honom men innebär det att ljudet förändras eller är det bara en grafisk bieffekt på skärmen. Ibland tycker jag att ljudet förändras, ibland inte. Vad säger Ni?
jkn Postat 28 oktober 2004 Postat 28 oktober 2004 Ibland tycker jag att ljudet förändras, ibland inte. Vad säger Ni? tja Är lekman men tror mig ha lösningen. Min erfarenhet är att man skall använda normalize-funktionen så sällan som möjligt. Max volym skall alltid eftersträvas vid själva inspelningen däremot. Om slutmixen enbart består av ett eller ett par spår kanske normaliseringen inte upplevs som så störande, men har du ett projekt med en stor mängd audiospår som skall mixas ned till en masterbus, kan detta vara störande. I digitalsammanhang är det nämligen så att ad/da-omvandlarna alltid lägger till ett minimalt digitalt brus, därför skall ingångsvolymen alltid ligga så nära den digitala nollan som möjligt. Låt säga att du spelat in sexton kanaler alldeles för lågt och sedan normaliserar varje enskilt spår höjs brus och missljud och multipliceras sedan 16 gånger i masterbussen.
Lindh Postat 28 oktober 2004 Postat 28 oktober 2004 Det verkar ju lita lustigt att rekommendera att man ska normalisera allt!? Radiojournalister brukar använda normalize-funktionen rätt flitigt men å andra sidan brukar inte deras ´synkar´fokusera särskilt mycket på dynamiska förhållanden. Bättre att se över inspelningsnivåer, instämmer.
Tokas Postat 28 oktober 2004 Postat 28 oktober 2004 Varför inte bara normalizera när man behöver det, eller när man tycker att det känns lättare? Det finns ju inget "måste". =P
slaptap Postat 28 oktober 2004 Postat 28 oktober 2004 Varför inte bara normalizera när man behöver det, eller när man tycker att det känns lättare? Det finns ju inget "måste". =P Håller med här. Jag använder funktionen när jag behöver den. Speciellt vid tillfällen då man håller på med flera låtar samtidigt och vill ha samma mix/ljudbild på samtliga. Då är det praktiskt att kunna ha samma inställning på alla reglage och rattar. Men som sagt, det är tillfällena som avgör det. 😉
Claes Holmerup Postat 28 oktober 2004 Postat 28 oktober 2004 Det man behöver hålla i huvudet, är egentligen att normalisering ökar nivån så att topparna kommer upp på max och resten av musiken åker upp ihop med det - MEN också att bruset samtidigt dras upp precis lika mycket och därför riskerar åka upp på en störande hög nivå, så man ska vara lite försiktig... Om man normaliserar alla spår för att sedan dra ner vissa av dem i mixen, så har man ju dessutom gått igenom en DSP-process extra, helt i onödan. Använd funktionen med förnuft, helt enkelt... 😉 Spelar man normalt in i 24-bit eller 32-bit FP upplösning, så är det dock oftast inga problem, eftersom bruset då hålls på en relativt låg nivå från början om man inte spelar in alldeles för lågt - och om man har bra omvandlare etc... Med dåliga omvandlare och dåliga analoga ingångar blir problemet förstås också större...
Andreas L Postat 28 oktober 2004 Postat 28 oktober 2004 [Tidigare tråd] om samma ämne. Där hittar du mina och andras synpunkter på normalisering och för/nackdelar med detta.
wonderboy Postat 29 oktober 2004 Trådstartare Postat 29 oktober 2004 Jag tackar för engagemanget. Dock behöver jag nog förklara mig lite bättre. Det är, som nån av Er skrev, så att Normalize fungerar så att den letar upp högsta enskilda ljud (peak) och höjer den till det värde man ställt in, t ex 98%. Det innebär att peaken är 2% från 0-punkten. Den gör inget med dynamiken. Det är också så att den inte är tänkt för att "rädda" inspelningar som blivit alldeles för låga. Det är oerhört viktigt att man försöker spela in så högt det går. Problemet kvarstår dock. Titta i inzoomat läge riktigt noga på en vald del av en ljudfil. Normalisera sedan denna del. Titta nu noga. Ser Du att, förutom att ljudvågen ligger högre vilket är naturligt, så har den, grafiskt, ändrat karaktär. Den ser inte lika mjuk och följsam ut. Det kan också vara så att en kurva som såg ut på ett visst sätt nu har ändrat karaktär. Påverkas också ljudet? Jag har svårt att avgöra det. Ibland får jag en känsla av att det gör det, ibland inte. Eller är det bara ett rent grafiskt problem på skärmen som inte påverkar ljudet? Varför använda Normalize om man ändå försöker spela in så högt det går? Om man gör detta på vart och ett av 32 spår så gör det en väsentlig skillnad. Realtidspluggar jobbar ännu lite bättre för de har en, lite men ändå, högre signal att jobba med och det går, i sista änden att få ut en eller fler db från mastern. Detta misstänker jag höra ihop med att t ex kompressorer jobbar optimalt och ljudet då blir jämnare.
Recommended Posts
Bli medlem (kostnadsfritt) eller logga in för att kommentera
Du behöver vara medlem för att delta i communityn
Bli medlem (kostnadsfritt)
Bli medlem kostnadsfritt i vår community genom att registrera dig. Det är enkelt och kostar inget!
Bli medlem nu (kostnadsfritt)Logga in
Har du redan en inloggning?
Logga in nuLogga in här.