Ken Kängström Postat 21 november 2004 Postat 21 november 2004 Förklara vad den stora skildnaden mellan kompressering och normalisering är. Min lärares papper påstår att normalisering är det samma som kompressering. Stämmer det inte att normalisering trycker upp vågformen till max 0 db? MVH//Kenny
Björn Olsberg Postat 21 november 2004 Postat 21 november 2004 Komprimering och normalisering är inte samma sak, som du säger. Normalisering påverkar inte ljudets dynamik, vilket komprimering gör.
Ken Kängström Postat 21 november 2004 Trådstartare Postat 21 november 2004 Tack så mycket. Nu ska han få höra =).
Vallhagen Postat 21 november 2004 Postat 21 november 2004 (redigerat) Bättre fly än illa fäkta! Lärare är det enda släktet som aldrig medger att de har fel! ...finns det över huvud taget ett ord som heter "kompressering"? om du nu tänker ifrågasätta menar jag? /Bengan ...snart behörig lärare... Edit: Äsch nu glömde jag förklara skillnaden.. men Olsberg han ju före medans jag skrev! Normaliserar gör man i en massa mät- och matematiska sammanhang. Har inget direkt med komprimering att göra. I gamla Cakewalk (nya oxå?) vet jag att funktionen "normalize" - som du säger - blåste upp ljudspår mot 0dB, utan att förändra dynamiken. Redigerat 21 november 2004 av Vallhagen
Ken Kängström Postat 21 november 2004 Trådstartare Postat 21 november 2004 hehe va konstigt det känns att överbevisa en lärare. Oj. jag menade komprimering. Läste kompressering nån gång så det har fastnat i tangenterna =).
Majken Postat 22 november 2004 Postat 22 november 2004 Ett förtydligande: Normalisering: En ljudfil analyseras varpå peak nivån registreras (exempelvis -2.1dB) Normaliseringen justerar sedan så att ljudmaterialet förstärks eller försvagas för att peaknivån skall matcha en vald nivå. Ofta är detta 0dB vilket i exemplet skulle göra en förstärkning på hela ljudfilen på 2.1dB Komprimering: En ljudfil analyseras där ett tröskelvärde ställs in. Allting ovanför tröskelvärdet kommer att försvagas i nivå vilket minskar skillnader i dynamik. Hur mycket det försvagas styrs av en ratio. Vid höga ratiovärden kallas effekten för limiter. kompressoreffekter kallas ofta för dynamikdödare vilket stämmer bra då de starka nivåerna sänks medan de svaga nivåerna förblir oförändrade vilket gör att den komprimerade ljudfilen har en mindre nivåskillnad mellan de svagaste och starkaste partierna. /Majken
Lindeberg Postat 22 november 2004 Postat 22 november 2004 Vissa program (t ex Sound Forge 6.0 och över) normaliserar ju a la rms och sänker innan det clippar / vid förutbestämda nivåer. Då kan man ju tala om en sorts komprimering...?
maxmaxmax (oregistrerad) Postat 22 november 2004 Postat 22 november 2004 (redigerat) EDIT: ångrade mig Redigerat 22 november 2004 av maxmaxmax
Curry_Man Postat 22 november 2004 Postat 22 november 2004 (redigerat) apropå normalisering, När ni hårddiskinspelar så förstår jag att man skall försöka spela in så starkt som möjligt utan att det klipper, lite svårare är det när det gäller mjukare ljud som pads och bells att uppnå 0db, skall man normalisera dessa ljud efteråt? Redigerat 22 november 2004 av Curry_Man
Mr Keys Postat 22 november 2004 Postat 22 november 2004 Vissa säger rakt nej till normalisering, andra gör det inte. Kort sagt....normalisera eller höja volymen på regeln i Cubase/logic/protools innebär i princip samma sak....det blir en "försämring" i upplösningen........ Det är ju dumt/onödigt att normalisera först, för att sedan ändå sänka volymen på regeln..... Men om du hamnar i situationen att du inte kan få upp volymen tillräckligt på regeln, så kan det ju vara önskvär att normalisera ljudfilen....
Mr Keys Postat 22 november 2004 Postat 22 november 2004 Så egentligen, om man ska vara riktigt petig, skall en mix ser ut så att alla reglar i cubase(eller va fan man nu kör) ligger på under 0db.... Eller, egentligen borde alla ljud vara inspelade på exakt den volymen de skall ha i mixen kanske....hmm......fast det kan ju bli svårt..... 😛😎 Då dyker ju frågan faktiskt upp.......innebär det, teoretiskt, en försämring att sänka volymen digitalt.....?? Det borde bli nått knas med bitarna, för det är ju fortfarande bara 24bitar...eller 16, eller vad man nu kör!?
android Postat 22 november 2004 Postat 22 november 2004 När ni hårddiskinspelar så förstår jag att man skall försöka spela in så starkt som möjligt utan att det klipper, lite svårare är det när det gäller mjukare ljud som pads och bells att uppnå 0db, skall man normalisera dessa ljud efteråt? Hmmm... Förstår inte varför nåt synthljud skulle va svårt att få tillräcklig volym på vid inspelningen? Det är väl bara att höja volymen! Det som kan innebära problem är väl oftast varierande ljud som t.ex. sång, där man är rädd att det ska bli för högt och dista och därför ofta håller ner insignalen lite grann...
android Postat 22 november 2004 Postat 22 november 2004 Kort sagt....normalisera eller höja volymen på regeln i Cubase/logic/protools innebär i princip samma sak....det blir en "försämring" i upplösningen........ Det är ju dumt/onödigt att normalisera först, för att sedan ändå sänka volymen på regeln..... Men om du hamnar i situationen att du inte kan få upp volymen tillräckligt på regeln, så kan det ju vara önskvär att normalisera ljudfilen.... Sonar har dels en vanlig volym-regel, men även en "trim" där man kan höja sänka volymen lite mer radikalt. Ganska fiffigt, för då slipper man normalisera en för lågt inspelad grej bara för att man vill ha upp den ett par dB.
D Vibe Postat 22 november 2004 Postat 22 november 2004 Hur kan man överhuvudtaget vara lärare om man blandar ihop de där uttrycken? 😄 ... Iofs så fanns väl inte normalisering innan det digitala ljudets värld? /Daniel
wonderboy Postat 22 november 2004 Postat 22 november 2004 Så egentligen, om man ska vara riktigt petig, skall en mix ser ut så att alla reglar i cubase(eller va fan man nu kör) ligger på under 0db....Eller, egentligen borde alla ljud vara inspelade på exakt den volymen de skall ha i mixen kanske....hmm......fast det kan ju bli svårt..... 😄😎 Då dyker ju frågan faktiskt upp.......innebär det, teoretiskt, en försämring att sänka volymen digitalt.....?? Det borde bli nått knas med bitarna, för det är ju fortfarande bara 24bitar...eller 16, eller vad man nu kör!? Nej, jag tycker inte Du ska spela in på den volym Du tänkt att ljuden skall ligga på i mixen. Det absolut viktigaste är att försöka spela in alla ljud lika högt. En viskande röst skall spelas in lika nära nollgränsen som ett avgrundsvrål. Jag kommer på två anledningar till detta: Den ena att få så stor skillnad mellan brus och signal som möjligt, den andra att få ljudet inspelat med så många bitar som möjligt. Det är inte så att Du försämrar bittalet på Ditt ljud om Du sedan sänker det i mixen. Den totala nivån på mixen skall ju även den sen ligga så nära nollan det någonsin går. Att spela in på den nivå man sen tror att man vill ha det i mixen känns lite låst. Saker händer när man spelar in och plötsligt vill man radikalt förändra ljudbilden. Då är det gott att veta att man varit noggrann och spelat in sina ljud med bästa möjliga nivåer. Detta är bara en åsikt, säkert felaktig, men ändå...
Mr Keys Postat 22 november 2004 Postat 22 november 2004 Jo, jag vet att man ska göra detta, och det är väl så de flesta arbetar. Självklart kan man inte sitta och fundera på vilken volym spåret skall ha i den slutliga mixen....det var inte så seriöst skrivet av mig. 😎 Men jag tänkte rent teoretiskt.....det innebär ju en försämring att höja volymen digitalt.....och jag tänkte att det borde, fast jag kan ju ha fel, då även innebära en försämring att sänka volymen.......rent teoretiskt......inget hörbart, men ändå.... eller? 😄 Men det är ju som du säger, man kommer närmre bruset då, och det vill man kanske inte.... hmm....känns som jag är ute på hal is, men.....bara spekulerar lite.....!? 😛
wonderboy Postat 22 november 2004 Postat 22 november 2004 I och med att Du spelat in ljudet nära noll så behöver Du INTE bekymra Dig för brus på det spåret längre. Det enda som kan "skapa" brus i mixningsläget är om Din färdiga mix blir på tok för låg. Jag fattar att Du menar att det aktuella spåret blir lägre och därför skulle tappa bitar men Du måste betänka att totalnivån på Din mix ändå använder alla 16 eller 24 bitar och då är Du hemma. Det enskilda ljudet tappar aldrig några bitar när det väl finns på disk. När Du sen mixar, blir ju den mixen så småningom, t ex, 16 b / 44,1 Khz stereospår för att brännas som en WAV-fil eller liknande. Då tar ju datorn emot ett nytt ljud som ska bli så många bitar som möjligt. Alla gamla individuella spår är ju "säkrade" i och med att Du spelat in dem bra. Nu blir det viktiga att trycka upp mixen nära noll.
Rapid Wanker Postat 22 november 2004 Postat 22 november 2004 Om man tänker rent teoretiskt så borde man väl inte försämra ljudet om man normaliserar det uppåt. Då använder man ju flera bitar vilket borde kunna återge den sämre upplösning man har vid låg volym och färre bitar. Om man nu av någon anledning skulle normalisera ner ljudet i nivå torde väl upplösningen däremot bli lidande...eller...hmmm?? Ska nog sluta tänka teoretiskt för att slippa härdsmälta 😄
Stinkey (oregistrerad) Postat 22 november 2004 Postat 22 november 2004 En lärare som kan ge sig och erkänna ett fel? Finns inte.
Claes Holmerup Postat 22 november 2004 Postat 22 november 2004 (redigerat) Teoretiskt sett, så innebär varje digital signalbehandling en försämring av ljudkvaliteten, eftersom alla beräkningar innehåller approximationer. Det är bl a därför det är bättre att jobba i högre upplösning än vad man egentligen kanske skulle ha behövt. Om det sedan verkligen hörs i slutänden är en helt annan fråga... 😆 Det finns faktiskt folk som förespråkar att man ska spela in på den nivå som man planerar att ligga på vid mix, så att man slipper röra reglarna vid mix och på så sätt minskar risken för negativa effekter av signalbehandlingen, med avrundningsfel och digitala artefakter. Jag ställer mig dock frågande till om det verkligen har någon reell betydelse... När det gäller normalisering, så höjer man ju allt lika mycket - även bruset. Det kan vara negativt även om man bortser från den teoretiska försämringen på grund av DSP-operationer, eftersom bruset kan åka upp på en klart hörbar nivå om det har varit ohörbart innan normaliseringen. Det är enligt min mening alltid bäst att spela in så högt som möjligt - och jag håller mig för säkerhets skull på en hög insignal trots att jag alltid spelar in med 32-bit FP - bar aför att vara på den säkra sidan... 😛 Redigerat 22 november 2004 av Claes
insolitus Postat 22 november 2004 Postat 22 november 2004 En lärare som kan ge sig och erkänna ett fel? Finns inte. När jag gick i femman så hade jag mer rätt än min lärare... Efter lite övertalning insåg hon att jag hade rätt! 😛
Ken Kängström Postat 22 november 2004 Trådstartare Postat 22 november 2004 insolitus: Vad redde ni om?
insolitus Postat 22 november 2004 Postat 22 november 2004 Utvecklingen av flygplan under de två världskrigen. 😆
Klangfix Postat 23 november 2004 Postat 23 november 2004 Så egentligen, om man ska vara riktigt petig, skall en mix ser ut så att alla reglar i cubase(eller va fan man nu kör) ligger på under 0db....Eller, egentligen borde alla ljud vara inspelade på exakt den volymen de skall ha i mixen kanske....hmm......fast det kan ju bli svårt..... 😉😎 Då dyker ju frågan faktiskt upp.......innebär det, teoretiskt, en försämring att sänka volymen digitalt.....?? Det borde bli nått knas med bitarna, för det är ju fortfarande bara 24bitar...eller 16, eller vad man nu kör!? Det blir en försämring då man gör en digital ljudvolymsänkning, på samma sätt som en bild på skärmen får sämre synlig upplösning om den visas på en mindre yta av skärmen. Dessutom blir det avrundningsfel vid varje volymändring som teoretiskt genererar kvantiseringsdistorsion, men om det är hörbart eller ej, beror nog på volymförändringens storlek. I ett extremfall där man först sänker volymen med 80dB för att sen dra upp den +80dB igen, så kommer ljudet att innehålla en brusnivå på i samma storleksordning som det intressanta ljudet, förutsatt att vi pratar om ett 16-bitars system. En höjning av ljudnivån tillför generellt betydligt mindre distorsion och knappast någon upplösningsändring i jämförelse med en sänkning. Alltså kan man lugnt normalisera om det nu finns något skäl att göra det.
Majken Postat 23 november 2004 Postat 23 november 2004 Det låter ju faktiskt helt korrekt. Låt som exempel säga att vi ha en ljudfil med en datorgenererad sinusvåg som peakar på -10dB. Bitdjupet är 16bitar och bruset ligger vid det teoretiska -96dB. Ljudfilen förstärks 10dB vilket leder till att peaknivån är 0dB och brusnivån -86dB. När ljudfilen återigen försvagas 10dB kommer nivåerna att vara samma som ursprungsfilen. Ljudfilen försvagas nu istället 10dB vilket resulterar i att peaknivån är -20dB medan bruset ligger kvar vid -96dB. Om ljudfilen förstärks 10dB kommer nu peaknivån att åter bli -10dB men bruset kommer att ligga på -86dB, alltså 10dB högre. /Majken
MusicGene Postat 23 november 2004 Postat 23 november 2004 För att sammanfatta vad folk skrivit: Normalisering = samma sak som att höja volymen, fast datorn kollar efter peakvärdet i ljudfilen och höjer volymen så peakvärdet är så högt det går. Compression = minskar dynamikomfånget => kan pressa ut mer ljudenergi, dvs volymen blir högre.
freddo Postat 23 november 2004 Postat 23 november 2004 Låt som exempel säga att vi ha en ljudfil med en datorgenererad sinusvåg som peakar på -10dB. Bitdjupet är 16bitar och bruset ligger vid det teoretiska -96dB. Ljudfilen förstärks 10dB vilket leder till att peaknivån är 0dB och brusnivån -86dB. När ljudfilen återigen försvagas 10dB kommer nivåerna att vara samma som ursprungsfilen. Ljudfilen försvagas nu istället 10dB vilket resulterar i att peaknivån är -20dB medan bruset ligger kvar vid -96dB. Skulle Du kunna vara så vänlig o förklara varför bruset sänks första gången men inte andra? 😲 Jag skulle inte ätit den där feta kebabpizzan till lunch... 😑
MusicGene Postat 23 november 2004 Postat 23 november 2004 Skulle Du kunna vara så vänlig o förklara varför bruset sänks första gången men inte andra? p.g.a att minsta bruset är minst -96dB vid 16 bitar. Det kan inte bli mindre. Med brus menas alltså det digitala fel som finns. För er som har svårt att hajja kvantiseringsfel: Tänk att du bara få använda heltal. Ta talet 1000 och dela med 21. Då får du ett tal ungefär som 47,619047619...... vilket då blir avrundat till heltalet 48. multiplicera det med 21 och du har 1008 och inte 1000 som du hade viljat. Ditt bitdjup i ljudfilen anger "hur många decimaler du kan ha med" på varje tal och kommer alltså ge bättre resultat när du skall minska volymen. Äsch! Fan vad jag svamlar. Nu är jag försenad åxå!!
Fredster Postat 24 november 2004 Postat 24 november 2004 Det låter ju faktiskt helt korrekt. Låt som exempel säga att vi ha en ljudfil med en datorgenererad sinusvåg som peakar på -10dB. Bitdjupet är 16bitar och bruset ligger vid det teoretiska -96dB. Ljudfilen förstärks 10dB vilket leder till att peaknivån är 0dB och brusnivån -86dB. När ljudfilen återigen försvagas 10dB kommer nivåerna att vara samma som ursprungsfilen. Ljudfilen försvagas nu istället 10dB vilket resulterar i att peaknivån är -20dB medan bruset ligger kvar vid -96dB. Om ljudfilen förstärks 10dB kommer nu peaknivån att åter bli -10dB men bruset kommer att ligga på -86dB, alltså 10dB högre. /Majken Bra inlägg som vanligt Majken! Den nya generationens sequencers har dock sk floating bit eller floating point vilket innebär att även om du sänker en "kanal" med säg 10 dB så kommer bitdjupet att vara oförändrat. Hur väl detta stämmer i praktiken vet jag dock inte utan återigen så är det rent teoretiskt. Nån som vet detta bättre? //Fredster
Recommended Posts
Bli medlem (kostnadsfritt) eller logga in för att kommentera
Du behöver vara medlem för att delta i communityn
Bli medlem (kostnadsfritt)
Bli medlem kostnadsfritt i vår community genom att registrera dig. Det är enkelt och kostar inget!
Bli medlem nu (kostnadsfritt)Logga in
Har du redan en inloggning?
Logga in nuLogga in här.