monkeystrike Postat 21 september 2005 Postat 21 september 2005 satt å bläddrade i manualen igår för första gången i princip å upptäckte infon om dithering.. satt å läste lite kort å gick sen å la mig. nu sitter jag långt hemifrån å har inte tillgång till lektyren 😛 men kan inte sluta noja runt ang. dithering.. kan nån förklara vad det är å hur det funkar med vanlig svenska? tacksam för hjälp
Piccazzo Postat 21 september 2005 Postat 21 september 2005 Matematiska algoritmer för att konvertera ned 24-32 bits / (valfri HZ ) till 16 bit / 44,4 khz som är vad en Audio CD är. Ditheringen skall då packa ihopp detta så med minimal kvalitets försämring. Sedan kommer jag inte ihåg skillnaden mellan POW-1 och POW-2 Olika algoritmer som dithrar på olika sätt är det i alla fall. Detta sker Enbart i den absolut sista nedmixningen. Tex. vid export till Mastring eller Mixning på annan ort.
Claes Holmerup Postat 21 september 2005 Postat 21 september 2005 Vad som händer, är att man lägger till brus för att kunna få högre upplösning på väldigt låg volym. Det är alltså inget som märks i låten, utan i princip bara vid fade-out...
freddie Postat 21 september 2005 Postat 21 september 2005 Alltså ingen dithering under mix överhuvudtaget. När du är färdigmixad och skapar ditt slutliga track så kan du aktivera ett dithering vertyg. Sen ska det bli jättebra... Har du flera olika typer att välja på så ta det första. Glömmer/struntar du i det så märker ingen någon skillnad ändå. 😕
monkeystrike Postat 21 september 2005 Trådstartare Postat 21 september 2005 (redigerat) ok. men jag spelar in audio med 16 bit å alla mina samplingar i halion är 16-bit å jag gör mina audio mixdown i 16 bit.. hela jag är ganska 16 bit 🙂 alltså stöter jag inte på vare sig 24 bit eller 32 bit eller gud vet vad nån gång under låtmakarprocessen såvitt jag vet.. kan jag alltså avstå från hela dendär dithering-bitdjup-djunglen? *edit* jaha Cubase SX använder 32 bit internt. vad menas med det? alla audiofiler osv jag jobbar med är som sagt i 16 bit ändå. det var ju oxå fan.. det blir till att slänga på en såndär dither-sak på master out ändå då antar jag?? Redigerat 21 september 2005 av monkeystrike
Claes Holmerup Postat 21 september 2005 Postat 21 september 2005 Du vinner ändå vid fade-out om du använder Dithering, så det bör användas vid slutmix alternativt Mastering.
Rian Postat 21 september 2005 Postat 21 september 2005 Jag har en fråga till här!! Jag spelar in och mixar i 24bit i Cubase, exporterar i 24 bit till Wavelab för master. sedan sparar jag låten som 16 bitar för att kunna bränna. Använder alltså inte dithering i wavelab för att konvertera till 16. missar jag något då? Jag trodde att hela idéen var att behålla 24 bitar så långt det går för att bästa möjliga resultat skall uppnås? En annan sak är ju att jag hör faan inte skillnaden på inspelningar i 16 eller 24 bitar är det mina öron det är fel på eller slösar jag med hårddiskutrymme i onödan? /R
Fredster Postat 21 september 2005 Postat 21 september 2005 Jag har en fråga till här!! Jag spelar in och mixar i 24bit i Cubase, exporterar i 24 bit till Wavelab för master. sedan sparar jag låten som 16 bitar för att kunna bränna. Använder alltså inte dithering i wavelab för att konvertera till 16. missar jag något då? Jag trodde att hela idéen var att behålla 24 bitar så långt det går för att bästa möjliga resultat skall uppnås? En annan sak är ju att jag hör faan inte skillnaden på inspelningar i 16 eller 24 bitar är det mina öron det är fel på eller slösar jag med hårddiskutrymme i onödan? /R Anledning till att du ska använda 24-bitar är att du får mer dynamik när du spelar in. Dvs du behöver inte pressa signalen så nära max som möjligt för att få så lite brus med som möjligt. Du ska givetvis hålla 24-bitar tills det att du ska bränna ned det på en skiva, när du har gjort slutmastern så lägger du på dither när du konverterar från 24 till 16. Att du inte hör någon skillnad kan bero på att du har bra nivåer när du spelar in. Jag använder 16 bitar väldigt ofta och jag kan GARANTERA dig att ingen hör att det är inspelat i 16-bitar hela vägen.
Claes Holmerup Postat 21 september 2005 Postat 21 september 2005 (redigerat) ...men man kan tillåta sig att vara lite slarvigare utan att det straffar sig senare, om man spelar in i 24-bit eller 32-bit FP... Alla processeringar du gör sedan i den digitala världen, kommer att försämra dynamiken - och av den orsaken är det bättre att hålla hög dynamik från början och därmed slippa tänka på det. Enda gången du kan höra någon skillnad med eller utan Dither, är om du gör en fade-out, när nivån börjar komma ner riktigt lågt. Redigerat 21 september 2005 av Claes
monkeystrike Postat 21 september 2005 Trådstartare Postat 21 september 2005 Du vinner ändå vid fade-out om du använder Dithering, så det bör användas vid slutmix alternativt Mastering. jag fattar, men som sagt.. jag använder ju mig bara av 16 bit ändå.. vad jag undrar nu är om cubase interna 32 bits-rajtantajtan påverkar mina 16 bitsinspelningar vilket i sin tur "tvingar" mig till att använda dithering på nermixning ändå? eller det kanske är nått för steinbergsupporten. jag antar du menar att jag ska slänga på dithering ändå, för att vara på den säkra sidan? tack för alla svar, tips osv!
Rian Postat 21 september 2005 Postat 21 september 2005 Du ska givetvis hålla 24-bitar tills det att du ska bränna ned det på en skiva, när du har gjort slutmastern så lägger du på dither när du konverterar från 24 till 16. Tack! Jag fattar, Men är det någon skillnad om jag kör på en dither innan jag trycker på render i wavelab, eller struntar i det och bara väljer save as 16 bit? /R
Linus Postat 21 september 2005 Postat 21 september 2005 Men är det någon skillnad om jag kör på en dither innan jag trycker på render i wavelab, eller struntar i det och bara väljer save as 16 bit? Kör du konvertering till 16 bit utan dither, struntar datorn i de sista 8 bitarna och avrundar till närmaste värde i 16-bitarsmiljön. Vid mycket svaga ljudnivåer uppstår ett kvantiseringsbrus, och ditherns brus kan alltså maskera bruset. Vid starka nivåer kommer du inte höra skillnad på 16-bitars ljud med/utan dither. Om du tycker att det låter OK utanför dithern, och ifall kvantiseringsbruset inte är nåt du märker av så strunta i dithern... 😱😄
Claes Holmerup Postat 21 september 2005 Postat 21 september 2005 Du ska givetvis hålla 24-bitar tills det att du ska bränna ned det på en skiva, när du har gjort slutmastern så lägger du på dither när du konverterar från 24 till 16. Tack! Jag fattar, Men är det någon skillnad om jag kör på en dither innan jag trycker på render i wavelab, eller struntar i det och bara väljer save as 16 bit? /R Dither är alltid sista åtgärden - så det ska ligga sist bland effekterna och finnas med när du renderar din Master. Då behåller du nämligen din 24-bitsupplösning ända fram och reducerar inte förrän det är dags att dra ner till CD-formatet.
Claes Holmerup Postat 21 september 2005 Postat 21 september 2005 Du vinner ändå vid fade-out om du använder Dithering, så det bör användas vid slutmix alternativt Mastering. jag fattar, men som sagt.. jag använder ju mig bara av 16 bit ändå.. vad jag undrar nu är om cubase interna 32 bits-rajtantajtan påverkar mina 16 bitsinspelningar vilket i sin tur "tvingar" mig till att använda dithering på nermixning ändå? eller det kanske är nått för steinbergsupporten. jag antar du menar att jag ska slänga på dithering ändå, för att vara på den säkra sidan? tack för alla svar, tips osv! Den interna hanteringen är 32-bit - man dina ljudfiler innehåller bara 16 bitarsljud. Resterande bitar är nollor - och det fortsätter de vara genom hela processen. Dither lägger du sist vid Masteringen om du gör sådan - eller som sista effekt på master-regeln om du slutmixar och inte tänker Mastra separat...
Fredster Postat 22 september 2005 Postat 22 september 2005 ...men man kan tillåta sig att vara lite slarvigare utan att det straffar sig senare, om man spelar in i 24-bit eller 32-bit FP... 😄 Så sant så sant! 😆 Men som han sa han hör inte skillnad på inspelningar i 16 resp 24 bitar. Många tror ju felaktigt att ljudet "låter" bättre med 24-bits upplösning. Men som sagt, har man gott om utrymme, en bra dator mm så ser jag ingen anledning till att inte spela in med 24 eller32 ftp. Sen har vi diskussionen om samplingsfrekvens...vilket är ett helt annat kapitel (och tråd för den delen) 😉
monkeystrike Postat 22 september 2005 Trådstartare Postat 22 september 2005 (redigerat) Du vinner ändå vid fade-out om du använder Dithering, så det bör användas vid slutmix alternativt Mastering. jag fattar, men som sagt.. jag använder ju mig bara av 16 bit ändå.. vad jag undrar nu är om cubase interna 32 bits-rajtantajtan påverkar mina 16 bitsinspelningar vilket i sin tur "tvingar" mig till att använda dithering på nermixning ändå? eller det kanske är nått för steinbergsupporten. jag antar du menar att jag ska slänga på dithering ändå, för att vara på den säkra sidan? tack för alla svar, tips osv! Den interna hanteringen är 32-bit - man dina ljudfiler innehåller bara 16 bitarsljud. Resterande bitar är nollor - och det fortsätter de vara genom hela processen. Dither lägger du sist vid Masteringen om du gör sådan - eller som sista effekt på master-regeln om du slutmixar och inte tänker Mastra separat... ok då behövs alltså inte dithering överhuvudtaget om jag spelar in i 16 bit och använder 16 bit-samplingar och mixar ner i 16 bit (även fast cubase arbetar med 32 bit internt). men sen använder man en å annan vst synth här å där. å dom arbetar väl i högre bit än 16 oftast? alltså blir en låt i cubase en ljuvlig blandning av 32(internt), 24(vst synthar) å 16 bit(audio å samplingar)... euuoo det snurrar i huvudet.. att det dessutom finns flera olika sorters dither, inställningar å mastringsprogram gör inte saken bättre. antar att människan som kom på att variera bitdjupet är jävligt nöjd 😱😄 *edit* har precis läst till mig att man bör dithra i cubase ändå eftersom effekter osv jobbar i 32 bit.. jaja nu får det räcka med spekulationer! jag slänger på en dither på utljudet när jag mixar ner (mastrar på master out, inte i efterhand) sen får det bära eller brista.. det är ju ändå ingen (förutom galna audiofiler 😄 ) som bryr sig om ljudet i en nerfadning ändå 😄 Redigerat 22 september 2005 av monkeystrike
MusicGene Postat 22 september 2005 Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar.
monkeystrike Postat 22 september 2005 Trådstartare Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar. tja det avgör ju saken.. det hade varit en bra grej med inbyggd dither i cubase om man väljer att bounca ner till 16 bit.. så slipper man leka ljudtekniker å koncentrera sig på att göra musik(!!!) 😱
Fredster Postat 22 september 2005 Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar. Förklara mer! Du menar att för varje fördubbling av spår som spelas upp så ökar bitdjupet med 1 bit? Dvs.....256 spår = 24-bitar. Vad händer (rent teoretiskt) om jag spelar upp så många spår så att det överstiger det interna bitdjupet? Som sagt, du får gärna förklara mer!
hegobald Postat 22 september 2005 Postat 22 september 2005 Vänta nu ett tag.. Är det inte som så att det det är AD/DA omvandlingen ni snackar om nu.. alltså..😉 Om man spelar in ljudmaterial in Cubase med 16 bitar så är det alltså detta ljudmaterials maximala antal bitar innan Cubase börjar tugga på det. Sen så sker all intern ljudbearbetning med 32 bitar i Cubase. Drar du i en volymregel, rattar på en EQ eller skickar genom en VST plugg så sker allt detta i 32 bitar. Alltså bör det vara som så att om man mastrar i Cubase (mixar ner för CD t.ex) så bör man också dithra det hela för 16 bitar. Alternativet är att exportera som 32 bit floating point wave-fil och mastra i Wavelab eller annan liknande audioeditor.
Claes Holmerup Postat 22 september 2005 Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar. Förklara mer! Du menar att för varje fördubbling av spår som spelas upp så ökar bitdjupet med 1 bit? Dvs.....256 spår = 24-bitar. Vad händer (rent teoretiskt) om jag spelar upp så många spår så att det överstiger det interna bitdjupet? Som sagt, du får gärna förklara mer! Då får man sänka volymen på kanalernas reglar, så att inte bussen "överstyrs" med för många bits...
Fredster Postat 22 september 2005 Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar. Förklara mer! Du menar att för varje fördubbling av spår som spelas upp så ökar bitdjupet med 1 bit? Dvs.....256 spår = 24-bitar. Vad händer (rent teoretiskt) om jag spelar upp så många spår så att det överstiger det interna bitdjupet? Som sagt, du får gärna förklara mer! Då får man sänka volymen på kanalernas reglar, så att inte bussen "överstyrs" med för många bits... Vet inte riktigt om det stämmer det där jag. Anta att du spelar upp 4 kanaler med full utstyrning...dvs 16 bitar i detta fallet. Det kommer att innebära att masterbussen klipper....även fast det interna djupet är 24, eller 32.
Dr. D Postat 22 september 2005 Postat 22 september 2005 Hej, Det är alltid så att om man mixar ihop många kanaler som var och en ligger nära 0 dB (fullt utstyrda) så måste man dra ner lite gain på varje kanal (eller masterregeln) så att mixen inte styr över. Att antalet effektiva bitar ökar ju fler kanaler man summerar kommer aldrig ge något problem. Bitdjupet blir bara aldrig bättre än det som mixern jobbar med internt. Tips: ett bra sätt att höra skillnaden med/utan dithering är att bounca till 8 bitar. Effekten blir mycket större då! Utan dither kan det låta riktigt illa om tex reverb svansar eller fade outs. Man får in ett elakt metalliskt skorrande oljud. Med dither försvinner skorrandet, men man lägger till en aningen mer grundbrus. De olika dither algoritmerna ger olika eq på det brus som läggs till. Smarta algoritmer lägger mest brus i de frekvenser där det mänskliga örat uppfattar de minst. Det brus som läggs till är också mycket mindre i en riktig bounce till 16 bitar (typ 48 dB tystare). /D
Fredster Postat 22 september 2005 Postat 22 september 2005 Hej, Det är alltid så att om man mixar ihop många kanaler som var och en ligger nära 0 dB (fullt utstyrda) så måste man dra ner lite gain på varje kanal (eller masterregeln) så att mixen inte styr över. Att antalet effektiva bitar ökar ju fler kanaler man summerar kommer aldrig ge något problem. Bitdjupet blir bara aldrig bättre än det som mixern jobbar med internt. Tips: ett bra sätt att höra skillnaden med/utan dithering är att bounca till 8 bitar. Effekten blir mycket större då! Utan dither kan det låta riktigt illa om tex reverb svansar eller fade outs. Man får in ett elakt metalliskt skorrande oljud. Med dither försvinner skorrandet, men man lägger till en aningen mer grundbrus. De olika dither algoritmerna ger olika eq på det brus som läggs till. Smarta algoritmer lägger mest brus i de frekvenser där det mänskliga örat uppfattar de minst. Det brus som läggs till är också mycket mindre i en riktig bounce till 16 bitar (typ 48 dB tystare). /D Visst det köper jag! Sjävklart blir det effektiva bitdjupet högre om du adderar kanaler men jag hängde inte med på MusicGene's förklaring. Om det är så som jag uppfattar honom så skulle du kunna köra full utstyrning på 256 kanaler utan att dra ned masterregeln om din sequencer har en intern "upplösning" på 24-bitar.....det går inte ihop.
MusicGene Postat 22 september 2005 Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar. Förklara mer! Du menar att för varje fördubbling av spår som spelas upp så ökar bitdjupet med 1 bit? Dvs.....256 spår = 24-bitar. Vad händer (rent teoretiskt) om jag spelar upp så många spår så att det överstiger det interna bitdjupet? Som sagt, du får gärna förklara mer! Du vill ha en förklaring och här kommer den. Om maximala amplituden för vågformen i det färdiga spåret kan vara 0dB och du har två vågformer (anta att de är identiska) som har maximala amplituden 0dB (då på samma ställe) blir amplituden dubbelt så hög som tillåten amplitud. Därför måste du sänka volymen till hälften på båda vågformerna. När du halverar amplituden behöver du en bit till för att representera den halveringen utan att förlora data. Därför använder ljudprogrammen högre intern representation av ljuden än vad de är inspelade i.
VacUm Postat 22 september 2005 Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar. Förklara mer! Du menar att för varje fördubbling av spår som spelas upp så ökar bitdjupet med 1 bit? Dvs.....256 spår = 24-bitar. Vad händer (rent teoretiskt) om jag spelar upp så många spår så att det överstiger det interna bitdjupet? Som sagt, du får gärna förklara mer! Du vill ha en förklaring och här kommer den. Om maximala amplituden för vågformen i det färdiga spåret kan vara 0dB och du har två vågformer (anta att de är identiska) som har maximala amplituden 0dB (då på samma ställe) blir amplituden dubbelt så hög som tillåten amplitud. Därför måste du sänka volymen till hälften på båda vågformerna. När du halverar amplituden behöver du en bit till för att representera den halveringen utan att förlora data. Därför använder ljudprogrammen högre intern representation av ljuden än vad de är inspelade i. Men det där stämmer ju inte i praktiken. Om jag har två identiska ljudfiler på två olika spår i min sequencer och dom ligger runt 0dB och reglarna står på 0dB så klipper det ju. Att ljudmotorn "ökar på 1 bit per spår" låter väldigt konstigt i mina öron. Vad jag skulle kunna tänka mig är att den summerar dom 16 bitarna in i ett 32bitarstal för att sedan räkna ner tillbaka till 16 bitar efter sista summeringen. Alltså 1 normaliserat 16bitars spår + 10 svaga 16-bitarsspår blir INTE ett 26bitars tal. Fast detta är inget jag med säkerhet vet.
MusicGene Postat 22 september 2005 Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar. Förklara mer! Du menar att för varje fördubbling av spår som spelas upp så ökar bitdjupet med 1 bit? Dvs.....256 spår = 24-bitar. Vad händer (rent teoretiskt) om jag spelar upp så många spår så att det överstiger det interna bitdjupet? Som sagt, du får gärna förklara mer! Du vill ha en förklaring och här kommer den. Om maximala amplituden för vågformen i det färdiga spåret kan vara 0dB och du har två vågformer (anta att de är identiska) som har maximala amplituden 0dB (då på samma ställe) blir amplituden dubbelt så hög som tillåten amplitud. Därför måste du sänka volymen till hälften på båda vågformerna. När du halverar amplituden behöver du en bit till för att representera den halveringen utan att förlora data. Därför använder ljudprogrammen högre intern representation av ljuden än vad de är inspelade i. Men det där stämmer ju inte i praktiken. Om jag har två identiska ljudfiler på två olika spår i min sequencer och dom ligger runt 0dB och reglarna står på 0dB så klipper det ju. Att ljudmotorn "ökar på 1 bit per spår" låter väldigt konstigt i mina öron. Vad jag skulle kunna tänka mig är att den summerar dom 16 bitarna in i ett 32bitarstal för att sedan räkna ner tillbaka till 16 bitar efter sista summeringen. Alltså 1 normaliserat 16bitars spår + 10 svaga 16-bitarsspår blir INTE ett 26bitars tal. Fast detta är inget jag med säkerhet vet. klart att två 0dB-ljud klipper. Det är ju det hela mitt resonemang går ut på. För att undvika klippningen så måste man sänka nivån på ljuden till hälften. Då blir resultatet 0dB OCH att faktiska bitdjupet har ökat en bit.
VacUm Postat 22 september 2005 Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar. Förklara mer! Du menar att för varje fördubbling av spår som spelas upp så ökar bitdjupet med 1 bit? Dvs.....256 spår = 24-bitar. Vad händer (rent teoretiskt) om jag spelar upp så många spår så att det överstiger det interna bitdjupet? Som sagt, du får gärna förklara mer! Du vill ha en förklaring och här kommer den. Om maximala amplituden för vågformen i det färdiga spåret kan vara 0dB och du har två vågformer (anta att de är identiska) som har maximala amplituden 0dB (då på samma ställe) blir amplituden dubbelt så hög som tillåten amplitud. Därför måste du sänka volymen till hälften på båda vågformerna. När du halverar amplituden behöver du en bit till för att representera den halveringen utan att förlora data. Därför använder ljudprogrammen högre intern representation av ljuden än vad de är inspelade i. Men det där stämmer ju inte i praktiken. Om jag har två identiska ljudfiler på två olika spår i min sequencer och dom ligger runt 0dB och reglarna står på 0dB så klipper det ju. Att ljudmotorn "ökar på 1 bit per spår" låter väldigt konstigt i mina öron. Vad jag skulle kunna tänka mig är att den summerar dom 16 bitarna in i ett 32bitarstal för att sedan räkna ner tillbaka till 16 bitar efter sista summeringen. Alltså 1 normaliserat 16bitars spår + 10 svaga 16-bitarsspår blir INTE ett 26bitars tal. Fast detta är inget jag med säkerhet vet. klart att två 0dB-ljud klipper. Det är ju det hela mitt resonemang går ut på. För att undvika klippningen så måste man sänka nivån på ljuden till hälften. Då blir resultatet 0dB OCH att faktiska bitdjupet har ökat en bit. 😛 Nä. Det har det ju inte. Eftersom det klipper så utnyttjar du ju bara dom 16 lägsta bitarna ändå. Anledningen till att motorn jobbar med högre bitdjup internt är ju för att det är lättare/bättre att hantera effekter utan att går ner i bitdjup.
MusicGene Postat 22 september 2005 Postat 22 september 2005 har du två 16-bitars ljudfiler som båda använder hela dynamiken (normaliserade) och spelar upp ljuden samtidigt så händer det som så att då blir plötsligt det resulterande ljudet ett 17-bitars ljud. Coolt va? Spelar du upp fyra normaliserade ljud samtidigt blir det ett 18-bitars ljud. Dvs, bitdjupet ökar och du kommer ha användning av dither även om varje ljud endast är inspelat i 16-bitar. Förklara mer! Du menar att för varje fördubbling av spår som spelas upp så ökar bitdjupet med 1 bit? Dvs.....256 spår = 24-bitar. Vad händer (rent teoretiskt) om jag spelar upp så många spår så att det överstiger det interna bitdjupet? Som sagt, du får gärna förklara mer! Du vill ha en förklaring och här kommer den. Om maximala amplituden för vågformen i det färdiga spåret kan vara 0dB och du har två vågformer (anta att de är identiska) som har maximala amplituden 0dB (då på samma ställe) blir amplituden dubbelt så hög som tillåten amplitud. Därför måste du sänka volymen till hälften på båda vågformerna. När du halverar amplituden behöver du en bit till för att representera den halveringen utan att förlora data. Därför använder ljudprogrammen högre intern representation av ljuden än vad de är inspelade i. Men det där stämmer ju inte i praktiken. Om jag har två identiska ljudfiler på två olika spår i min sequencer och dom ligger runt 0dB och reglarna står på 0dB så klipper det ju. Att ljudmotorn "ökar på 1 bit per spår" låter väldigt konstigt i mina öron. Vad jag skulle kunna tänka mig är att den summerar dom 16 bitarna in i ett 32bitarstal för att sedan räkna ner tillbaka till 16 bitar efter sista summeringen. Alltså 1 normaliserat 16bitars spår + 10 svaga 16-bitarsspår blir INTE ett 26bitars tal. Fast detta är inget jag med säkerhet vet. klart att två 0dB-ljud klipper. Det är ju det hela mitt resonemang går ut på. För att undvika klippningen så måste man sänka nivån på ljuden till hälften. Då blir resultatet 0dB OCH att faktiska bitdjupet har ökat en bit. 😛 Nä. Det har det ju inte. Eftersom det klipper så utnyttjar du ju bara dom 16 lägsta bitarna ändå. Anledningen till att motorn jobbar med högre bitdjup internt är ju för att det är lättare/bättre att hantera effekter utan att går ner i bitdjup. sluta upp med det där klippande-snacket nu innan jag blir galen. om ett ljudprogram använder 32-bitars upplösning internt konverteras alla 16-bitarsljud till 32-bitar (genom att lägga på 16 nollor troligtvis). Sen om ditt ljudkort bara kan spela upp 16 bitar så klipper den av de 16 minst signifikanta bitarna. Har du en dither på före så ser den till att använda informationen i de 16 minst signifikanta bitarna för att förbättra på de 16 mest signifikanta så när ljudprogrammet klipper bort de 16 minst signifikanta har lite av den informationen redan sparats bland de 16 mest signifikanta bitarna och på så vis förbättrat kvaliteten. My statement stands, använd dither även om du spelat in i 16 bitar.
Fredster Postat 22 september 2005 Postat 22 september 2005 nä jag håller mer med Vacum faktiskt. Måste springa....återkommer om detta imorgon! //Fredster
Recommended Posts
Bli medlem (kostnadsfritt) eller logga in för att kommentera
Du behöver vara medlem för att delta i communityn
Bli medlem (kostnadsfritt)
Bli medlem kostnadsfritt i vår community genom att registrera dig. Det är enkelt och kostar inget!
Bli medlem nu (kostnadsfritt)Logga in
Har du redan en inloggning?
Logga in nuLogga in här.