Zakyath Postat 13 januari 2012 Postat 13 januari 2012 Ja, vari ligger intresset för det här? Vi kan ju ändå inte höra ljud över 20 000 khz (och ofta inte ens det!)
Erik dP Postat 13 januari 2012 Postat 13 januari 2012 Låt mig gissa: Två inspelade instruments höga frekvenser kan tillsammans skapa nya frekvenser i hörbart område?
Zakyath Postat 13 januari 2012 Trådstartare Postat 13 januari 2012 hm, där sa du något intressant men det som sades i föreläsningen jag nyss såg var: "All information i ursprungssignalen finns med i den med sampel beskrivna signalen, om samplingsfrekvensen är större än dubbla högsta frekvensen i ursprungssignalen" Så oavsett om nya frekvenser skapas, så borde det, enligt den info jag har fått, kunna fångas in i minsta detalj (de ljud vi kan höra) med 44 khz
Erik dP Postat 13 januari 2012 Postat 13 januari 2012 Så oavsett om nya frekvenser skapas, så borde det, enligt den info jag har fått, kunna fångas in i minsta detalj (de ljud vi kan höra) med 44 khz Visst! Om de två instrumenten spelats in i samma rum vid samma tillfälle, och med inte för närmickade mickar. Annars kan frekvenserna inte blandas på inspelningen.
JohnRick Postat 13 januari 2012 Postat 13 januari 2012 Lite saxat från Tweakheadz: "The theory is that audio energy, even though we don't hear it, exists as has an effect on the lower frequencies we do hear. Back to the Nyquist theory, a 96khz sample rate will translate into potential audio output at 48khz, not too far from the finest analog sound reproduction. This leads one to surmise that the same principle is at work. The audio is improved in a threshold we cannot perceive and it makes what we can hear "better"." Ett annat argument från Podcomplex: "To wit, the higher sample rate is of great benefit when timestretching, particularly when slowing down audio. Although many DAWs offer timestretching facilities, a lot of the extreme pitch-shifting relies on interpolation – so if you slow down a piece of audio too much, the program will have to start filling in larger and larger gaps, estimating what should be there. If you’re working with a higher sample rate, there are more samples per given unit of time – which means that you can slow things down much more before artefacts begin to appear and the audio becomes unusable."
Jonterocks Postat 13 januari 2012 Postat 13 januari 2012 Musik och Ljuddesign? =) Sampleraten 44100 Hz registrerar förändringar i ljudvågen 44100ggr per sekund. Högre samplerate = högre upplösning. Samma med bitdjup: Hur många olika "trappsteg" ska ettorna och nollorna kunna vara på/förflytta sig emellan? Vissa ljudkällor skapar övertoner högre än 20000 Hz och det är därför bra om man har lite "headroom" så alla övertoner kommer med på ett snyggt sätt. Det är också bra med högre samplerate för att minska risken för aliasing.
Zakyath Postat 13 januari 2012 Trådstartare Postat 13 januari 2012 Musik och Ljuddesign? =) Sampleraten 44100 Hz registrerar förändringar i ljudvågen 44100ggr per sekund. Högre samplerate = högre upplösning. Samma med bitdjup: Hur många olika "trappsteg" ska ettorna och nollorna kunna vara på/förflytta sig emellan? Vissa ljudkällor skapar övertoner högre än 20000 Hz och det är därför bra om man har lite "headroom" så alla övertoner kommer med på ett snyggt sätt. Det är också bra med högre samplerate för att minska risken för aliasing. det låter onödigt att ta med de övertoner som vi inte kan höra... ja, ssen läste jag JohnRicks inlägg 😛 och har inte aliasing snarare med bitdjup att göra?? läser förövrigt ljudproduktion och tekniskt ljudskapande 🙂 Lite saxat från Tweakheadz: "The theory is that audio energy, even though we don't hear it, exists as has an effect on the lower frequencies we do hear. Back to the Nyquist theory, a 96khz sample rate will translate into potential audio output at 48khz, not too far from the finest analog sound reproduction. This leads one to surmise that the same principle is at work. The audio is improved in a threshold we cannot perceive and it makes what we can hear "better"." Ett annat argument från Podcomplex: "To wit, the higher sample rate is of great benefit when timestretching, particularly when slowing down audio. Although many DAWs offer timestretching facilities, a lot of the extreme pitch-shifting relies on interpolation – so if you slow down a piece of audio too much, the program will have to start filling in larger and larger gaps, estimating what should be there. If you’re working with a higher sample rate, there are more samples per given unit of time – which means that you can slow things down much more before artefacts begin to appear and the audio becomes unusable." mycket intressant, speciellt det med effekter som bygger på timestrech låter ju logiska... mer att jobba med liksom jag är dock nyfiken på varför de frekvenser över 20 000 hz skulle påverka alla ljud under 😮 alltså exakt vad som händer
Florian le Sage Postat 13 januari 2012 Postat 13 januari 2012 (redigerat) Ahh jag skrev ett långt inlägg och så dog datorjäveln mitt i igen,,,saken är den att vi troligtvis inte kan höra skillnad på inspelnigar gjorda i 96 khz mot dom gjorda i 44.1 khz, dom som påstår något annat snackar bara mycket och resten är inget annat än teorier som det finns massor av och ingen har patent eller kunskap att säga så här är det... Bättre då att spela in i 88.2 khz om man vill ligga däroppe och fisa enl. en rad kunniga i branschen för då blir nedräkningsalgoritmen enklare till 44.1*** Övertoner är en viktig orsak till att vi vill ha åtminstone dubbla oversampligfrekvensen! såg johnricks inlägg efter och det var vad jag tog upp just gällande Nyquist teorem... Redigerat 13 januari 2012 av Florian le Sage
Claes Holmerup Postat 13 januari 2012 Postat 13 januari 2012 44.1 används som bas i ljudbranschen och 48 används i filmbranschen. Visst är det bra med standards... 😉 Enligt en av de riktigt stora auktoriteterna i ämnet, Dan Lavry, är allt över 60kHz samplingsfrekvens helt meningslöst. Läs hans förklaringar här: http://www.lavryengineering.com/documents/Sampling_Theory.pdf Florian: Tyvärr används precis samma algoritmer oavsett vad man omvandlar till/från, så det blir inte enklare att omvandla från 88..2 till 44.1 än att omvandla mellan andra frekvenser. Annars kunde det vara lätt att tro att man bara plockar bort varannan sampling, men så hanteras det inte någonstans.
Florian le Sage Postat 13 januari 2012 Postat 13 januari 2012 Tyvärr används precis samma algoritmer oavsett vad man omvandlar till/från, så det blir inte enklare att omvandla från 88..2 till 44.1 än att omvandla mellan andra frekvenser. Annars kunde det vara lätt att tro att man bara plockar bort varannan sampling, men så hanteras det inte någonstans. Ja här ser vi hur uppfattningarna går isär, varken du eller jag VET exakt vad som händer i dessa algoritmer, men det finns ju de som hävdar detta seriöst kanske har de fel I don't care och jag vet inte vad jag ska tro ärligt talat* 🙂
Claes Holmerup Postat 13 januari 2012 Postat 13 januari 2012 Tyvärr används precis samma algoritmer oavsett vad man omvandlar till/från, så det blir inte enklare att omvandla från 88..2 till 44.1 än att omvandla mellan andra frekvenser. Annars kunde det vara lätt att tro att man bara plockar bort varannan sampling, men så hanteras det inte någonstans. Ja här ser vi hur uppfattningarna går isär, varken du eller jag VET exakt vad som händer i dessa algoritmer, men det finns ju de som hävdar detta seriöst kanske har de fel I don't care och jag vet inte vad jag ska tro ärligt talat* 🙂 ...dessutom tror jag inte att någon av oss skulle höra någon skillnad ändå - utan OM det finns några skillnader alls, så är jag säker på att de i så fall finns helt på det teoretiska planet och är att jämföra med att höra en knappnål falla intill ett jetplan som precis är på väg att starta... 😉
Jetblack Postat 13 januari 2012 Postat 13 januari 2012 Låt mig gissa: Två inspelade instruments höga frekvenser kan tillsammans skapa nya frekvenser i hörbart område? Fast, det låter som aliasing (vikningsdistorsion), och det vill man ju definitivt inte ha 😮
alexfree Postat 13 januari 2012 Postat 13 januari 2012 det är viktigare med bitdjup, kör alltid med 32 bitar, sen håller man sig bara ovanför 44,1kHz
Jetblack Postat 13 januari 2012 Postat 13 januari 2012 det är viktigare med bitdjup, kör alltid med 32 bitar, sen håller man sig bara ovanför 44,1kHz Ja, ju högre samplingsfrekvens och ju högre bitdjup man har desto bättre ljud måste det ju bli, ja vad smart! Nej, jag skulle vilja se den som hör skillnaden mellan inspelningar i 24-bitar och 32-bitar.
Erik dP Postat 13 januari 2012 Postat 13 januari 2012 jag är dock nyfiken på varför de frekvenser över 20 000 hz skulle påverka alla ljud under 😮 alltså exakt vad som händer Den som någon gång stämt en gitarr utan stämapparat vet att man kan slå an en lös sträng samtidigt som man tar samma ton på en tjockare sträng. För få exakt stämning så lyssnar man inte bara på strängarnas toner, utan på den svävande svängning som uppstår då dom inte ligger exakt lika i ton. Man justerar till denna svängning upphör, och svängningen kan ju vara ngn enstaka Hz. Om man nu tänker sig att gitarrsträngarna teoretiskt skulle ligga ovanför 20kHz så skulle det enda man hörde, instrumentets ljud, vara denna svävande ton. Om man spelar in strängarna var för sig så kommer inte denna i svävande ton genereras då man filtrerat bort allt över 20kHz, dvs grundtonerna. Jag antar att en fiolsträng utan resonanslådan bara skulle låta sinusvåg. Så över och undertoner gör att vi hör vilket instrument ljudet kommer ifrån. På samma sätt kanske en ljudinspelning låter mer naturligt om undertonerna kommer med då varje instrument spelats in var för sig.
alexfree Postat 13 januari 2012 Postat 13 januari 2012 ----- fördelen med 32 bitar är -> Inget digital clipping vid 0 dB som vi har vid 24 bitar -> AMD och Intel jobbar med 32 bitars floating teknik vilket gör att man behöver mindre Threads, alltså mindre räknekapacitet av datorn behöver användas -> Alla interna beräkningar, i alla fall i Cubase och Wavelab, numera från version 10 också i Protools sker i 32 bitar -> Du behöver inte köra någon dithering alls fram till mastering processen -> Inga avrundningsfel i truncation Men som hemma-inspelare är de flesta saker ovanför kanske inte så vikigt, men som proffs är detta grundläggande saker!
drloop (oregistrerad) Postat 13 januari 2012 Postat 13 januari 2012 (redigerat) Proffa jobbar oftast i 24 bitar, och blir skitirriterade över amatörer som skickar 32bitars filer... gärna i stereo dessutom... fast det är monofiler från DAWen.... Redigerat 13 januari 2012 av drloop
Die Hard (oregistrerad) Postat 13 januari 2012 Postat 13 januari 2012 När det gäller ampsims vinner man faktiskt på att ha i alla fall 88.2khz. Det blir faktiskt lite skillnad . Testat och jämfört.
Florian le Sage Postat 13 januari 2012 Postat 13 januari 2012 Jag har också läst på sistone om en del nackdelar med just 32 bitars djup, bättre att köra med 24, minns inte för stunden vad det handlade om men det ogillas tydligen också, mycket hokus pokus i den digitala domänen helt klart!
alexfree Postat 13 januari 2012 Postat 13 januari 2012 Proffa jobbar oftast i 24 bitar, och blir skitirriterade över amatörer som skickar 32bitars filer... gärna i stereo dessutom... fast det är monofiler från DAWen.... varför kör du monofiler i stereo, det är ju helt befängt...haha
Jetblack Postat 13 januari 2012 Postat 13 januari 2012 ----- fördelen med 32 bitar är -> Inget digital clipping vid 0 dB som vi har vid 24 bitar -> AMD och Intel jobbar med 32 bitars floating teknik vilket gör att man behöver mindre Threads, alltså mindre räknekapacitet av datorn behöver användas -> Alla interna beräkningar, i alla fall i Cubase och Wavelab, numera från version 10 också i Protools sker i 32 bitar -> Du behöver inte köra någon dithering alls fram till mastering processen -> Inga avrundningsfel i truncation Men som hemma- inspelare är de flesta saker ovanför kanske inte så vikigt, men som proffs är detta grundläggande saker! Jaha. Tur att du gör rätt då när världen är full med proffs som gör fel 🙂
drloop (oregistrerad) Postat 13 januari 2012 Postat 13 januari 2012 Jag tro alexfree egentligen menar den interna beräkningen i DAWen. Den är ju 32 bit float eller 64 bit medan filformatet när man spelar in audio egentligen är 24 bits eftersom AD omvandlarna är 24 bitar.
Claes Holmerup Postat 13 januari 2012 Postat 13 januari 2012 Jag tro alexfree egentligen menar den interna beräkningen i DAWen. Den är ju 32 bit float eller 64 bit medan filformatet när man spelar in audio egentligen är 24 bits eftersom AD omvandlarna är 24 bitar. Precis! Det är meningslöst att spela in i 32-bit FP eftersom ljudinnehållet ändå aldrig är mer än 24-bit - något jag lärde mig EFTER att jag började med mina testinspelningar... 😉 Finessen med 32-bit FP är att man har 24-bits upplösning oavsett signalnivå - något som gör att man får en dynamik på hiskliga 1520dB på bussen - och det därför blir omöjligt att överstyra den - men den hanteringen går helt automagiskt, så oavsett om man har spelat in i 8-bit eller 24-bit så kommer det att hanteras internt i 32-bit FP... Orsaken till att vissa stenålderstyper vill ha stereofiler splittat till två monofiler, är att Protools inte kunde hantera stereofiler för typ 100 år sedan (trots att alla andra DAW-program gjorde det...). Numera är det däremot inget problem där heller, så idag är det meningslöst att envisas med att bara vilja ha monofiler.
drloop (oregistrerad) Postat 13 januari 2012 Postat 13 januari 2012 Jag tänker mer på exporter jag fått. En sång i stereo som uppenbarligen är i mono... dvs alla spår exporterade ut i stereo. har inget med PT att göra om man säger så...
Recommended Posts
Bli medlem (kostnadsfritt) eller logga in för att kommentera
Du behöver vara medlem för att delta i communityn
Bli medlem (kostnadsfritt)
Bli medlem kostnadsfritt i vår community genom att registrera dig. Det är enkelt och kostar inget!
Bli medlem nu (kostnadsfritt)Logga in
Har du redan en inloggning?
Logga in nuLogga in här.