Jump to content
Annons

van Caine

Medlem
  • Antal inlägg

    1 499
  • Gick med

  • Senast inloggad

  • Dagar jag vunnit

    26

Allt postat av van Caine

  1. Det är det det inte gör om man byter system.
  2. Driver du med mig? Argumentet saknar all logik!
  3. Det är en variant av ett väldigt förenklat sånt test ja. Påverkan av volym och bussar är något jag går igenom ofta vare sig jag vill eller inte. Händer automatiskt när jag bygger nya subgrupper. Alla mina program utom SAW, som inte har den typen av bussar. Bussarna på i åtminstone gamla SAW Pro var rena utgångsbussar. Orenare ljud trots identisk inställning och helt orörda pluggar. Använder det ibland som effekt, faktiskt.
  4. Jag har svarat för många gånger på samma sak redan, se mitt svar till Joachime i inlägg 139: http://forum.studio....20#entry1531716
  5. Jag har redan svarat på det där mycket mer än vad som borde behöves redan - om två identiska kanaler inte är identiska inom samma program, så är det nåt allvarligt fel på programmet. Om två identiskt upplagda kanaler presterar olika i två olika program, så är det förväntat.
  6. Mixern är en av de viktigaste delarna av ljudmotorn. Det är där den största påverkan på ljudet uppstår. Hur ljudet låter obehandlat är fullständigt irrelevant då ingen någonsin skulle släppa ett project omixat.
  7. Trappstegen manifesterar sig inte som steg i ljudet, utan som kvantiseringsfel och i vissa fall fasförvrängning.
  8. Annan diskussion? Det är just det här som ger ett program dess ljudkaraktär. Det är den enda diskussion som är relevant för den här tråden. Jag har inga problem med mätningar, rätt hanterade finns det många sätt att göra det på beroende på vad det är man vill få reda på, och rätt utfört är alla hörbara förändringar mätbara förändringar. Jag är dock verkligen inte intresserad av att göra det själv då jag inte har nån nytta av det i jobbet, det är forskning man skulle kunna skriva avhandling med och kräver jobb därefter, och jag kan nu jobba obehindrat redan som det är. Men skulle någon annan göra ett praktiskt och kompetent test skulle jag följa det med största intresse, och skulle någon be om feedback så skulle jag mer än gärna bistå med vad jag kan. Men gå på djupet i ett ämne jag inte kan påverka? No thanks. I ditt fall tror jag dig. Kondolerar.
  9. Nej, jag talar om att istället för att exempelvis beräkna skillnaden mellan ett ljud i 24 bitar och hur det skulle se ut i 16 bitar vid nedskalning, så lägger man till brus i nivå med den dynamiska tröskeln for att skapa ojämnheter i strömmen, och klipper helt enkelt bort de överflödiga bitarna. Utan detta skulle exempelvis en sinusvåg se ut som ett litet trappsteg på mitten. Exakt hur reglarna funkar vet jag inte , men det verkar vara mer eller mindre enligt samma princip.
  10. Mycket legitim fråga, har ställt den själv. Svaret är tyvärr att ljudbearbetning inte är exakta beräkningar, det är ungefärligt, och är baserat på algoritmer som är avsedda att skona processorn. I ett datorprogram så skulle en bit på fel ställe kunna ställa till med katastrof, men i en ljudström på åtskilliga hundratusentals bits per sekund så spelar några fel hit och dit inte så stor roll. Frågan är dock hur långt man är villig att dra det innan det börjar låta påtagligt illa, och det är vad jag vet det som huvudsakligen skiljer olika program åt. Jag vet inte exakt hur summeringar är uppbyggda, men logiskt sett borde det vara den enklaste processen i hela kedjan. Jag skulle säga att det är som en videofil - ju hårdare komprimerat det är, desto skonsammare blir det mot datorn, men samtidigt fulare.
  11. Nu börjar vi snacka :-) True. Det finns program som misslyckas med just två fasvända parallella kanaler, minns att Saw Pro var hemskt med sånt, men en miss där är oförlåtligt från tillverkarens sida och väldigt ovanligt idag. En sak man skulle kunna göra dock, vilket är inne på ditt spår där, är att ha en kanal med sång, dubblera den till ett nytt spår, sända den med minut, säg 20dB till en buss vi kallar "1". Därifrån höjer vi den 20dB. Sen skickar vi signalen till buss "2", men sänker den 20dB istället. Till sist sänder vi den vidare till buss "3", och höjer tillbaks med 10dB, vilket borde ge en slutgiltig signal om 0dB gain. Va händer nu när vi summerar de två kanalerna, med tvåan fasvänd, till samma output? Resultatet lär bli ett högfrequent dynamiskt surr, det är i vart fall det resultat jag fått när jag gjort så här, men den riktiga frågan är vad det är som hände med signalen genom flödet? Förmodligen är det en ganska kraftig bit-förlust skulle jag tro.
  12. Mycket sant, dagsformen på öronen är en viktig variabel och påverkas av allt du nämnde. Därför delar jag upp finjusteringar av jobb och ordentlig genomgång av nya prylar tidigt på morgonen medan öronen är färska, och grovgörat på kvällar. Klimatet är alltid stadigt. Men det viktigaste är att vara medveten om att man kan missuppfatta saker, och därför aldrig sluta lyssna kritiskt. Man måste lita på sina öron, och det inkluderar att aldrig sluta kritisera det man hör. Dock baseras mycket av mina åsikter om program på att jag är arbetar huvudsakligen independent, vilket betyder att 16-timmarspass inte är ovanliga under långa perioder. Försöker undvika det, men måste man så måste man. Det är en hel del tid man spenderar framför samma program men med hundratals project som kommer och passerar. Man lär sig väldigt snabbt sin utrustning väldigt väl. Det finner jag svårt att tro. Du säger tvärsäkert, utan att vare sig känna mig eller ha gjort ett faktiskt fungerande test baserat på arbetsbörda, att jag inte kan höra skillnad på mina egna program. Jag vet med säkerhet att jag kan höra skillnad på dem då detta är något jag slagits med sen jag köpte min första DAW, och fortfarande gör. I vissa fall kan jag till och med avgöra om en videofil jag får levererad till mig är exporterad från AVID, Adobe eller (men det här är svårare), Final Cut, särskilt då jag vet exakt hur materialet från min field recorder och mina mickar låter rått. Jag är mycket medveten om begränsningar och brister i den mänskliga hörseln, hela min karriär baseras på att skamlöst utnyttja sånt samt det undermedvetna för att lura och styra publiken, men inte mig själv. Tackar! Hoppas det är till nån hjälp mon :-)
  13. Jag har redan gett en förklaring på det där minst två gånger. Se mitt svar till Joachime lite längre upp.
  14. Jag undrar åsså uppriktigt sagt om det verkligen kan spela nån roll, musikfilerna läses trots allt inte av som en linjär ström från hårddisken utan buffras i block (verkar vara vanligast metod i vart fall) i minnet, vilket bör garantera en störningsfri och jitterfri uppspelning. Vet inte exakt hur CD-spelare funkar, där kan jag föreställa mig att de flesta speciellt billigare spelare spelar upp med minimala buffrar (hade det inte funnits nån alls så hade spelaren inte kunnat hålla fullständiga samples i minnet länge nog att spela upp dem), trots allt så är mekaniken i en CD identisk med LP, fast spegelvänd (Läser inifrån och ut), samt med PQ-kodning för sökning och viss katalogisering. Jag har väldigt dålig koll på spelare undantaget att jag avskyr Quicktimeplayer, men vill du ha fullständig transparens så är WaveShop (ett gratis program med ljusgrön ikon!) ett program som gjort sig känt för att inte introducera någon som helst färgning fören vid ren processing, och efter runt ett år som användare då Wavelab inte funkar i 64-bitars...och jag inte har råd att uppgradera just nu...så är jag verkligen böjd att hålla med! Mer meck att spela upp via en editor, men kvalitet kostar vettu ;-)
  15. Låter extremt oseriöst. När jag gör reklamljud, vare sig det är logga eller vanlig reklam, så fakturerar jag efter hur lång tid det tar. Jag arbetar aldrig någonsin på spekulation, och verkligen inte för presentkort.
  16. Det var Pro Tools vs Reason. Pyramix är fortfarande väldigt ovanligt i vanliga studios.
  17. Just ja, som jag skrev så behövde svepet vara flera minuter långt minst, helst mycket längre än så. Det är för att dessutom kunna eliminera all effekt av den förvrängning som uppstår på en signal under ett svep, så att varje repetition ser helt opåverkad ut även på samplenivå. Är särskilt kritiskt ju längre ned i frequenserna man kommer.
  18. Ja. Se mitt svar till Joachime. Jag är inte intresserad av att mäta nåt alls, men målet för ett objektivt test är att ta reda på vad som händer med ljudströmmen under arbete. Om du inte tror på saker som absolut gehör, relativt gehör och tränad lyssning så är det ditt problem.
  19. Och jag säger att rendering till disk inte är pålitligt eftersom särskilt digitala native-program jobbar begränsat under mix och (i de flesta fall) något sånär obehindrat under export. Det går inte att få precision om man inte hör exakt vad man gör, och det påverkar slutresultatet. Jag syftar till export via länken mellan programmet och ljudkortet, helst direkt efter ASIO om möjligt.
  20. Problemet är inte hur man skulle genomföra ett null-test, problemet är att null-test enbart bevisar att det finns olikheter, inte vad dessa olikheter är. För att verkligen kunna analysera ett system så måste man ha en god idé om var problemen ligger, provocera dessa delar under kontrollerade former, och sända igenom en grundlig samling vågformer som man kan undersöka på sample-nivå. Först och främst en sinus-våg som under flera minuter sveper från 1Hz till åtminstone 30KHz för att garantera att det inte ska finnas några risker för att något ska hålla sig under gränserna. Sen skulle formodligen nästa steg vara rosa brus, men även det måste gå hela vägen från källaren till vinden. Vad man bland annat bör kolla upp är bitupplösning - om man sänker och sen höjer ett ljud så kommer inte dess bitupplösning vara samma som projectets längre, utan ha en lätt form av kvantiseringsfel. Kanske tar en stund innan det blir hörbart, men det finns där, och många bäckar små blir ett trasigt ljud.
  21. Utan tvekan, panoreringen är en del av motorn. Dock skulle jag säga att frågan mest berör mono-project för enkelhetens skull. Det är en komplicerad fråga som inte precis mår bättre av att expanderas.
×
×
  • Skapa ny...