Jump to content
Annons

Signia

Medlem
  • Antal inlägg

    2 487
  • Gick med

  • Senast inloggad

  • Dagar jag vunnit

    35

Allt postat av Signia

  1. Jag tycker Neumann mikrofoner är överlag väldigt diskant-rika, på ett förvisso bra sätt, men även lite fattiga i nedre mellanregistret. Olika modeller skiftar förstås. Min första spontana tanke är: Har han provat Shure SM7? SM7 är en mic som flera sångare som sysslar med rock gillar, för lite fylligare mansröst och för högt sångtryck. Den syns även i många radiostudios. Har sett/hört många tekniker som uttalat sig om den, mest i termer om att den är överlag väldigt bra och mångsidig, men tenderar att vara aningens mörk och ta upp lite för mycket botten för t.ex. kvinnliga sångare med ljus/tunn röst. Kanske kan vara nåt att testa. Har hört flera av dina inspelningar, och tycker ditt sångljud låter överlag bra, men kanske något diskantrikt för din typ av röst. Hårddraget sett kan det låta något "Hi-Fi" ibland - sångljudet alltså.
  2. Jag brukar landa i två olika sätt att lägga reverb på trummor. Ibland kombinerar man dom sätten, dvs använder ett sätt på pukor; kick och det sättet andra på virvel. Man säga att endera vill jag att reverbet ska höras, eller så vill jag inte det ska höras (men ändå finnas där). Men ofta måste ju reverbet kunna smälta in lite med klangen och karaktären av rummet som trummorna stod, dvs den klangfärg som finns i överhängs- och/eller rumsmickarna. Inte vill att reverbet ska höras, då vill jag bara vill få loss trummorna från att låta Klistrade i mono. Då brukar jag använda mig av några få väldigt neutrala och lite trä-iga reverb-impulser (inte säker på var jag fått dom från). Idén är ungefär samma som att lägga ett kort ”room” på pukor, kick, och virvel, alltid kortare än 1 sekund lång svans, men skillnaden är att jag tycker impulse/response-reverb gör såna så bättre än algoritmiska reverb. Tsar har jag inte hunnit prova än, kan inte uttala mig. Andra sättet är när jag vill reverbet ska höras. Den idén lever kvar sen 80-talet, då man hade ganska tydliga ljusa plate-reverb - speciellt på virveln, typ 1-1,4 sekunder. För mig är det lite en efterhärmning av Yamahas SPX90 reverb (och senare storebröder), som har ett rätt skitigt, tunt, lite metalliskt reverb. Typ ett plate-reverb på viagra. Ett reverb som jag är nöjd med där är Steinberg Roomworks, som följer med i dom nyare versionerna av Cubase/Nuendo. Andra reverb som jag tycker är hyfsade på samma sak är IK Multimedia CSR, Sonic timeworks DR4081L, Sonic Flavours R66 och Valhalla DSP Room. Kan ju även kolla efter ett begagnat Yamaha SPX eller Roland R-880 hårdvaru, alternativt impuls responser från dom reverben.
  3. Jag tycker det kan vara skillnad på begreppen ”en bra mix” och ”låter bra” i vardaglig mening. Jag tycker en skitbra mix enligt konstens oskrivna regler kan ibland få det att låta riktigt grått, platt och ointressant, sakna magi. Och vice versa förstås, ett bra sound, även medioker musik, kan emanera ur en bra mixning. Att identifiera en bra eller dålig mix, kräver ofta att man mixat en hel del själv. Då får man erfarenheter av vilka som är de svåra momenten, de klassiska fallgroparna, vad som är svårt att alstra osv. När man fått sig den bilden, så kan man identifiera sig bättre med en annan mixares utmaning och resultat. Man kan höra t.ex. hur han löst flera av de svårare momenten och hur väl han lyckats tillvarata element i ljudet/musiken som ofta är trixiga att göra. Nationalteaterns låt ”Livet är en fest” är en hemsk mix enligt min åsikt – även för sin tid. Men mixen passar faktiskt in i stilen och storyn av låten. Det lyfter liksom fram bilden av flummiga, långhåriga, rödvinsdrickande, Bellmaninspirerade, kvasi-intellektuella, idealistiska, konstnärstyper som har skrammel-jam i studion. Så det finns många sätt att betrakta en mixning som bra/dålig - inte bara teknisk effektivitet.
  4. Sox testade jag för ett tag sen, det var riktigt bra. Avancerad scripting med och knappt några mätbara förändringar av ljudet efter behandling. Ville separera på 7-kanaliga audiofiler till 7 monospår. Hade hundratals såna filer. Inget program man testade kunde läsa eller använda dem på användbart sätt för separation. Sox däremot fixade det galant, utan bi-effekter med. På sidospåret SRC-program som inte färgar, så ligger även Izotope RX i absoluta toppskiktet. I princip noll färgning. On topic, så måste funktionen - som gör att cubase konverterar til rätt frekvens för projektet - vara påslagen innan man importerar spåren i Cubase. För det är nog bara där den funktionen tillämpas. Har man redan importerat spåren så förblir dom nog som dom är ändå. Och om man istället konverterar alla spår manuellt i, i poolen, så lär nog cubase bibehålla den för höga uppspelningshastigheten så att säga. Så, i vilket fall skulle man nästan föreslå att man tar bort filerna ur poolen, importerar dom igen (så cubase konverterar) och sen möblerar ut filerna på tillhörande spår.
  5. Det kan bero på den ansamlade volymen. Ett ljud har ju som störst slagkraft när det hörs ensamt. Plötslig skillnad mellan svagt och högt ljud är ju vad som skapar upplevd slagkraft, t.ex. när ett högtalarelement (även trumhinnan i örat) rör sig snabbt från relativt viloläge (minus) till motsatt läge (plus). Om du har tystnad direkt före och efter t.ex. en saftig kick, så upplevs slagkraften som stor mest eftersom det är tystnad före - och efter. Ju mer du sen höjer upp övriga spår, desto mindre skillnad kommer det bli mellan den starkare kicken och de svagare omgivande ljuden. Då upplever man det som att kicken tappar slagkraft. När kicken sen ligger i jämhög nivå med omgivande instrument, så har kicken betydligt mindre upplevd slagkraft än när den hörs ensam. Så ju jämnare, "tätare" en mix är, desto mindre slagkraftig upplevs den - förutom skillnader mellan sektioner i låten o.dyl. Ett sätt att motverka det här, är - som du säger - att försöka isolera varje instruments (eller instrumentgrupps) frekvensmässiga kärna, med EQ o dyl, för att göra bakgrunden så tyst som möjligt för varje givet frekvensområde. Det ökar upplevda slagkraftern för de instrument som klingar i dom frekvenserna, men det blir ofta en byteshandel mellan spår. För om man skär bort frekvenser i vissa instrument så kan man förlora fylligheten, kärnan och slagkraften i dom för att premiera andra instrument. Ett annat sätt är att undvika kompressorer eller limiters. Generellt så minskar ju kompression skillnaden mellan starka och svaga ljud och då minskar upplevda slagkraften med.
  6. Rock'n roll / blues är en syntetisk scen för mig, ingen realistisk scen. Med "scen" menar jag den miljö som musiken/mixen klingar som. Idag är det inte ovanligt att folk använder sk. konvolutionsreverb, alltså reverb som är mycket bra på att låta naturtroget som en riktiga rum och lokaler. Använder man såna vid mixning, så blir reverb-strategin oftast att placera ut musikerna i den virtuella lokal som reverbet skapar; placera ut musikerna med panorering och olika långt från lyssnaren - trummisen långt bak t.ex. Detta för att det ska låta lite "verkligt", som om inspelningen är gjord i den lokal som reverbet skapar åt en. Den strategin är inget jag brukar använda för rock/blues. Istället brukar jag använda reverb och mixning för att skapa en syntetisk miljö. Och för en syntetisk scen är det en bra ide att använda flera olika reverb, som samverkar till att skapa en syntetisk ljudmiljö. Jag brukar oftast hamna på 3 st reverb då, minst 2st: ett kortare (ofta kortare än 1 sekund) och ett längre. Dom brukar oftast låta ganska lika i klang, och det som skiljer mest brukar vara hur snabbt diskanten dör av i reverbsvansen. I det kortare reverbet brukar jag låta diskanten klinga ut, så det påminner aningen om gejtat reverb. I det längre brukar jag dämpa diskanten mer för att få ett varmt ljud. Ska påpekas att jag aldrig i hela mitt liv hittat en preset som funkar rakt av för mix i en viss låt. Justera alltid reverbets inställningar efter behov. Det kortare brukar oftast hamna på trummor, rytmgitarr, percussion, orgel, bakgrundssång, blås (om det finns med), lite klaviatur kanske, och på snabbare låtar även lite på leadsång. Mest brukar det hamna på gitarr och virvel, och ska då helst låta lite som en förlängning av virveltrummans naturliga diskant. Det längre brukar jag använda för att skapa lite atmosfär. Det kan ligga aningens på de flesta instrument, lite extra på gitarrsolo och leadsång ibland. En ungefärlig tumregel kan vara att ju basigare instrumentet låter, desto mindre mottagligt (lämpligt) är det för reverb, och vice versa. Längre reverb har ofta en tendens att bli "för stora", alltså bumliga, låta lite gymnastiksal eller kyrka. Sänker man då basen på reverbet blir dom lätt tunna och nasala istället. Ett sätt att motverka det, är att smalna av stereobredden på reverb-returen (med panoreringsrattarna). Långa balladreverb kan ibland nästan vara i mono och ändå låta bra. Ett annat vanligt knep är att sänka reverblängden, och lägga ett ca 4-500 ms mono delay (med kort feedback, 2-4 ekon max) mellan ljudkällan och reverbet. Det "håller reverbet vid liv" och gör det längre utan att bli bullrigt. I AC/DCs låt "For those about to rock" hörs den tekniken på sången - speciellt i breaken vid 3:30-4:00. http://www.youtube.com/watch?v=fKhTk0IynHM Lyssna även på virvelreverbet, motsvarar lite vad jag menade med "kort ljust reverb" ovan, medan man hör "långt reverb" på t.ex. pukorna och kören. Lexicon reverb har jag alltid haft lite svårt för. Jag tycker dom är svårjobbade och metalliska. Men det är en annan diskussion.
  7. Det digitala sättet att hantera ljud är – tekniskt sett – ganska överlägset det föregående analoga. Men en bi-effekt var att ljudkvaliten som man lagrar ljuden i förblir nästan kristallklara från början till slut. Det var en oväntad bieffekt av så bra ljudinspelning - för bra, enligt vissa. Även digital video har samma problem med det numera. Instrumenten låter så realistiska, så real-life, så … mesiga, så ”kommunala musikskolan”. Vi vet ju vad som händer när man försöka få riktiga realistiska trummor att låta som Def Leppards. Riktiga trummorna låter .. klånkigt och fånigt i det avseendet. Jobbar man med pop/rock/dance så vill man ha nästan max ösfaktor och fett istället för realism. Saturation (mättning) är ett sätt att efterlikna den effekt som uppstod då man förr i tiden skickade ljudet in och ut och in och ut genom olika komponenter och processorer, genom kablar, mixrar osv. Det kan även hänvisa till effekten som rullbandspelare hade på inspelat ljud. Allt detta färgade av sig på ljudet, gjorde ljudet mindre tydligt, men slipade på samma gång automatiskt bort de oönskade hårda detaljerna i ljudet. Det komprimerade också ljudet något. Men framförallt så orsakade det att övertoner och brus m.m. lade sig som ett bolster runt originalljudet, vilket gör att originalljudet låter något tjockare och fetare och lite mer ”ösigt”. Du har säkert lyssnat riktigt högt på musik i lurar nån gång, och upplevt en psykologisk effekt av att musik – för några korta sekunder – är allt som existerar överhuvudtaget. Den effekten kan man delvis uppnå även mixmässigt, genom att göra ljudet tjockare och komprimerade det hårdare. Man ge ett exempel genom att överdriva: Tänk dig en distad elgitarr som drar ett ackord. Visst, det kan låta sjyst. Men om du låter gitarren trigga ett brunt brus (www.youtube.com/watch?v=B0EvdP40BfU) som lägger sig in lite bakom gitarrackordet – eller rentav smälter ihop med gitarrackordet - då kommer gitarren att låta mycket ”grymmare”, tjockare och större. I ett musikaliskt sammanhang kommer gitarren att upplevas som om den lät rejält högt när den spelades in, ösigare liksom. Det låter mindre realistiskt, mindre mesigt, mera högt och ösigt. Även kompression ökar den här effekten; man upplever att ljudet är högt när det mättas. Ju mer ljudet mättas av (slår i taket, duckar, mattas ut av ösigheten) desto högre verkar det ju vara (oavsett det är högt eller inte). Men kompression lägger inte till lika mycket färg och skit som "saturation" gör. Saturation, mättnad, är ett sätt att introducera sån färg, sån ”skitighet” till ljud som man upplever är för rena, mesiga eller för kantiga och stela. Det finns mängder med olika typer av mättnad. Vissa typer försöker efterlikna gammal analog mättnad av olika slag. Andra genererar helt nya syntetiska typer av mättnader. Man kan även använda mättnad till att modulera ljud med. Det sistnämnda är vanligast inom dance och elektronica.
  8. Ja. Cubase ska kompensera för den latency som ditt ljudkort rapporterar. Att det blir svajigt var kanske onödigt av mig att ta upp. Det är min egna erfarenhet, bekräftat av ett par personer bara. Så det kan vara en enskild grej. Min känsla är att tajmingen blir dålig överlag där, över 25 ms eller uppåt. Jag har tänkt att högre buffer-storlek, större block-storlek, ger mer oförutsägbara dataströmmar. Ju finare snabbare synpunkterna (samplingsfrekvensen) löper, desto tajtare blir ju synkningen. Ungefär som att ju finare indelning på linjalen man använder, desto mer exakta blir måtten - typ. Men som sagt, ta mig inte på ordet att alla drivrutiner blir lite svajiga vid 25 och uppåt. Japp, det borde bli så.
  9. Du måste inte fixa det själv. Det sköter cubase om. Om du har ett ljudkort med taskig klocka eller som inte kan kontrolleras tillförlitligt av ASIO, då kan din inspelning hamna off. Då är tanken att du ska använda "Adjust för Record Latency" parametern för att justera hur Cubase ska förskjuta ljudmaterialet för att motverka detta timing problem. Har du inga problem, ska den stå på noll. Personligen så föreslår jag att om du har problem som tvingar dig att använda denna parameter, då borde du byta ljudkort (eller kolla vilken ljud-drivrutin cubase kör på) Det finns ytterst lite info om allt detta i manualen, eftersom användaren ändå har ytterst få möjligheter att påverka proceduren. Så länge ditt ljudkort har stabila rutiner så kan du spela in med ganska lång latency, upp till 25 ms, utan kännbar fördröjning. Men har man för lång fördröjning (och i synnerhet om man inte använder ASIO) då verkar det som att ljudinspelningen kan bli svajig, tidsmässigt. Och cubase kompenserar genom hela kedjan, inte bara VST instrument. Det gäller även VST plugin och DX plugins (när cubase stödde DX) samt externa effekter och instrument.
  10. Nej, du måste sminka huden mörkare med.
  11. Om Metallicas gitarrljud kom från bara en Rectifier och en 57a skulle det gjort det, ja.
  12. Det låter som du skulle behöva lära dig spela 1-2 riktiga instrument och spela musik för hand, tillsammans med andra, i levande sammanhang några år. Då kommer det garanterat att lossna.
  13. Finns inget Cubase som kostar 30 papp, om det är så du menar. Dyrare dator eller dyrare pluggar brukar inte heller förändra saker. Optimerad och "ren" dator brukar vara den bättre grundförutsättningen - även om alla program har sina "quirks" som kan vara lite känsliga.
  14. Såhär är det, med ordet "hit": HIT är engelska översättningen av det ursprungliga tyska Schlag, som betyder typ slag eller stöt. Ein Schlager ('en slående' eller 'en slagkraftig') var ursprungligen ett musikstycke ur musikalisk teater eller opera (opera buffa / operett), som hade en karaktär som gjorde att dom uppfattades lite avsides från all annan musik inom samma genre. En av deras karaktärer var att de var korta, opretentiösa, muntra (opera slutar annars alltid tragiskt), ihågkomliga, hade en matiné- eller paradliknande karaktär, och väldigt sångbara och enkla. Dom vart till "en grej", en gimmick, för sig själv liksom. Det gjorde låtarna extremt populära på ett lättsinnigt sätt men under väldigt kort tid. Man kan jämföra med melodin "Gubben Noah" eller "Här kommer Pippi Långstrump". Det är ingen som uppskattar dom melodierna för något gediget konstnärligt kompositionshantverk, utan det är bara melodier som alla kan, som är enkla, taktfasta och muntra. Lägg in en sån melodi i en opera, som annars är fylld av grandios tragik-musik, så förstår man direkt både hur en schlager kom till, hur den kunde låta och hur varför den blev så populär på så kort tid. Den tilltalade främst de som inte hade så musikaliskt öra, även om kompositionshantverket kunde vara gediget ändå. Dröjde inte länge innan vissa kompositörer började skriva specifikt för att vissa stycken skulle uppnå den här effekten. I operan "Trollflöjten" - en av de första operorna som skrevs på tyska - tröck Mozart in en hel del såna här melodier och fraser; främst kanske "Nattens drottning" och " ". Det tog en jäkla fart när opera började skrivas på tyska i början av 1800, för tyskarna älskar att . Idag så är sånt här standard, till skillnad för 200 år sen. Då var inte ens känslor ett giltigt mått på kompositörens skicklighet, utan han skulle uppskttas mer för sin tekniska/konstänrliga förmåga - inte känslor. Så för att visa exempel i vår tid måste man dra exempel som ”överdriver” lite. Här är några stycken som känns lite som "hits" från förr:" ", " ", " ", ”Celieto lindo”, " ", " " osv. Engelsmännen översatte "Schlag" till "Hit", och i Sverige översatte vi det till "Slagdänga" eller "Örhänge" – åtminstone tills vi blev anglifierade efter 2a världskriget. Idag har det dock lite en annan betydelse, än det hade först, men just ordet ”hit” avser traditionellt att sången attraherar en popularitet slående fort och för den har en slående karaktär. Att det är "en grej" för sig själv. Idag är i princip alla låtar i mediabruset "en grej för sig själv". Och nej, jag har inte. Har inte rätt kontakter för att få upp någon låt i så hög omloppsbana. En sång idag blir ju aldrig en hit bara av sin karaktär eller 'för den är bäst' eller så, eftersom miljoner försöker med exakt samma trick. Men den måste ändå ha en tydligt igenkännbar karaktär för att inte fastna i en lägre omloppsbana OM den skulle lyckas spridas. Spridningen och popularitetspumpandet sköts idag oftast genom modern marknadsföring och genom att använda varumärkesnamn, artistnamn m.m.
  15. Antar "fender" menar Anthony Egiziis Mixing Mastering with Waves (?) Att ersätta en trumma eller ett instrument betyder oftast att man tycker det inspelade instrumentet är så dåligt att man inte klarar av att göra något användabart av det, och att man tvingas byta ut det för att klara av att göra en redbar mix överhuvud taget. Grundläggande slutsatsen av det är ju att man borde skapa en ny inspelning, ett nytt grundmaterial. I slutändan av alla resonemang om detta så hamnar man ju i återvändsgränden att det ljud man ersätter originalinspelningen med är skapat av en tekniker som antingen är betydligt mycket bättre än en själv, eller haft otroligt mycket bättre grundmaterial att jobba utifrån än man själv har. Oftast är de det förstnämnda. Om man kunde skapa ett lika bra eller bättre/mer passande ljud själv, varför gör man då inte det istället för att trycka in någon annans sound? Talar man om moderna produktioner så menar man oftast låtar som följer DAWens tidslinje, följer takterna parallellt. I de flesta fall kan man bara lägga in ljudfilen som ska ersätta/komplettera originalet efter rutnätet, så överlappar den originalinstrumentet. Om musiken inte löper efter något konsekvent rytm-mönster som ens DAW kan använda sig av, så måste man använda sig av triggning. Det finns olika sätt att göra det på beroende på vilken DAW man använder sig av. Det finns även ett fåtal mer eller mindre effektiva mjukvaror, som skapar MIDI-filer utifrån audio-spår, som man kan importera i sin DAW sen.
  16. Pur some sugar on me .. men det sägs att det inte är helt och fullt det material som Mutt mixade från, utan bara delvis.
  17. Fast ... jag tycker nog inte det är någon påtaglig generell skillnad mellan inspelningar från högre/lägre budgetar. Många yrkestekniker kör ju med SM57a på virveln med. Blir ju ingen skillnad på signalen från mikrofonen beroende på om teknikern lever på sitt jobb eller är avancerad amatör. Är man i en studio med högt i tak kan det kanske bli lite bättre rumsljud, och folk kanske anstränger sig ett snäpp mer i sitt spel om det är cash och stora namn involverade, kanske fixar till trumljudet ett snäpp extra osv ... men överlag så brukar det låta i närheten av hur Freddes inspelning gjorde (förra mixtävlingen). Största skillnaden mellan råmaterial från avancerade hemanvändare och proffssammanhang tycker jag brukar vara att råmaterialet från hemanvändare brukar vara ganska jämn i kvalitén, medan i proffssammanhang kan spåren vara väldigt ojämna i kvalitet; vissa spår kan låta sagolikt medan andra låter .. märkligt. Har man inte hört mycket sånt så finns hela multitracks även av legendariska band ute på nätet. Finns flera spår från Queen, hela Bohemian Rapsody t.ex., Michael Jackssons Bad, finns ett spår från Def Leppard. Hittar man dom kan man ta hem och lyssna eller mixa själv. Inte ens där låter inte de råa spåren anmärkningsvärt mycket bättre än Freddes gjorde (ja okej, trummorna då).
  18. Fast .. är inte alla mixar fix-mixar, bara i olika utsträckning? Jag tycker inte det finns någon klar skiljelinje mellan 'rädda' och 'förbättra', och mixning handlar ju om att förädla ett föregivet material så bra det nånsin bara går. Sysslar man med den musik som dominerar på studioforum, så är det ju i princip aldrig fråga om att återge en ljudkälla så som örat uppfattar det i verkliga livet, utan det är ju typ alltid fråga om att skapa ett konstgjort ljudlandskap med syntetiska klanger. Så tänker jag på det i alla fall ..
  19. Ser inget mer än det jag vill se http://www.adblockpro.com/
  20. Inte lika mycke och ambient-mickar som man kanske är van vid annars - alternativt ett väldigt dämpat rum.Låter som trävirvel, låter som helgjutna sargar med (die cast). Den är spelad lätt, hela trumsetet är spelat med förhållandevis lätt handlag. Inte mycket kompression på virveln, mest lite limiting för att krossa den värsta attacken. Den är ganska hårt dämpad med, men inte med dämpring utan .. kraftigare dämpning. För att motverka hur "dov" virveln då brukar bli, har man nog höjt upp diskanten ganska bra, därför låter den så kort och stum i dom lägre registren men så klar och snärtig i de övre. Mitt intryck
  21. Förmodligen tycker han det är pinsamt. Tycker det ser så ut. 'I'm sitting here, in the cool TC studio, to show you all the cool features, stay tuned!' .. kan inte vara kul att måsta spela sådär framför en kamera.
  22. Sound Forge, Wavelab, Waveosaur m.fl. kunde tyvärr inte splitta 7-kanaliga filer - bara läsa dom. Måste tacka Linus för tipset om Sox, en relativt enkelt script-bas där man kan designa sina helt egna batch-processningar av ljudfiler, och kan processa ljudet på mängder med sätt. Det löste problemet för mig. Använder man batch-funktionerna i något program, Sound Forge, Wavelab osv eller jobbar mycket med egna stora samplingsbibliotek,. och är villig att scripta lite, då är det här definitivt värt att kolla in.
  23. Signia

    Axe FX

    Det där var nog skönaste inledningen på ett inlägg jag sett ☺️
  24. 2 kvadratmeter, är minsta *bekväma* yta, enligt egna erfarenheter från bandsituationer på olika scener. Men det är exklusive mickstativ och sånt. Klämmer man ihop till mindre än 2 kvadratmeter så får inte trummisen vara för lång eller trummorna för stora, eller för många. Man får bara plats med en uppsättning kagge, golvpuka, virvel, 2-3 cymbaler typ .. på den ytan. Vaf .. Florian? Har du klippt dig? Eller vad har hänt? Din bild ..
×
×
  • Skapa ny...