Videokompendium
Videokompendium
Videokompendium
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
Kompendium i videoteknik<br />
- Idé – Produktion – Distribution –<br />
Preliminär upplaga 2008<br />
av<br />
Dag Haugum<br />
Medverkande: Niklas Rönnberg, Greger Svanström, Markus Karlsson<br />
1
Innehåll<br />
Videons historia och utveckling 3<br />
Videosignalen 19<br />
Färgreproduktion 24<br />
Analog/Digital 32<br />
Dramaturgi 46<br />
Kommunikation med rörliga bilder 59<br />
Manusarbete 66<br />
Ljussättning 70<br />
Videokameran 74<br />
Ljud 91<br />
Videoredigering 102<br />
Bildberättande 106<br />
Att jobba med effekter för film och video 116<br />
2
Videons historia och utveckling<br />
Video kommer från latin och betyder ”jag ser”. Idag är det en benämning på upptagning,<br />
överföring, lagring och återgivning av elektriska bildsignaler. Till skillnad från film som är ett<br />
kemiskt medium, så är video ett elektroniskt medium. Man omvandlar bild och ljud till<br />
elektriska signaler. Dessa signaler lagras på olika sätt för att sedan omvandlas till bild och ljud<br />
igen.<br />
Den kinematografiska filmen<br />
Kinematografisk film, eller rörlig film, handlar om att lura hjärnan. Vi projicerar en serie<br />
stillbilder med en viss frekvens som får oss att uppfatta sekvensen som rörlig. Vår oförmåga<br />
att urskilja enskilda bilder ur en sådan sekvens av likartade bilder har man känt till sedan<br />
medeltiden. I och med att den fotografiska tekniken utvecklades under 1800-talet, så började<br />
man också experimentera med tekniker för att kunna avbilda verkligheten i rörliga bilder. De<br />
mest grundläggande tekniska förutsättningarna för att man skulle lyckas var att utveckla en<br />
tillräckligt ljuskänslig film på en flexibel filmbas i form av en lång remsa. Sedan måste en<br />
mekanisk-optisk enhet tas fram för att kunna fotografera bildserier på denna remsa och<br />
slutligen en enhet för att kunna projicera densamma. Genombrottet för den rörliga filmen kom<br />
1895 då bröderna Lumiére startade visning av kortfilmer inför publik. Man använde sig av en<br />
kombinerad filmkamera och projektor. Gensvaret blev enormt och sedan dess har<br />
utvecklingen av kinematografisk filmteknik präglat hela 1900-talet.<br />
Att visa film<br />
För att en rörlig bildfrekvens verkligen skall kännas rörlig och inte som en serie stillbilder, så<br />
krävs en minsta bildfrekvens. Denna minsta bildfrekvens är beroende av storleken på motivets<br />
förändring mellan varje enskild bild (vinkelförändring). Man brukar dock säga att gränsen för<br />
att uppfatta en bildsekvens som rörlig ligger på ca 16 Hz. Denna gräns kallas för phifenomemet<br />
(grekiska ϕ). Den standard som man har i dag över hela världen ligger på 24 Hz<br />
(bilder/sekund).<br />
En annan parameter som styr vår uppfattning av en filmprojektion är temporalt flicker. Under<br />
bytet mellan två bilder måste projektorn släckas. Detta sker med hjälp av en mekanisk slutare.<br />
Effekten blir då en mörkerpaus mellan varje bild. Vid låga frekvenser uppfattas det som<br />
flimmer eller flicker, ett slags stroboskopeffekt. Ögats kritiska gräns för att uppfatta temporalt<br />
flicker beror på betraktningsförhållanden och personlig känslighet. Man brukar ange att<br />
gränsen ligger mellan 48-75 Hz. Detta är betydligt över bildfrekvensen på 24 Hz för film. För<br />
att råda bot på detta konstrueras projektorslutaren så att varje bild visas två gånger, eller t.o.m.<br />
tre, innan byte till nästa bild sker. Genom detta förfarande erhåller vi en frekvens på 48 eller<br />
72 Hz, vilket ju får betraktas som tillfredställande.<br />
3
Figur 1: Principskiss över hur en projektor för kinematografisk film fungerar. Notera<br />
sektorbländaren som dubblerar bländarfrekvensen (men inte bildfrekvensen).<br />
Den elektroniska bilden<br />
Teoretiskt sett kan man betrakta kinematografisk film som ett parallellt medium. När varje<br />
enskild bild projiceras på bioduken, så skjuts ju hela bilden ut samtidigt från projektorn (alla<br />
fotoner på en gång). Om vi däremot skulle vilja visa filmen samtidigt i en annan lokal, så<br />
måste vi hitta på ett sätt att i realtid skicka över bilderna. Då fungerar inte det parallella<br />
distributionssättet. Vi måste överföra bilden seriellt (i realiteten via en koppartråd eller<br />
liknande). Detta är den avgörande praktiska skillnaden mellan kinematografisk film och<br />
video. Behovet av, eller intresset för, att kunna distribuera rörliga bilder över långa sträckor,<br />
helst samtidigt som de filmas drev utvecklingen av videotekniken.<br />
Startsträckan för videotekniken<br />
Upptakten till det som så småningom skulle bli dagens videoteknik skedde faktiskt till stora<br />
delar parallellt med den kinematografiska filmen. Dock dröjde det längre innan den praktiska<br />
tillämpningen spred sig.<br />
Det finns ett antal milstolpar som kännetecknar utvecklingen av dagens videoteknik. Om man<br />
ska ta det hela från början, så kan man säga att det första fröet såddes i och med upptäckten av<br />
4
grundämnet selen år 1817. Naturligtvis hade man då ingen aning om vilken betydelse selen<br />
skulle ha för framtida elektronisk bildöverföring.<br />
Den franske fysikern Edmond Becquerel upptäckte att när man sänkte ner två metallplattor i<br />
en elektrolyt, så uppstod en elektrisk laddning mellan plattorna när dessa belystes. Trots att<br />
Becquerel i och med detta hade upptäckt den elektrokemiska effekten under inverkan av ljus,<br />
så hade han inga förslag på hur man praktiskt kunde dra nytta av denna upptäckt.<br />
Nästa viktiga steg i utvecklingen kom när Alexander Bain år 1842 skissade fram funktionen<br />
för en telefaxapparat baserad på Becquerels upptäckt. Idén gick ut på att elektriskt laddade<br />
metallbokstäver skulle skannas av en pendel. Den elektriska strömmen som uppstod i pendeln<br />
skulle via en telegraflina överföras till en liknande pendel, synkroniserad med den första.<br />
Bokstäverna skulle sedan reproduceras på ett kemiskt papper som placerades under den andra<br />
pendeln. Hans resonemang belyste flera grundläggande kriterier för elektrisk överföring av<br />
bilder. För det första att bryta ner bildinformationen i små bitar som kan skickas seriellt som<br />
en elektrisk ström till en mottagare. Dessutom vikten av synkronisering mellan sändare och<br />
mottagare.<br />
1847 patenterade F. Bakwell en kemisk telegraf byggd på Alexander Bains resonemang.<br />
Istället för pendel använde han istället synkroniserade roterande trummor.<br />
1873 upptäckte den brittiske telegrafisten Louia May grunderna till det som vi idag utnyttjar i<br />
fotoelektriska ledare, nämligen det att selen ändrade sin elektriska ledningsförmåga när det<br />
exponerades för ljus. Ledningsförmågan varierade beroende på hur stor mängd ljus som<br />
träffade metallen.<br />
Den slutliga länken mellan telegrafi och television gjordes av fransmannen M. Senlaq. 1878<br />
föreslog han att selen kunde överföra dokument. Han menade att ändringen i den elektriska<br />
strömmen som uppstod i selen när denna skannade ett dokument kunde kontrollera en penna<br />
på magnetisk väg i mottagardelen vid en elektrisk överföring.<br />
Den elektromekaniska TV:n<br />
Sex år senare uppfann den tyske universitetsstudenten Paul Nipkow det som kan betecknas<br />
som den första föregångaren till dagens video. Den kallas för Nipkows skiva och den består i<br />
princip av två identiska skivor, en ”sändare” och en ”mottagare” med ett antal små hål som är<br />
ordnade i spiralform. Dessa skivor roterar synkront. På den ena skivan, sändarskivan,<br />
projiceras en liten bild som de små hålen passerar över. På andra sidan av skivan sitter en<br />
fotocell som registrerar ljusvariationerna när hålen passerar över bilden.<br />
Eftersom hålen är ordnade spiralformigt på skivan, så sveper varje hål över en ny sträcka intill<br />
föregående svep på bilden. När skivan roterat ett varv, så har hela bilden skannats av.<br />
På mottagarskivan har man placerat en lampa. Mellan lampan och skivan har man två<br />
polarisationsfilter som styrs av fotocellen på sändarskivan. På så sätt regleras ljusstyrkan<br />
analogt med den som fotocellen registrerar. Mottagarskivan kan på så sätt projicera en bild<br />
motsvarande den som visas på sändarskivan. Principen att låta bilden ritas upp av en serie<br />
linjer är densamma som används i videoöverföring idag.<br />
5
Figur 2: Principen för hur en elektromekanisk TV överföring fungerar enligt Nipkow.<br />
Figur 3: Ett exempel på Nipkows egna anteckningar när han utvecklade sin skiva.<br />
Bildrör<br />
Den elektromekaniska TV:n blev ingen kioskvältare av flera orsaker. Framför allt den<br />
mekaniskt roterande skivan var otymplig och apparaten förde ett ganska stort oväsen. Det var<br />
först på 1930-talet som elektroniken kom in på allvar i form av det första helt elektroniska<br />
mottagarbildröret (TV röret), kineskopet och motsvarande kamerarör. Kameraröret bygger på<br />
att man skapar en elektronisk bild inne i röret som sedan scannas av en elektronstråle. De<br />
första kommersiella kamerarören utnyttjade fotoemissionstekniken och hade beteckningen<br />
Ikonoscope.<br />
1937 sände BBC för första gången med ett 405 linjers system med en bildfrekvens på 25 Hz.<br />
Detta skulle alltså motsvara 405 hål på Nipkows skiva med en rotationshastighet på 25<br />
varv/sekund enligt ovan.<br />
6
Bild 1: Kamerarör av typen Iconoscope från 1939.<br />
Vidareutveckling skedde från att använda fotoemissionsteknik till att utnyttja<br />
fotokonduktivitet i rören. Under årens lopp fick rören namn som Ohrtikon, Plumbikon,<br />
Satikon och Vidikon. Rören var dyra i tillverkning, hade begränsad livslängd, krävde<br />
kalibrering (position), ganska ljussvaga, krävde relativt stor plats och var känsliga för stötar.<br />
Detta gjorde kamerorna till dyra och relativt otympliga pjäser. Dessutom kunde de skadas av<br />
alltför kraftigt ljus (s.k. inbränning). En bieffekt av detta var de typiska ”eftersläpningarna”<br />
som bildades när en kraftig ljuskälla passerade över bildytan. Det bildades en ”ljusorm” som<br />
gjorde att ljuskällan blev utdragen i rörelseriktningen.<br />
Figur 4: Principen för hur ett kamerarör fungerar ( i detta fall Vidicon). När<br />
elektronstrålen sveper över den fotokänsliga ytan kommer en varierande mängd<br />
elektroner att frigöras beroende på hur mycket ljus som projiceras via<br />
kameraobjektivet. På så sätt skapas en varierande spänningspotential (V s ) som skickas<br />
vidare direkt eller indirekt till en TV mottagare.<br />
7
Bild 2: Något ”modernare” kamerarör (RCA 2P23 Orthicon).<br />
Vad gäller mottagare, så hade bildröret, i analogi med kameraröret, en cirkulär projiceringsyta<br />
från början. TV chassiet utformades dock så att betraktningsytan var i det närmaste fyrkantig.<br />
Successivt utvecklades bildröret mot att få ni det närmaste 90 gradiga hörn och ett<br />
bredd:höjdförhållande 4:3.<br />
Någon gång under andra halvan av 1980 talet övertogs rören av CCD tekniken. Den nya<br />
tekniken eliminerade många av de olägenheter som kamerarören hade.<br />
Interlased scanning<br />
Ett problem med äldre tiders katodstrålerör som användes för att projicera TV bilder var den<br />
begränsade efterglödningstiden hos den fosfortäckta frontytan på bildröret. Man kom snart<br />
fram till att bildfrekvensen skulle ligga på 25 bilder per sekund (Europa) eftersom det var en<br />
jämn multipel på nätfrekvensen som var 50 Hz. Man använde alltså nätfrekvensen som<br />
synkroniseringskälla.<br />
Det visade sig att från det att elektronstrålen startat uppe i det vänstra hörnet tills det att<br />
strålen 1/25 sekund senare nått fram till det nedre högra hörnet, så hade efterglöden på<br />
skärmen avtagit så mycket att det skapade ett påtagligt ojämnt ljusflöde. Bilden pulserade<br />
med 25 Hz. Dessutom ligger 25 Hz en bra bit under gränsen där det mänskliga ögat uppfattar<br />
temporalt flicker. Genom att höja frekvensen till det dubbla, minskade denna effekt påtagligt.<br />
Istället för att öka bildfrekvensen som skulle medföra ökad bandbredd, så kom man på att<br />
man i och för sig skulle öka frekvensen till det dubbla, men i varje svep bara rita ut varannan<br />
linje. Resultatet blev att man i första svepet ritade ut alla ojämna linjer, medan man i det andra<br />
svepet ritade ut resterande jämna linjer. På detta sätt kunde man fördubbla frekvensen (till en<br />
delbildsfrekvens på 50 Hz) utan att öka bandbredd. Detta förfarande kallas Interlaced<br />
Scanning.<br />
8
Figur 5: Principen för interlaced scanning.<br />
Olika TV system<br />
Utvecklingen på TV området avbröts i Europa under andra världskriget för att sedan snabbt<br />
tas upp igen efter krigsslutet. Efter en hel del experimenterande startade de första svenska<br />
reguljära TV sändningarna 1956. Naturligtvis svart-vitt och med 625 linjers vertikal<br />
upplösning och 25 bilder/sekund. Dock hade RCA i USA redan tre år tidigare utvecklat ett<br />
färg-TV system kallat NTSC (National Television System Committee).<br />
Bild 3: Sändningsutrustning för video 1956.<br />
Det dröjde till 1966 innan Europa beslutade om ett eget färg-TV system. Det fick namnet<br />
9
PAL (Phase Alternate Lines). Frankrike, som ofta ser sig som lite bättre, beslutade sig för sitt<br />
eget SECAM (Sequential Couleur Avec Mémoire). Dessa system fördelar sig på olika sätt<br />
runt om i världen idag. Den första reguljära färg-TV sändningen i Sverige gjordes 1970.<br />
De tre sinsemellan helt inkompatibla färg-TV systemen fördelades över världen. Detta<br />
skapade naturligtvis problem i det internationella programutbytet med det elektroniska<br />
formatet. Samtidigt skapades en marknad för konverteringsteknik mellan de olika systemen.<br />
Konvertering tar tid, kostar pengar och medför vissa kvalitetsförluster.<br />
NTSC (National Television System Cimmittee) infördes i USA 1953 och är baserad på 525<br />
TV-linjers upplösning och 60 Hz delbildsfrekvens (eller rättare 59,94 Hz p.g.a.<br />
interferensproblem med färgbärvågen). Bandbredden är 4,2 MHz. Systemet<br />
tillämpas i Nordamerika, huvuddelen av Mellan- och Sydamerika, Japan och Australien.<br />
PAL (Phase Alternation Line) introducerades 1963 av tyska Telefunken. Systemet bygger på<br />
625 TV-linjers upplösning och 50 Hz delbildsfrekvens. Bandbredden är 5,0 MHz. Systemet<br />
tillämpas i hela Västeuropa, utom Frankrike, huvuddelen av Afrika och arabstaterna, Kina och<br />
Indien.<br />
SECAM (Séquentiel Couleur Avec Memorie) anammades av Frankrike 1967. Det bygger på<br />
625 TV-linjers upplösning, 50 Hz delbildsfrekvens och en bandbredd på 6,0 Mhz. Systemet<br />
används, förutom av Frankrike, av de flesta stater i det forna Östeuropa, Nordafrika och en<br />
rad stater i Mellanöstern.<br />
Utöver dessa standards, så döljer varje standard ytterligare undergrupper som främst berör<br />
skillnader i bärvågsfrekvens för bild och ljud.<br />
Tabell 1: Jämförande karakteristik mellan de tre TV-systemen i världen.<br />
Inspelningsteknik<br />
I USA där direktsända underhållningsprogram sändes från kust till kust med uppemot sex<br />
timmars tidsdifferens blev önskemålet att spela in programmen, för att sända dom vid ett<br />
senare tillfälle, alltmer angeläget. Till en början filmade man helt enkelt av en TV-skärm med<br />
en filmkamera. Denna typ av konvertering till kemisk film kallas för telefilmning och gav inte<br />
någon bra kvalitet. Man funderade på att istället spela in videosignalen på ett stålband eller<br />
tape belagd med magnetiserbar metalloxid. Redan 1888 kunde dansken Valdemar Poulsen<br />
spela in ljudsignaler på en ståltråd. Den uppfinningen ligger till grund för all elektromagnetisk<br />
inspelning idag.<br />
10
Problemet med att spela in bild på samma sätt som ljud var att bildsignalens bandbredd är<br />
betydligt större än ljudets. Ljudsignalens frekvensområde ligger mellan 20 - 20 000 Hz medan<br />
videosignalens ligger mellan 20 - 5 000 000 Hz (MHz). Bandbredden för ljudet är ca 10<br />
oktaver medan motsvarande bandbredd för video är 18 oktaver. (En oktav motsvarar en<br />
fördubbling av frekvensen.) Hög frekvens medför kort våglängd. Hur kort våglängd som man<br />
kan spela in på ett videoband beror av flera fysiska parametrar, bl.a. de magnetiserbara<br />
partiklarnas storlek på bandet. Genom att öka bandhastigheten, så kan man ”öka” våglängden<br />
på bandet. För att kunna registrera de korta våglängder som gällde för video, så skulle man<br />
tvingas öka bandhastigheten till 12 meter per sekund. En timmes videomaterial skulle behöva<br />
42 km magnettape, vilket var orealistiskt.<br />
Charles Ginsburg och Ray Dolby, som arbetade på företaget Ampex i USA, kom på att man<br />
kunde öka den så kallade skrivhastigheten med hjälp av att flera videohuvuden monterades på<br />
en roterande cylinder. Genom att låta cylindern rotera mot bandtransportriktningen, så ökade<br />
man videobandets hastighet relativt videohuvudets utan att behöva öka bandets hastighet.<br />
Detta gjorde att man kunde erhålla tillräckligt ”långa” våglängder för att kunna spela in på<br />
magnetbandet. Den första videobandspelaren visades den 14 april 1956.<br />
Den använde sig av det sk Quadruplex-systemet. Den använde sig av 2” band och var en<br />
allmänt otymplig pjäs. Den första inspelningskonfigurationen som användes kallades Arcurate<br />
scan där bandet fick löpa utmed en roterande skiva där inspelningshuvudet placerades på<br />
skivans periferi.<br />
Bild 4: Arcurate scan. Mittbilden visar hur magnetspåren hamnade på bandet.<br />
Kurvaturens radie motsvarar inspelningsskivans.<br />
11
Tekniken utvecklades och nästa steg var Transverse scanning där videobandet fick löpa över<br />
utsidan av en roterande skiva. För att full magnetisering skulle ske, så måste bandet böjas<br />
något i tvärriktningen.<br />
Figur 6: Principen för Transverse recording.<br />
I början hade man inte möjlighet att kopiera från ett band till ett annat. Transverse recording<br />
tekniken möjliggjorde att klippa i bandet även om det hörde till undantagen. Var man tvungen<br />
att göra det, så måste man använda sig av olja, järnfilsspån och lupp för att kunna lokalisera<br />
bildsynksignal och bildsläckfas. Inspelningshuvudet bestod alltså av en roterande skiva som<br />
lagrade bildrutorna som parallella spår så gott som vinkelrätt mot bandriktningen.<br />
En vidareutveckling av Quadruplex-systemet var Helical-systemet. Det innebar att man lutade<br />
videohuvudet i förhållande till videobandet. På så sätt lades de till bildrutorna hörande spåren<br />
diagonalt på banden och man var därigenom inte lika beroende av videobandets bredd för att<br />
lagra tillräcklig information iför varje bildruta.<br />
Figur 7: Principen för Helical recording.<br />
12
Bild 5: Video huvud (Upper drum) på en VHS bandspelare som utnyttjar Helical scanning.<br />
Figur 8: Trackingkonfiguration för Betacam som utnyttjar Helicaltekniken för inspelning<br />
på band. ”Y Track” och ”C Track” är luminans resp. krominanssignaler.<br />
Formatstrid<br />
I början av 70-talet fanns ett antal ½” bandformat för skol- och institutionsbruk. Alla dessa<br />
var s.k. spolband med öppna bandspolar. Videoformatet var svartvitt.<br />
1972 presenterade Philips ett bandformat för ”den vanlige konsumenten”. Dom kallade det för<br />
VCR (Video Cassette Recorder) och var alltså ett kassettbundet system. Kassetterna hade 1/2”<br />
bredd på videobanden och en bandhastighet på 14,29 m/s och en maximal speltid på 60<br />
minuter. Önskemålet från köparna om att kunna spela in långfilmer växte och man tvingades<br />
att tillverka ett system som klarade detta. En ny modell lanserades där bandhastigheten sänkts<br />
till 6,56 m/s med bl.a. sämre ljudåtergivning som följd. Dessutom var det inte kompatibelt<br />
med det förra systemet.<br />
13
1978 lanserades Sonys Betamax system och JVC m.fl. VHS system. 1979 ersatte Philips sina<br />
två tidigare VCR system med Video-2000. Det system som sedermera vann striden om<br />
konsumentmarknaden är det väl ingen som missat.<br />
I slutet av 70-talet kom 1” formatet som ett nytt professionellt bandformat med öppna spolar.<br />
Systemet återfanns i två varianter 1”B och 1”C och var ett utpräglat studioformat p.g.a. sin<br />
storlek. Det förekom även portabla 1” maskiner då man önskade videoinspelning med högre<br />
kvalitet. Alternativet var film eller U-Matic.<br />
Sony som förlorade med sitt Betamax system på konsumentmarknaden kontrade i den<br />
semiprofessionella branschen med sitt U-Matic system. Detta utvecklades sedermera till U-<br />
Matic Hi Band (även benämnt BVU, Broadcast Video U-Matic) och U-Matic Hi Band SP.<br />
Bild 6: Entums videobandspelare från slutet av 80-talet.<br />
Camcorder<br />
1982 introducerade Sony sin nya camcorderteknik på den professionella marknaden (dvs.<br />
bandspelaren inbyggd i kameran) med Betacam och sedermera den vässade versionen<br />
Betacam SP. Dessa system revolutionerade inspelningstekniken. En yttreligare fördel var att<br />
man utnyttjade komponentsignal vilket innebar att man separerade luminansen och de tre<br />
grundfärgerna.<br />
14
Bild 7: Modern camcorder (DVCAM).<br />
Parallellt med detta utvecklades på amatörsidan VHS systemet till VHS-C (ett<br />
kompaktsystem) och S-VHS. S-VHS utnyttjar en S-videosignal som skiljer sig från den<br />
gängse kompositsignalen på så sätt att färg och ljus (krominans och luminans) hålls<br />
separerade. På så sätt erhålls en renare signal och därmed bättre bild. På motsvarande sätt<br />
kontrade Sony med sitt kompakta Video 8 och sedermera Hi-8.<br />
Figur 9: Illustration hur den tekniska utvecklingen bidragit till mindre och billigare<br />
lagringsformat, samtidigt som kvalitén förbättrats.<br />
Både på amatör och på proffssidan har man försökt att lansera konkurrerande system.<br />
Panasonics M2 var ett exempel på sådant system för att försöka att bryta Sonys i det närmaste<br />
monopoliserade ställning på proffsmarknaden.<br />
I början av 90-talet började digitala system att dyka upp, främst på proffsmarknaden. Det<br />
första kompletta systemet var Sonys Digital Betacam eller ”Digibeta” som det kallas.<br />
15
Under de sista åren på 90-talet har den digitala revolutionen tagit fart på allvar. Idag finns<br />
system som DV, DVCAM, DVCPRO, DVCPRO-50, Digital-S, Betacam SX, IMX, Digital<br />
Betacam. På sista tiden har system som baseras på annat än band som inspelningsmedium.<br />
Exempel på detta är Sonys XDCAM som använder sig av ett diskbaserat inspelningssystem<br />
byggt på blålaserteknik samt Panasonics P2 som utnyttjar fastminne som lagringsmedium.<br />
Ett exempel på komplexiteten i utvecklingen av olika videosystem kan illustreras av vad SVT<br />
införskaffat under åren för att hålla igång produktionen. Se tabellen nedan. Utöver dessa fanns<br />
ytterligare konkurrerande system.<br />
Startår Format Modellexempel Bandbredd Teknik<br />
1959 2-tum, LB Ampex, VR-1000 Spole, 50 mm Analog, sv/v<br />
1966 2-tum, HB Ampex, VR-2000 Spole, 50 mm Analog, komposit<br />
1966 1-tum Philips, EL3402 Spole, 25 mm Analog, sv/v<br />
1966 1-tum, A Ampex, VR7000 Spole 25 mm Analog, komposit<br />
1969 1-tum Bell & Howell, 2920 Spole 25 mm Analog, komposit<br />
1972 ¼-tum Akai, VT-300 Kassett, 6 mm Analog, sv/v<br />
1974 VCR Philips, N-1500C Kassett, 12 mm Analog, komposit<br />
1976 U-matic, LB Sony, VO-2850 Kassett, 19 mm Analog, komposit<br />
1977 ½-tum National, NV-3085 Spole, 12 mm Analog, sv/v<br />
1978 1-tum, B Bosch, BCN51 Spole 25 mm Analog, komposit<br />
1980 1-tum, C Ampex, VPR3 Spole, 25 mm Analog, komposit<br />
1980 U-matic HB Sony, BVU-800 Kassett, 19 mm Analog, komposit<br />
1981 VHS Panasonic, NV-7000 Kassett, 12 mm Analog, komposit<br />
1982 Betamax Sony, SL-T50 ME Kassett, 12 mm Analog, komposit<br />
1982 Video-2000 Philips, VR-2020 Kassett, 12 mm Analog, komposit<br />
1983 1-tum, B/LP Bosch, BCN51LP Spole, 25 mm Analog, komposit<br />
1984 Betacam Sony, BVW-40 Kassett, 12 mm Analog, komponent<br />
1986 Video-8 Sony, EV-A300 EC Kassett, 8 mm Analog, komposit<br />
1988 S-VHS Panasonic, NV-FS100 Kassett, 12 mm Analog, komposit<br />
1989 Betacam SP Sony, BVW-75 Kassett, 12 mm Analog, komponent<br />
1990 D2 Sony, DVR18 Kassett, 19 mm Digital, komposit<br />
1991 D3 Panasonic, AJ-D350 Kassett, 12 mm Digital, komposit<br />
1991 Hi-8 Sony, EVO-9850P Kassett, 8 mm Analog, komposit<br />
1992 1-tum, B-HDTV Bosch, BCH-1000 Spole, 25 mm Analog, komponent<br />
1993 Digital Betacam Sony, DVW-500 Kassett, 12 mm Digital, komponent<br />
1996 DV Sony, DCR-VX-1000 Kassett, 6 mm Digital, komponent<br />
1997 DVCAM Sony, DSR-80 Kassett, 6 mm Digital, komponent<br />
1997 DVCPRO Panasonic, AJ-D750 Kassett, 6 mm Digital, komponent<br />
1997 Betacam SX Sony, DNW-A100 Kassett, 12 mm Digital, komponent<br />
1999 DVCPRO-50 Panasonic, AJ, D950 Kassett, 6 mm Digital, komponent<br />
2002 IMX Sony, Kassett, 12 mm Digital, komponent<br />
2003 XDCAM Sony, DVD skiva Digital, komponent<br />
2004 P2 Panasonic, Fastminne Digital, komponent<br />
Tabell 2: Videoformat på SVT under drygt 40 år<br />
HDTV - högupplösnings-TV<br />
Redan i början av 70-talet började de stora hemelektroniktillverkarna att titta på TV-system<br />
som skulle kunna ge ännu bättre bild än vad NTSC, PAL och SECAM kunde erbjuda.<br />
Mikroelektronikens utveckling gick så snabbt, så att detta inte skulle vara några tekniska<br />
problem. Speciellt var förbättringslängtan stor i de länder som hade det förhållandevis gamla<br />
16
NTSC systemet. I Japan, som mer eller mindre påtvingats NTSC systemet, började företag<br />
som Sony, Matsushita och NHK att utveckla ett nytt TV-system med bättre bild- och<br />
ljudkvalitet - HDTV (High Definition TV).<br />
1986 föreslog japanerna att deras, vid det här laget långt utvecklade system, skulle bli<br />
världsstandard för det nya HDTV-systemet. Det skulle ha 1125 TV-linjer och 60 Hz<br />
delbildsfrekvens. Naturligtvis kunde inte europeerna med Frankrike i spetsen gå med på detta,<br />
utan föreslog ett eget system med 1250 linjer och 50 Hz. Därmed var formatkriget i full gång<br />
igen.<br />
Entusiasmen inför det analoga HDTV-systemet var mycket stort. Vidfilmsbild i 16:9 format<br />
med sex gånger tätare bildraster än en vanlig TV-bild. Den knivskarpa och detaljrika bilden<br />
tillsammans med mycket hög ljudkvalitet var förförisk och man började hårdlansera tekniken.<br />
Verkligheten kom dock ikapp. En TV-mottagare byggd på katodstråleprincipen skulle väga<br />
uppemot 70 kg och priset, även vid serieproduktion, skulle hamna på 35 000:-. Den analoga<br />
HDTV-signalen krävde enorm bandbredd, i storleksordningen 30 Mhz. Alltså sex gånger mer<br />
än de existerande TV-systemen.<br />
Parallellt utvecklades digitaltekniken samtidigt som marknadsundersökningar visade att<br />
konsumenterna hellre ville ha ett större programutbud än bättre bild- och ljudkvalitet.<br />
Dessutom kan man lättare anpassa digitaltekniken till befintliga mottagare. HDTV innebär att<br />
allt från inspelning, bearbetning, sändningssystem mottagare och bandspelare måste bytas ut.<br />
Europa och Japan hade fram till i början av 1990-talet satsat enorma summor pengar i det<br />
analoga HDTV-systemet. I Europa ville man satsa på ett satellitbaserat analogt system under<br />
beteckningen HD-MAC. Dåvarande svenska, norska och danska televerket i samarbete med<br />
SVT presenterade 1992 ett digitalt HDTV koncept, HD-DIVINE, som skulle kunna sändas i<br />
det befintliga telenätet. Resultatet blev att Europa lade ner HD-MAC projektet. Men istället<br />
för att satsa på HD-DIVINE, så fokuserade man istället på en digital broadcaststandard<br />
(DBV). USA var redan tidigt inne på att utveckla den digitala HDTV tekniken och har,<br />
tillsammans med flera länder runt om i världen (utom Europa) ryckt åt sig initiativet vad<br />
gäller den digitala HDTV utvecklingen. Det blev också amerikanska lösningar som<br />
drivit den digitala HDTV utvecklingen framåt sedan den senare delen av 90-talet.<br />
Det som man normalt menar när man pratar om HDTV är en upplösning på 1920x1080 pixlar<br />
(1080i) (att jämföra med SDTV (Standard Definition TV) på 720x 576 pixlar) och 25 bilder<br />
per sekund interlaced scanning eller 1280x720 pixlar progressive (720P). Det finns ytterligare<br />
ett antal varianter på detta som alla går under benämningen HDTV. En annat HD format är<br />
2K (2048x1526) som används vid arbete med digitala effekter, men har även blivit ett format<br />
för s.k. E-bio.<br />
Generellt eftersträvar man att gå ifrån interlacetekniken i HD sammanhang.<br />
TV-skärmens format<br />
När en gång TV skulle introduceras, så sneglade man av naturliga skäl på filmindustrin.<br />
Stumfilmens format fixerades till proportionerna 1,33:1 där 1 alltid representerar bildhöjden.<br />
Detta förhållande anammades av TV-världen, men man uttryckte samma bildförhållande med<br />
siffrorna 4:3 istället. Till en början fanns en samstämmighet mellan filmens och TV<br />
bildformat, men i och med TV:s snabba expansion så kände sig filmbranschen sig alltmer<br />
hotad. I början av 1950 talet bestämde sig filmbolagen att satsa på filmformat som var svåra<br />
17
och ibland omöjliga att visa i TV. Format som CinemaScope, Todd-AO och icke-anamorfisk<br />
vidfilm togs fram till priset av höga kostnader för bl.a. biografägare.<br />
Så småningom började filmbranschen ändå att inse att deras filmer förr eller senare skulle<br />
hamna i TV-rutan. Olika åtgärder vidtogs för att på bästa sätt göra rättvisa åt de filmer som<br />
hade ett annat bildformat än 4:3. Det finns fortfarande en uppsjö av åsikter och tekniker om<br />
hur man bäst tar tillvara olika filmformat i TV-rutan. Genom lanserande av vidfilms-TV<br />
formatet 16:9 har man underlättat betydligt för visning av film på TV. 16:9 har ingenting med<br />
HDTV att göra annat än just förhållandet mellan bildens höjd och bredd.<br />
Bild 8: CinemaScope i jämförelse med TV formatet 4:3.<br />
18
Videosignalen<br />
I optiska sammanhang talar man om att en hel bild som vi upplever den är en parallell<br />
process. D.v.s. att alla delar av bilden projiceras samtidigt över hela den aktuella bildytan.<br />
Detta gäller också vår subjektiva upplevelse av en videobild. Verkligheten är dock en annan.<br />
Videosignalen är linjär, vilket innebär att bilden måste ritas upp bit för bit. Vi talar om att<br />
bilden scannas. På en datorskärm scannas bilden linjevis (s.k. linjesvep) från övre vänstra<br />
hörnet till den nedre högra för att en bild ska uppstå (s.k. bildsvep). Denna process upprepas<br />
ett antal gånger per sekund (t.ex. 70 Hz). Antalet linjer (linjeupplösning) kan normalt ställas<br />
via datorns mjukvara. Denna scanning kallas för progressiv.<br />
Figur 10:Progressiv scanning.<br />
När det gäller det videosystem som vi använder idag, så använder vi i PAL systemet en<br />
bildfrekvens på 25 bilder per sekund. Istället för att scanna linje för linje, så låter vi istället<br />
elektronstrålen scanna varannan linje för att i nästa bildsvep scanna resterande linjer. Med<br />
detta förfaringssätt krävs två hela bildsvep för att skapa en komplett bild. Med en bildfrekvens<br />
på 25 bilder/sek skapas 50 delbilder/sek. Detta kallas för interlaced scanning och är ett arv<br />
från tidiga CRT med begränsad ”efterglödningstid”. Fördelen med interlaced scanning är att<br />
man kan öka bildfrekvensen utan att öka bandbredd.<br />
Aktiva linjer<br />
I PAL systemet använder vi oss av 625 horisontella linjer. Dock använder vi oss inte av alla<br />
dessa linjer för att rita upp TV bilden. Istället är bildupplösningen 576 linjers vertikal<br />
upplösning. Även horisontellt utnyttjas inte hela bandbredden för att rita upp en bild. Den del<br />
av signalen som vi använder för att rita upp en bild kallas aktiva linjer, medan de ”osynliga”<br />
signalerna kallas vertikalsläck respektive horisontalsläck. Dessa ”osynliga” signaler används<br />
för att föra över tilläggsinformation till TV:n. T.ex. synkroniseringspulser och text-TV.<br />
19
Rörelse och flicker<br />
Vår uppfattning av hur ”mjukt” som vi upplever en rörlig film styrs av främst två parametrar.<br />
Det ena styr den lägsta bildfrekvens där vi upplever rörelser som mjuka utan ryckighet. Denna<br />
lägsta gräns styrs bl.a. av rörelsens storlek, avstånd till bildskärm m.m. De bildfrekvenser som<br />
vi använder oss av i videosammanhang ligger normalt över denna gräns.<br />
Figur 11: Interlaced scanning.<br />
Den andra parametern är flicker. Denna kan dessutom uppdelas i temporalt- och spatialt<br />
flicker. En typ av flicker är stroboskopeffekt (temporal), d.v.s. en hastigt oscillerande<br />
variation i ljusflöde.<br />
Förekomsten av ett kraftigt flicker p.g.a. dålig efterglödtid på tidiga CRT gjorde, som vi<br />
tidigare nämnt, att man valde interlaced scanning för att på så sätt öka bildfrekvensen.<br />
Spatialt flicker uppkommer då tunna horisontella linjer eller skarpa övergångar projiceras via<br />
interlaced scanning. Om exempelvis en tunn linje på motivet hamnar mellan två intilliggande<br />
linjesvep på videon, kan samma linje på motivet registreras av de båda intilliggande<br />
linjesvepen. Eftersom de intilliggande tillhör olika bildsvep, så kommer linjen att oscillera<br />
mellan de två linjesvepen.<br />
Konvertering mellan interlaced- och progressive scanning.<br />
När en interlaced videosekvens skall konverteras till progressivt format, vilket förekommer så<br />
fort materialet skall användas i datorsammanhang, kan fenomen uppstå i konturer på rörliga<br />
föremål. Eftersom en bild registreras i endast vartannat linjesvep i ett bildsvep, så kommer<br />
linjerna i nästa bildsvep att vara tidsmässigt förskjutna 1/50 sek. Detta innebär att varannan<br />
20
linje är förskjutna 1/50 sek i förhållande till intilliggande. När man konverterar till<br />
progressivt, så kommer två interlaced bildsvep att ritas upp samtidigt. Detta innebär att<br />
tidsförskjutningen mellan två linjer ritas upp samtidigt. Föremål som förflyttat sig i bild<br />
kommer att ha olika lägen i de olika bildsvepen vilket resulterat i att dessa föremål kommer<br />
att få taggiga konturer.<br />
Fig 12: Konvertering mellan interlaced och progressiv ger taggiga kanter på rörliga objekt.<br />
Motivet delförstorat i mitten.<br />
Genom s.k. deinterlace kommer man tillrätta med problemet. Man plockar helt sonika bort<br />
varannan linje och antingen dubblerar de övriga, eller så interpolerar man fram de nya<br />
ersättningslinjerna. I båda fallen går information förlorad.<br />
Odd eller even<br />
I interlace sammanhang pratar man om odd or even, d.v.s. ojämna eller jämna linjer. En hel<br />
bild ritas upp av två bildsvep. Ibland är det viktigt att veta om den hela bilden börjar med ett<br />
bildsvep som ritar upp de ojämna linjerna eller tvärt om. Detta gäller om man skall skapa<br />
animationer som utnyttjar deinterlaced scanning. I de flesta fall får man testa. Gör man fel, så<br />
märker man det tydligt på att alla rörelser rycker fram och tillbaka med en frekvens av 50Hz.<br />
Det är inte njutbart.<br />
Kell faktorn<br />
Man pratar om en bilds upplösning och då pratar man ofta i videosammanhang om antalet TV<br />
linjer. D.v.s. att den vertikala upplösningen i en bild är lika med antalet linjer. Tyvärr är den<br />
reella upplösningen lägre. Hur mycket lägre beror på den enskilda bildens utseende (motivets<br />
uppbyggnad). Man har genom olika empiriska tester kommit fram till att den absoluta<br />
upplösningen i en progressivt skannad bild ligger på i genomsnitt ca 70 % av antalet linjer.<br />
Detta värde kallas för Kell faktorn.<br />
21
Vi tänker oss extremfallet att vi har en videobild som innehåller ett horisontellt raster med<br />
omväxlande vita och svarta linjer med samma intervall som TV linjerna. Om linjesvepet<br />
skulle överensstämma exakt med respektive svart och vit linje, så skulle varannan TV linje<br />
återges svart och varannan vit enligt figuren nedan.<br />
Figur 13: Resultat när de horisontella rasterlinjerna sammanfaller med TV linjerna.<br />
Om TV linjerna skulle vara förskjutna, så att övergången mellan de svarta och vita linjerna i<br />
rastret skulle hamna mitt på en TV linje, så skulle TV linjen registrera medelvärdet, d.v.s.<br />
grått.<br />
22
Figur 14: Resultatet när de horisontella rasterlinjerna hamnar mellan TV linjerna.<br />
Naturligtvis består inte en TV bild av något raster, men dock ett antal olika konturer. Skärpan<br />
i dessa konturer påverkas alltså på samma sätt som beskrivits ovan av hur de hamnar i<br />
förhållande till linjesvepet. Eftersom bilderna ser olika ut, så kan man inte ange något absolut<br />
värde på Kell faktorn.<br />
Det angivna värdet på Kell faktorn gäller för progressivt skannade bilder samt för interlaced,<br />
så länge som det handlar om stillbilder. När man för in en rörelsekomponent i interlace fallet,<br />
så kommer Kell faktorn att sjunka ytterligare till så lågt som 50 %. Detta beror på att varje<br />
delbild skannas med halva antalet linjer. Eftersom motivet hinner att flytta sig en bit innan<br />
nästa delbild skannas, så kommer upplösningen i de rörliga delarna av bilden att försämras<br />
ytterligare.<br />
Vad drar vi för slutsatser av detta?<br />
I diskussionen kring framtida HDTV system, så pratar man främst om två standarder,<br />
nämligen 1920x1080 pixlar interlaced eller 1280x720 pixlar progressiv. Vid första påseendet<br />
kan man förledas att tro att 1920x1080i är överlägset i upplösning. Tar man hänsyn till Kell<br />
faktorn, så är skillnaden inte lika stor.<br />
Professionella videokameror marknadsförs ofta med en upplösning som vida överstiger den<br />
videostandard som dessa används till. Om man tar hänsyn till Kell faktorn, så förstår man<br />
argumentet att satsa på kameror med högre upplösning fastän priset är betydligt saftigare.<br />
23
Färgreproduktion<br />
1931 kom man överens om en definition om samtliga verkliga och teoretiska färgers inbördes<br />
förhållande representerat i det s.k. CIE diagrammet (CIE - Commision Internationale de<br />
l’Eclairage).<br />
Figur 15: CIE diagrammet.<br />
Diagrammet representerar alla de färger som teoretiskt förekommer i naturen och används<br />
som grund för hur utrustning byggs för att återge de färger som man önskar.<br />
Videokamerans uppgift är att fånga och registrera ljus och färg som finns i naturen. Samtidigt<br />
ska detta ske på ett sådant sätt att vi människor uppfattar de återgivna färgerna naturliga.<br />
Videotekniken bygger på tre grundfärger, rött, grönt och blått, som via additiv färgblandning<br />
skall återge så många färger och färgnyanser som möjligt. Som grund för framtagning av färg-<br />
TV systemen ställdes bl.a. följande krav:<br />
- Alla färger i naturen bör kunna reproduceras av färgmottagare.<br />
- Mottagarens primärfärger ska helst vara spektralfärger, så att också mättade färger kan<br />
reproduceras.<br />
- Det ska vara enkelt att styra primärstrålens intensitet i mottagaren.<br />
- Ämnet som ska reproducera dess strålar måste finnas.<br />
- Priset på dessa ämnen måste vara rimligt. Ämnets verkningsgrad måste vara hög, och så lika<br />
som möjligt för alla ämnena.<br />
Man kom så småningom fram till följande villkor för primärfärgernas koordinater och<br />
våglängd:<br />
Röd X=0,67 Y=0,33 (610nm)<br />
Grön X=0,21 Y=0,71 (535nm)<br />
Blå X=0,14 Y=0,08 (470nm)<br />
24
Figur 16: CIE diagram där videosystemets primärfärger visas i relation till andra<br />
parametrar.<br />
När videokameran fångar in ljus, delas detta upp i RGB komponenter. Principen för hur detta<br />
går till skiljer sig från kameror med en eller tre sensorer (CCD chip). I detta fall utgår vi från<br />
professoinella kameror med tre sensorer. En för varje grundfärg.<br />
Figur 17: Färgseparation hos de tre primärfärgerna i en videokamera.<br />
I kameran registreras de tre grundfärgerna separat. Ljusbidraget från varje färg omvandlas till<br />
en spänning som är proportionell mot intensiteten. Olika primärfärger med samma<br />
energiinnehåll får samma värde på spänningen. Om en vit yta filmas, så blir alltså spänningen<br />
för varje primärfärg lika. Maximalt reflekterat ljus vid respektive primärfärg ligger alltså vid<br />
våglängderna 470nm (blått) 535nm (grönt) och 610nm (rött).<br />
25
Figur 18: Diagrammet visar vid vilka våglängder som spektralfärgerna separeras i en<br />
videokamera.<br />
Men det mänskliga ögats känslighet motsvarar inte videokamerans. I själva verket är det så att<br />
ögat inte uppfattar primärfärgerna som kameran registrerar med lika inbördes intensitet. I<br />
diagrammet nedan finns en kurva som visar ögats spektrala känslighetskurva. I det fall där<br />
alla färger har samma energiinnehåll, så uppfattar ögat färgernas intensitet (luminans) olika.<br />
Ögat uppfattar olika färger olika intensivt. Det behövs mer energi för ögat att uppleva blått<br />
lika starkt som t.ex. gröngult.<br />
(Man kan ju utifrån detta fråga sig vilka argument som ligger till grund för att man använder<br />
blått ljus på utryckningsfordon…)<br />
Figur 19: Ögats spektrala känslighetskurva i förhållande till videokamerans.<br />
26
I diagrammet ser vi att ögat uppfattar intensiteten i de primärfärger som kameran registrerar<br />
som olika. Förhållandet är för blått ( 470nm) 0,17, för grönt (535nm) 0,92 och för rött<br />
(610nm) 0,47 av maximal känslighet.<br />
Utifrån detta förhållande kan vi enkelt räkna fram hur stor andel av den totala luminansen som<br />
varje primärfärg bidrar med. Denna uttrycks i den s.k. luminansnormen:<br />
U Y<br />
= 0,3 . U R<br />
+ 0,59 . U G<br />
+ 0,11 . U B<br />
. Med luminansnormen kan man kompensera skillnaderna<br />
mellan hur videokameran uppfattar olika färgers ljushet med det mänskliga ögats. Vad man<br />
gör är att man ökar spänningen i TV mottagaren runt det gröna spektralområdet jämfört med<br />
andra färger.<br />
Luminansnormen används för att räkna fram luminanssignalsammansättningen i en<br />
videosignal. På så sätt använder sig också av normen när man ska kalibrera t.ex. kameror mot<br />
varandra med hjälp av en s.k. färgbalk.<br />
Figur 20: Enkel färgbalk för kalibrering av videosignalens utstyrning (styrka). I själva<br />
verket är det luminansen, illustrerat i den högra bilden, som man mäter.<br />
De olika primärfärgernas bidrag till färgbalken framgår av nedanstående figur.<br />
27
Figur 21:<br />
Om vi antar att den maximala spänningen från respektive chips är 1 volt, så kan vi med hjälp<br />
av luminansnormen räkna ut spänningen för alla färgerna i färgbalken. Exempelvis blir<br />
luminansspänningen för vitt: U Y<br />
= 0,3 . 1V + 0,59 . 1V + 0,11 . 1V = 1V. Luminansspänningen<br />
för t.ex. cyan blir enligt figuren: U Y<br />
= 0,3 . 0V + 0,59 . 1V + 0,11 . 1V = 0,7V. För svart blir U Y<br />
= 0,3 . 0V + 0,59 . 0V + 0,11 . 0V = 0V.<br />
Luminansspänningarna för färgbalken kan man rita upp i ett katodstrålerör (oscilloskop)<br />
vilket används i studiosammanhang för att kontrollera och kalibrera luminanssignalens bidrag<br />
till videosignalen.<br />
28
Bild 9:Linjemönstret till höger visar på luminansnivåerna för de olika färgerna i en<br />
färgbalk. Till vänster syns motsvarande bild, men där även färgdifferenssignalen har<br />
adderats.<br />
När man gick över från svart-vit till färg-TV, så fanns det ett kompatibilitetskrav. Man skulle<br />
kunna återge en färg-TV bild i de ”gamla” svart-vita mottagarna och på motsvarande sätt<br />
kunna återge en TV bild från en svart-vit kamera som en svart-vit bild i en färg-TV mottagare.<br />
Genom att separera luminansen (bildens gråskala eller ljushet) från krominansen<br />
(färgsignalen) kunde man uppfylla kompatibilitetskraven. Krominansen är ju i sin tur<br />
uppbyggd av tre grundfärger eller primärfärger, blått, grönt och rött.<br />
Signalkonvertering<br />
Värdet på luminansen, som betecknas Y, är summan av de tre grundfärgerna i proportioner<br />
som motsvarar ögats ljuskänslighet för de olika färgerna, alltså enligt luminansnormen.<br />
Värdena på krominansbidraget utgörs av färgdifferenssignalerna R-Y och B-Y. Den<br />
kompletta videosignalen utgörs alltså av de tre komponenterna Y, R-Y och B-Y. Den gröna<br />
komponenten överförs inte utan kan räknas fram. Vid utsändning sätts dessa signaler samman<br />
till en signal (kompositsignal). I TV mottagaren återskapas sedan RGB signalen på nytt.<br />
29
Figur 22:Principen hur man adderar luminans och färgdifferenssignalerna för att erhålla<br />
en oscilloskopbild enligt figur ovan.<br />
Den signal som består av de tre komponenterna Y, R-Y och R-B kallas komponentsignal.<br />
Denna signal används i alla professionella sammanhang och ger det bästa bildresultatet. Rent<br />
praktiskt överförs signalen i tre separata ledare, två för krominans och en för luminans. I<br />
hemmavideosystem och vid TV utsändningar används en annan signal som kallas komposit. I<br />
denna kompositsignalen slås luminans och krominans samman till en enda signal som ryms i<br />
en enda ledare. Det finns också ett mellanläge mellan komponent och kompositsignal. Där har<br />
man endast slagit samman fördifferenssignalerna, men behållit luminansen separerad. Denna<br />
signal går under benämningen S-video och använder följaktligen två ledare.<br />
Färgsignalen<br />
Färgbärvågens amplitud är ett mått på färgens mättnad, medan fasläget styr färgtonenen.<br />
Referensamplitud och referensfas anges av den s.k. bursten eller färgsynken. Den består av en<br />
10 periodig signal som sänds i linjesläcket innan varje ny linje. Denna princip används i<br />
samtliga TV-system. Det äldsta färgsystemet NTSC är dock känsligt för yttre störningar som<br />
kan påverka färgbursten. En yttre störning kan relativt lätt ändra fasvinkeln med påföljd att<br />
färgtonen ändras. ( Det kan vara orsaken till att vissa menar att NTSC egentligen står för<br />
Never The Same Color). PAL, som utvecklades av tyska Grundig, tog fasta på det<br />
amerikanska färgsystemets tillkortakommanden och införde en teknik där man i linjetakt<br />
alternerande byter tecken för fasläget. En fasvridande störning förvränger färgtonen på en<br />
linje i en riktning och på nästföljande linje i motsatt håll. I färgmottagaren kombineras<br />
färginformationen från två efterföljande linjer på så sätt att fasfelen tar ut varandra. Rätt<br />
färgton visas, men en något lägre mättnad kan bli resultatet, men det är ögat inte lika känsligt<br />
för.<br />
30
Bild 10:Representation av färgfas för en färgbalk i NTSC till vänster och PAL till höger.<br />
PAL-bilden visar två fasvända svep där signalen är fasvänd 90°.<br />
31
Analog/digital<br />
Även om vi idag övergår till digital teknik när vi ska insamla, bearbeta och spara<br />
videomaterial, så är dock vår omvärld analog. Det innebär att vi i videokameran och TV<br />
monitorn måste omvandla analoga signaler till digitala och tvärt om.<br />
I videokameran registreras det infallande ljuset. Detta ljus omvandlas till digitala signaler.<br />
Detta sker med hjälp av sampling, d.v.s. ett slags ”provtagning” på den analoga signalen med<br />
en viss frekvens.<br />
Figur 23: Blockdiagram över AD omvandling (analogt till digitalt)<br />
När det gäller den monitor som bilden skall visas i, så är förhållandet det motsatta. Här sker<br />
en omvandling från digital till analog signal. I bildröret, eller katodstråleröret (CRT ”Cathod<br />
Ray Tube”), avlänkas en elektronstråle så att den träffar den främre delen.<br />
Figur 24: CRT bildrör<br />
Numera visas elektroniska bilder alltmer på digitala skärmar som t.ex. LCD och<br />
plasmaskärmar som har lättare att hantera digitala signaler direkt<br />
32
Digital video<br />
Bandbredd och lagringskapacitet är alltid begränsad. Det är också den främsta orsaken till att<br />
vi har flera olika filformat, alla med sina speciella egenskaper och avsedda för olika<br />
tillämpningar. I vilka sammanhang används de?<br />
1. Multimedia för persondator distribuerad via Internet<br />
2. Multimedia för persondator lagrad på CD-ROM<br />
3. Digital distribuerad video, populärt kallat TV<br />
4. DVD<br />
5. Multimedia för persondator distribuerad via lokalt nätverk<br />
6. Multimedia för persondator lagrad på hårddisk<br />
7. Digital video för SD-produktion (Standard definition)<br />
8. Digital video för HD-produktion (High Definition)<br />
9. Digital filmproduktion<br />
Alla presentationstekniker har olika behov, bandbredd, lagring samt bildkvalitet.<br />
Vi behöver veta hur vårt material ska visas för att kunna välja det lämpligaste filformatet.<br />
Figur 25: Tillgänglig/nödvändig bandbredd för olika typer av mediedistribution.<br />
33
Figur 26: Nödvändig bandbredd förolika typer av videoproduktion.<br />
Olika filformat för olika faser i produktionen<br />
Vi behöver välja filformat för:<br />
1. Insamling (inspelning) (Inspelning, animering och grafik)<br />
2. Bearbetning (Redigering, compositing, special effects, chromakey etc)<br />
3. Slutprodukt (Anpassning till mediabärare och uppspelningsutrustning, kodning,<br />
komprimering etc)<br />
Insamling<br />
Vid insamling är det oftast inte filformat som väljs utan inspelningsutrustning och därmed<br />
kvalitetsnivå.<br />
1. DV, DV-CAM, DVC-Pro<br />
5 ggr kompression, halv färgbandbredd jämfört med fullkvalitetsvideo<br />
2. BetaCam SP<br />
analogt system, broadcastkvalitet<br />
3. Betacam SX, DVCPRO 50, XDCAM, P2<br />
MPEG-2 baserat produktionssystem med hög broadcastkvalitet<br />
4. Digital Betacam<br />
högsta broadcastkvalitet, 2ggr kompression<br />
5. High Definition video<br />
oftast 1920x1080i eller 1280x720p<br />
6. 24p Universalformat<br />
progressiv video som kan konverteras till PAL, NTSC och film.<br />
7. Film<br />
mycket hög upplösning men dyrt<br />
Bearbetning<br />
Digitala videoband lagrar inte datafiler utan en videoström. För att kunna bearbeta materialet i<br />
en datormiljö överförs videoströmmen till ett filsystem. Enkelt beskrivet, man kopplar<br />
videobandspelaren till datorn och ”spelar” in materialet.<br />
Det optimala kan tyckas att låta filen ha samma kvalitetsnivå som originalet. Därmed slipper<br />
man omkomprimering av materialet. Men om produktionens slutresultat ska vara av låg<br />
kvalitet kan man redan här använda ett filformat med kompression. Å andra sidan kan det i<br />
vissa fall löna sig att bearbeta materialet i en högre kvalitet än det inspelade. Detta gäller<br />
bearbetningar som innehåller avancerade bearbetningar med många bildlager. När dessa<br />
bildlager skall föras ner på en videoström, måste materialet renderas. Använder man sig av<br />
lägre komprimeringsgrad i detta steg, så blir förluster och fel mindre. Ofta bestämmer<br />
utrustningen filformatet men graden av kompression kan för det mesta varieras. När filerna är<br />
lagrade kan materialet bearbetas med redigering, färgkorrigering etc. Produktionen kan även<br />
innehålla grafik från t ex animationsprogram. Materialet bör överensstämma med<br />
videofilernas kvalitet.<br />
När bearbetningen är klar konverteras materialet för att passa den slutliga mediebäraren<br />
(DVD, CD- multimedia etc.). I praktiken innebär det komprimering eller helt enkelt<br />
överföring till videotape.<br />
34
Filstorlek vs. upplösning och färgdjup<br />
Filernas storlek bestäms av fyra parametrar<br />
1. Antal pixlar<br />
2. ”Color mode”, RGB eller YUV<br />
3. Färgdjup<br />
4. Kompression<br />
De tre första parametrarna påverkar bildens upplösning medan<br />
kompressionen är en kvalitetsfaktor.<br />
Square pixels eller non square pixels<br />
En TV bild har ett bredd/höjdförhållande 4:3. Digital PAL video består av 720x576 pixlar.<br />
(Det riktiga förhållandet bör vara 768x576 pixlar.) För att teckna ut hela bilden måste pixlarna<br />
dras ut lite i horisontalled. En vanlig videoruta innehåller 414.720 pixlar.<br />
Figur 27: Samma bild med upplösning i square pixels (till vänster) och non square pixels<br />
(till höger)<br />
Praktiskt är det viktigt att hålla reda på antalet pixlar och dess utseende när man importerar<br />
olika typer av grafik i videon.<br />
Colour mode<br />
”Colour mode” kan vara RGB eller YUV. En videoström/fil är oftast en YUV där Y är<br />
bildens ljushet (en svartvit bild helt enkelt) och U och V är färgkomponenter.<br />
Färgkomponenterna i video är oftast lägre samplade och har därmed en sämre upplösning.<br />
Metoden grundar sig på egenskaper i ögats perception där tester visat att det är<br />
ljusinformationen som är viktigast för ”skärpan” i en bild.<br />
35
Y = luminanskomponent 0.30R + 0.59G + 0.11B<br />
RGB<br />
U = färgkomponent 0.493(B-Y)<br />
V = färgkomponent 0.877(R-Y)<br />
Fig 28: YUV är en anpassning till ögats egenskaper, ”färg är inte så viktigt för skärpan”.<br />
YUV 4:2:2 sparar 33% bandbredd.<br />
Luminansdelen samplas 13,5 miljoner gånger per sekund (13,5MHz) medan<br />
samplingsfrekvensen för färgdelen varierar, beroende på vilken kvalitet som vi vill jobba<br />
med. Man utnyttjar att ögat är mindre känsligt för variationer i färginformation (chroma) än<br />
variationer i ljushet (luminans). I den digitala värden ser man begrepp som 4:4:4, 4:2:2, 4:2:0<br />
och 4:1:1. Dessa sifferkombinationer är olika standards och anger hur ofta färginformationen<br />
samplas i förhållande till luminansen.<br />
4:4:4 anger att luminans och chroma samplas lika ofta eller att luminans och chroma<br />
registreras lika mycket i varje pixel.<br />
4:2:2 anger att luminans registreras i varje pixel medan chroma registreras i varannan.<br />
Samplingsfrekvensen för chroman har halverats i förhållande till luminansen. Denna standard<br />
betraktas som fullt acceptabel för de flesta professionella sammanhang.<br />
Ett snäpp lägre är 4:2:0 som innebär att luminansen registreras i varje pixel medan chroman<br />
endast registreras i varannan pixel och på varannan rad.<br />
4:1:1 innebär att luminansen registreras i varje pixel medan chroman registreras i var fjärde<br />
pixel, men på varje rad. I de två senare samplingsförhållanderna registreras alltså chroman<br />
med fyra gånger lägre frekvens än luminansen.<br />
Broadcaststandard har samplingsförhållandet YUV 4:2:2, dvs färgkomponenterna har Y-<br />
signalens halva sampling. Det innebär att en videoruta har 2/3 filstorlek jämfört med en<br />
motsvarande RGB-ruta med 4:4:4, där ju varje färg har samma ”vikt”.<br />
• YUV 4:4:4 bearbetning med HQ<br />
• YUV 4:2:2 fullkvalitetsvideo<br />
• YUV 4:2:0 PAL DV / DVCAM<br />
• YUV 4:1:1 DVCPRO<br />
• RGB 4:4:4 datorgrafik<br />
• RGB 4:4:4:4 datorgrafik med alfakanal<br />
36
Under videoredigering behålls YUV formatet. Dock är det<br />
vanligt med konvertering till RGB under processing och sedan tillbaka<br />
till YUV. Vissa utrustningar behåller dock YUV formatet under<br />
processing vilket är att föredra av kvalitetsskäl. Processing kan t ex<br />
bestå av färgkorrigering.<br />
”DV-video” använder 4:2:0 (PAL DV/DVCam) eller 4:1:1 (DVC-Pro)<br />
sampling.<br />
Färgdjup<br />
Färgdjup är antalet färgnyanser som en pixel kan anta. Det vanligaste färgdjupet är 8 bitar per<br />
pixel och komponent. Det är också det vanligaste färgdjupet när man bearbetar video.<br />
Betacam digital 10 bitar YUV<br />
DV/DVCam, DVCPro 8 bitar YUV<br />
Videoredigering 8 bitar YUV (med vissa få undantag)<br />
MPEG1, MPEG2 8-bitar YUV<br />
High Definition video 8-12 bitar YUV<br />
24p 12 bitar<br />
Digtaliserad film 12-16 bitar<br />
Observera att man i videovärlden anger bitar per komponent. I den<br />
grafiska världen anger man oftast pixelns totala antal bitar.<br />
Exempel:<br />
24 bitars TIFF: 8+8+8 bitar RGB<br />
32 bitars TIFF: 8+8+8+8 bitar CMYK för tryck eller 8+8+8+8 RGBA<br />
(med alfakanal).<br />
Komprimering<br />
Video kan komprimeras på olika sätt. Det finns olika videokomprimeringsstandarder där<br />
MPEG är vanligast. Vi tittar lite närmare på detta sätt att komprimera, men det finns en<br />
uppsjö av andra standards som jobbar på likartat sätt. MPEG-1 är den äldsta versionen och är<br />
designad för 1,5Mb/s och komprimerar en faktor 100. Standarden är vanlig när man<br />
komprimerar för CD-ROM läsare. Även de vanliga webbläsarna klarar MPEG-1.<br />
Den nyare standarden MPEG-2 hanterar datahastigheter upp till 40 Mb/s. Den ska klara<br />
HDTV och både interlaced och progressive scan. Vid komprimering av ”vanlig” video men<br />
med broadcastkvalitet genererar man ca 5Mb/s plus ljud på ca 300kb/s. MPEG-2<br />
rekommenderas av framträdande TV organisationer i världen som en framtida standard för<br />
komprimering av video för sändning. Sedan lång tid tillbaka nyttjar man MPEG-2 för<br />
komprimering vid satellitöverföring.<br />
MPEG-4 är främst inriktad mot överföring via nät med begränsade bithastigheter. Det är en<br />
komprimeringsstandard som används mer och mer för överföring av bild på nätet.<br />
Videokomprimering går ut på att ta bort så mycket redundans som förutsättningarna tillåter.<br />
Tillvägagångssättet vid komprimering kan mycket förenklat beskrivas så här: Sampling<br />
→RGB→ YUV → Komprimering i pixelplanet (spatial) → Komprimering i tidsplanet<br />
(temporal) → Entropikodning (tar bort resterande redundans).<br />
37
Komprimering i<br />
pixelplanet<br />
(spatial komprimering)<br />
Sampling<br />
RGB → YUV<br />
Komprimering i<br />
tidsplanet<br />
(temporal komprimering)<br />
Entropikodning<br />
Figur 29: Tågordningen hur komprimering går till av en videobild.<br />
Komprimering av en TV bild.<br />
En TV signal enligt ITU-601 standard (ITU = Internationella TV Unionen) har en bithastighet<br />
på 270 Mbit/s. Denna signal hanteras i ett TV hus, men är alldeles för omfattande för digital<br />
TV distribution. Det digitala marknätet har idag en bithastighet på 5-6 Mbit/s. Det krävs alltså<br />
en kraftig bitredusering i form av komprimering.<br />
För att komprimera en TV signal används MPEG 2 komprimering. Tillvägagångssättet för<br />
komprimeringen sker i flera steg.<br />
Utgångsläget är alltså 270 Mbit/s 4:2:2 sampling och 10 bitars upplösning. Genom att<br />
reducera till 8 bitar och 4:2:0 sampling har vi kommit en liten bit på väg. Men mycket<br />
återstår.<br />
Nu tar den egentliga komprimeringen vid. Av beräknings- och kodningsmässiga skäl delas<br />
bilden in i lite olika hierarkiska nivåer. Det mest finmaskiga av dessa är blocket som består av<br />
8x8 pixlar. Komprimeringen i pixelplanet opererar på blocknivå. Informationen i pixelplanet<br />
konverteras till ett frekvensplan med hjälp av DCT (Discrete Cosinus Transform). DCT är en<br />
matematisk transform som påminner om Fouriertransformen. Man representerar bilden på ett<br />
sådant sätt att olika ändringar i bilden grupperas i frekvensplanet.<br />
Figur 30: 8x8 block. dc-komponenten är rutan längst uppe till vänster.<br />
38
I övre vänstra hörnet finns dc-komponenten, d.v.s. det som motsvarar det genomsnittliga<br />
gråskalevärdet i blocket. Värdena på de övriga rutorna representerar förändringar mot<br />
medelvärdet. Låga frekvenser närmast dc-komponenten. Ju högre frekvenser en ruta<br />
innehåller ju mindre påverkar den synintrycket av bilden. Därför kan man skära bort de<br />
komponenter som ligger mot den nedre högra delen. Bild som enbart är komprimerad i<br />
pixelplanet kallas för I-bild.<br />
Vid komprimering i tidsplanet (temporal komprimering) görs en jämförelse mellan<br />
intilliggande bilder i en bildsekvens, d.v.s. en videofilm. I sekvensen stoppar man först och<br />
främst stoppa in I-bilder, Intra frame, (referensbilder) med jämna mellanrum. Sedan letar man<br />
efter skillnader i utseende på intilliggande bilder. Det är endast skillnaderna mellan bilderna<br />
som behöver komprimeras om. Statiska partier räknas som stillbilder. Bilder som återskapas<br />
enbart utifrån närmast föregående I-bild kallas P-bild (predicted frame). Bilder som<br />
återskapas utgående både från föregående och efterkommande bilder kallas B-bilder (bidirectional<br />
frame). För dessa krävs en buffert eftersom efterkommande bilder måste<br />
analyseras innan B-bilden kan skapas. Ett intervall mellan två I-bilder kallas GOP (Group Of<br />
Pictures) och kan se ut som följer: IBBBPBBBI.<br />
Figur 31: En MPEG dekoder kräver ett bildminne, eftersom vissa bilder i strukturen inte<br />
kan ritas upp innan efterföljande bilder analyserats. Detta gör att komprimeringen har en<br />
inbyggd fördröjning.<br />
Vid mätningar visar det sig att en I-bild innehåller ca sju gånger mer information än en B-bild<br />
och tre gånger mer än en P-bild. Detta är naturligtvis beroende på hur mycket förändringar<br />
som sker mellan de olika bilderna. Inom MPEG standarden har man möjlighet att välja<br />
utseende på sin GOP. Längre avstånd mellan I-bilder minskar datamängden, men gör filmen<br />
känsligare för störningar.<br />
MPEG är egentligen ett uppspelningsformat och lämpar sig inte i sin grundform att klippa i.<br />
Har man otur kan man ju göra sitt klipp strax innan en P-bild. Resultatet blir att P-bilden<br />
tappar sin relation till närmast föregående I-bild. Detta har man numera löst genom att införa<br />
GOP strukturer med enbart I bilder eller alternerande I och P bilder<br />
Entropikodning är ett sätt att presentera det kodade materialet på ett effektivt sätt, samtidigt<br />
som man tar bort ytterligare redundant material.<br />
Run Lenght Coding kallas det när man istället för att skicka 50 nollor efter varandra skickar<br />
en nolla och sedan siffran 50.<br />
39
Huffmankodning innebär att man tilldelar de DCT koefficienterna som förekommer oftare ett<br />
färre antal bitar än de som förekommer mer sällan. Resultatet blir en mycket kompakt ström<br />
av kodade koefficientvärden.<br />
Feltolerant kodning innebär att när videoinformation strömmar ut i nätet är det viktigt att veta<br />
att alla bitar inte är lika mycket värda. Ett obetydligt fel är en modifikation av en DCT<br />
koefficient i en B-bild som räcker 1/25 sekund medan en modifierad koefficient i en I-bild<br />
kan påverka bilderna i uppemot en sekund.<br />
Filformat för bearbetning och slutprodukt<br />
Video<br />
AVI<br />
• AVI, AudioVideoInterleaved är det vanligaste filformatet i Windows- miljö.<br />
• Filformatet är anpassat till Microsoft´s DirectShow teknik som är en uppsättning<br />
”byggstenar” som utför olika moment, t ex inspelning, uppspelning och kodning.<br />
• AVI är bara en struktur för filformatet och det finns en mängd olika typer<br />
standardiserade (se avsnittet ”Codecs”).<br />
• Kan än så länge bara användas i Windows- miljö.<br />
Quicktime<br />
• Quicktime är det vanligaste filformatet i Apple- miljö.<br />
• Fungerar efter samma princip som AVI.<br />
• Kan användas på både Mac och Windows.<br />
MPEG<br />
MPEG är egentligen inte ett filformat utan en bitström. Information<br />
om innehållets struktur finns kontinuerligt ”inbakat” i bitströmmen<br />
(jfr Internet-streaming.) För att förenkla kallar vi dock MPEG för ett<br />
filformat i det här sammanhanget.<br />
MPEG-1<br />
• Ett bra generellt filformat för multimedia.<br />
• Standard upplösningen motsvarar ca ¼ PAL-video (352x240). Man kan använda andra<br />
upplösningar men problem kan uppstå med vissa players. Windows MediaPlayer<br />
fungerar bra med olika upplösningar.<br />
• Spelbar på både Mac och Windows, ingår i operativens grundinstallation.<br />
MPEG-2<br />
• Mest känt som filformatet för DVD men används även i broadcast-sammanhang<br />
• Standard upplösning motsvarar PAL (720x576) resp. NTSC (720x480), fler standarder<br />
finns bl a för HD-TV<br />
• Color mode YUV (YCbCr för att vara exakt)<br />
• Sampling 4:2:0 för MPEG IBP Main profile (”DVD-MPEG2”).<br />
• Kompression upp till 30 ggr. Kan ej redigeras (utan problem). Används även för<br />
”Digital-TV” distribution hem till vardagsrummet.<br />
• Sampling 4:2:2 för MPEG I-frame High Profile (”Proffs- MPEG2”). Kompression 3-10<br />
ggr. Kan redigeras. MPEG2 Iframe används vid insamling (t ex Sony IMX), vid<br />
produktion (redigering). Ett område där det används till 100% är vid digital<br />
40
distribution och programutbyte mellan broadcastaktörer i länknät t ex Terracoms<br />
länkar.<br />
MPEG-4<br />
• Är en utveckling av MPEG med förbättrad kvalitet vid låga bitrates (hög kompression).<br />
• Standarden innehåller även en mängd möjligheter för multimedia.<br />
• En populär variant av MPEG- 4 är DivX.<br />
Bitmap (punktuppbyggd grafik)<br />
TGA<br />
• Ett mycket använt bitmap-format för grafik.<br />
• Kompatibelt med alla plattformar.<br />
• Okomprimerad eller oförstörande komprimering.<br />
• Mycket bra för att spara ner sekvensiella (numrerade) ”stillbilder” från<br />
animationsprogram.<br />
• Fungerar även utmärkt med alfa-kanal.<br />
TIF<br />
• Sedan lång tid etablerat bitmap-filformat för grafik.<br />
• Finns i en mängd varianter men är nu förtiden ett moget format som har bra<br />
kompabilitet.<br />
• Olika varianter för PC resp Mac.<br />
• Har kompressionsmöjlighet och alfakanal.<br />
• Ganska bra kompabilitet med videorelaterade tillämpningar.<br />
JPEG<br />
• Det mest använda filformatet för bitmap-bilder med hög kompression.<br />
• Ofta kan 10-20 ggr kompression användas på fotografiska bilder. Var mer försiktig med<br />
grafik!<br />
• Kan ej innehålla alfakanal.<br />
• Kompatibelt med alla plattformar.<br />
PSD<br />
• Photoshop´s nativa filformat.<br />
• Sparar projektets alla inställningar.<br />
• Vissa egenskaper som t ex lagerinformation kan användas i After Effects, Premeire,<br />
Combustion och Final Cut etc.<br />
BMP<br />
• Ett specifikt Windows-format med begränsade möjligheter.<br />
• Bra kompabilitet mellan tillämpningar.<br />
Bitmap grafik vs. vektorgrafik<br />
I den grafiska världen förekommer pixeluppbyggd grafik (punktgrafik eller bitmap) och<br />
vektorgrafik. Vektorgrafik består i grunden av matematiskt beskrivna kurvor. Photoshop är ett<br />
program som huvudsakligen är ett bitmap-program, medan Illustrator är ett<br />
vektorbaserat program.<br />
”Bildrutebaserad” digital media (vi kan kalla det video) är alltid pixelbaserad. Men<br />
vektorgrafik används i många sammanhang för produktion av videomaterial. Vektorerna<br />
41
måste dock konverteras till pixelgrafik innan användning. Som exempel kan nämnas<br />
textprogram för video.<br />
Ljud i filerna, hur går det till?<br />
I alla de ”video-filformat” vi behandlat upp finns möjlighet att ”bädda in ljud”. Ljudet är<br />
egentligen inte en del av videofilen, utan en separat information som är multiplexad med<br />
video-informationen. Dvs små bitar av ljud är inpetade på lämpliga ställen i videons<br />
information men för användaren verkar det som allt är en fil. Vid uppspelning separeras audio<br />
och video och spelas genom separata codecs. Vid distribution och i slutprodukter är audio så<br />
gott som alltid inbäddad i videon. Vid bearbetning hanteras video och audio ofta som separata<br />
filer. Vid redigering kan ett t ex redigeringsprogram hantera video som .avi<br />
och audio som .wav-filer. Länkningen mellan filerna sker automatiskt med programmets egen<br />
databas.<br />
Codecs<br />
En codec är en algoritm. Med en matematisk ”formel” behandlas video eller audioinformationen.<br />
Ofta är det fråga om att komprimera eller dekomprimera. Men en codec<br />
behövs även t ex för att från en SDI-ström (från t ex en bandspelare) skapa en okomprimerad<br />
videofil. En codec bestämmer helt enkelt hur informationen skrivs i<br />
filen. Vid uppspelning behövs en motsvarande decoder. En codec finns inte i videofilen utan<br />
installe rad som en fil i datorsystemet. I mediafilen finns information om vilken codec som<br />
ska användas. Vid uppspelning söker datorn efter en lämplig codec och i bästa fall startar<br />
uppspelningen.<br />
En codec för MPEG följer mycket strikt den standard som finns specificerad av Moving<br />
Pictures Experts Groups. Den kan visserligen vara skriven av olika tillverkare, och vara av<br />
olika kvalitet, men kan spela upp alla MPEG-filer av en given typ (1, 2 eller 4).<br />
AVI och Quicktime-filer är annorlunda. Man brukar populärt kalla dem för ”wrappers”. Det<br />
är helt enkelt inslagna paket med olika innehåll, men alla är de Quicktime eller AVI.<br />
”Innehållet” består av video och/eller audioinformation, oftast multiplexad. Dessutom finns<br />
metadata, dvs filens specifikationer, som bl a beskriver med vilken codec filen ska spelas.<br />
Hur väljer jag filformat och codec för en produktion?<br />
Exempel:<br />
Jag har redigerat ett videoavsnitt. Materialet är vanlig PAL-video men slutprodukten ska bli<br />
en multimediapresentation gjord med Director. Den ska distribueras på CD-ROM och<br />
målgruppen använder endast Windows-plattform.<br />
Vi måste ta hänsyn till följande:<br />
1. Vilken prestanda har CD-spelaren hos slutanvändaren?<br />
2. Vilken prestanda har slutanvändarens dator? Processor, minne?<br />
3. Vilken upplösning har slutanvändarens bildskärm?<br />
4. Hur stort utrymme finns för videofilen på vår CD-ROM?<br />
Låt oss anta att den ”sämsta” datorn har följande specifikation:<br />
1. 4x CD- ROM (150KB/s x 4= 600KB/s<br />
2. Pentium II 400 MHz, 32MB<br />
3. 800x600 pixlar<br />
42
4. Videofilen får ta upp max 7MB på vår CD-ROM<br />
• AVI? Helt OK, vi kan välja mellan olika codecs. Men se upp, många av de codecs som<br />
finns för AVI bygger på gammal teknik och finns mest för att få bakåtkompabilitet.<br />
Har slutanvändaren DivX-codec? I så fall är det en mycket bra AVI-lösning.<br />
• Quicktime? Också bra, men vi kan knappast räkna med att våra slutanvändare har QT<br />
installerat och vi kan inte räkna med att de kan/vill/får installera.<br />
• MPEG-1? Mycket bra. Går att spela med de flesta Windows Media-spelare och därmed<br />
oftast utan problem i andra applikationer.<br />
• MPEG-2? Nja, visserligen kan filerna spelas upp på datormonitor. Men MPEG-2 är inte<br />
mycket bättre än MPEG-1 vid samma bitrate och codec saknas hos de flesta<br />
slutanvändare. MPEG-2 är ett utpräglat ”TV-video” format.<br />
Vi satsar på MPEG-1. Nu gäller det att få en fil med så bra kvalitet som möjligt men som är<br />
spelbar på ”den sämsta” datorn. Dessutom ska filen rymmas på lagringsmediet.<br />
Ta reda på vilken pixelstorlek som videoavsnittet ska ha i Director.<br />
Koda helst avsnittet i exakt rätt upplösning, eller i alla fall strax under den rätta. Aldrig större!<br />
Välj gärna den standardiserade upplösningen för MPEG-1, då spelas den bra på alla system.<br />
Ska filmen visas på helskärm ställs högre krav på datorn hos slutanvändaren. I det aktuella<br />
fallet är det på gränsen att det går att använda fullskärmsläge.<br />
Gör sedan kodningar med olika inställningar. Kontrollera noggrant kvalitet efter varje prov.<br />
Se på filstorleken och beräkna bitströmmen.<br />
Slutligen, om så är möjligt, testa filen på en dator som liknar de specifikationer vi satte som<br />
”sämsta dator”.<br />
Övriga parametrar vid kodningen<br />
Utöver val av codec finns det en del andra egenskaper att tänka på.<br />
Interlace<br />
Om källmaterialet är video är det inspelat med sk interlace. Varannan linje i bilden<br />
”exponeras” först och sedan de övriga linjerna. Det innebär att varannan linje har en viss<br />
tidsförskjutning. P.g.a. av den här tekniken får man en simulering av 50 bilder/s<br />
(1 bildruta=2 fields). Som vi alla vet märker man inget av detta när man ser materialet på<br />
videomonitor. Men när materialet visas på datormonitor visas bildrutans båda fields samtidigt<br />
och man får en horisontellt ”trasig” bild vid snabba rörelser.<br />
För att undvika fenomenet vid visning på datormonitor används deinterlace som innebär att en<br />
field helt enkelt plockas bort och de tomma linjerna ersätts med en interpolering av<br />
angränsande linjer. Vi minskar den vertikala upplösningen men metoden ger ända bilden en<br />
bättre kvalitet.<br />
Upplösning<br />
Vid konvertering bör man tänka på att om möjligt göra den i så få steg som möjligt.<br />
Konvertera t ex aldrig först till en annan upplösning och codec och sedan komprimera. Det<br />
försämrar kvalitén betydligt. Bestäm också pixelupplösning noggrant så att den<br />
överensstämmer med slutproduktionens upplösning. Om videomaterialet t ex ingår i en<br />
43
multimediaproduktion bör man undvika att låta spelaren/multimediaprogrammet skala om<br />
pixelupplösningen.<br />
Crop<br />
Vid digitalisering av analog video får man ofta svarta kanter till höger och vänster om bilden.<br />
Ev lite svart i ovan och nederkant. Kanterna syns inte på vanlig videomonitor som är inställd<br />
för att ”ta bort” ca 10% av bilden. Om materialet ska spelas på datormonitor bör man därför<br />
använda crop-funktionen som finns i kodningsprogrammet.<br />
Square och non-square pixel<br />
Standarden för PAL är 720x576 pixlar. Men bildformatet är 4:3 vilket ju inte rimmar speciellt<br />
bra. Upplösningen borde vara 768x576 kan man tycka. Anledningen till att man valt 720<br />
pixlar horisontellt är för att kunna använda en viss samplingfrekvens (13.5 MHz). Låt oss inte<br />
fördjupa oss i detta utan helt enkelt acceptera detta, OK?<br />
Man kallar det för ”non-square pixels”. Men icke-kvadratiska pixlar finns givetvis inte. Pixlar<br />
finns överhuvudtaget inte fysiskt. Rent praktiskt innebär det att en PAL-videobild som visas<br />
på en datormonitor är 6% för smal och alltså en aning ”ihoptryckt” horisontellt. Vissa<br />
professionella programvaror kompenserar dock för detta och ”drar ut” bilden.<br />
Men hur blir bilden rätt hemma i vardagsrummmet? Jo, när bilden passerar en ”digital till<br />
analog” omvandlare, någonstans på vägen till bildröret, ”dras bilden ut” och den analoga<br />
bilden blir OK. Omvandlaren kan sitta i DVD-spelaren, parabolmottagaren, Terracoms länkar<br />
etc. Det här är inget som vanliga TV-konsumenter behöver bekymra sig om.<br />
Om vanlig PAL-video ska visas på datormonitor bör man justera bildformatet så ett det får<br />
bildförhållandet 4:3. Inställningar finns i alla bra kodningsprogram. Bildförhållande kallas<br />
”aspect ratio” på engelska. Välj 768x576 för fullformat video eller ett mindre format som får<br />
förhållandet 4:3.<br />
Bildformat 4:3 vs 16:9<br />
TV-mottagare med ”bredbild” blir alltmer populär. Man talar om 16:9 bildformat. Men det<br />
kommer att dröja 5-10 år innan sändningar med äkta 16:9 börjar och DVD-skivor med äkta<br />
16:9 finns på marknaden. Anledningen är att man måste vänta till alla bytt till nya mottagare.<br />
Äkta 16:9 kallas mer exakt för ”anamorphic 16:9”. PAL-bilden har fortfarande upplösningen<br />
720x576. När man väljer ”anamorphic 16:9” på sin TVs fjärrkontroll ”dras bilden ut” 1,5 ggr<br />
horisontellt och får den avsedda proportionen. (Självklart på bekostnad av den horisontella<br />
upplösningen och ”skärpan”).<br />
DVD formatet är förberett för ”äkta 16:9”.<br />
Många konsumenter förbereder sig redan nu för ”äkta 16:9” genom att använda den här<br />
inställningen vid vanliga 4:3 sändningar. Resultatet blir en horisontellt förvrängd bild med t<br />
ex breda ansikten. Men visst är det coolt, eller…?<br />
När långfilmer och vissa DVD visas är det vanlig med s.k. brevlådeformat. Man visar helt<br />
enkelt filmens hela bildyta men fortfarande i 4:3 format. Resultatet är svarta kanter ovan och<br />
under bildytan. Har man en bredbilds-TV kan man då använda ett läge där man ”zoomar in i<br />
bilden” och därmed får bort de svarta områdena.<br />
En äkta 16:9 bild är horisontellt kraftigt ihoptryckt. I ett redigeringprogram finns inställning<br />
för att växla till 16:9 läge. Då ändras bilden utseende på datormonitorn och får rätt proportion.<br />
Dessutom justeras textprogrammets egenskaper och även övergångar (wipes etc) justeras.<br />
44
Själva videomaterialet ändras inte på något sätt utan är egentligen en helt vanlig PAL video.<br />
Om man vill använda anamorhpic 16:9 för visning på datorskärm<br />
behöver man ändra bildens proportion vid kodningen. Multiplicera den horisontella<br />
upplösningen med 1,42 så blir det rätt. (Då kompenserar man både för 16:9 formatet och nonsquare<br />
pixel).<br />
Gamma<br />
Video ger alltid olika intryck på video resp. datormonitor. Dels p.g.a. av olika färgåtergivning<br />
men givetvis också interlace-egenskaperna. Vid produktion av material som ska visas på<br />
videomonitor bör man därför sträva efter att alltid ha en videomonitor kopplad till sin dator<br />
som referens. Speciellt viktigt är detta vid t ex färgkorrigering och<br />
kodning av DVD/MPEG-2.<br />
Vid visning av video på en ”medel-dator- monitor” får man en lite mörkare bild än när den<br />
visas på videomonitor. Använd därför gärna gamma-justering för att göra bilden en aning<br />
ljusare vid kodningen. Prova gärna verktyget ”Ställ in kurvor” i Photoshop. Om<br />
kodningsprogrammet bara har en numerisk inställning är det samma justering som om man<br />
gör en snygg böj på RGB-kuvan i Photoshops verktyg.<br />
45
Dramaturgi<br />
Publiken har alltid rätt! Oavsett vilka intentioner filmskaparen än hade. All möda,<br />
all talang, all tid och alla pengar man lägger på en film är till ingen nytta om man<br />
inte lyckas engagera publiken. Då spelar det ingen roll om bilderna är vackra,<br />
ljudet kristallklart och ämnet intressant.<br />
Hur engagerar man då publiken? Först och främst måste man komma ihåg att film<br />
är ett berättande medium. Det gäller alltså att berätta sin historia på rätt sätt. Det<br />
är viktigt att tänka på att film inte är en objektiv redovisningsmetod, utan filmen<br />
manipulerar ständigt publikens känslor.<br />
Dramaturgi innebär konsten att berätta. I denna text kommer framför allt den<br />
dramatiska formen diskuteras, men även episk och lyrisk form. Det är viktigt att<br />
tänka på att de dramaturgiska reglerna är gjorda för att bryta mot, men endast<br />
genom att kunna reglerna kan man bryta mot dem och veta vad man kan<br />
åstadkomma med det. Och i många fall kan man få god hjälp, tips och inspiration<br />
genom dem.<br />
Handlingsplan och berättarplan<br />
I filmen kan man skilja på handlingsplan och berättarplan, dvs filmberättandets<br />
vad och hur. Handlingsplan är filmens eller TV-programmets innehållssida, vad<br />
filmen innehåller/handlar om. Berättarplan är filmens formsida, hur det filmen<br />
handlar om berättas.<br />
Berättarelement<br />
Berättarelementen är filmens uttrycksmedel.<br />
Handlingsplanets uttrycksmedel:<br />
Kroppslig framtoning – Människan är normalt det viktigaste berättarelementet i<br />
film. När man ser en film är man tvungen att i stort sett uteslutande avläsa och<br />
förstå det inre i filmen genom det yttre, därför har det skapats ett antal schabloner.<br />
Tex beteendet hos en stor och kraftig person vs liten och tanig. Alltså är valet av<br />
skådespelare väldigt viktig för filmen. Motiveringar till val av skådespelare:<br />
Realistisk motivering – Tex en proffsboxare kan inte se ut hur som helst... (när<br />
Stallone skrev Rocky och ville spela själv så var han tvungen att styrketräna<br />
mycket innan inspelningen)<br />
Dramatisk motivering – Någon ska vara liten, eller vacker i enlighet med storyn<br />
Komisk motivering – Tex stora fötter, utstående öron, liten och tjock...<br />
Extern motivering – Påverkan utifrån som filmskaparen inte kan kontrollera, tex<br />
ekonomiska skäl<br />
Spel (ingår i vad som kallas spelsceneri) – Allt en skådespelare gör ”på scenen” är<br />
spel. Även här handlar det om att uttrycka det inre med det yttre, och det görs<br />
framför allt genom kroppsspråket.<br />
Realistisk motivering – En högt uppsatt chef rör sig på ett annat sätt än en<br />
utslagen uteliggare<br />
Dramatisk motivering – Varje utspel som en person gör, gör den som följd av<br />
eller för att påverka den dramatiska situationen<br />
46
Komisk motivering – Tex Charlie Chaplin’s gång<br />
Klädsel och make-up – Kläderna är väldigt viktiga för att beskriva en person. Ta<br />
tex skillnaden mellan Indiana Jones, James Bond, Darth Vader...<br />
Realistisk motivering – En läkare i vit rock<br />
Dramatisk motivering – En elev som vägrar bära skoluniform...<br />
Komisk motivering – Någon som bär för korta byxor...<br />
Miljö – Miljön ska väljas för att ge filmen maximal dramatisk effekt och stöd åt<br />
handlingen. Tex i filmen Gökboet som handlar om frihet och tvång, så återfinns<br />
handlingen i miljön, mentalsjukhus vs havet.<br />
Realistisk motivering – New Yorks gator i en deckare<br />
Dramatisk motivering – Slagfältet som tvingar fram de sämsta sidorna men<br />
kanske även de bästa sidorna hos soldaterna i en krigsfilm<br />
Extern motivering – Man måste ha tillstånd för att filma och därför kanske det<br />
inte alltid blir det första valet som man slutligen filmar i<br />
Rekvisita – Rekvisitan berättar mycket om människorna som finns runt den.<br />
Föremål kan ha en passiv eller aktiv roll i en film. Passivt finns föremålen runt en<br />
person och berättar om karaktären, om värderingar, hobbys och vardagsliv. Aktivt<br />
används ett föremål för att föra handlingen vidare.<br />
Realistisk motivering – Ett vapen används för att skjuta någon<br />
Dramatisk motivering – En skruvmejsel smugglas in till en fängelsekund<br />
Tidpunkt – Årstiderna förknippas med vissa skeenden, som jul och julklappar.<br />
Men även tidpunkter på dagen eller natten... En person som äter frukost klockan<br />
tre på natten väcker nog en del frågetecken hos publiken. En historisk film, som<br />
utspelar sig på 1500-talet, och innehåller en scen där någon går förbi en TV-apparat<br />
väcker nog också en funderingar...<br />
Väderlek – Vädret påverkar publikens upplevelse av filmen. I en dokumentärfilm<br />
accepteras vädret mer som en neutral faktor än i en spelfilm. Normalt är det<br />
solsken på bröllop och regn vid begravningar...<br />
Fysiska relationer (ingår spelsceneri) – Hur skådespelarna placerar sig fysiskt på<br />
scenen kan också ha betydelse för upplevelsen.<br />
Dramatisk motivering – Tex en person som står tryckt i ett hörn på en fest, eller<br />
en man som kommer ombord på en halvtom buss och sätter sig brevid en kvinna...<br />
Komisk motivering – Två personer som letar efter varandra och går runt en pelare<br />
på varsin sida, hela tiden med ryggen vänd mot den andre...<br />
Motivrörelse (ingår i spelsceneri) – Om det inte rör sig i bilden under en scen<br />
upplevs den lätt som statisk, men rörelse är inte samma sak som dramatik!<br />
Realistisk motivering – Människor som inte rör sig är antingen döda, skadade<br />
eller sover<br />
Dramatisk motivering – Enda sättet att överleva är att springa ifrån mördaren<br />
Realfärger – Realfärger är verkliga färger, dvs färger som finns i miljön vid<br />
inspelningen. Ibland förstärks färger och ibland tas färger bort i redigeringen.<br />
Detta för att färger upplevs olika tex blått för kyla och grönt för lugn.<br />
47
Naturliga ljuskällor – Starkt upplysta föremål får normalt mer uppmärksamhet<br />
än svagt upplysta. Mörker och skugga kan upplevas som hot medan jämt och<br />
mjukt ljus associeras med godhet.<br />
Dramatisk motivering – Alien-filmerna där det ofta finns mycket lampor men det<br />
ändå alltid är dåligt upplyst vilket ger monstren många skuggor att gömma sig i<br />
Realljud – Med realljud menas alla ljud utom dialog och musik som finns i<br />
handlingsplanet. Det finns två sorters realljud, effekter och atmosfärljud. Effekter<br />
är punktljud som är viktiga att publiken hör, tex ett pistolskott. Atmosfärljud är<br />
det övriga ljudrummet, tex sorl i en restaurang och trafikljud från gatan utanför.<br />
Med atmosfärljudet kan man förstora scenen och visa att det finns en värld<br />
utanför bilden. Det är dock viktigt att tänka på att man aldrig använder mer och<br />
starkare ljud än vad som är nödvändigt, då kan ”fel ljud” störa det som är<br />
väsentligt för berättelsen.<br />
Realmusik – Musik som personerna i filmen hör, denna musik kallas också för<br />
diegetisk musik. Det är viktigt att tänka på att publiken måste antingen se eller<br />
förstå varifrån musiken kommer och att personerna i filmen också hör den, för att<br />
musiken ska fungera som realmusik.<br />
Realistisk motivering – Svag pianomusik från pianisten i restaurangen<br />
Dramatisk motivering – Mördaren som alltid visslar ”Bergakungens sal” innan<br />
han slår till (Hitchcocks ”Mannen som visste för mycket”(?))<br />
Komisk motivering – “Allways look on the brigth side of life” i slutet av ”Life of<br />
Brian”<br />
Dialog – Dialogen ska inte gestalta dramatiken (!), utan komma ur dramatiken.<br />
Dialogen ska alltså vara en funktion av karaktärerna och den situation de befinner<br />
sig i. Dialogen ska inte förklara handlingen.<br />
Berättarplanets uttrycksmedel:<br />
Format – Det är skillnad i bildformatet mellan TV och bio. Detta innebär att man<br />
ibland måste tänka annorlunda vid inspelning av filmen beroende på bildformatet.<br />
I TV-rutan ryms inte lika mycket och bilden som visas är i regel mindre den på än<br />
bioduken, vilket gör att tex en folksamling på TV mest består av en massa prickar.<br />
På bioduken ryms däremot mer, vilket innebär att det ibland kan vara svårt för<br />
publiken att fästa uppmärksamheten på rätt saker i bilden.<br />
Bildkomposition (ingår i vad som kallas kamerasceneri) – Hur bilden<br />
komponeras är beroende av personernas placering på scenen (fysiska relationer).<br />
Men kamerans placering ingår (normalt) inte i berättelsen. Den komponerade<br />
bilden existerar enbart på berättarplanet och inte i handlingsplanet. Hur<br />
personerna är placerade på scenen bestäms av deras relation till varandra och vad<br />
som händer etc. Kameran styr inte de handlande, den styr åskådarens upplevelse<br />
av de handlande. Kort skulle man kunna säga att vågräta linjer skapar större lugn<br />
än vertikala. Diagonaler åstadkommer dynamik, bilddjup och en känsla av<br />
rörlighet. Asymmetriska kompositioner främjar obalans. Dåligt med luft kring<br />
personerna kan ge en instängd känsla, osv.<br />
48
Brännvidd och skärpa (ingår i kamerasceneri) – Vad gäller brännvid bör man<br />
använda samma inställning genom hela filmen, om man inte vill använda<br />
brännvidden för att skapa en effekt. Något man bör tänka på är vitbalansen som<br />
bör vara lika inställd på alla kameror, annars varierar färgen i bilden.<br />
Bildstorlek (ingår i kamerasceneri) – Det vill säga: extrem närbild, närbild,<br />
halvbild, helbild och totalbild. De olika bildstorlekarna används för att svara på<br />
var, vem och vad. Dvs de etablerar (totalbild), presenterar (Hel- eller halvbild)<br />
och de accentuerar (Närbild).<br />
Kameravinkel (ingår i kamerasceneri) – Kameravinkeln är nära kopplat till<br />
berättarpositionen, dvs berättarens synvinkel. En extremt hög vinkel<br />
(”fågelperspektiv”) får motivet att verka litet och obetydligt, medan en låg vinkel<br />
(”grodperspektiv”) får motivet att verka stort och överlägset.<br />
Kamerarörelse (ingår i kamerasceneri) – Det finns i huvudsak två funktioner<br />
med en kamerarörelse. Den första funktionen är att följa ett rörligt motiv, tex om<br />
huvudpersonen reser sig upp och går fram till fönstret. Den andra funktionen är<br />
kamerarörelser som berättargrepp, tex en inzoomning mot ett viktigt föremål.<br />
Färgeffekter och svart/vitt – Färgeffekter finns inte i den filmade verkligheten,<br />
utan är ditlagda efteråt. Ett exempel här är Schindler’s list som är svart/vit,<br />
förutom den lilla flickan i röd jacka.<br />
Artificiellt ljus – Allt ljus som inte är naturligt, tex färgade strålkastare. Man kan<br />
säga att samma sak gäller för artificiellt ljus som för de naturliga ljuskällorna.<br />
Meningen med artificiellt ljus är att publiken inte ska se den utan uppleva filmen<br />
tack vare den.<br />
Filmsort och exponering – Valet av film och exponering spelar roll för<br />
kvaliteten på den färdiga filmen, tex kan filmens snabbhet, kornighet och<br />
kontrastomfång vara olika. Det samma gäller för video, olika videotekniker ger<br />
olika bra kvalitet. I dag när mycket video filmas och redigeras digitalt så handlar<br />
det snarare om vilken grad av komprimering som används.<br />
Klippning – Hur man klipper kan delas upp i två sätt: osynliga klipp och synliga<br />
klipp. Vid osynliga klipp ska publiken inte märka klippen. Vi kan kalla dessa<br />
klipp för kontinuitetsklipp och de används för att skapa en enhetlig handling, eller<br />
ett enhetligt rum eller en enhetlig tid. Vid synliga klipp ska publiken lägga märke<br />
till klippen. Klippen markerar då en förflyttning i rum och/eller tid. De synliga<br />
klippen behöver inte vara hårda klipp, utan kan även vara övertoningar.<br />
Effektljud – Är väldigt svåra att skilja från realljuden. Effektljud är egentligen<br />
sådana ljud som personerna i filmen inte hör utan de hör till berättarplanet. Men<br />
ofta förstärks realljuden med hjälp av effektljud och då kan det vara svårt att klart<br />
och tydligt skilja ljudtyperna åt. Tex däckskrik, skott och dörrgnissel, men det kan<br />
också vara ljud som inte ”syns” i bild, tex restaurangsorl eller brus från trafiken<br />
utanför.<br />
Filmmusik – Dvs icke-diegetisk musik används för att förstärka och understryka<br />
49
ildernas känsloinnehåll. Personerna i filmen hör inte denna musik! Bra<br />
filmmusik hör inte publiken heller, utan de påverkas av den.<br />
Speaker – Om en film berättas till stora delar av en speaker så innebär det att<br />
filmskaparen inte lyckats lösa de dramaturgiska konstruktionsproblemen. Tex så<br />
fanns en speaker i Ridley Scotts film Bladerunner på grund av att producenten<br />
ansåg att filmen var för svår att förstå annars. Denna togs sedan bort i andra<br />
utgåvan, directors cut. Men en speaker kan vara ett bra sätt att starta en film. I den<br />
episka filmen har speakern en mycket mer naturlig funktion, än i den dramatiska<br />
filmen.<br />
Texter – Det är sällan texter i en spelfilm annat än i förtexterna och i<br />
eftertexterna. Förtexten kommer ofta en liten bit in i filmen efter en så kallad<br />
teaser eller hook som har fångat publiken först. Ibland används dock texter för att<br />
förklara tid eller platser.<br />
Titel – Titeln är viktig för filmen. Den ska locka publiken!<br />
Det är viktigt att tänkta på att berättarelementen egentligen inte kan ses så här,<br />
utan måste betraktas utifrån sin plats i helheten.<br />
Filmrum, filmtid<br />
Filmrummet är det som syns i bilden och det som finns strax utanför. Det är<br />
viktigt att publiken kan orientera sig i filmrummet. Verkligheten som filmas är<br />
oändlig och tredimensionell, men publiken möter denna verklighet i form av en<br />
tvådimensionell rektangulär bildruta. Man hjälper publiken att förstå filmens<br />
verklighet genom att först etablera en miljö och sedan behålla dessa relationer<br />
(mellan höger och vänster) tills vi etablerar nya.<br />
Man börjar med en geografisk etablering. Detta gör vi tex med en bild på<br />
polisstationen och lägger in dialogen som hör till nästa bild redan nu. Sedan<br />
klipper vi in en bild på två som pratar (dialogen fortsätter). Dialogen knyter ihop<br />
de två bilderna och vi vet därför att vi nu är inne på polisstationen.<br />
När vi sedan filmar dialogen så använder vi oss av den optiska axeln och kliver<br />
inte över denna någon gång. Detta underlättar för publiken att förstå rummet, och<br />
är lite av en helig regel som man inte ska bryta mot. Man kan bryta den optiska<br />
50
axeln om man först gör en extrem närbild.<br />
Den optiska axeln utnyttjas även vid t.ex. förflyttning. Om vi gör olika tagningar på en bil<br />
som kör genom ett landskap, så betraktar vi som att den är på väg mot sitt mål så länge bilen<br />
förflyttar sig i samma riktning i bild. Skulle vi av någon anledning gå över den optiska axeln,<br />
så att bilen färdas åt motsatt håll, så tror vi att bilen är på väg tillbaka.<br />
Filmtiden är egentligen väldigt konstig. Det kan gå veckor på duken under en<br />
halvtimme i biosalongen. För att detta ska fungera görs synliga eller osynliga<br />
tidsförkortningar. Om vi återgår till föregående scen så kan vi tänka oss den här<br />
handlingen. En man upptäcker att det har varit inbrott i grannhuset. Han går till<br />
bilen. En bil åker över den stora bron till staden. Bild på polisstationen, osv.<br />
Denna scen innehåller i huvudsak osynliga tidsförkortningar.<br />
51
En synlig tidsförkortning hade varit om marken hade varit täckt av snö när<br />
mannen upptäckte inbrottet och sedan varm sommar när han var på polisstationen.<br />
Ofta används text för att visa synliga tidsförkortningar, ”Två veckor senare i<br />
Moskva”.<br />
Tidsförlängning är mindre vanligt, men ofta tar det längre tid än de 10 sekunder<br />
som det står på tidsinställningen innan hjälten har desarmerat bomben.<br />
Dramatisk struktur<br />
Den dramatiska strukturen bygger på handling och handlingen bygger på konflikt.<br />
Detta är grundförutsättningen för det dramatiska filmberättandet.<br />
Den dramatiska formen har sina grunder i treakts dramat, det finns en början, en<br />
mitt och ett slut. Början (akt 1) presenterar karaktärerna (protagonisten =<br />
huvudkaraktären och antagonisten motståndskaraktären), konflikten (problemet<br />
eller krisen), tiden och platsen. Mitten (akt 2) är huvuddelen av filmen. I denna<br />
del utvecklas och intensifieras konflikten, bihandlingar och mindre viktiga<br />
karaktärer presenteras, och handlingen leder till ett klimax där huvudkaraktären<br />
måste ta till handling för att lösa konflikten (point-of-no-return). Slutet (akt 3) är<br />
upplösningen. Huvudkaraktärens agerande löser konflikten, klarar krisen och<br />
löser problemen. Varje del av filmen slutar med en vändpunkt eller klimax, en<br />
händelse som ändrar händelseutvecklingen och huvudkaraktärens handlande. På<br />
Hollywood-vis skulle man kunna sammanfatta treakts dramat som ”pojke möter<br />
flicka, pojke förlorar flicka, pojke får flicka”.<br />
Om en film är 100 minuter lång, så händer något efter 25 minuter som påverkar<br />
huvudkaraktären så pass att denne måste ändra sitt handlande, och 25 minuter<br />
innan slutet händer ytterligare något som leder till filmens slutliga klimax.<br />
I över 2000 år har vi blivit övade i detta sätt att se på teater och i 100 år på film, så<br />
dagens publik är vältränad att se denna struktur. Detta ger naturligtvis utrymme<br />
för att bryta mot det förväntade och utnyttja denna effekt för att åstadkomma en<br />
reaktion hos publiken. Ett exempel på detta är Hitchcocks Psycho (1960) där vi<br />
får träffa en ung kvinna, Marion, som jobbar på ett kontor. Hon tänker knycka<br />
40.000 från företaget och starta upp ett nytt liv med sin pojkvän. Ok, vad händer?<br />
Jo, efter 45 minuter mördas hon. Men under dessa 45 minuter har publiken hunnit<br />
bekanta sig med henne, identifiera sig med henne och tänker: ”Ja, här har vi<br />
Marion, och hon är huvudperson”. Och sedan dör hon… Detta leder till att<br />
publiken förlorar den fasta punkt som man har identifierat sig med i filmen, vilket<br />
gör att resten av filmen blir mer obehaglig. Hitchcock själv sa: ”Psycho has a very<br />
interesting construction. The game with the audience was fascinating.”<br />
I den dramatiska formen finns ofta en underliggande moralisk ståndpunkt (det är<br />
fel att döda, brott lönar sig inte osv), karaktärerna är ofta arketyper (hjälten,<br />
skurken och flickan som måste räddas) och slutet löser alla konflikter så att inga<br />
lösa trådar finns när eftertexterna rullar.<br />
52
I den dramatiska filmen har vi ofta ytterligare en karaktär, förutom protagonisten<br />
och antagonisten, och det är hjälten. Hjälten förhåller sig annorlunda genom<br />
filmen än vad protagonisten och antagonisten gör, hjälten utvecklas nämligen inte.<br />
Protagonisten går från – till +, Antagonisten går från + till –, men hjälten ligger<br />
hela tiden på +.<br />
Den dramatiska strukturen<br />
Öppningen (anslaget) introducerar huvudkaraktärerna och plotten. För att få<br />
maximal effekt introduceras fyra punkter:<br />
1. Konflikten<br />
2. Huvudkaraktärens mål<br />
3. Huvudkaraktären i kris<br />
4. Huvudkaraktären hindras att nå sina mål<br />
Presentationen ger information om karaktärerna, plotten och bakgrunden. All<br />
information som ges är relevant för handlingen och leder den framåt.<br />
Presentationen avslöjar:<br />
1. Hinder som huvudkaraktären måste klara<br />
2. Problem som måste lösas<br />
3. Det är bråttom: en tidsgräns eller nedräkning<br />
4. En viktig ledtråd, eller fakta, som ännu inte är känd<br />
5. En besvärlig situation (ett predikament)<br />
Under fördjupningen (eller konfliktutvecklingen) är alla karaktärer kända, alla<br />
relationer presenterade, alla mindre konflikter introducerade och alla miljöer<br />
uppdagade. Här utvecklas bihandlingar och skuggkaraktärer. Vissa okända<br />
egenskaper hos protagonisten och antagonisten avslöjas.<br />
I konfliktupptrappningen byggs konflikten upp mer och mer, vilket leder till en<br />
point-of-no-return, dvs den direkta konfrontationen mellan protagonisten och<br />
antagonisten.<br />
Under konfliktförlösningen vinner ena sidan och den andra sidan förlorar.<br />
Plotten blir upplöst. Bihandlingar och biplotter med mindre karaktärer blir också<br />
lösta.<br />
Avtoningen ger ett lugn efter klimaxen, här framkommer också den<br />
underliggande moralen i filmen.<br />
53
Episk struktur<br />
Även den episka strukturen har rötter bak till antikens Grekland. Ett tydligt<br />
exempel på det episka berättandet är Homeros Odyssén, som beskriver olika<br />
episoder som kretsar runt en huvudkaraktär.<br />
I den episka filmen så försöker man inte framföra en handling som i den<br />
dramatiska strukturen, utan man berättar något för någon annan. Där dramat är<br />
handling är eposet beskrivning. I stället för en filmberättare som är gömd och<br />
olika dramatiska förutsättningar leder till ett uppsatt dramatiskt mål, är den episka<br />
filmen snarare uppbyggd av många olika byggstenar, alla berättade ur samma<br />
synvinkel med en tydlig tematisk inrikting.<br />
Men i den episka filmen finns inget problem som en karaktär måste lösa för att<br />
filmen ska nå sitt slut, som det gör i den dramatiska strukturen. Den episka filmen<br />
är snarare statisk, än linjär rörelse och handling. Den utgår från en berättar-synvinkel<br />
med olika episka byggstenar, och återgår till samma punkt, samma<br />
berättarsynvinkel.<br />
54
Den episka filmen används ofta för att diskutera ett problem, inte för att lösa det<br />
utan snarare för att väcka tankar hos publiken.<br />
Lyrisk struktur<br />
Det finns tre olika sätt att arbeta med film i den lyriska strukturen. Antingen gör<br />
man film av skriven diktning. Man försöker då fånga det skrivna ordet i bild,<br />
handling, tal och musik. Det andra alternativet är att göra film som talar till<br />
känslorna, film som är poesi i sig själv. Det tredje alternativet, och som nog är det<br />
vanligaste förekommande, är poetiska sekvenser i vanlig film. Då handlar det<br />
oftast om drömsekvenser.<br />
Ingen av dessa sätt att göra lyrisk film på behöver följa någon tydlig berättande linje,<br />
eller använda sig av alla berättarelement. Lyrisk film är snarare väldigt fri för<br />
filmskaparen att skapa det känslointryck han/hon vill gestalta.<br />
Karaktärsteckning<br />
I ett dramatiskt berättande är det i första hand genom karaktärerna som filmskaparen för fram<br />
sitt budskap. Därför är valet och skapandet av karaktärerna en väldigt viktig uppgift. Det är<br />
livsfarligt att säga att den här karaktären kommer jag säkert på vad han ska göra när jag<br />
skriver dialogen. Karaktärernas drivkrafter, egenskaper och förutsättningar måste vara klara<br />
när manus skrivs.<br />
En karaktärs egenskaper som inverkar på handlingen måste beskrivas precist, så<br />
att personen inte blir luddig och svårförståelig. Om man inte tecknar en tydlig<br />
karaktär finns ingen profil eller individualitet. En person som är sammansatt och<br />
mångtydig bör ha alla dessa motsättningsfyllda drag tydligt angivna.<br />
När man sedan skriver manuset är det inte nödvändigt att berätta allt om en person<br />
för publiken, utan man bör fokusera på det som är nödvändigt för handlingen. Det<br />
kan räcka att berätta 10% om personen, ytterligare 30-40% räknar publiken ut<br />
tack vare berättelsen, rekvisita, andra karaktärer och sina egna fördomar. Resten<br />
av karaktären är inte intressant för filmen, men manusförfattaren måste veta allt<br />
om den för att kunna skriva en naturlig person.<br />
Fysiska data:<br />
• Kön<br />
• Ålder<br />
55
• Kroppstyp och kroppshållning<br />
• Utseende (hårfärg och frisyr)<br />
• Klädsel och deras tillstånd<br />
• Gester och mimik<br />
• Sätt att tala<br />
Sociologiska data:<br />
• Etnisk tillhörighet och nationalitet<br />
• Klassbakgrund<br />
• Utbildning<br />
• Yrke (inkomst, arbetsförhållanden)<br />
• Bostadsförhållanden<br />
• Familjeförhållanden<br />
• Vänkrets<br />
• Fritidsaktiviteter<br />
• Politisk inställning och tillhörighet<br />
• Religiös inställning och tillhörighet<br />
• Namn<br />
Psykologiska data:<br />
• Ambitioner<br />
• Frustrationer<br />
• Drömmar<br />
• Personliga svagheter<br />
• Temperament<br />
• Intelligens<br />
• Livsinställning och moralisk läggning<br />
• Grundläggande värden<br />
• Romantisk/sexuell läggning<br />
• Komplexer<br />
• Speciella talanger<br />
Presentation av karaktärsdrag<br />
I en film är en person aldrig något annat än det den gör. Ett karaktärsdrag<br />
existerar endast eftersom det visas i handling. Därför måste man hitta sätt att<br />
visualisera karaktärsdragen. Det finns förstås olika sätt att visualisera<br />
karaktärsdrag:<br />
• genom handling (vad personen gör, försöker göra och hur denne gör det)<br />
• genom kontrast till vad andra gör<br />
• genom reaktioner (hur personen reagerar på vad andra gör)<br />
• genom andras reaktioner<br />
• genom dialog (vad en person inte säger)<br />
• genom utseende (kläder och beteende mönster)<br />
• genom förhållande till rekvisitan<br />
• genom förhållande till miljön<br />
• genom namn<br />
56
Ett karaktärsdrag kan komma bäst fram om det visas i kontrast mot personens<br />
huvuddrag. En hänsynslös man kan bli farligare om han är snäll och kärleksfull i<br />
en del situationer och en kallblodig mördare i andra.<br />
Scenuppbyggnad<br />
Vår upplevelse av en scen bestäms inte bara av det som händer i den, utan även<br />
vad som händer före och efter. Scenens huvuduppgift är att föra handlingen<br />
framåt och/eller öka publikens förståelse och insikt i filmen. När man skriver en<br />
scen är det viktigt att följande tre moment tas i beaktning: handling, funktion och<br />
gestaltning.<br />
Handling<br />
Vad händer i scenen? Vem gör vad och varför? Vilka är förutsättningarna för det<br />
som händer i scenen? Detta bör ha presenterats i tidigare scener, om inte så bör<br />
det göras så fort som möjligt i scenen. I den dramatiska formen så kan man se<br />
varje scen som ett eget litet drama med anslag, konfliktupptrappning och<br />
konfliktlösning.<br />
Funktion<br />
Scenens funktion bestäms av dess placering i den dramatiska eller episka<br />
helheten. Inom dramat ska varje scen leda konfliktmaterialet till dess slutgiltiga<br />
upplösning. Inom den episka formen ska scenen profilera, kasta nytt ljus över och<br />
öka publikens insikt. Scenens funktion är att stödja filmens centralidé.<br />
Gestaltning<br />
När vi väl vet scenens handling och funktion måste vi hitta ett uttryck som<br />
framför handlingen på effektivaste sätt. Det gäller alltså att använda<br />
berättarelementen på rätt sätt.<br />
Man skriver sällan in handlingar som är meningslösa för handlingen och som bara<br />
är till för att skådespelarna ska ha något att göra, och som är naturliga för en<br />
människa. Det kan tex vara att någon kliar sig i huvudet eller tänder en cigarett.<br />
Detta är upp till regissören och skådespelarna att hitta på.<br />
Dialog<br />
Dialogen som jag sa tidigare ska alltså inte förklara handlingen utan vara en följd<br />
av den. För att klara det kan man prova att skriva hela scenen utan någon dialog.<br />
Då tvingas man att fundera över vad som är dramatiskt bärande i scenen. Vad är<br />
avsikten med scenen? Vad vill personerna? Vad är det som händer? När man har<br />
fått dessa dramatiska element att fungera kan man skriva en dialog som uppstår ur<br />
situationen, utan att man behöver förklara den.<br />
En dialogs funktioner och krav:<br />
• Dialogen måste vara realistisk och trovärdig i sitt sammanhang.<br />
57
• Dialogen ska karaktärisera den talande. En persons sätt att tala berättar en<br />
hel del om vem han är, vad han tycker och tänker oavsett vad han<br />
egentligen säger.<br />
• Dialogen ska uttrycka den talandes sinnesstämning. Uttryckssättet är även<br />
här viktigare än vad som faktiskt sägs.<br />
• Dialogen ska leda handlingen framåt.<br />
• Dialogen ska ge information. Men denna information måste komma<br />
naturligt in i sitt sammanhang.<br />
Att skriva dialog<br />
När man skriver en dialog är det viktigt att tänka talspråk och inte skriftspråk.<br />
Men en filmdialog simulerar verkligt tal och kopierar det inte. Man skriver ett<br />
urval och en koncentration av talspråk. Man ska tänka på att:<br />
• Varje replik är karaktäristisk för den som talar.<br />
• Känsloinnehållet är viktigare än den verbala betydelsen.<br />
• En bra dialog ofta är osammanhängande och ologisk, dvs naturlig.<br />
• Gester, utbrott och handling bör användas istället för det talade ordet (där<br />
det är möjligt).<br />
• Dialogens karaktär bör reflektera situationen.<br />
• Tänk på varför personer säger något och varför de svarar. En dramatisk<br />
dialog är aldrig konversation.<br />
• En replik säger bara en sak i taget. Hellre två korta repliker än en som<br />
säger två saker samtidigt.<br />
58
Kommunikation med rörliga bilder<br />
Ett budskap som förmedlas med hjälp av ljud och rörliga bilder Kan få en mycket stor<br />
genomslagskraft. Man har i mediet ett antal redskap som man kan kombinera på ett oerhört<br />
kraftfullt sätt för att nå sitt mål. Å andra sidan, så kan dessa verktyg ha motsatt verkan om<br />
dom inte används på rätt sätt.<br />
Linjärt berättande (i motsats till t.ex. interaktivt berättande) bygger på att man berättar en<br />
historia eller på annat sätt för fram ett budskap med en bestämd start och slutpunkt.<br />
Mottagaren har begränsade möjligheter att påverka innehållet eller göra paus i berättandet.<br />
Det första som man kan tänka sig som exempel är vanligt dramatiskt berättande på film. Men<br />
det kan även röra sig om reportage, nyhetssändning och ”soffprogram”.<br />
Det finns naturligtvis både för och nackdelar med denna typ av berättande:<br />
+ Föra fram känslor och stämningar<br />
+ Engagera<br />
+ Skapa överblick<br />
+ Visa ”verkligheten”<br />
+ Förklara svåra sammanhang<br />
- Passiv inlärningssituation<br />
- Dålig på att förmedla detaljfakta<br />
- Kräver ”uppstartningstid”<br />
Analys<br />
I grunden för all kommunikation finns ett behov. Behovet att berätta, påverka, utbilda m.m.<br />
Behovet hos målgruppen behöver inte vara lika uttalat. Det är inte alltid som man aktivt söker<br />
sig till en speciell typ av information. Jämför t.ex. reklam. Vid utvärdering av behov ska man<br />
ställa sig frågan om det som jag vill förmedla eller sättet som det görs på tillför något nytt.<br />
Syftet styr till viss del valet av formen på budskapet. Är syftet att visualisera, konkretisera,<br />
påverka, underhålla o.s.v?<br />
Målet är naturligtvis att mottagaren ska ta till sig programmet. Det handlar om åskådarens<br />
behållning, t.ex. känsla och/eller kunskap. Vad har åskådaren med sig direkt efter<br />
programmet? Vad är den bestående känslan en vecka efter programmet?<br />
Målgruppen är viktig för rätt analys. Vilken ålder? Vilka förkunskaper? Vilka attityder,<br />
intressen och referensramar har man?<br />
Hur är visningssituationen? Sitter man hemma framför TV:n och kan zappa mellan kanalerna,<br />
eller sitter man i ett för ändamålet avsett visningsrum? Har det linjära berättandet samverkan<br />
med andra medier t.ex. trycksaker eller utställningsskärmar?<br />
Idé<br />
Idén är ett sätt att förpacka budskapet så att den får rätt form för ändamålet. Förpackningen<br />
syftar till att på effektivast möjliga sätt nå ut till den målgrupp som man önskar. Ofta handlar<br />
59
det om att t.ex. en film ”andas” ett budskap. Man kan dela in filmen/videon i flera<br />
övergripande former, t.ex.:<br />
fiction, lyrik, dokumentär/dramadokumentär, reportage, reklam, information, utbildning,<br />
underhållning, musikvideo m.fl.<br />
Kommunikationens villkor<br />
Det fria valet har naturligtvis stora fördelar. Men rädslan för att tittaren ska byta kanal gör att<br />
man inte vågar fördjupa sig i ämnen. Med nya mediakanaler ökas behovet av volym.<br />
Kanalerna måste fyllas med något. Kvantitet framför kvalitet. Risken är att innehållet tunnas<br />
ut.<br />
Det fria valet gör att du själv kan söka dig till den information som du är intresserad av,<br />
samtidigt som det är mycket lätt att sprida ny information. Risken är också att man aktivt<br />
väljer bort information som går emot dina egna förutfattade meningar. Att ständigt ges<br />
möjlighet att välja vinklad information kan skapa en grogrund för en fördjupad personlig<br />
likriktning eller fundamentalism om man så vill. En paradox i vårt täta mediabrus.<br />
Kommunikationens broar och raviner<br />
När man ska kommunicera via linjära medier, så finns ett antal fallgropar som minskar, eller<br />
helt eliminerar den förväntade effekten.<br />
De vanligaste fallgroparna kan rubriceras:<br />
Kannibalisering<br />
Redundans<br />
Känslofällan<br />
Osynlighetsfällan<br />
Logisk bubbla<br />
Haloeffekt<br />
Kannibalisering kan sammanfattas med att formen äter upp budskapet. Utmanande klädsel,<br />
känsloladdade bilder, störande bakgrund m.m. kan ta bort uppmärksamheten från det<br />
egentliga budskapet. Man kan dela upp begreppet i två skilda delar. Rikedoms-kannibalisering<br />
och fattigdoms-kannibalisering. Exempel på rikedoms-kannibalisering är när man i ett<br />
program brer på för mycket av avvikande bildspråk så att åskådaren inte uppfattar innehållet i<br />
berättartexten.<br />
60
Vi tittar alltid först på vad bilden berättar. Sedan kanske vi lyssnar också. Allra starkast<br />
fängslar bilderna om vi själva kan tänka oss att vara i den situation som visas. Rörliga bilder<br />
har starkare dragningskraft än stillbilder. Bilder av människor har starkare dragningskraft än<br />
bilder på djur. Röda och gula föremål uppmärksammar mer än andra färger o.s.v.<br />
Fattigdoms-kannibalisering uppstår när uppmärksamheten från innehållet störs av<br />
felaktigheter, om speakern stakar sig, om bilden är dålig (omotiverat suddig eller skakig), om<br />
ljudet låter kraxigt m.m.<br />
Är man ovan att använda sin apparatur eller har dålig yrkesvana är risken att budskapet blir<br />
fattigdoms-kannibaliserat. Är man däremot mycket skicklig på att utnyttja sina tekniska<br />
resurser, så är risken att budskapet blir rikedoms-kannibaliserat. Det drunknar i alla ”tjusiga”<br />
videoeffekter eller häftiga kameraåkningar. Här gäller som alltid att det är budskapet som ska<br />
styra valet av teknik och tekniska lösningar.<br />
All förmedling av ett budskap riskerar att bli föremål för kannibalisering. Speakerrösten kan<br />
ha en dialekt som man försöker att härleda. Musiken kan skapa associationsbanor hos olika<br />
människor. Speciellt om man använder kommersiell musik som produceras för<br />
konsumentmarknaden.<br />
Redundans innebär att man talar om för åskådaren det som redan är uppenbart. T. ex. man<br />
visar en bild på en apelsin och speakern talar om att "det här är en apelsin". Att på detta sätt<br />
dumförklara åskådaren gör att man snabbt tappar intresset.<br />
När man producerar en film ska man ha som riktlinje att berättelsen hela tiden ska sträva<br />
framåt. All ny information som tillförs skall bidra till att föra berättelsen framåt. Vi kan tänka<br />
oss att vi bygger ett hus. Varje liten del i huset bidrar till den färdiga byggnaden. I filmen kan<br />
vi byta ut byggnaden mot syftet. Detta innebär inte att vi hela tiden skall späcka vår<br />
framställning med ny information. Framåtrörelse kan också innebära att vi t.ex. belyser en<br />
uppgift från flera sidor, bygger upp stämningar eller en spänning. Men hela tiden ska man<br />
väga allt nytt material, om inte på guldvåg, så i alla fall på våg.<br />
En typ av redundans kan t.ex. bli resultatet av att man låter en copywriter, som normalt jobbar<br />
med utformning av broschyrtext, skriver ett speakermanus till en informationsfilm. Speakern<br />
berättar om allt som är av värde, på samma sätt som broschyrtexten skulle vara utformad, och<br />
lämnar inget över till bilden att illustrera. Resultatet blir, om man inte är uppmärksam, vad<br />
man brukar kalla ”bildsatt speaker”. I detta fall är det bilden som ”talar om något” som redan<br />
sägs i speakern. Detta är mycket vanligt i nyhetssammanhang där man främst har krav på<br />
tydlighet och inte heller har tid att bygga en berätardynamik mellan bild och ljud. Att vi<br />
accepterar detta som åskådare kan förklaras med att det som förmedlas engagerar oss på olika<br />
sätt.<br />
Man kan göra experimentet med att stå i ett angränsande rum och enbart lyssna på TV<br />
nyheterna. I de flesta fall ska man finna att man snappar det mesta av innehållet i nyheterna.<br />
Skulle vi däremot skruva ner ljudet och enbart titta på bilderna, så kommer vi att ha svårt att<br />
uppfatta innehållet i nyhetssändningen, utom möjligtvis vädret.<br />
Känslofällan. Människan är en känslovarelse, även om man inte upplever det själv. Även till<br />
synes rationella beslut fattas många gånger på känslomässiga grunder. Man har mycket lätt att<br />
glömma bort eller förringa argument som talar emot ett beslut fattat på känslor. Det är normalt<br />
61
mycket svårt att nå igenom med argumentation om denna inte också kryddas med faktorer<br />
som spelar på känslor.<br />
Detta är faktorer som utnyttjas i religiösa, politiska och affärsmässiga sammanhang (reklam).<br />
Rädsla eller hopp om lycka är faktorer som ofta finns bakom vårt engagemang i en sak. I<br />
reklamen spelar man på sådana känslor.<br />
- Om du inte beställer idag, så blir det dyrare!<br />
- Om du inte gör så här, så blir du aldrig omtyckt!<br />
- Investera nu så blir du rik!<br />
- Köp det här, så vill alla bli dina vänner!<br />
Om vi bara försöker att nå ut med enbart förnuftiga argument, så är det risk för att vi bara når<br />
ett fåtal analytiskt tänkande människor.<br />
Osynlighetsfällan. Fyra faktorer spelar in om jag ska intressera mig för en nyhet.<br />
Det bör handla om något som jag inte kan påverka.<br />
Det bör ske här, där jag är.<br />
Det bör ske nu, strax, eller bör just ha skett.<br />
Det bör ske plötsligt.<br />
Minst tre av dessa faktorer bör finnas med för att en nyhet ska få genomslagskraft.<br />
Exempelvis Kuwaitkriget. Det var opåverkbart - icke självvalt. Det skedde här, d. v. s. i TVsoffan.<br />
Det skedde nu med hjälp av direktsändning och det inträffade plötsligt.<br />
Å andra sidan kan man jämföra FN:s senfärdighet i kriget i forna Jugoslavien. Kriget ansågs<br />
som självvalt. Flera grupper slogs mot varann. Det var bara att lägga ner vapnen. Det hade<br />
inte inträffat plötsligt. Man har ju varit osams där i flera hundra år. Det skedde inte här, utan i<br />
Jugoslavien. Vi fick i inledningsskedet inte så mycket bilder levererade till oss i TV-soffan.<br />
Logisk bubbla. Kan liknas vid förutfattade meningar. Vi har en åsikt i en fråga och är inte<br />
beredda att ta emot argument som bevisar motsatsen. Bubblan kan innehålla värderingar,<br />
kulturmönster, religion, ideologi, föreställningar, uppfattningar och fördomar. Det kan i vissa<br />
fall vara oerhört svårt att få hål på en logisk bubbla.<br />
Haloeffekter uppstår när man mer ser till vem som förmedlar ett budskap än till innehållet.<br />
Man lyssnar t.ex. mer på en professor som yttrar sig i ett ämne, även om det ligger utanför<br />
dennes normala kunskapsområde.<br />
”Kill your darlings”<br />
Det händer titt som tätt att man sitter med material till en film som man långt i förväg har<br />
bestämt att man ska ha med. Det kan vara en scen eller bild som man verkligen kämpat för att<br />
få precis som man vill ha den. Ofta har man med sig historien hur man skapat bilden i<br />
bakhuvudet. Det kan vara den där fantastiska utsikten som man fick kämpa i tre timmar för att<br />
komma upp till, eller den där lilla blomman som man fick hänga i krokig arm intill ett<br />
vattenfall för att kunna ta. Problemet är att den som sedan ska titta på materialet enbart ser<br />
resultatet av ens strapatser. Detta resultat är kanske inte alls i proportion till de umbäranden<br />
som krävdes för att skapa bilden. När man sammanställer ett material är det mycket viktigt att<br />
man försöker att sätta sig in i målgruppens förutsättningar. Dom ser och hör bara det som<br />
finns med i programmet och inget annat. Under dessa förutsättningar kanske det visar sig att<br />
62
ens favoritscener inte alls fungerar i sitt sammanhang. Att då refusera en sådan favoritbild<br />
eller scen kan vara extra svårt, men nödvändigt.<br />
Att hela tiden försöka att sätta sig in i målgruppens förutsättningar måste hela tiden följa<br />
arbetet med att färdigställa en film. Den som skapar en film måste vara medveten om att man<br />
under arbetets gång blir mer och mer insatt i det ämne som filmen handlar om. Till slut är man<br />
expert. Även här gäller det att tänka på vilka som ska se på programmet. Det som jag tycker<br />
är självklart kanske inte är så själklart för målgruppen. Detta gäller även enstaka bilder.<br />
Komplexa bilder med mycket information är svåra att läsa av för en ovan betraktare. Det som<br />
har skapat programmet kan bilderna och vet var i bilden som man ska titta för att se den<br />
viktiga informationen. Men vet åskådaren var man ska titta i bilden? Här kan man utnyttja<br />
klippteknik och bildspråk för att underlätta för tittaren.<br />
Metonym<br />
För att förmedla ett budskap på ett effektivt sätt utan att lyssnaren eller åskådaren tappar<br />
intresset på grund av en omständlig handling, så kan vi utnyttja metonymer. Vi utnyttjar våra<br />
fördomar och klichéer för att med olika symbolspråk föra en handling framåt. Framför allt är<br />
detta vanligt i inledningen av en film där man snabbt vill skapa ett anslag som fängslar<br />
tittaren/lyssnaren och som sedan den fortsatta handlingen bygger vidare på.<br />
Lägerbålskurvan<br />
Begreppet lägerbålskurvan faller tillbaka på hur det kan vara när ett gäng samlas runt ett<br />
lägerbål. Man samlas, samlar ihop ved, tänder elden, sjunger, berättar historier, grillar korv,<br />
käkar o.s.v. Varje enskild händelse kan graderas i hur ”trevlig” den är. Vissa är lite trevligare<br />
än andra. Som oftast är det lite trevligare i inledningen av varje händelse. Men ganska snabbt<br />
avtar graden av ”trevlighet”. Att samla ved kan vara kul en liten stund. Att sjunga sånger kan<br />
också vara kul, men inte hur länge som helst. Hela händelsförloppet kan illustreras med en<br />
kurva där graden av trevlighet illustreras som en funktion av tiden.<br />
Lägerbålskurvan fungerar även som illustration på hur man kan hålla en åskådare intresserad<br />
av ett program. I princip går den ut på att graden av spänning, intressanta uppgifter eller vad<br />
det nu må vara ska variera i intensitet genom hela programmet. Åskådaren ska matas med små<br />
händelser i lagom stora munsbitar. Lägerbålskurvan fungerar som illustration på hur man<br />
bygger upp program där den traditionella dramaturgin inte är direkt tillämplig. T.ex reklameller<br />
informationsprogram. Men även inom ramen för ett dramaturgiskt berättande kan mindre<br />
avsnitt illustreras med lägerbålskurvan. Det ligger ju lite i sakens natur när vi pratar om att<br />
filmberättandet hela tiden skall tillföras nya element som för berättelsen framåt.<br />
63
Typisk lägerbålskurva där åskådaren matas med omväxling.<br />
Åskådarens upplevelsegrad är relativ. Lägger man sig på en "hög" nivå redan från början<br />
kommer denna nivå att betraktas som en referens. Kan man inte sedan leva upp till den<br />
referensen, så blir upplevelsen i värsta fall negativ.<br />
”Ballongen” i inledningen höjer förväntningarna som man sedan inte kan leva upp till.<br />
Att hela tiden ligga på en jämn och hög nivå är krävande och inte särskilt effektivt. Åskådaren<br />
vänjer sig snabbt vid den nya nivån och det blir en ny ”nollnivå”.<br />
64
Människan är anpassningsbar. Man blir snabbt lätt bortskämd med en genomgående hög<br />
nivå. Resultatet blir att den relativa upplevelsen inte uppfattas så hög som man skulle ha<br />
kunnat förvänta sig.<br />
Det gäller också att kunna sluta en berättelse i tid. man brukar säga att man ska sluta när man<br />
har som roligast. Det ligger något i det. Ett utdraget slut kan förta effekten av ett i annars bra<br />
upplägg.<br />
”Vampyren” är en effektiv sabotör av en i övrigt positiv upplevelse.<br />
Lägerbålskurvan kan sägas vara ett alternativ eller komplement till den klassiska dramaturgin.<br />
Den är mest tillämpbar där informationen är uppdelad och där man har svårt att skapa en<br />
sammanhängande story. Man måste också veta att man har publiken med sig hela tiden, så att<br />
dom under resans gång inte har möjlighet att välja något annat program. Då kan man leva med<br />
devisen ”Man måste ha lite tråkigt för att kunna uppskatta det roliga”.<br />
65
Manusarbete<br />
Film är ett mycket bra verktyg när man vill berätta något som engagerar och/eller underhåller.<br />
Filmberättandet innehåller många verktyg, både bildligt och bokstavligt talat. För att hålla<br />
koll på allt detta behövs en struktur.<br />
Manus uppgift är att detaljerat beskriva filmens utseende och innehåll från början till slut.<br />
Detta ska ligga till grund för det fortsatta planerandet och genomförandet av inspelningen.<br />
Manus är det egentliga filmskapandet<br />
Manus är det färdiga arbetet. Den innehåller allt som behövs för att kunna filma<br />
en scen, hur scenen ska delas upp i olika bildinställningar (kamervinklar,<br />
bildformat), vilken tid på dagen det är, vilka som medverkar, speciell rekvisita,<br />
repliker osv.<br />
Själva filmningen och efterbearbetningen (redigering) är egentligen bara ett verkställande av<br />
alla de idéer som finns dokumenterade i manuset. Det finns vissa som påstår att det kreativa<br />
arbetet är avslutat i och med att manus är färdigställt. Alfred Hitchcock sa en gång efter<br />
avslutat manusarbete, ”Nu återstår bara det mödosamma arbetet att fästa det hela på celluloid<br />
och klippa ihop det i rätt ordning.” De idéer som inte finns med i manus fungerar sällan i en<br />
slutlig produkt. Detta gäller inte minst trickeffekter som läggs in vid s. k. "bildtorka". Alla<br />
effekter och liknande ska vara motiverade på något sätt för att föra handlingen framåt.<br />
För att frångå manus på inspelningsplatsen måste man ha mycket starka argument. Däremot är<br />
det inget som hindrar (utom möjligen budget) att man utöver manusbilder tar de bilder som<br />
man fick en snilleblixt om på inspelningsplatsen.<br />
Manus är slutprodukten av en lång kedja av idéer, research, skisser och diskussioner. En<br />
arbetsgång kan se ut så här:<br />
1) Synopsis – berättelsen i stora drag. Sammanfattning av syfte och innehåll.<br />
2) Arbetsmanus (grovmanus) - manus som används på inspelningsplats där det slutliga<br />
utseendet är svårt att bestämma.<br />
3) Konturskiss (outline) – dialog/speaker klar, men med skissade miljöer<br />
4) Manus (screenplay) – allt inkl dialog/komplett speaker<br />
5) Bildmanus (storyboard) – detaljbeskrivning av scener som kräver hög precision<br />
Det första man behöver bestämma innan arbetet med en film börjar är den<br />
tematiska inriktningen. Man måste bestämma vad filmen ska handla om, och hur<br />
man avgränsar detta. Temat säger alltså vad filmen ska handla om, men inte vad<br />
vi vill säga med den, inget om vilka insikter eller hållningar vi vill förmedla med<br />
den.<br />
Centralidén är filmens struktureringsprincip. Den bestämmer vad vi anser är<br />
viktigt att betona, och vad som är mindre viktigt och som skjuts åt sidan. Den<br />
bestämmer också hur vi arbetar med varje berättarelement, hur vi börjar, utvecklar<br />
och avslutar filmen.<br />
I dramatisk framställning tar centralidén form av en premiss (X leder till Y) som<br />
gestaltas genom utvecklingen av de dramatiska situationerna på handlingsplanet.<br />
I episk framställning tar centralidén ofta form av en episk ledfråga som man<br />
försöker besvara genom uppställning av relevanta hypoteser som testas mot<br />
verkligheten.<br />
Med den gestaltande idén skapar vi en form för filmen som får temat och<br />
66
centralidén att vara så tydlig och slagkraftig som möjligt.<br />
Synopsis<br />
Ett synopsis är hela historien i korta drag. Synopsis kan, liksom alla övriga steg, successivt<br />
arbetas fram utifrån ett idéarbete och research likväl som det kan vara en skiss på en<br />
krogservett. Syftet med ett synopsis är att strukturera och klarlägga programinnehåll och<br />
syfte, både för en själv och för andra som inte är så insatta i dina tankegångar. I en<br />
beställarsituation är det inte ovanligt att det är synopsis som ligger till grunden för avgörandet<br />
om man är intresserad eller ej. I många fall ligger det också till grund för en kostnadskalkyl.<br />
När man formulerar ett synopsis bör man ha tänkt igenom följande:<br />
1) Fungerar idén<br />
2) Vilken är målgruppen<br />
3) Vad är premissen, d. v. s. budskapet<br />
Som sista steg i synopsisarbetet kan man scenindela handlingen. Det<br />
är viktigt att inte scenindela förrän man känner sig nöjd med hela handlingen.<br />
Detta arbete leder till en konturskiss (outline).<br />
Vägen till ett färdigt manus<br />
När synopsis är formulerat och godkänt återstår att bryta ner och utveckla detta till ett slutligt<br />
manus. Denna process kan se väldigt olika ut beroende på vilken typ av produktion som man<br />
ska göra och vem som utvecklar manus.<br />
Ett användbart knep är att använda sig av korttricket. Då använder man sig av kort vilka var<br />
och en representerar en scen. På kortet skriver man Syfte (tex gräl) och Funktion<br />
(i förhållande till hela handlingen) och slutligen Roller (vilka som är med i<br />
scenen). Man numrerar korten i tänkt ordningsföljd, och ordnar scenerna i<br />
sekvenser. När man har hittat rätt ordning kompletteras korten med en mer<br />
utförlig beskrivning av scenen, dvs konturskiss.<br />
Den ena ytterligheten är dokumentären där producenten påbörjar filmning endast med ett<br />
synopsis till grund. Under inspelningens gång kan synopsis utvecklas mer till ett manus. Det<br />
är inte ovanligt att manus inte blir mer än till ett arbetsmanus.<br />
Den andra ytterligheten är det dramatiska berättandet i en spelfilm. En stor inspelningsbudget<br />
och med många inblandade människor kräver ett mycket detaljerat manus.<br />
Manus uppgift är att detaljerat beskriva filmens utseende och innehåll från början till slut.<br />
Detta ska ligga till grund för det fortsatta planerandet och genomförandet av inspelningen.<br />
En enkel form av manus kan se ut så här:<br />
Bild<br />
Här beskrivs hur en tagning ska se ut.<br />
Ljud<br />
Här beskrivs musik, miljö/effektljud och ordalydelsen i<br />
en dialog eller speaker.<br />
En annan variant är där man numrerar varje tagning. Detta gör det lättare att samla ihop<br />
likartade scener vid ett inspelningstillfälle.<br />
67
Nr Bild Ljud<br />
Ett detaljerat manus i form av ett bildmanus eller storyboard kan se ut så här:<br />
Nr Action-anm. Ljud Bild Bildbeskrivning Speaker/dialog<br />
1 Beskrivning av<br />
atmosfär, stämning.<br />
Även<br />
inspelningsanvisningar<br />
som kameraplacering<br />
och resursanskaffning.<br />
Beskrivning av<br />
effekt- och<br />
miljöljud samt<br />
musik.<br />
Tecknad<br />
illustration av<br />
tagning<br />
Beskrivning i ord av<br />
tagning<br />
Speaker/dialog<br />
Det finns naturligtvis flera vägar att successivt strukturera sin idé. Ett exempel är att skriva<br />
ner varje tagning på små självhäftande notisar. Dessa kan sedan fritt flyttas runt eller bytas ut<br />
efter hand som programmet växer fram.<br />
Grund för detaljplanering<br />
Ett väl genomarbetat manus en förutsättning för att man ska kunna hålla givna ramar vad<br />
gäller tid, pengar och resursbehov. Trots detta kan det naturligtvis dyka upp oförutsedda<br />
händelser, eller så visar det sig att en scenlösning inte fungerar som den är tänkt. Men ju<br />
mindre sådana oförutsedda händelser dyker upp, ju större möjlighet har man att lösa<br />
problemen på plats.<br />
Manus kan brytas ner till olika listor som t ex tidplan, resursanskaffning, speaker/dialog,<br />
kostnadskalkyl m. m. Dessa kan se ut på många olika sätt, men ett genomgående drag är att<br />
man lätt kan relatera olika poster till manus med t. ex. scennumrering (eller tagning).<br />
Kostnadskalkyl<br />
För att illustrera vilka poster som kan ingå i en produktion av lite enklare karaktär kan man<br />
titta på ett kalkylblad för produktionskostnad.<br />
Produktionskalkyl Videofilm<br />
tid/ant á pris summa<br />
Projektledning<br />
Research/Idé/Manus<br />
FÄLTINSAMLING----------------------------------------------------------------------------------<br />
Film/Video<br />
Ljud<br />
ATELJÉ------------------------------------------------------------------------------------------------<br />
Film/Video<br />
Ljud<br />
Original/Skyltar/Repro<br />
Videografik/Animering<br />
STUDIO------------------------------------------------------------------------------------------------<br />
68
Förredigering/Digitalisering<br />
Ljud<br />
Videoredigering<br />
Effekter (teknik)<br />
FRÄMMANDE TJÄNSTER/HYRA------------------------------------------------------------<br />
Inköp av uppdrag externt<br />
Studio/Ateljé<br />
Rekvisita<br />
Skådespelare/Statister<br />
Smink/kostym/scenografi<br />
Specialteknik<br />
Assistent<br />
Eget arkiv<br />
Bildrätt (inköp)<br />
Övriga illustrationer/grafik/animation<br />
Musikrättigheter<br />
Specialkomponerad musik/effektljud<br />
Svensk speaker<br />
Dramatiserade röster mm<br />
2:a språk<br />
MATERIAL---------------------------------------------------------------------------------------<br />
Magnetband ljud/video<br />
Grafiskt material<br />
Rekvisita<br />
Övrig förbrukningsmaterial/kostnader<br />
ÖVRIGT-------------------------------------------------------------------------------------------<br />
Resor/övernattning<br />
Frakter<br />
69
Ljussättning<br />
Den omgivning som vi ser omkring oss som tredimensionell. Det beror på att vi har ett<br />
stereoseende men också att vi mer eller mindre omedvetet rör på oss lite som gör att vi kan få<br />
relativa rörelser mellan olika plan i djupled. Detta sammantaget skapar bilden av<br />
tredimensionalitet i vår omgivning. Ett användbart knep är att som fotograf testa om ett motiv<br />
”håller” genom att blunda med ena ögat. Detta eliminerar djupseendet och kan ge en bättre<br />
uppfattning om hur bilden fungerar på t.ex. en TV-skärm.<br />
Som videofotograf kan vi bara återge motiven som tvådimensionella. Detta innebär att vi har<br />
svårare att förmedla djup i bilden. För att överbrygga detta finns olika knep. Ett av de<br />
viktigaste är ljussättning. Ljussättningen fyller flera funktioner. Det basala är att belysa ett<br />
motiv så att det över huvud taget går att exponera. I de flesta fall behövs inte ljussättning av<br />
den orsaken, eftersom det naturliga ljuset räcker för tillfredställande exponering. Många<br />
fotografer nöjer sig med detta och lämnar ljuslådan hemma. Med lite större ambitioner kan<br />
man dock utnyttja ljussättning för att skapa djup och framhäva stämningar.<br />
Allt som vi ser omkring oss består av reflekterat ljus<br />
Vitt ljus består av olika våglängder. De olika våglängderna i det för oss synliga ljuset<br />
uppfattar vi som olika färger. Vitt ljus är summan av alla färger i ljusspektret. Tar vi bort en<br />
eller flera våglängder, så får vi en färgförändring i ljuset. När alla våglängder i ljuset<br />
reflekteras lika mycket från en yta, så uppfattar vi den som vit. Motsatsen är då alla<br />
våglängder absorberas. Då uppfattar vi ytan som svart. Mellanläget är då bara vissa<br />
våglängder reflekteras. Det är då som vi uppfattar att ytan har en färg. En röd yta reflekterar<br />
våglängderna i det röda området, medan de andra våglängderna absorberas.<br />
På samma sätt kan en yta reflektera med olika intensitet.<br />
Kontrastomfång<br />
Ögat, tillsammans med hjärnan som processar våra synintryck, har en särklassigt hög<br />
känslighet. De kameror och de medier som vi lagrar bildinformation på är bara trubbiga<br />
hjälpmedel för att försöka efterlikna vårt synorgan. Det är viktigt att känna till<br />
begränsningarna. T. ex. klarar vår syn att särskilja ungefär 2 000 nyanser i gråskalan från vitt<br />
till svart. Fotografisk film har ungefär en tiondel av detta kontrastomfång, eller 200 steg på<br />
gråskalan. Videon är ännu sämre, ungefär 60 steg kan videofilmen urskilja. Komprimerad<br />
video ska vi inte tala om. Man brukar säga att videon har hårdare kontraster än fotografisk<br />
film. Detta gör att videon kräver mjukare och en mer balanserad ljussättning än filmen för att<br />
resultatet ska bli bra.<br />
Färgtemperatur<br />
Vitt ljus är ett relativt begrepp. Egentligen kan vitt ljus vid vissa förhållanden ha en dragning<br />
åt gult. Vid andra tillfällen åt blått. Vi talar om att ljuset har en färgtemperatur. Normalt<br />
lägger vi inte märke till dessa färgvariationer i ljuset då hjärnan kompenserar<br />
färgförskjutningen. Kameran däremot kompenserar normalt inte för detta själv.<br />
Färgtemperaturen mäts i Kelvingrader som utgår från absoluta nollpunkten och har samma<br />
riktningskoefficient som Celsiusskalan. Färgtemperaturen från en halogenlampa är ca 3 200K<br />
(Kelvingrader) medan vanligt dagsljus brukar anges till 5 600K. Dagsljuset kan variera<br />
mycket beroende på om det är soligt eller mulet eller om man befinner sig på en fjälltopp eller<br />
havsstrand. I fotografiska sammanhang använder man sig av en färgtemperaturmätare som är<br />
70
avstämd för den aktuella film som man använder. Avvikelsen i färgtemperatur justerar man<br />
med filter som tar bort lite av de blåa eller röda våglängderna.<br />
När man använder videokamera är detta betydligt enklare. Videokameran är avstämd för<br />
3 200K. Vid filmning utomhus vrids ett orangefilter in i strålgången bakom objektivet som<br />
åtminstone delvis kompenserar för det blåare utomhusljuset. Detta är grundfiltrering. Sedan<br />
riktar man kameran mot en vit yta som belyses med det ljus som man ska filma i. Genom att<br />
trycka in en knapp för vitbalansering, talar man om för kameran att detta är referensen för vitt<br />
ljus i denna scen.<br />
Blandljus<br />
När man ska filma i en miljö med ljuskällor an olika karaktär, så kan det bli problem. En<br />
vanlig situation är när man ska filma en person i ett rum som ljussatts med halogenlampor,<br />
samtidigt som det blåare dagsljuset strömmar in genom fönsterrutor.<br />
Ett sätt är att filtrera ljuset. Antingen sätter man blåfilter på lamporna, eller så sätter man<br />
orangefilter på fönsterrutorna. Nackdelen med filter är att dom tar bort en hel del ljus. I vissa<br />
situationer kan man mycket väl klara sig med det ofiltrerade blandljuset. Det kan t.o.m. göra<br />
bilden intressantare. Men det är viktigt att notera att vi accepterar hellre en något för orange<br />
bild än en som är för blåaktig. Alltså görs vitbalanseringen mot den yta som dagsljuset har<br />
störst inverkan på.<br />
Djupseende<br />
Tack vare att vi människor har två ögon, så har vi "stereoseende" eller "djupseende". Kameran<br />
har bara ett "öga" vilket gör att bilden som vi erhåller saknar det "djup" som vi är vana att se<br />
vår omgivning i. Bilden känns platt. Det finns olika knep för att skapa mer djup i en bild. Ett<br />
sätt är att utnyttja ljuset. Genom att ta tillvara på skuggor och högdagrar så kan vi "frilägga"<br />
och lyfta fram motiv. Detta innebär att åtminstone en del av ljuset måste komma från ett annat<br />
håll än där kameran står. Detta är den grundläggande tanken med ljussättning.<br />
Grunden för enkel ljussättning<br />
I ljussättningssammanhang talar vi om trepunktsljussättning. Detta är grunden för enkel<br />
ljussättning. Trepunktsljussättning består av huvudljus (modulationsljus), lättningsljus och<br />
bakljus.<br />
Figur 32: Uppställning för trepunktljussättning.<br />
Huvudljuset används till att primärt lysa upp motivet. Lampan placeras normalt ganska nära<br />
71
kameran eller nära kamerans strålgång. Som ljuskälla används en lampa med ganska<br />
koncentrerad strålgång t. ex. en spotlight med fresnellins. Detta ljus ger hårda skuggor.<br />
Figur 33: Fresnellampa.<br />
För att lätta upp dessa skuggor används lättningsljus. Detta ljus består av en mer diffus<br />
ljuskälla och har till uppgift att dämpa skuggor, dock inte att utplåna dom. Lättningsljuset<br />
sätts på motstående sidan av objektivets strålgång och med en större vinkel från denna.<br />
Figur 34: Lampa för att sätta mjukljus, s.k. säng.<br />
Slutligen sätts bakljus. Detta ljus placeras högt ovanför och bakom motivet. Ljuset markerar<br />
motivets konturer och lyfter på så sätt fram detta från bakgrunden. Bakljuset sätts så att det<br />
ligger i linje med huvudljuset fast på motstående sida om objektet. På så sätt lättas skuggan i<br />
nackpartiet på ett bra sätt. Bakljuset sätts normalt med försiktighet så att man inte lägger<br />
märke till ljuset men däremot effekten av det.<br />
Figur 35: Fresnellampa för att sätta bakljus.<br />
I ljussättningssammanhang talar man också om fondljus. Detta ljus används för att ljussätta<br />
72
akgrunden för att på så sätt göra den lite mer levande. Fondljuset kan också dämpa<br />
eventuella skuggor på bakgrunden. Fondbelysningen kan man experimentera en hel del med.<br />
Med olika struktur på bakgrunden och s.k. släpljus kan man åstadkomma olika effekter.<br />
Figur 36: Fondljus består av flera lampor. Det är vanligt att dessa förses med färgade<br />
filter.<br />
I fält när man ska ha en rörlig utrustning så släpar man inte på studiobelysning. I stället<br />
använder man sig av portabla ljuskit bestående av tre till fyra lampor med stativ. Dessa har<br />
naturligtvis begränsningar vad gäller möjlighet att ställa ljusbilden. Som oftast finns möjlighet<br />
att i begränsad omfattning sälla in mellan koncentrerad ljuskägla och mer spridd (spot –<br />
flood). Ytterligare hjälp har man med reflexskärmar och liknande.<br />
Figur 37: Portabel lampa typ ”Red Head”.<br />
Ljusmixer<br />
En portabel ljusmixer (eller ljusbord) är mycket användbar när man ska reglera ljus i fält. En<br />
sådan används vanligen när man ska rigga mer komplicerade scener. Det är viktigt att notera<br />
att färgtemperaturen ändras när matningen till lamporna ändras. Alternativ till ljusmixer är<br />
ND filter som sätts framför lamporna. Fördelen är att färgtemperaturen inte ändras men dessa<br />
är naturligtvis inte lika smidiga som ljusreglarna i en mixer.<br />
73
Videokameran<br />
Färgtemperatur<br />
När vi läser en bok i glödljus uppfattar vi boksidorna som vita. Skulle vi läsa samma bok i<br />
solljus, så skulle vi fortfarande uppfatta samma boksida som vit. Skulle vi filma eller<br />
fotografera boksidan vid de olika tillfällena utan att kamerainställningarna ändrades eller att<br />
filmen byttes ut, så skulle vi se en tydlig skillnad. Bilderna från glödljusbelysningen skulle<br />
visa sig mer gulaktiga och utomhusbilderna mer blåaktiga. Våra ögon, eller hjärnan, är<br />
känsligt för färgskillnader som registreras samtidigt, men betydligt mer okänsligt när det<br />
sträcker sig över tid. Det här innebär att det som vi med våra ögon betraktar som vitt inte<br />
alltid är det för kameran. Vi har att göra med olika färgtemperatur som är beroende av det ljus<br />
som vi betraktar ett föremål i. Definitionen för färgtemperatur är det ljus som sänds ut från en<br />
absolut svart kropp som värms upp. Förhållandet åskådliggörs i Fig 2. nedan. När vi filmar<br />
med videokamera, så måste vi tala om för den vad som är vitt. Tekniskt innebär detta att de<br />
tre grundfärgernas bidrag skall vara lika stort.<br />
Som vi ser, så har ett ”blåaktigare” ljus ett större energiinnehåll än ett rödare. Dagsljus har<br />
alltså en högre färgtemperatur. Detta skiljer sig från det som vi i dagligt tal kallar för varma<br />
och kalla färger.<br />
Vitt ljus innehåller alla spektralfärger. Skillnaden mellan olika ”vithet” är att det är en<br />
förskjutning mot det blåa eller det röda området. Detta är något som en videokamera kan<br />
hantera. En videokamera är avstämd för en färgtemperatur på 3 200 K. Denna färgtemperatur<br />
motsvarar ljuset från en halogenlampa. Avvikelser från detta måste kompenseras. I<br />
professionella videokameror görs en elektronisk vitbalansering inom två intervall, 3 200 k och<br />
5 600 K. för att åstadkomma en avstämning för 5 600 K skjuts ett orangefilter in i kamerans<br />
strålgång. Vanligen via ett filterhjul som sitter på kamerakroppen bakom infästningen till<br />
objektivet. 5 600 K betraktas som ett normalvärde för dagsljus. Finjustering görs sedan<br />
elektroniskt genom att rikta kameran mot en vit (eller neutralgrå) yta och kalibrera de tre<br />
grundfärgerna till samma nivå. Det är viktigt att notera att kalibrering görs i det ljus som man<br />
sedan ska filma i.<br />
Figur 38. CIE diagram<br />
74
Figur 39. Färgtemperaturer i det ”vita” området i ett CIE diagram:<br />
a=24 000 K<br />
b=10 000 K<br />
c= 8 000 K<br />
d= 4 500 K<br />
e= 3 000 K<br />
f= 2 300 K<br />
g= 1 800 K<br />
h= 1 000 K<br />
i= 600 K<br />
Färgerna inom det streckade området kommer ögat att godta som vitt där man inte har<br />
tillgång till jämförelse med annat ljus.<br />
Vitbalansering<br />
En videokamera är avstämd för en färgtemperatur på 3 200° Kelvin. Det är samma<br />
färgtemperatur som en halogenlampa avger. Om färgtemperaturen avviker från<br />
halogenlampans. T.ex. om man ska filma i dagsljus, så måste kameran kalibreras för detta<br />
annars blir bilden blåaktig. Detta kallas för att man vitbalanserar kameran. Kameran klarar till<br />
viss del på elektronisk väg att justera färgtemperaturen. Men avviker temperaturen för<br />
mycket, så måste man föra in ett färgat filter i objektivets strålgång. Skillnaden mellan<br />
kamerans grundinställning och dagsljusets färgtemperatur är normalt så stor att man använder<br />
sig av ett dagsljusfilter som gör att kameran får en grundinställning för 5 400° Kelvin. Detta<br />
filter finns inbyggt i kameran och ändras på via en ratt ovanför objektivfästet. Normalt brukar<br />
det också finnar ett eller två olika ND filter kopplad till samma ratt. Vitbalanseringen går till<br />
så att man kalibrerar kameran mot en yta som definieras som neutral (vit) i den aktuella<br />
inspelningsmiljön. Den skall göras så fort ljussituationen förändras på så sätt att den tidigare<br />
75
definierade neutral (vita) ändrar färgtemperatur. Vitbalanseringen i kameran aktiveras via en<br />
vippbrytare.<br />
Optik<br />
Ett objektiv på en videokamera kan ha flera olika funktioner inbyggda och skiljer sig mycket<br />
mellan amatör- och professionella kameror. Vi tittar lite närmare på ett professionellt<br />
objektiv. Objektivet sitter fast i kamerakroppen via en bajonettfattning. Man brukar tala om<br />
olika dimensioner på objektivfattningen. Då menar man egentligen måtten på bildelementen i<br />
kameran, d.v.s. CCD sensorn. Grovt uttryckt kan man säga att amatörkameror har 1/3” (tum),<br />
semiprofessionella 1/2” och professionella 2/3”.<br />
Skärpan ställs in med avståndsringen. Eftersom sökaren på videokameran har så dålig<br />
upplösning, så är det regel att man zoomar in maximalt mot det föremål som skall ligga i<br />
fokus och ställer in skärpan. Därefter zoomar man ut till önskat bildutsnitt. Vid fokusering.<br />
sker förflyttningen av linselementen via snäckdrev (en slags gänga). När man vrider den<br />
främre delen av objektivet med hjälp av fokuseringsringen, så förflyttas linselementen i<br />
förhållande till varandra utefter den optiska axeln. Normalt roterar främre delen av objektivet<br />
och frontlinsen med. Men vissa lite dyrare objektiv har s.k. innerfokusering. Detta innebär att<br />
den främre delen av objektivet inte snurrar med när man ställer in skärpan. Detta är speciellt<br />
tacksamt om man t.ex. använder filter som är beroende av orienteringen i rotationsplanet som<br />
exempelvis polarisationsfilter och avtonande (graduated) filter.<br />
På professionella objektiv ser man sällan än så länge någon autofokusfunktion. Detta beror till<br />
stor del på att man vid autofokus har sämre kontroll på var skärpan ligger i bild. Speciellt om<br />
något plötsligt passerar framför huvudmotivet kan man uppleva att skärpan åker fram och<br />
tillbaka på ett otrevligt sätt.<br />
Bländaren, d.v.s. det som styr hur mycket ljus som släpps in i kameran, brukar normalt både<br />
kunna regleras manuellt och automatiskt. Eftersom exponeringstiden är fixerad (normalt 1/60<br />
sek) så är det med bländaren som man styr exponeringen. Om man har manuell inställning på<br />
bländaren, så finns det en knapp vid omkopplaren för auto-man som man kan trycka in för att<br />
momentant aktivera autobländaren. Detta är användbart för att snabbt kunna ändra<br />
bländarinställningen om man är osäker. Automatiken i bländarfunktionen är justerad för att<br />
återge en yta med 18% reflektion av maximalt vitt. Detta innebär att bländarautomatiken alltid<br />
eftersträvar att efterlikna omgivningen vid en yta som har 18% reflektion. Kameran<br />
eftersträvar alltså att göra en vit yta grå och en svart yta lika grå som den vita. Så är det inte<br />
alltid som vi vill ha det. En nattscen ska t.ex. vara mörk. Vid dessa tillfällen måste bländaren<br />
justeras manuellt. Bländaren kan också användas till att reglera skärpedjupet. Stor<br />
bländaröppning ger litet skärpedjup och liten bländare ger stort skärpedjup.<br />
76
Bild 11. Bild tagen med manuell styrning av exponeringen. Hade man använt automatik, så<br />
hade vattenytan blivit mycket ljusare och kontrasten mot den ljusa segelbåten blivit sämre.<br />
Och det ville inte fotografen.<br />
Zoomen används för att ändra bildutsnittet (beskärningen). Den kan regleras både manuellt<br />
eller via servo. Det är vanligast att man använder sig av servot då den, speciellt på lite dyrare<br />
objektiv, fungerar mycket smidigt. Zoomen ska användas sparsamt. Det normala är dock att<br />
man vid t.ex. ändring av bildutsnitt på en tagning också spelar in zoomningen för att sedan ha<br />
möjlighet att använda även den vid redigeringen. Annars gäller som alltid att varje<br />
kamerarörelse, inklusive zoomning, ska vara motiverad.<br />
På de flesta objektiv finns också en makroinställning. Oftast kopplas makroläget in med en<br />
speciell knapp eller spak på objektivet. Makrot medger filmning på mycket nära håll.<br />
På vissa objektiv har man möjlighet att koppla in ett linselement i strålgången som fördubblar<br />
brännvidden (2X zoomläge).<br />
Vid inställning av fokus mot ett föremål zoomas objektivet in maximalt. Därefter zoomas det<br />
ut till önskat bildutsnitt. En förutsättning att detta ska fungera är att skärpeplanet är konstant<br />
vid zoomning. Detta går att justera med s.k. backfokusjustering. Med ett antal upprepade<br />
inställningsförfaranden med ömsom maximalt inzoomat läge och ömsom maximalt utzoomat<br />
läge kan man justera objektivet så att skärpeplanet är konstant genom hela zoomregistret.<br />
Filter<br />
Filter används för att påverka det ljus som samlas in genom objektivet. Normalt placeras<br />
filtret framför objektivet. Några filter för färgfiltrering är dock inbyggda i kameran. Mer om<br />
detta i stycket om vitbalansering. Annars används färgfilter relativt sparsamt i<br />
videosammanhang av den enkla orsaken att man kan manipulera vitbalanseringen genom att<br />
medvetet vitbalansera mot en färgad yta. Ska man ha ett kraftigt färgstick eller en färg som<br />
avviker från färgtemperaturskalan använder man dock färgfilter.<br />
Alla ytor som vi ser omkring oss ser vi på grund av att dom reflekterar ljus. Gör dom inte det,<br />
så upplevs dom som svarta. Färgade ytor som t.ex. röda reflekterar mest ljus inom det röda<br />
77
våglängdsområdet, medan de övriga våglängderna absorberas av ytan. Det ljus som<br />
absorberas omvandlas till värme (ljusenergi övergår i värmeenergi). Det är därför som svarta<br />
ytor som absorberar det mesta av ljuset lättare blir varma än vita ytor som reflekterar det<br />
mesta av ljusenergin.<br />
Färgfilter fungerar på samma sätt. Ett grönfärgat filter släpper igenom ljus i det gröna<br />
våglängdsområdet medan de övriga våglängderna absorberas. Detta kallas för subtraktiv<br />
filtrering, d.v.s. man tar bort vissa bestämda våglängder. Det innebär t.ex. att om man sätter<br />
för ett grönt filter i ett ljus där de våglängder som representerar det gröna ljuset redan är<br />
bortfiltrerade så blir det svart. Man kan alltså inte lägga till färger med färgade filter. Prova att<br />
sätta ett grönt filter framför ett rödfärgat ljus. Vid normal belysning finns alla våglängder<br />
(färger) representerade, men vissa lysrör har egenheten att några våglängder saknas helt. Detta<br />
saknar normalt praktisk betydelse utom vid vissa kritiska tillfällen t.ex.<br />
modefotografering/filmning. Vid sådana tillfällen är det dock brukligt att man har med egen<br />
belysning för ljussättning.<br />
ND filter eller neutral density filter är ett neutralgrått filter som är gjort för att ta bort en viss<br />
mängd ljus likvärdigt över hela spektret. Det påverkar alltså inte färgbalansen. ND filtret<br />
används för att hjälpa kameran med att mörka ner bilden vid filmning i extremt ljusa miljöer<br />
t.ex. en solig vinterdag i fjällen. Videokameran har inte tillräckligt stort kontrastomfång för att<br />
man med enbart bländarens hjälp kan bemästra alla normala ljussituationer. ND filtret är<br />
också användbart då man även i mer ”normala” ljusförhållanden vill ha större bländaröppning<br />
för att på så sätt minska skärpedjupet.<br />
UV- eller skylightfilter är nästan helt genomskinliga filter. Dessa är gjorda för att ta bort ljus i<br />
gränszonen till det ultravioletta området. Praktiskt rör det sig om att man tar bort lite av blådis<br />
främst när man filmar vid- eller på havet och i fjälltrakter där UV-strålningen gör sig mest<br />
påmind. Skillnaden mellan UV- och skylightfiltren är att skylightfiltret är marginellt lite mer<br />
rosafärgat. Eftersom filtren i praktiken inte tar bort något ljus och kan användas så gott som<br />
alltid, så brukar filtren även användas som ett skydd för objektivets frontlins. Det är betydligt<br />
billigare att byta ett repat eller spräckt filter än frontlinsen på objektivet.<br />
Det finns en uppsjö av mer eller mindre användbara effektfilter till kameran. De filter som<br />
används mest är bl.a. fog- eller softfilter och stjärn- eller överstrålningsfilter.<br />
78
Bild 12. Exempel på användning av stjärnfilter.<br />
Avtonande filter räknas i vissa fall till effektfilter. Dom är uppbyggda så att ungefär ena<br />
halvan är helt klar medan andra halvan är grå eller färgad. Övergången mellan de båda<br />
områdena är successiv (avtonande). Finessen med dessa filter är att man kan filtrera en<br />
begränsad del av bilden. Exempelvis är filtren användbara vid filmning av landskap där<br />
himlen finns med. Normalt brukar himlen vara mycket ljusare än marken. Resultatet blir<br />
tyvärr ofta att kameran inte klarar av kontrastomfånget och man får låta himlen bli<br />
överexponerad. Genom att skjuta in ett gråtonat filter som endast mörkar ner himlen kan man<br />
få en dramatiskt förbättrad balans i exponeringen. Vill man öka dramatiken kan man använda<br />
sig av ett färgat filter t.ex. rökfärgat som ger en lätt domedagsprägel på scenen.<br />
Bild 13: Avtonande rökfärgat- och gråfilter i kombination skapar domedagsstämning.<br />
Bild 14: En mer försiktig användning av avtonande gråfilter.<br />
79
Ett av de mer användbara filtren är polarisationsfiltret. Filtret kan liknas vid ett galler som tar<br />
bort ljus som svänger i ett visst plan. Ljus som reflekteras mot blanka ytor som vatten, glas,<br />
metall m.m. har också ljusvågor i ett visst plan reducerat. Genom att vrida polarisationsfiltret<br />
så att man även eliminerar de ljusvågor som inte är påverkade så kan man minska det<br />
reflekterade ljuset från dessa ytor påtagligt.<br />
Bild 15: Polarisationsfilter kan i rätta förhållanden mörka ner himlen och öka intensiteten<br />
i färger.<br />
Praktiskt kan man alltså ta bort blänk i vatten- och metallytor samt ta bort speglingar i<br />
glasrutor och på så sätt göra dessa ”genomskinligare”. Man kan också få mustigare färger<br />
soliga dagar genom att man minskar påverkan av reflektionen i fuktpartiklar i luften. På detta<br />
sätt kan man också filtrera bort regnbågar, men det var kanske inte den effekten som man<br />
önskade.<br />
Färgseparation i videokameran<br />
I en videokamera separeras ljuset till dessa tre primärfärger via optiska system som kan se ut<br />
på lite olika sätt. Syftet är att dela upp dela upp ljuset i separata färger samtidigt som man vill<br />
förlora så lite ljusenergi som möjligt. I 3CCD kameror är dikroiska speglar som visas i Fig 3<br />
är lösningen på problemet. En dikroisk spegel består av ett eller flera tunna ytbeläggningar på<br />
ett optiskt substrat såsom glas. Ytbeläggningen har ett avvikande brytningsindex i förhållande<br />
till det optiska substratet. Genom interferens av ljusets våglängders reflektion och refraktion<br />
mellan skikten avlänkas vissa våglängder enligt Fig 3b. Genom att välja en bestämd tjocklek<br />
på en ytbeläggning kan man styra vilka våglängder som ska reflekteras och vilka som skall<br />
passera igenom.<br />
80
I Fig 3 ser vi att blått ljus reflekteras i den första spegeln. I den andra spegeln reflekteras de<br />
röda våglängderna. Det resterande ljus som passerar de båda speglarna ligger inom det gröna<br />
våglängdsområdet.<br />
Dikroiska speglar ger trots allt en ganska grov uppdelning av ljuset. Det gröna ljuset kan man<br />
ganska bra styra med dikroiska speglar, medan man måste filtrera det blå och röda ljuset i det<br />
korta respektive långa våglängdsområdet. Målsättningen med en dikroisk uppdelning av ljuset<br />
är att minimera graden av användning av filter eftersom dessa stjäl ljusenergi.<br />
Figur 40: Dikroiska speglar<br />
Dikroiska speglar användes i tidigare kameror. En av nackdelarna var den relativt långa<br />
strålgången (den väg som ljuset måste passera) mellan objektiv och sensor. I vissa kameror<br />
var man tvungen att kompensera den långa distansen med extra linselement. På det hela var<br />
det en dyrbar och känslig konstruktion där varje spegel måste ha exakt placering. Ett om<br />
möjligt ännu allvarligare problem var att spegelytorna var svåra att skydda mot damm och<br />
andra typer av beläggningar. Detta gjorde att speglarna fick sämre verkningsgrad med tiden.<br />
De problem som fanns med dikroiska speglar kunde elimineras helt i och med introduktion av<br />
dikroiskt prisma. Se Fig 4. Prismakonstruktionen tillåter en kompakt konstruktion som kan<br />
göras mycket rigid. Prismorna A, B och C är separerade med luftspalter för att åstadkomma<br />
totalreflektion. Mellan prismorna och sensorerna är det placerat filter för att åstadkomma rätt<br />
81
våglängdsrepresentation. Hela konstruktionen kan förseglas på så sätt att justering aldrig blir<br />
nödvändig.<br />
Figur 41: Dikroiskt prisma<br />
CCD – Charge-Coupled Device<br />
De olika färgerna registreras i små sensorer bestående av en mängd ljuskänsliga bildelement.<br />
Dessa bygger på s.k. fotokonduktivitet, d.v.s. halvledare vars resistans sjunker när dessa<br />
belyses. Genom att lägga en spänning på fotokonduktorn, så bildas en ”brunn” i substratet<br />
under detta. När ljus träffar fotokonduktorn frigörs elektroner i en omfattning som är<br />
proportionell mot den infallande ljusmängden. Dessa elektroner faller ner i brunnen och hålls<br />
fast där.<br />
Figur 42: Två olika typer av fotosensorer.<br />
82
I en CCD samlas en stor mängd fotosensorer på en yta. De olika sensorerna kommer att<br />
representera bidraget från enskilda bildelement eller pixlar. På detta sätt kan vi återskapa ett<br />
helt motiv. Problemet med video är att vi skall återskapa ett nytt motiv var 50:e sekund. Alltså<br />
måste laddningarna som skapas vid varje sensor tömmas mellan varje bild.<br />
Om man lägger på en högre spänning på en intilliggande fotosensor, så görs brunnen under<br />
denna ”djupare”. Elektronerna kommer att rinna över till den ”djupare” brunnen. Detta är<br />
finessen med CCD (charge-coupled device). Man kan alltså förflytta laddningar tvärs över en<br />
CCD genom att ändra spänningen över de enskilda sensorerna. Se Fig 6.<br />
Figur 43: Laddningsförflyttning i en CCD<br />
83
I Figur 6a ser vi strukturen på hur en pixel kan vara uppbyggd. I detta fall används tre<br />
fotosensorer för att bygga upp en pixel. Laddningsförflyttningen styrs av en transfer klocka. I<br />
detta fall en trefasklocka. En fas för varje sensor. I Fig 6b ser vi de olika faserna för<br />
respektive sensor. I inledningen (registreringsfasen där vi ”exponerar” motivet) ser vi att<br />
spänningen på Φ2 är förhöjd, medan de andra två hålls nere. Det innebär att negativa<br />
laddningar skapas i anslutning till Φ2. Notera att även de laddningar som skapas under de<br />
intilliggande sensorerna, Φ1 och Φ3, samlas under Φ2. I slutet av registreringsfasen sjunker<br />
spänningen långsamt (relativt sett) i Φ2, medan spänningen i Φ3 ökas. Transferfasen börjar.<br />
Laddningarna transporteras till Φ3. Denna process återupprepas enligt transferklockorna.<br />
Spänningen sjunker i Φ3 och ökar i Φ1 och laddningarna förflyttas till Φ1. Alla<br />
laddningsförflyttningar sker simultant över hela CCD:n i alla pixlar som är kopplade till de tre<br />
klockorna. I en korrekt utförd CCD struktur kan transfereringen ske med en klockfrekvens på<br />
flera tiotals MHz. I praktiken sker transfereringen i den vertikala släckpulsen mellan två<br />
bildsvep (fields).<br />
En CCD består först och främst av en sensoryta och en lagringsyta. I den enklaste varianten<br />
(Frame-Transfer Arcitecture) är dessa båda ytor en spegling av varandra. Transfereringsfasen<br />
går ut på att först förflytta laddningarna till motsvarande platser i lagringsytan.<br />
Figur 44: Frame-Transfer Arcitecture<br />
Under tiden som en ny bild registreras sker en tömning av lagringsytan via en videoutgång.<br />
Eftersom CCD:n belyses även under den vertikala släckpulsen när laddningarna förflyttas<br />
kommer en viss laddningspåverkan att ske även under denna fas. Eftersom laddningarna<br />
84
förflyttas vertikalt under denna tid, så uppträder de laddningar som bildas under denna fas<br />
som en vertikal ”slöja” eller smear. Den vertikala släckpulsen representerar 6% av den totala<br />
bildsveptiden. Alltså har smear en 6 procentig inverkan på den totala exponeringen, vilket kan<br />
betraktas som ansenligt. Kraftiga ljuspunkter påverkar bilden ännu mer och störningar i form<br />
av vertikala linjer utifrån ljuskällorna uppträder. Detta kallas för transfer smear och är ett<br />
allvarligt problem i FT sensorer.<br />
Det enda sättet att komma till rätta med transfer smear i FT kameror är att använda sig av en<br />
mekanisk slutare som skärmar av ljuset under vertikalsläckpulsen. På tidiga kameramodeller<br />
fanns faktiskt sådana slutare, men mekaniska delar i en i övrigt elektronisk kamera är inte att<br />
föredra och andra CCD arkitekturer utvecklades snart för att överbrygga problemen med<br />
transfer smear.<br />
I s.k. Interline-Transfer arkitektur låter man fotosensorerna ligga sida vid sida med<br />
lagringssensorerna. Se Fig 8.<br />
Figur 45: Interline-Transfer Arcitecture<br />
Varje pixel består alltså av två sensorer varav endast den ena registrerar det infallande ljuset.<br />
Det första momentet under den vertikala släckpulsen är en massiv förflyttning horisontellt av<br />
samtliga laddningar från de sensorer som registrerat ljuset till lagringssensorn. När<br />
laddningarna väl befinner sig i lagringsdelen påverkas de mycket lite av ljuset då sensorerna<br />
skyddas av en optisk mask. Man får dock ett visst inläckage från sidan. Efter detta förflyttas<br />
laddningarna med hjälp av transferklocka på ett likartat sätt som i fallet FT strukturen till en<br />
videoutgång.<br />
Då en pixel till hälften består av en optiskt avskärmad del kommer det ske ett ca. 50%<br />
ljusbortfall. Detta är normalt inget större problem då CCD:n har tillräckligt hög känslighet.<br />
85
Då transfertiden under yttre ljuspåverkan vid IT arkitektur minimerats till ett enda steg, så har<br />
problemet med transfer smear nästan helt eliminerats.<br />
En tredje typ av CCD eliminerar dock de små problem med transfer smear som IT<br />
arkitekturen fortfarande har. Det är en kombination av de båda tidigare arkitekturerna och<br />
kallas Frame-Interline Transfer Arcitecture. Se Fig 9.<br />
Figur 46: Frame-Interline Transfer Arcitecture<br />
Genom att kombinera med den nedre lagringsytan, så kan förflyttning av laddningarna från<br />
Vertical Shift Register ske simultant i alla register och därmed korta tiden i sensorytan.<br />
Utvecklingen av CCD eftersträvar hög ljuskänslighet, kompakt konstruktion och okänslighet<br />
för smear. Som exempel har Sony har tagit fram en sensor kallad Hyper HAD. Se Fig 10. För<br />
att öka känsligheten och för att minimera ströljus som kan orsaka smear, så är varje sensor<br />
försedd med en mikrolins. Sensorn är mycket kompakt, vilket gör att man kan få plats med ett<br />
större antal pixlar per ytenhet än med motsvarande traditionella sensorer.<br />
86
Figur 47:. Genomskärning av Sony Hyper HAD sensor<br />
Singel-CCD kameror<br />
I enklare kameror registreras färgerna i ett CCD chip. Framför detta chip har man placerat en<br />
mask bestående av ett färgfilter framför varje bildelement fördelat på så sätt att vart tredje<br />
bildelement registrerar respektive grundfärg. Med detta förfarande uppnår man en sämre<br />
representation av färgerna. Dessutom tar filtren bort en del ljusenergi, vilket försämrar<br />
kamerornas verkningsgrad.<br />
Figur 48:. Färgsampling i en singel CCD kamera<br />
Spatial offset<br />
Bildupplösning kostar pengar. Olika tekniker initieras för att på ett kostnadseffektivt sätt öka<br />
upplösningen. I en tre-CCD kamera finns möjlighet att näst intill dubblera den horisontella<br />
upplösningen i luminansområdet utan att tillföra mer pixlar. Detta görs genom att förskjuta<br />
87
pixlarna i det röda och blå området ett halvt steg i förhållande till det gröna och sedan vikta<br />
dessa enligt Fig 12.<br />
Figur 49: Spatial offset<br />
Videokamerans uppbyggnad<br />
En videokamera består av tre delar, objektiv, kameradel och inspelningsdel. På de flesta<br />
kameror är kameradelen och inspelningsdelen hopbyggda, medan objektivet på mer<br />
professionella kameror är utbytbara. Förutom rena kvalitetsskillnader, så skiljer sig<br />
”proffskameror” och ”amatörkameror” från varandra rent handhavandemässigt. Professionella<br />
kameror är byggda för att fotografen så långt som möjligt både skall kunna kontrollera och<br />
påverka resultatet. En amatörkamera är främst byggd för att på ett för fotografen enklast<br />
möjliga sätt skapa en acceptabel bild i en normalsituation.<br />
88
Bild 16: Sony DXC-D50 med DVCAM bakstycke<br />
Slutartid<br />
Slutartid är den tid som bländaren är öppen. Eftersom bildfrekvensen i PAL är 25 bilder per<br />
sekund och varje bild utgörs av två delbilder (frames), så kan inte slutartiden vara längre än<br />
1/50 sekund. Samma gäller slutarfrekvens, d.v.s. hur många gånger som slutaren öppnar och<br />
stänger per sekund. Den kan inte vara långsammare än 50 Hz. Slutartiden kan vara snabbare<br />
än motsvarande slutarfrekvens. Exempelvis kan slutartiden vara 1/250 sekund vid 50 Hz<br />
slutarfrekvens (slutaren hålls stängd lite längre mellan varje exponering). Däremot kan inte<br />
slutarfrekvensen vara snabbare än motsvarande slutartid.<br />
Justering av slutartiden används främst för att påverka exponeringen eller frysa snabba<br />
rörelser vid t.ex. tekniska applikationer. Nackdelen med snabb slutartid, förutom mindre<br />
ljusinsläpp till bildelementen, är just det att rörelser i bild fryses. Detta ger ett litet ryckigare<br />
intryck. Det är rörelseoskärpan i varje enskild bild som gör att snabba rörelser på film<br />
uppfattas mjukare.<br />
Justering av slutarfrekvens används för att matcha datorskärmar med andra frekvenser för att<br />
eliminera flimmer (s.k. variable scan).<br />
Exponering<br />
I normalfallet justeras exponeringen med bländarinställningen. I de fall där det är så mörkt att<br />
största bländaröppningen inte räcker till för att erhålla korrekt exponering används elektronisk<br />
bildförstärkning. Förstärkningsgraden anges i dB. Nackdelen med bildförstärkning är att<br />
bilden blir grynigare (mer brus i bilden). Vid högre ljusstyrka används neutralgrått filter (ND).<br />
Detta kan användas även i mer ”normala” ljusförhållanden för att minska skärpedjupet (öppna<br />
bländaren mer). Slutligen kan man påverka exponeringen genom att ändra slutartid. Med<br />
kortare slutartider minskas exponeringen. Nackdelen är att rörelseoskärpan minskar och<br />
resultatet blir ryckigare intryck vid snabba rörelser.<br />
Ljud<br />
En professionell videokamera är utrustad med flera funktioner för att underlätta<br />
ljudinspelning. Ett digitalband typ DV eller DVCAM har två inspelningsbara ljudkanaler. På<br />
89
kameran sitter en mikrofon som via omkopplare kan fås att spela in på båda ljudkanalerna. På<br />
baksidan av kameran sitter två XLR kontakter där man kan koppla in två externa mikrofoner.<br />
En för respektive kanal. Omkopplarna ger valmöjlighet att, som tidigare nämnts, spela in ljud<br />
via kameramikrofonen på båda ljudkanalerna eller via kameramikrofonen på ena och extern<br />
mikrofon på den andra. Man kan också välja att spela in ljud på respektive ljudkanal via två<br />
separata mikrofoner.<br />
För att reglera inspelningsnivåerna har man möjlighet att välja automatisk nivåkontroll av<br />
inspelningen eller manuell justering. Den automatiska inställningen är praktisk när man bara<br />
ska spela in miljöljud. Ska man däremot göra en intervju är det en fördel att använda manuell<br />
justering. Det automatreglerade ljudet kan tendera att ”pumpa” eftersom talet består av<br />
plötsliga svängningar mellan tystnad och tal. För att kontrollera ljudet i kritiska skeden, t.ex.<br />
vid en intervju, så behöver man hörlurar som kopplas till kameran.<br />
Bild 17: Sony PDW-530P med mottagare för trådlös ljudupptagning.<br />
90
Ljud<br />
Ljudet i en film är ofta mycket viktigt. Vissa påstår att ljudet utgör ”halva filmen”. Om ljudet<br />
låter fel märker publiken det omdelbart och hela filmen kan vara förstörd! Därför är det<br />
viktigt att man kan ljudtekniken när man gör en film.<br />
Ljud är förtätningar och förtunningar av luftpartiklar, vilka utbreder sig som ljudvågor där<br />
förtätningen är vågtoppen och förtunningen är vågdalen. Begreppet Hertz (Hz) anger antalet<br />
svängningar per sekund (frekvens). Det innebär enkelt sagt hur högt (ljust) eller lågt (mörkt)<br />
ett ljud är. Amplituden anger ljudstyrkan.<br />
De olika svängningarna är ofta uppdelade i en frekvensskala som är indelad i bas (10-200 Hz,<br />
eller 10-200 perioder per sekund), mellanregister (200-5 000 Hz) och diskant (5 000-20 000<br />
Hz). Det är normalt dessa olika nivåer som går att justera när man slutligen mixar ljudet. En<br />
ung person med oförstörda öron kan uppfatta ljud som sträcker sig från 20-20 000 Hz (eller<br />
20 kHz). En kvinnlig röst börjar i det lägre mellanregistret och rör sig sedan upp mot halva<br />
diskantregistret (dvs från omkring 300 Hz till 10 kHz). En manlig röst börjar i basregistret och<br />
sträcker sig en bit upp i diskantregistret (dvs från omkring 150 Hz till 7 kHz).<br />
Amplituden (ljudstyrkan) mäter man i decibel (dB). Decibel är ett relativt mått. Det innebär<br />
att man måste ange värdet i förhållande till ett referensvärde. Det normala är att man utgår<br />
från hörtröskeln (eller hörbarhetsgränsen). Hörtröskeln är den lägsta ljudstyrka som det<br />
mänskliga örat kan uppfatta. Det relativa mått man då får förkortas dB(A). 0 dB(A) är alltså<br />
hörbarhetsgränsen, en viskning ligger på 20 dB(A), ett samtal ligger på 60 dB(A),<br />
smärtgränsen ligger på 130 dB(A) (eller 130 dB över hörbarhetsgränsen).<br />
Decibel anger en relativ ljudstyrkeförändringen i en 10-logaritmisk skala. Förhållandet är<br />
alltså att en ljudstyrkeförändring på 10dB är lika med 10 ggr, 20 dB är lika med 100 ggr<br />
o. s. v.<br />
100 000 000 000 000 ggr 140dB(A) jetmotor (25 m bort)<br />
10 000 000 000 000 ggr 130dB(A) nithammare<br />
1 000 000 000 000 ggr 120dB(A) propellerplan (50 meter bort)<br />
100 000 000 000 ggr 110dB(A) bergborrmaskin<br />
10 000 000 000 ggr 100dB(A) plåtverkstad<br />
1 000 000 000 ggr 90dB(A) tung lastbil<br />
100 000 000 ggr 80dB(A) starkt trafikerad gata<br />
91
10 000 000 ggr 70dB(A) personbil<br />
1 000 000 ggr 60dB(A) vanligt samtal<br />
100 000 ggr 50dB(A) lågmält samtal<br />
10 000 ggr 40dB(A) dämpad radiomusik<br />
1 000 ggr 30dB(A) viskning<br />
100 ggr 20dB(A) tyst stadsvåning<br />
10 ggr 10dB(A) prassel från ett löv<br />
1 enhet 0dB(A) hörtröskeln<br />
Örat (och den mänskliga förmågan att höra ljud) är väldigt mycket känsligare än en mikrofon.<br />
T.ex. har vår hörsel ett mycket större dynamikomfång än vad en mikrofon kan registrera. Med<br />
dynamikomfång menas omfånget från det tystaste ljud vi kan höra till det starkaste. Det går<br />
inte att med samma mikrofon och samma inställning på utrustningen spela in en person som<br />
viskar och en rockkonsert.<br />
Tre lagar<br />
Vid ljudinspelning är det avgörande att känna till tre viktiga lagar:<br />
• Ljudvågors spridning.<br />
• Ljudvågors dämpning och reflektion.<br />
• Ljudkvot.<br />
Ljudvågors spridning<br />
Ljudet sprids klotformigt runt ljudkällan. Detta innebär att det uppfattas som att ljud dämpas<br />
ju längre ifrån ljudkällan som vi kommer. I enlighet med hur en sfärs yta ändras i förhållande<br />
till avståndet till centrum så kan vi utnyttja samma förhållande på ljudstyrkan. Det innebär att<br />
vi kan säga att ljudstyrkan minskar med kvadraten på avståndet. Alltså: dubblering av<br />
avståndet mellan ljudkälla och lyssnare minskar ljudstyrkan med en fjärdedel. Detta är samma<br />
sak som en sänkning med ca 6dB.<br />
Hur mycket är 6dB? Rent fysikaliskt har vi ju redan konstaterat det, men hur uppfattas 6dB<br />
ljudförändring av människor? Det finns inget absolut mått, men utan att gå in på detaljer, så<br />
uppfattas en förändring på 6dB av de flesta människor som ett "lagom" steg i förändring när<br />
ett ljud hörs "för svagt" eller "för starkt". Alltså, när man ska ändra ljudstyrkan vid<br />
mikrofonen, så är det lämpligt att stegvis fördubbla respektive halvera avståndet.<br />
Exempel: Vi mäter ljudstyrkan på avståndet a från en ljudkälla och anger där vår nollpunkt,<br />
alltså 0dB. Om vi fördubblar avståndet till 2a, så sjunker ljudstyrkan med 4 gånger eller 6dB.<br />
Om vi fördubblar avståndet ytterligare till 4a , så sjunker ljudstyrkan i förhållande till vår<br />
nollpunkt med 16 gånger eller 12dB.<br />
Analogt gäller det omvända förhållandet när man förflyttar sig närmare ljudkällan.<br />
Ljudvågors dämpning och reflektion<br />
Örats frekvensomfång är 20Hz -20kHz. Vid konstant ljudhastighet, som den normalt är i luft,<br />
så är våglängden linjärt beroende av frekvensen. Ju högre frekvens desto kortare våglängd.<br />
92
Vid en ljudhastighet på 340 m/s blir våglängden 17 meter vid 20Hz och 17 millimeter vid 20<br />
kHz. Ljud reflekteras bäst mot hårda och släta ytor. Detta förhållande kan användas till att<br />
både förstärka eller skymma bort (länka av) ljud.<br />
Språkljuden när vi talar har olika frekvens. De tonlösa konsonanterna F-G-H-K-P-S-T (ibland<br />
också C-X och Z) och ljuden CH-SJ-TJ har höga frekvenser kring 3,4kHz vilket motsvarar en<br />
våglängd på 10 cm. Dessa ljud går att skymma bort eller reflektera med hjälp av handflatan.<br />
De tonlösa konsonanterna är viktiga för förståelsen i bl. a. svenska språket medan vokalerna<br />
är viktigare i t. ex. engelskan.<br />
Vokalerna A-O-U-Å-E-I-Y-Ä-Ö har det mesta av sin energi inom frekvensområdet 1kHz.<br />
Detta motsvarar en våglängd på 34 cm, d. v. s. som ett A-4 papper. Det krävs alltså en yta av<br />
minst motsvarande storlek för att reflektera eller dämpa detta ljud.<br />
I vissa sammanhang där man har ett begränsat informationsutrymme väljer man att skära bort<br />
frekvenser under 340Hz. Ljud under denna frekvens är sällan avgörande för förståelsen för<br />
det talade ordet. Detta utnyttjas t. ex. i telefonöverföring.<br />
Ett sätt att utnyttja reflektion är att hänga en mikrofon med ljudöppningen nedåt över en<br />
bordsskiva där flera sitter och samtalar. Skivan bör dock vara minst en meter bred för att<br />
kunna reflektera allt ljud över 340Hz. Alltså de frekvenser som är avgörande för förståelsen<br />
av vad som sägs.<br />
Ljudkvot<br />
Med direktljud menas det ljud som vi har för avsikt att spela in i så bra kvalitet som möjligt<br />
(med bästa möjliga hörbarhet). Med diffusljud menas det efterklangsljud som genereras av<br />
direktljudet. Det kan vara efterklang (eko) i rummet. Det kan också vara ljudet från de<br />
högtalare som skickar ut direktljudet i en lokal. Med störljud menas det ljud som uppstår av<br />
andra orsaker än direktljudet.<br />
På empirisk väg har man kunnat finna att direktljudet, i form av tal, måste vara minst 10<br />
gånger starkare än summan av diffusljud och störljud för att människor någorlunda obehindrat<br />
skall uppfatta vad som sägs. Det vill säga att ljudkvoten bör vara 10dB eller större. Förmågan<br />
att uppfatta enskilda ljud vid en viss ljudkvot avtar med stigande ålder, eller om man lider av<br />
hörselskada.<br />
Vid t. ex. nyheter bör ljudkvoten ligga på minst 20dB för att vuxna människor ska vara nöjda<br />
med mixningen. Hörselfrämjandet rekommenderar en ljudkvot på minst 30dB för<br />
hörselhandikappade.<br />
Akustik<br />
Det låter olika i olika rum. Det är viktigt att tänka på detta när man spelar in ljud. En del<br />
rum/miljöer kan nämligen vara svåra att spela in ljud i. Ibland spelas inte allt ljud in vid<br />
filmningen utan läggs till efteråt, det är då viktigt att tänka på att ljuden ska låta som om de<br />
sker i samma rum och vid samma tillfälle som det inspelade materialet.<br />
De olika faktorer som inverkar på hur det låter i ett rum är:<br />
• Rummets storlek<br />
• Material i väggar, tak och golv<br />
93
• Vägg-, tak- och golvytors inbördes förhållande (vinklar etc)<br />
• Möbler och lösa inventariers form och material<br />
Ljudet som vi hör i en ren akustisk miljö kan delas in i två huvudgrupper: direktljud och<br />
reflekterat ljud (diffusljud). Det ljud som når oss först är direktljudet, sedan kommer<br />
diffusljudet. Reflektionerna av direktljudet kan vara många och med olika tidsintervall. Om<br />
reflektionerna kommer tätt och med många repetitioner skapas en efterklang. Om<br />
reflektionerna kommer långsammare hör man ett eko. Tiden det tar för efterklangen eller ekot<br />
att tystna och dö ut kallas efterklangstid. Med längre efterklangstider blir det svårare att få<br />
tydlighet i ljudkällan eftersom efterklangen blandar sig med ursprungsljudet.<br />
Beroende på hur väggar, tak och golv ser ut påverkas efterklangen och efterklangstiden.<br />
Generellt kan man säga att hårda ytor reflekterar tillbaka ljudet, medan mjuka ytor i stället<br />
absorberar ljudet. Men detta är inte helt sant, för både reflektionen och absorptionen är<br />
frekvensberoende. Höga frekvenser absorberas i mjuka och porösa material som gardiner,<br />
draperier och mineralull, medan de reflekteras i hårda ytor som tegelväggar, glas och marmor.<br />
Låga frekvenser är svårare att absorbera och det krävs tjockare porösa material kombinerat<br />
med luftspalter.<br />
Några akustiska exempel:<br />
Badrummet har oftast hårda väggar (kakel) som gör att ljudet reflekteras i så gott som alla<br />
frekvenser. Detta gör att det känns trevligt att sjunga där, men svårt att spela in bra ljud.<br />
Ljudet upplevs som ”burkigt” eftersom en mikrofon inte kan skilja på direktljudet och<br />
diffusljudet.<br />
Garderoben är ett litet rum, som innehåller mycket kläder vilka absorberar de flesta<br />
frekvenser och reflekterar inga. Ljudet som har spelats in i garderoben låter därför ”torrt”.<br />
Vardagsrummet har en större volym vilket gör att efterklangen blir längre än i garderoben.<br />
Samtidigt är vardagsrummet möblerat vilket gör att efterklangstiden inte blir så lång som i<br />
badrummet. Vardagsrummet är faktiskt ett riktigt bra ställe för ljudinspelning.<br />
Sovrummet är mer dämpat än vardagsrummet (särskilt om det har heltäckningsmatta). En stor<br />
säng hjälper också till att dämpa reflektioner i basregistret.<br />
Mikrofonens känslighet<br />
Mikrofonen används som redskap för att fånga upp det ljud som vi hör omkring oss.<br />
Skillnaden är att människans hörselorgan är överlägset mikrofonen på flera punkter. Vår<br />
hörsels dynamikomfång är betydligt större än mikrofonens. Det innebär att örat steglöst kan<br />
ställa om sig från ljudet av en viskning till en dånande rockkonsert. Detta klarar en mikrofon<br />
inte av utan att man måste vidta olika handgrepp för att kompensera skillnaderna i ljudtryck.<br />
Det går t. ex. inte att göra en välljudande och verklig upptagning av viskningar omedelbart<br />
följt av skottlossning i samma scen.<br />
Vidare kan människans hörsel arbeta selektivt. Det vill säga att vi kan filtrera bort vissa för<br />
tillfället ointressanta ljud till förmån för andra. I realiteten handlar det om att vi koncentrerar<br />
oss på ett ljud som kommer från en speciell riktning. Ljudet från en viss riktning når<br />
respektive öra med en tidsdifferens, beroende på att avståndet till ljudkällan är olika. Denna<br />
94
tidsdifferens gör att vi kan orientera på tre grader när vart ljudet kommer ifrån. I de flesta fall<br />
gör vi detta omedvetet, vilket kan ställa till problem inför en ljudupptagning.<br />
En mikrofon kan inte ta upp ljudet selektivt på samma sätt. Med olika typer av riktmikrofoner<br />
kan man förvisso dämpa vissa riktningar, men inte så precist som vår hörsel. Om man inte<br />
känner till detta förhållande, så kan man komma hem med t ex en intervju där en störande<br />
transistorradio spelar i bakgrunden. Det var inget som man lade märke till vid inspelningen.<br />
Det är alltså mycket viktigt att på en inspelningsplats lyssna på ljudmiljön så som mikrofonen<br />
uppfattar den. I praktiken innebär det att man använder kapslade hörlurar (sådana med<br />
vadderade hörselkåpor) under inspelning för att lyssna på ljudet. Ett annat knep som man kan<br />
använda när man i förväg rekognoscerar en ljudmiljö är att hålla handen för ena örat. Då<br />
minskar man "riktningsfiltreringen" och efterliknar det ljud som mikrofonen "hör".<br />
Det finns ytterligare en egenskap hos rösten som uppstår när vi spelar in den. Det benämns<br />
puffljud. Puffljudet är en överbelastning hos mikrofonen som uppstår framför allt när vi säger<br />
hårda konsonanter som p, b, k, d och t. För att undvika detta kan man använda ett puffskydd<br />
som fångar upp ”vinden” i konsonanterna.<br />
Ett annat problem som kan uppstå när man arbetar med mikrofoner är mikrofoni. Det är<br />
muskelljud från den som håller i mikrofonen eller från den hängande mikrofonsladden. Ofta<br />
används en bom när man spelar in en dialog och denna kan ibland fungera som en<br />
resonanslåda för muskelljuden. En bom är en lång metallstång med en mikrofon i ena änden<br />
som en person håller upp över de som talar. Detta gör att vi kan få mikrofonen relativt nära de<br />
som talar utan att mikrofonen syns. Det gäller alltså att försöka hålla försiktigt i mikrofonen,<br />
helst med ett gummilager mellan handen och mikrofonen eller bommen, och binda upp<br />
sladden så att den inte bidrar till missljud.<br />
Störkänslig signal<br />
Mikrofonen omvandlar ljudet till en elektrisk signal. Denna signal har en mycket låg spänning<br />
och är därmed mycket störkänslig. Alla elektriska ledningar omges av ett magnetfält. Det<br />
elektriska fält som omger en 220V växelströmsledning är tillräckligt för att ge ett brummande<br />
ljud. Det kan räcka med att mikrofonkabeln ligger nära och parallellt med en lampsladd med<br />
dimmer (en ratt som man varierar ljusstyrkan med).<br />
Ledarna i alla mikrofonkablar har en metallomflätning som kallas skärmstrumpa. Denna<br />
skärm skyddar effektivt mot "normala" störningskällor som t ex växelströmsledningar. Om<br />
skärmstrumpan, på grund av omild behandling, slitits loss från sitt lödfäste inne i kontakten<br />
kan det istället bli stora problem med störningar som t. ex. "brum" (det 50 periodiska ljudet<br />
som växelströmmen kan ge ifrån sig).<br />
Mikrofonteknik<br />
Mikrofoner hör inte lika bra från alla håll. Det område som mikrofonen fungerar bäst inom<br />
avgränsas av öppningsvinkeln. Mikrofoner med stor öppningsvinkel kallas för rundtagande<br />
("kula" eller "omnidirekt"). Mikrofoner med en snävare öppningsvinkel kallas för riktade<br />
("kardioid" (hyperkardioid) eller "njure"). Skillnaden i ljudupptagningsförmågan sjunker<br />
drastiskt när man hamnar utanför öppningsvinkeln. På en rundtagande mikrofon är dock<br />
denna övergång mera diffus än med en riktad.<br />
95
Dynamisk mikrofon – är en relativt robust mikrofon som tål förhållandevis starka ljudtryck.<br />
Denna mikrofon behöver inte någon strömkälla eller batteri för att fungera. Nackdelen med<br />
den dynamiska mikrofonen är att det finns en viss tröghet i den, vilket ofta leder till en viss<br />
luddighet i inspelningen där briliansen minskas.<br />
Kondensatormikrofon – är beroende av en extra strömkälla (phantommatning) eller ett<br />
batteri för att driva en liten förstärkare som är inbyggd i mikrofonen. Skillnaden mellan<br />
mikrofonerna är att kondensatormikrofonen ger ett något bättre ljud. Den klarar också<br />
snabbare attackljud (transienter) än vad en dynamisk mikrofon gör. Nackdelen med<br />
kondensatormikrofonen är att den är mycket ömtåligare. Om mikrofonen inte fungerar vid<br />
inspelning, så kolla batteri eller phantom-matning!<br />
Rundtagande mikrofoner - har ingen närbashöjning. Klangfärgen ändras inte även om man<br />
går tätt in på mikrofonen. Dessa mikrofoner är nästan uteslutande dynamiska och detta gör att<br />
de är mindre vind och "handkänsliga" än andra mikrofoner. Dynamiska mikrofoner är<br />
betydligt mindre stötkänsliga än kondensatormikrofoner.<br />
Riktningskarakteristik för en rundtagande mikrofon<br />
Tryckzonsmikrofoner - utnyttjar diffusljudet i rummet. De placeras i en punkt där direkt och<br />
diffusljud följer så tätt på varandra att man inte hör någon skillnad, vanligen tätt intill en<br />
vägg- eller golvyta i rummet.<br />
Riktmikrofoner<br />
Den vanligaste sorten av riktad mikrofon är kardioidmikrofonen. Dessa är normalt av<br />
kondensatortyp med kort anslagstid. D.v.s. att de reagerar snabbt vid plötsliga ljud.<br />
Riktmikrofoner har en mera markerad närbashöjning. Fördelen med riktmikrofon är främst att<br />
den dämpar diffus- och störljud so kommer in från sidan. På detta sätt kan man hålla<br />
mikrofonen längre ifrån ljudkällan utan att ljudkvoten blir för liten.<br />
96
Riktningskarakteristik för en riktad mikrofon<br />
Den åtta-kopplade mikrofonen kan jämföras med en dubbel njure. Den är känslig för ljud<br />
som kommer från två motsatta håll (fram- och bakifrån), men dämpar ljudet från sidorna<br />
(diffusljud).<br />
Riktningskarakteristik för en åtta-kopplad mikrofon<br />
VU-mätare<br />
På de flesta bandspelare och kameror finns en VU-mätare eller Peak-meter som anger nivån<br />
på ljudet som spelas in. En VU-mätare är ett ganska långsamt mätinstrument, med en visning<br />
från –20dB till +3dB eller +6dB (med 0dB däremellan). Ljudet ska ligga runt 0dB vid optimal<br />
inspelningsnivå, eller utstyrning som det kallas.<br />
VU-mätare<br />
97
En peak-meter reagerar däremot blixtsnabbt på ljudfärändringar. Skalan som visas av<br />
lysdioder går i regel från –24dB till +9dB (med 0dB däremellan). Ljudet ska ligga runt 0dB<br />
vid optimal utstyrning.<br />
Peak meter<br />
När man läser av dessa mätare krävs att man vet om man arbetar med en analog eller digital<br />
bandspelare. Vid inspelning med en analog bandspelare ska nivån ligga runt 0dB för optimal<br />
utstyrning, men vid inspelning med en digital bandspelare ska nivån aldrig överstiga 0dB! Om<br />
utstyrningen blir för hög uppstår distorsion av det inspelade ljudet. Distorsion innebär enkelt<br />
sagt att ljudet klipps sönder för att det blir för starkt. Resultatet är att ljudet låter sprucket,<br />
vasst och obehagligt. Om detta sker på en analog bandspelare kan inspelningen gå att använda<br />
ändå, men det sker på en digital bandspelare är inspelningen troligtvis helt värdelös.<br />
Flera mikrofoner<br />
Vid vissa tillfällen kan det krävas att man måste använda sig av mer än en mikrofon. Det kan<br />
till exempel vara när två personer sitter vid ett långsmalt bord och på ett sådant avstånd<br />
mellan varandra att en enda mikrofon är otillräcklig för att fånga ljudet. Detta på grund av en<br />
begränsad öppningsvinkel hos mikrofonen. Man kan då använda två mikrofoner för att få<br />
bättre inspelningsmöjligheter. Men att använda två mikrofoner kan också ställa till en del<br />
problem.<br />
A/B-stereo<br />
Om vi placerar två mikrofoner riktade rakt mot ljudkällan med ett visst avstånd från varandra<br />
får vi en bred stereobild och kan spela in båda personerna.<br />
98
Men denna mikrofonplacering kan ge upphov till vissa problem.<br />
Placerar man två mikrofoner en bit från varandra kommer ljudet att tas upp av båda<br />
mikrofonerna, men med en viss tidsförskjutning. Vi kommer också att få mer diffusljud.<br />
Dessutom kommer vissa ljud att ha sådan våglängd så att vi har maximal tryckökning vid ena<br />
mikrofonen, samtidigt som vi har maximal tryckminskning vid den andra. Detta kallas för<br />
fasutsläckning. Alla ljud som passar in i avståndet mellan mikrofonerna med halva, en<br />
fjärdedel, en åttondels våglängd o.s.v. ger upphov till fasutsläckning. Ju högre upp i<br />
frekvensbandet som vi kommer sker dessa utsläckningsfenomen tätare. Detta kallas för<br />
kamfiltereffekt.<br />
X/Y-teknik<br />
Ju närmare varandra som vi flyttar mikrofonerna, ju mer flyttar vi upp kamfiltereffekten i<br />
frekvensbandet. När vi når ca 1 centimeter (halva våglängden 17kHz) mellan mikrofonerna<br />
börjar vi närma oss gränsen för vad det mänskliga örat kan höra. I dessa frekvensområden är<br />
kamfiltereffekten inte heller speciellt hörbar. Genom att på detta sätt placera mikrofonerna<br />
nära varandra och med korsande öppningsvinklar kan man eliminera kamfiltereffekten,<br />
samtidigt som man erhåller en större öppningsvinkel. Denna mikrofonplacering kallas xyteknik.<br />
I andra fall kan av praktiska skäl inte xy-teknik inte användas. Då handlar det om att placera<br />
mikrofonerna på sådant avstånd att diffusljudet på en sådan nivå att det inte uppfattas som<br />
störande eller att de kamfiltereffekter som uppstår inte uppfattas som störande.<br />
99
XY-teknik<br />
Ljudmix<br />
När film och ljud är inspelat och filmen är färdigklippt, är det dags för ljud-mixningen. I de<br />
projekt som kommer att görasinom denna kurs kommer antagligen 3-4 stereokanaler att<br />
användas, dvs en för dialog, en för miljöljud, en för ljudeffekter och en för filmmusik. Tänk<br />
på att ju fler ljudkanaler desto mer måste varje ljudkanal sänkas för att inte det mixade ljudet<br />
ska bli för starkt.<br />
Ljud uppfattas olika<br />
Örats känslighetskurva vid konstant ljudstyrka men varierande frekvens är inte konstant. Örat<br />
är känsligast för frekvenser kring 3-4kHz. Det är ljud som liknar sprakande eld, forsande<br />
vatten, cymbaler och språkljuden S-F-SJ och SH. Detta innebär att man som ljudtekniker inte<br />
helt kan förlita sig på instrumenten när man ska styra ut ljud från en mixer. Man måste också<br />
lyssna.<br />
Det är många gånger svårt att mixa ihop olika ljud på ett sätt som både frambringar den känsla<br />
som man vill förmedla, samtidigt som texter ska gå fram. Detta är ett vanligt problem i<br />
musiksammanhang där man har en sångare med orkester. Ett sätt att komma till rätta med<br />
detta är via interfoliering. D. v. s. instrument, instrumentgrupper och sångare sjunger/spelar<br />
växelvis. Denna teknik används även vid ljudläggning av film. T. ex. läggs inte kraftiga<br />
effektljud i en dialog, utan i en paus där inte något sägs. Detta är något som inte bara åligger<br />
ljudteknikern att åstadkomma, utan även musikkompositören/manusförfattaren.<br />
Ett annat problem är att vi som arbetar med programmet vet vad som ska sägas och därför hör<br />
det lättare. Detta kan leda till att vi inte har tillräcklig ljudkvot mellan dialog och miljöljud för<br />
att publiken ska höra allt. Ett förslag på hur man kan lösa detta problem är att göra färdigt hela<br />
mixningen och sedan vänta ett par dagar för att därefter lyssna igenom allt igen. Då har man<br />
hunnit glömma av materialet något och kan förhoppningsvis rätta till mixningen, för att sedan<br />
avsluta arbetet.<br />
100
Dessa problem är något som inte bara åligger ljudteknikern att åstadkomma, utan även<br />
musikkompositören/manusförfattaren.<br />
Kannibalisering<br />
Ett budskap som förmedlas med hjälp av ljud och rörliga bilder kan få en mycket stor<br />
genomslagskraft. Man har i mediet ett antal redskap som man kan kombinera på ett oerhört<br />
kraftfullt sätt för att nå sitt mål. Å andra sidan, så kan dessa verktyg ha motsatt verkan om<br />
dom inte används på rätt sätt.<br />
En av vanligaste fallgroparna kan rubriceras kannibalisering. Med kannibalisering menas att<br />
formen äter upp budskapet. Utmanande klädsel, känsloladdade bilder, störande bakgrund, ljud<br />
mm kan ta bort uppmärksamheten från det egentliga budskapet.<br />
101
Videoredigering<br />
Icke linjär redigering är beteckningen på det sätt som man normalt jobbar på när man<br />
redigerar material som först kopierats på en dators hårddisk. Redigeringen av programmet<br />
behöver inte följa ett linjärt förlopp, d.v.s. man behöver inte starta med programmets början<br />
för att sedan successivt arbeta sig fram till programmets slut. I en icke linjär redigering har<br />
man möjlighet att gå in var som helst i det halvfärdiga programmet för att bearbeta detta. I det<br />
tidigare linjära sättet att arbeta kopierade man från band till band och bearbetade programmet<br />
i kronologisk ordning. I ett linjärt system har man mycket begränsade möjligheter att gå<br />
tillbaka i ett program och påverka det.<br />
I ett icke linjärt system kopierar man över videomaterialet till en hårddisk innan det egentliga<br />
redigeringsjobbet börjar. Detta är något som i nyhetssammanhang många gånger setts som ett<br />
extra steg som drar ner tempot i redigeringsprocessen. På grund av detta har tillverkarna av<br />
redigeringsprogram lagt ner mycket krut på att göra inloggningsprocessen så snabb och<br />
smidig som möjligt. Ett exempel är att öka kopieringshastigheten, så att den t.ex. utförs 4 ggr<br />
realtidshastighet. Å andra sidan är vinsten i en icke linjär redigering så mycket större när väl<br />
inloggningsprocessen är genomförd.<br />
Lite grovt kan man jämföra skillnaden mellan linjär och icke linjär redigering som skillnaden<br />
mellan skrivmaskin och ordbehandlare. Den stora vinsten med icke linjär redigering är som<br />
sagt att man när som helst kan gå tillbaka i sitt redigerade material och göra justeringar och<br />
omstuvningar utan att det påverkar omkringliggande delar. Ungefär på samma sätt som i en<br />
ordbehandlare.<br />
Kopiering till hårddisk<br />
Principen i en icke linjär redigering är att det videomaterial som lästs in på hårddisken lämnas<br />
opåverkat under redigeringen. Istället hämtas de delar av materialet som man programmerar<br />
in under redigeringen i realtid. Bildövergångar (utom raka klipp), trickeffekter mm kan,<br />
beroende på upplösning och datorns snabbhet, antingen renderas och bildar då en egen bildfil<br />
eller så klarar datorn av att köra dubbla videoströmmar i realtid. Ju dyrare/snabbare system<br />
desto mindre effekter behöver renderas.<br />
Vid renderingen omkomprimeras materialet, eftersom två eller flera bilder läggs på varandra.<br />
Komprimeringen medför risk för försämring av materialet. Ska man jobba med mycket<br />
effekter i flera lager som kräver mycket renderingar är det bra att välja en högre kvalitetsnivå<br />
på redigeringens interna hantering av materialet - om det går. På s.k. DV redigeringar finns<br />
endast "native" DV som enda valmöjlighet. Så länge inga renderingar görs kommer materialet<br />
att vara helt oförvanskat. Men så fort en rendering görs händer det saker.<br />
En av flaskhalsarna har varit, och är till viss del fortfarande, begränsat hårddiskutrymme.<br />
Fördelen med detta är att man tvingas vara lite mer disciplinerad när man läser in sitt<br />
råmaterial på hårddisk. Inloggningsprocessen kan ses som en första grovredigering av<br />
materialet. Det är alltså inte alltid smart att läsa in hela sitt råmaterial från början till slut om<br />
det nu inte är väldigt begränsat och fritt från sura missar.<br />
Inläsning av materialet på hårddisken sker i flera steg. Om man startar ett nytt arbete, så görs<br />
normalt några olika förinställningar som ska gälla just det projektet. Först bestäms<br />
videostandard vilken är PAL för vårt vidkommande. Sedan bör man ha koll på vilken typ av<br />
videosignal (komponent, S-video, komposit, Firewire (IEEE 1394 eller i.LINK) eller SDI<br />
102
(Serial Digital Interface) som ska tas in i datorn. Här väljer man den signal som representerar<br />
den högsta kvalitén eftersom denna inte påverkar komprimeringsgraden. Även ljudet kan man<br />
välja mellan balanserat (XLR), eller obalanserat (RCA/Phono). I programmet kan man sedan<br />
välja vilken ingång som den aktuella signalen kommer in via. Samplingsfrekvensen bör väljas<br />
så högt som möjligt, d.v.s. 48 kHz, som är den frekvens som t.ex. DV tekniken använder.<br />
Nästa steg är att välja kompressionsgrad. Detta gäller främst analoga signaler. När det gäller<br />
DV eftersträvar man att undvika att omkomprimera signalen, under förutsättningen att datorn<br />
hanterar DV internt. Ska man hantera ett stort material och har ett begränsat hårddiskutrymme<br />
kan det vara smart att läsa in sitt videomaterial med ganska låg kvalitet för att på så sätt spara<br />
utrymme. I ett senare skede när programmet är klart kan man läsa om sitt material med en<br />
högre kvalitet, men endast det som man använt i sin film. Det är mycket viktigt att kolla var<br />
materialet hamnar, speciellt om man jobbar med en lös hårddisk. I vissa program ställer man<br />
in detta via s.k. "scratch discs".<br />
När man filmar sitt material är det viktigt att, om möjligt, låta några sekunder gå efter det att<br />
man startat kameran innan den ”riktiga” tagningen börjar. Detta av två skäl. För det första är<br />
det alltid bra med lite ”luft” innan en tagning påbörjas eftersom man inte exakt vet hur<br />
materialet ska klippas i slutänden. Det är bra att ha lite trimnings- och mixningsmån. För det<br />
andra är det viktigt med några sekunders ”tomruta” i början av en ny tidkod (t.ex. i början av<br />
ett band eller vid ett brott på tidkoden). Vissa kameror har en olägenhet att nollställa tidkoden<br />
i tid och otid. Detta ställer till trassel vid inloggning av materialet till hårddisk. Orsaken till<br />
detta är att en bandspelare måste backa upp ett par, tre sekunder innan den punkt där<br />
kopiering till hårddisk startar. Bandtransporten måste hinna att stabilisera sig och det tar<br />
någon sekund för moderna bandspelare. Skulle man starta för tidigt, t.ex. en sekund in på en<br />
ny tidkod kommer bandspelaren att backa förbi nollpunkten och därmed förlora synken eller<br />
komma in på en ny tidskodserie. En serie brutna tidkoder på ett band omöjliggör en effektiv<br />
inloggning av ett helt band eftersom samma tidkod återkommer på flera ställen på bandet.<br />
Nästa steg i processen för kopiering till hårddisk är själva inloggningen. Man arbetar sig<br />
igenom det inspelade videomaterialet och väljer ut de tagningar som skall användas i<br />
redigeringsarbetet. Man markerar in- och utpunkter för respektive scen och lagrar dessa i en<br />
speciell logglista. Här är det, som tidigare nämnts, viktigt att man inte är för snål med början<br />
och slut på varje tagning. Inloggningen är ingen redigeringsprocess utan ett sätt att välja ut det<br />
material som man ska redigera ur. I vissa redigeringar finns det en funktion där man kan välja<br />
hur många rutor eller sekunder som man vill att datorn ska ta med i början och slutet av ett<br />
klipp utöver det som man valt ut. Detta värde väljs i inledningen av loggningsprocessen och<br />
gäller sedan för alla klipp som väljs ut. När man har avverkat ett band är det lämpligt att<br />
kopiera över det valda videomaterialet till hårddisken. Detta är det sista steget och det sker<br />
automatiskt och kallas för digitalisering. Använder man sig av flera band är det mycket viktigt<br />
att man döper dessa så att man kan hålla reda på banden. Det gör nämligen inte datorn.<br />
Den digitala videobilden enligt CCIR601 består av 720x576 pixlar. Detta ger ett breddhöjdförhållande<br />
på 5:4. Men videobilden har motsvarande förhållande 4:3 eller 768x576<br />
pixlar. Vad man gjort är att man har gjort pixlarna rektangulära i horisontalled och därmed<br />
"sträcks" bilden ut till rätt format. I redigeringsprogrammen kan dessa standards uttryckas<br />
som CCIR 601/DV PAL (5:4) respektive CCIR 601 PAL Sq. (4:3). I dessa sammanhang är<br />
det viktigt att vara uppmärksam på vad som t.ex. händer med grafik som konverteras mellan<br />
de olika formaten.<br />
103
Firewire innefattar både bild, ljud, tidkod och fjärrstyrning av bandspelare. Har man inte<br />
Firewire, så kan man lösa fjärrstyrning och bandspelarkontroll via de seriella interfacen RS-<br />
232 och RS-422. Den största praktiska skillnaden mellan dessa protokoll är att SR-422 är<br />
mindre störningskänslig och därför används i större sammanhang där avstånden mellan<br />
enheterna är stora, som t.ex. TV stationer och post production studios. För vanligt användande<br />
duger RS-232 gott.<br />
För att beräkna åtgång på hårddisken är det bra att känna till med vilken datahastighet som de<br />
olika komprimeringssystemen jobbar med. DV använder en datahastighet av 3,6 MB/s.<br />
Motion JPEG (M-JPEG) är en annan vanlig standard för intern lagring i redigeringar.<br />
Beroende på kvalitetsnivå ligger datahastigheten på 1-12 MB/s,<br />
Arbetsfönstret<br />
Arbetsfönstret på en icke linjär redigering kan se lite olika ut, beroende på tillverkare. Men<br />
principen bygger på i grunden fyra olika arbetsytor. Först har vi en yta där man samlar alla<br />
sina inloggade klipp. Här har man möjlighet att organisera och sortera klippen. Den har olika<br />
namn t.ex. Bin, Browser mm.<br />
Sedan har vi två fönster där man kan titta på videomaterialet. Dessa kan liknas vid ”player”<br />
och ”recorder” fönster i linjära system. I playerfönstret (Source Viewer) kan man titta på de<br />
olika inloggade video (och ljudfilerna). Här har man främst möjlighet att bestämma in- och<br />
utpunkter i det material som ska användas.<br />
Innan vi går till recorderfönstret (Timline Viewer), går vi till ”timeline”. Det är här som<br />
materialet bearbetas till färdig film. Timeline består av en tidsaxel som man lägger sina bildoch<br />
ljudklipp på. Här görs alla effektpålägg och trimningar. För att underlätta detta finns det<br />
som oftast en palett med olika verktyg.<br />
Det färdiga resultatet kan man sedan se i recorderfönstret. Normalt har man en TV monitor<br />
kopplad till redigeringen. Dels för att kunna se det färdiga resultatet i större format i video.<br />
Dels för att få ”rätt” beskärning på bilden. En TV monitor beskär bilden mer än den som syns<br />
på datorskärmen. Detta är speciellt känsligt när man lägger in texter. Man pratar om ”safe title<br />
area”. Det finns även något som heter ”safe action area” som är något större.<br />
Arbetsgång<br />
Man kan redan i sin bin organisera klippen i den ordning som de ska ligga i den färdiga<br />
filmen. Man har normalt ett flertal olika möjligheter att skapa ett utseende i sin bin enligt den<br />
personliga smaken.<br />
Efter att ha valt ut ett klipp dubbelklickar man på detta för att få upp det i sin ”Source<br />
Viewer”. Här trimmar man sitt material genom att välja in- och utpunkter där klippet ska<br />
börja och sluta. Efter detta drar man ner klippet till Timeline. Sedan fortsätter man med nästa<br />
klipp på samma sätt och lägger det efter föregående klipp på Timeline. Det finns en rad olika<br />
arbetssätt hur man går till väga vid redigering, beroende på personlig smak och typ av<br />
program.<br />
På sin Timeline har man möjlighet arr lägga på olika effekter som t.ex. mixningar, olika typer<br />
av ”wipar”, men även färgkorrigeringar, kromakey och andra specialeffekter. Till<br />
redigeringen finns normalt kopplat textverktyg för att skapa titlar och liknande. Ytterligare<br />
104
verktyg är s.k. compositing. Här har man möjlighet att mer djupgående påverka och lägga till<br />
element i den rörliga bilden.<br />
Slutligen ska den färdiga filmen exporteras i lämpligt format. Det vanliga är att det kopieras<br />
till videoband. I detta fall behövs ingen ytterligare komprimering. Om materialet däremot ska<br />
läggas på CD, DVD eller på nätet, så behövs en komprimering som är anpassad för det<br />
aktuella formatet. De flesta redigeringsprogram innehåller idag mer eller mindre sofistikerade<br />
komprimeringsverktyg.<br />
105
Bildberättande<br />
”En bild säger mer än tusen ord”. Hur mycket säger då en serie av bilder som läggs efter<br />
varandra till en film? Det beror på hur effektivt som man kan utnyttjar bildberättandet.<br />
Först och främst ska man ha klart för sig att det oftast är en ganska stor skillnad mellan en<br />
stillbild och en filmbild. Orsaken är att en stillbild skall kunna stå för sig själv utan hjälp av<br />
ljud eller andra bilder. Dessutom kan man normalt kan titta på en stillbild länge.<br />
En rörlig bild däremot har en begränsad tittartid. Detta gör att kravet på enkelhet i bilden ökar.<br />
Det skall vara lätt att se vad det är och det viktiga i bilden ska lätt kännas igen. Fördelen med<br />
rörliga bilder är att flera bilder kompletterar varandra till ett sammanhang. Dessutom tillförs<br />
ytterligare en informationskomponent till skillnad mot stillbilden, nämligen rörelse.<br />
Som stillbild fungerar denna bild dåligt. Kaktusen tar upp alldeles för stor plats och genom sin<br />
placering skapar den obalans i bilden. Ryttaren är för liten och svår att upptäcka. som rörlig<br />
bild däremot drar ryttarens rörelse till sig blicken och förskjuter tyngdpunkten i bilden så att<br />
man uppnår balans.<br />
Grunden i ett bildberättande är att varje bild tillför något nytt eller bilden måste fungera i sitt<br />
sammanhang.<br />
Dessa två bilder visar en scen där en man köper jordgubbar. Genom att klippa in en närbild på<br />
handen som sträcker fram jordgubbarna, så förstår vi (mer eller mindre undermedvetet) att<br />
106
just jordgubbarna är viktiga för filmens fortsatta handling. Hade dom inte varit viktiga, så<br />
hade vi förmodligen undvikit att föra in denna vilseledande information i form av en närbild.<br />
En film byggs upp av olika delar. Om man jämför med en vanlig text, så kan liknelsen se ut så<br />
här:<br />
Sekvens - Mening<br />
Scen - Sats<br />
Bild (Tagning) - Ord<br />
Generellt gäller att varje ny bild skall vara motiverad och tillföra något nytt till handling och<br />
innehåll. Detta gäller även kamerarörelser.<br />
För att bygga ”meningar” i en film kan man använda sig av olika verktyg som t.ex.<br />
bilduppbyggnad, övergångseffekt (t.ex. klipp eller mix), grafik, musik, miljöljud, effektljud,<br />
speaker eller dramatiserade röster. Allt detta utnyttjas i klipptekniken d.v.s. på vilket sätt som<br />
bild och ljud byggs ihop till en hel berättelse. Klipptekniken syftar till att göra en berättelse så<br />
effektiv och fängslande som möjligt. För att undvika oväsentligheter i en historia tillgriper<br />
man ofta det som kallas tidsförkortning. Man klipper helt enkelt bort ”transportsträckor”<br />
mellan två väsentliga episoder. T.ex. en person som åker hemifrån till ett viktigt möte. Vi ser<br />
personen sätta sig i bilen och köra iväg. I nästa bild ser vi personen anlända till mötespunkten.<br />
Vill vi understryka att det varit en lång resa, så kan det ha hunnit att bli skymning. Vi kan<br />
också lägga in en parallellhandling, d.v.s. något som utspelar sig på en annan plats samtidigt<br />
som personen är på väg till sitt möte.<br />
Samtidigt som klippen ger möjlighet till att föra berättelsen framåt genom att skapa nya<br />
scener, så försöker man normalt också att se till att klippen märks så lite som möjligt. Det är<br />
ju som oftast inte klippen i sig som är intressanta. Ett sätt att överbrygga klippen är att skapa<br />
en kontinuitet i miljön. Det kan vara ljus, färg, miljö eller ljud som stämmer överens mellan<br />
klippen. Ett annat vanligt sätt att maskera klipp är att klippa på en rörelse i bilden. Ett s.k.<br />
rörelseklipp. Även ljudet kan utnyttjas på samma sätt där man klipper i en förändring av<br />
ljudet. normalt låter man klippet ske något efter det att ljudet introducerats (någon tiondels<br />
sekund).<br />
Med klaff menas att t.ex. en rörelse fortsätter kontinuerligt i nästa bild. Här handlar det inte<br />
om någon förskjutning i tiden. Man brukar tala om klaffel och syftar till en förändring mellan<br />
två bilder som tidsmässigt hänger ihop och där den aktuella förändringen omöjligen skulle<br />
kunna ha skett. Ett exempel är där en man går ut ur ett rum och lossar på slipsen. Man klipper<br />
till nästa bild där mannen kommer in i ett angränsande rum där slipsen är snyggt knuten igen.<br />
En viktig del är den s.k. 180 graders regeln (optiska axeln). Den bygger på att blick och<br />
rörelseriktningar stämmer med varandra i den färdigklippta filmen.<br />
Bildväxling använder man sig av när man med till synes helt olika bilder skapar en<br />
sammanhängande berättelse. Oftast rör det sig om närbilder som sätts ihop. Exempelvis kan<br />
en bild på en blodig kniv i gräset sammanklippt med en man som ligger i gräset berätta en<br />
otrevlig historia. Historien förändras något om man istället för en kniv lägger en urdrucken<br />
vodkaflaska i gräset.<br />
Eyescan är ett sätt att underlätta avläsningen av en bild med till synes mycket information i.<br />
Om vi vill att publiken snabbt ska fästa blicken på ett visst föremål i en bild, så kan vi låta<br />
107
föregående bild ha ha något föremål som drar blickarna till sig i just den punkt som det<br />
intressanta händer i nästa scen.<br />
Med hjälp av olika tekniker kan vi styra åskådarens blickar till det väsentliga i bilden. Trots<br />
att mannen i centrum utgör en ganska liten del av bilden, så har man med hjälp av ljussättning<br />
lyft fram honom i bilden.<br />
Bildberättandet bygger ofta på att man växlar mellan olika bildutsnitt. Grovt kan man dela in<br />
de olika utsnitten mellan Översikts- eller totalbild (helt landskap), helbild (hel människa),<br />
halvbild (midjan och uppåt på människa), närbild (porträttbild) och detaljbild (närbild på öga).<br />
108
Exempel på vokabulär som används för att beskriva bildutsnitt. Det finns ingen direkt<br />
standard på området, så olika regissörer kan mena olika när dom uppger vilket bildutsnitt som<br />
dom vill ha i en bestämd tagning.<br />
Komponera bilden till en helhet. Innehållet i bilden ska berätta något. Använd inte kameran<br />
som kikarsikte.<br />
109
Det som gör en bild intressant är att den i vid bemärkelse på något sätt innehåller ett budskap.<br />
Bilden berättar något för oss. Det kan vara i form av harmoni, disharmoni, spänning, motsats,<br />
överraskning, djup etc.<br />
I inledningen av bilden ser vi bara ryttaren till höger. Det skapar obalans i bilden, en<br />
spänning, och vi förväntar oss att något ska hända i bildens vänstra del. Mycket riktigt, kliver<br />
skurkens ena ben in i bild. Ordningen är återställd.<br />
Vad visar denna bild? Att barnet sitter i en sandlåda och gör sandkakor eller att barnet är<br />
ensamt.<br />
Kamerans placering kan vara avgörande för hur motivet framställs. I en intervjusituation eller<br />
i andra fall där en person i bild skall framträda i neutral skepnad placeras kameran i jämnhöjd<br />
med motivet. Placeras kameran ovanför eller under motivet kan man illustrera makt eller<br />
undergivenhet.<br />
110
Kamerans placering kan vara avgörande för hur en person skall framhävas.<br />
Motivets placering i bild (beskärning) gör att mannen kan upplevas som lång, kort, på väg att<br />
röra sig eller stabil (stående).<br />
Brännvidd<br />
Kameraobjektivets optiska ”längd” kallas brännvidd. Normal brännvidd avbildar motivet<br />
oförvanskat. Tele eller lång brännvidd trycker ihop motivet och vidvinkel, eller kort<br />
brännvidd, särar på motivet (framhäver förgrunden i förhållande till bakgrunden). Olika<br />
brännvidder förändrar bildutsnittet men inte perspektivet. För att ändra perspektiv måste<br />
kameran flyttas.<br />
111
Bildparet till vänster är resultatet av olika brännvidd utan att kameran förflyttats. Bilderna har<br />
bara beskurits så att utsnittet stämmer överens. Höger bildpar visar vad som händer när<br />
kameran förflyttas. Perspektivet förändras.<br />
Vidvinkel används i många fall för att skapa djup i en bild. Den valda brännvidden kan inte<br />
enbart skapa djupet, men den accentuerar relationen mellan för- och bakgrund. Andra sätt att<br />
skapa djup är att låta motiv överlappa varandra. Man kan utnyttja skärpedjupet där t.ex.<br />
bakgrunden hamnar i oskärpa i förhållande till förgrunden. Genom ljussättning kan för- och<br />
bakgrund tydligare åtskiljas. Det vanligaste är med s.k. bakljus. Slutligen kan man<br />
åstadkomma djup i bilden genom att röra kameran. På så sätt skapar man en relativ rörelse<br />
mellan för- och bakgrund.<br />
Med hjälp av vidvinkeloptik kan man framhäva förgrunden och samtidigt dämpa<br />
bakgrundens inflytande.<br />
112
Olika sätt att skapa djup i bild. I motivet till vänster placeras en person i förgrunden. I<br />
bilden till vänster låter man repet bilda en referens i djupled.<br />
Kamerarörelser skall göras med försiktighet och planering. Vissa kamerarörelser som t.ex.<br />
åkning i sidled kan göras mycket långsamma och ändå bidra till att skapa djup i bilden. Någon<br />
har sagt att ”Fotografens främsta uppgift är att förhindra att kameran zoomar och panorerar”.<br />
Detta påstående har sin grund i att vi människor varken zoomar med blicken eller panorerar<br />
på samma sätt som en kamera gör. Den enda ”naturliga” panoreringen är s.k. följning. D.v.s.<br />
att kameran panorerar med ett föremål som rör sig. Naturligtvis är det inte förbjudet att röra<br />
kameran eller zooma. Men alla rörelser ska vara motiverade, d.v.s. förstärka budskapet i<br />
bilden.<br />
Ett exempel är skillnaden mellan in- och utzoomning. Utzoomning startar med en närbild på<br />
ett föremål t.ex. en liten röd stuga. Under utzoomningen tillförs hela tiden mer<br />
informationskomponenter i bilden. En blomsterrabatt framför stugan, ett träd. Hade det<br />
stannat vid denna information hade vi lika gärna kunnat klippa mellan närbilder och helbilder.<br />
Men vi fortsätter utzoomningen och vi noterar att det bakom stugan ser ut som en grå vägg.<br />
Utzoomningen fortskrider och när den till slut stannar visar det sig att vår idylliska stuga<br />
ligger vid foten av en enorm vattenregleringsdamm. Utzoomningen gav i detta fall möjlighet<br />
att skapa en utdragen dramatik/spänning som klipp mellan bilderna inte skulle ha gjort.<br />
Det omvända förhållandet med inzoomning förstärker budskapet på ett annat sätt. Genom att<br />
zooma in mot ett föremål skalar vi bort information i bilden tills det enbart återstår en närbild<br />
på föremålet. Med detta förfarande vill vi förstärka budskapet genom att tala om att det är just<br />
detta föremål som är viktigt.<br />
113
Genom att placera den mindre personen så att han överlappar den större, så framhävs det rätta<br />
förhållandet mellan de båda personerna.<br />
Genom att använda ett litet skärpedjup (d.v.s. stor bländaröppning) kan vi lättare förskjuta<br />
fokus till det föremål/plan som är intressant. För att åstadkomma ett litet skärpedjup måste<br />
man ibland använda sig av ND filter av olika densitet (genomsläpplighet).<br />
Genom att förskjuta fokus (skärpeplanet) så skapas djup, samtidigt som man fokuserar på det<br />
gör tillfället viktigaste i bilden.<br />
Genom att överdriva perspektiv och djup kan man skapa dramatiska effekter.<br />
Färg<br />
En fotograf sa vid ett tillfälle till en kollega att ”Om du ska misslyckas ordentligt med en bild,<br />
så ska du göra det i färg”.<br />
Vad fotografen menade var att ju mer komponenter som du tillför, desto fler risker finns för<br />
att något ska bli fel. Han jämförde färg med svart vit och färgen tillför ju onekligen en<br />
komponent som kan gå fel, likaväl som färgen kan höja värdet på bilden. Olika färger har<br />
olika symboliska värden. Rätt utnyttjat kan man öka informationen i bilden.<br />
114
Röd färg är en signalfärg och drar till sig uppmärksamhet. I dessa bilder distraherar<br />
färgen och drar uppmärksamheten från huvudmotivet.<br />
Färg utnyttjas å andra sidan för att styra blicken till det väsentliga i motivet. Färgen kan<br />
även skapa djup i bilden.<br />
115
Att jobba med effekter för film och video<br />
Filma för effekter: Vad skall man tänka på?<br />
Det är den viktigaste frågan av alla<br />
Allför ofta hinner man inte med det man skall. Eller så har man hunnit med för mycket! För<br />
ett intressant berättande måste man försöka se vad som är nödvändigt och vad man kan vara<br />
utan. Frågan ovan är en som man konstant skall ställa till sig själv under planeringen och<br />
filmningen. Man filmar ofta sådan som man inte behöver och glömmer av att få med det som<br />
är viktigt. Mycket av vad tittaren uppfattar av det man filmar kan göras underförstått utan att<br />
visa det. Fundera över en scen där en person skall gå igenom en dörr, är det verkligen<br />
nödvändigt att visa en närbild på handtaget som trycks ner? Nej, det förstår man ändå,<br />
eftersom handtaget måste tryckas ner för att öppna dörren! Man kan få med mycket mer<br />
berättande än vad man först tror. En person öppnar ett kylskåp och sitter sedan i en soffa med<br />
ett glas mjölk. Är kopplingen tydlig? Ja, alla vet att mjölken står i kylen, så det framgår<br />
tydligt att det var därifrån personen hämtade den. Man skall inte visa något om det inte har<br />
någon betydelse! Det är ingen mening med att visa att personen faktiskt häller upp mjölken i<br />
glaset, om inte glaset eller mjölken i sig utgör en viktig del av berättelsen.<br />
Men framför allt är frågan viktig då man skall avgöra hur man på lättast sätt åstadkommer en<br />
önskad videoeffekt. Om den är praktiskt genomförbar vid filmtillfället, är detta det såklart<br />
bästa alternativet. Man filmar ju då något ”äkta”. Många enkla trick kan spara massor av tid i<br />
”post.” Å andra sidan, finns även saker som bara är genomförbara i post och då gäller det att<br />
tänka extra noga när man filmar. Även små misstag kan medföra mycket onödigt arbete. Här<br />
sätts planeringen på prov, får man med allt man behöver? Är du säker?<br />
Innan du filmar och under tiden...<br />
Planering<br />
Planeringen är a och o gällande allt filmande, även om några digitala effekter inte är aktuella.<br />
Alla scener bör vara skissade som storyboard innan de filmas. Med detta enkla medel kan<br />
man snabbt se var det förekommer brister. Balanseringen av bilden brukar vara ett vanligt<br />
problem. Man vill hitta en intressant bild, en intressant vinkel med fin balansering. Symmetri i<br />
bilden brukar inte vara det bästa. Genom att skissa upp olika förslag på samma scen hittar<br />
man snabbt hur man vill ha det utan att ens ha filmat. Det går mycket smidigare och snabbare<br />
när man väl står ute på plats om man planerat ordentligt. Man försäkrar sig då om att allt som<br />
man behöver kommer att finnas i scenen och att den filmas på ett korrekt sätt. Men flera<br />
variationer är naturligtvis aldrig fel att filma.<br />
Innan man börjar filma bör man dessutom ha gjort en scenlista innehållande scener man måste<br />
ha med för att historien skall funka (A-scener), scener man skulle vilja ha med (B-scener) och<br />
scener som man tycker kan vara bra att ha för att fylla ut historien (C-scener).<br />
Färgsättning<br />
Färgsättningen bör alltid vara neutral! Oavsett om det finns någon tuff effekt i kameran som<br />
man gärna vill ha, kan man alltid göra detta i efterhand, dessutom mycket bättre. Det<br />
viktigaste när man använder en DV kamera är att testa olika vitbalanser. Utomhus filmande<br />
innehåller mycket blått ljus, alltså måste man kompensera för detta. Inomhus filmande<br />
innehåller mycket gult ljus. Även om man vill ha en gul-aktig ”look” till scenen, är det alltid<br />
möjligt att man ångrar sig!<br />
116
Det är också vanligt att man använder ”svarta fält”-funktionen som finns i många kameror för<br />
att efterlikna film. Denna funktion skall man låta bli då man planerar att ändra på scenens<br />
utseende, vilket brukar vara ganska ofta. Den kan vara för mörk, för ljus, för gul eller för<br />
skarp. Eftersom de svarta fälten nu ingår i bilden, kommer de också att ändras. Det går<br />
alldeles utmärkt att bara lägga på en mask under redigeringen ifall man nu vill ha de svarta<br />
fälten. Det blir dessutom skarpare kant då.<br />
Ljus<br />
Ljuset i scenen är alltid viktigt att anteckna. Utomhus går det ofta att se hur skuggor faller<br />
enbart från det man filmat, men vid filmande inomhus är ofta lamporna placerade på speciella<br />
ställen. I detta fall är det då viktigt att veta var om man planerar att trycka in 3d i scenen. En<br />
annan aspekt är att det alltid är bra med mycket ljus i scenen. Även om den skall vara mörk,<br />
kan man aldrig filma i mörker, men man kan faktiskt göra en scen mörkare. Man undviker då<br />
all grynighet som uppkommer då kameran inte får tillräckligt med ljus. En annan del är<br />
exponeringen. Alla DV-kameror använder falsk exponering, det enda som sker när man ökar<br />
den i kameran är att signalen förstärks, dvs samma sak som att öka ljusstyrka och kontrast i<br />
Photoshop. Exponeringen bör alltid stå på den lägsta i kameran, vilket brukar vara 12dB.<br />
Ljussättning för bluescreen och greenscreen är alltid svår att få till. Målet är att få så jämnt<br />
ljus över filten utan inverkan av skuggor från skådespelarna. Tänk på att filten inte behöver<br />
fylla hela bilden, utan bara den del som skall filtreras ut. Allt annat kan man klippa ur bild<br />
ganska enkelt. Det är enklare att få till ljuset om filten befinner sig en bit ifrån skådespelaren.<br />
Reflekterat ljus är mjukare än direkt ljus. Tänk på att det går egentligen att använda vilken<br />
färg som helst på duken, bara den skiljer sig väsentligt från vad man vill ha kvar i bild.<br />
Kamerarörelse<br />
Rörelsen med kameran är en mycket stor del av allt effektarbete. Man bör försöka låsa<br />
kameran så ofta man kan. Med detta menas, då inte scenen verkligen kräver rörelse från<br />
kameran, skall den stå på ett stativ, riktigt stadigt. Scener utan rörelse är lättare på många<br />
plan. En scen med en kamera vridning är inte så väldigt komplicerad, men däremot om man<br />
går omkring med kameran, blir det helt plötsligt väldigt svårt att lägga in nya moment efteråt.<br />
Många rörelser kan man göra direkt i redigering, om man nu vill ha dem. Att göra jämna<br />
rörelser är svårt med handhållen kamera. Ett tips är att hålla i stativet istället för kameran, då<br />
slipper man små skakningar från handen, men rörelsen är fortfarande lite svajig.<br />
Information om kamerans position, lins, riktning och höjd är alltid viktigt att ha om scenen i<br />
fråga skall innehålla 3d. Även avstånd till några objekt i scenen är ett stort plus!<br />
Arbetsflöde<br />
Var börjar man?<br />
Vad är då nästa steg efter filmandet? Jo, att fånga in sin video på en dator för att sedan<br />
redigera ihop filmen. Redigeringen görs direkt för att minimera arbetet på scenerna som<br />
innehåller effekter. Man vill inte att någon sitter med en 10 sekunders scen som sedan visar<br />
sig bara bli 2 sekunder. Naturligtvis vill man bara göra de 2 sekunderna som kommer att<br />
visas. När man redigerat klart, exporterar man de aktuella klippen som skall innehålla effekter<br />
till ett passande filformat för efterbearbetning. En sak man bör tänka på redan innan man<br />
exporterar är hur färgen och kontrasten på alla scener skall se ut. Kommer den att ändras alls?<br />
117
Det kan vara lockande att ändra på dessa under effektbearbetningen, men då bör man också<br />
tänka på att scenen skall passa ihop med de övriga scenerna i filmen. Går det att få till önskat<br />
resultat direkt i redigeringen? Många redigeringsprogram erbjuder mycket bra färgkorrigering<br />
och kontrastinställningar, vilket helt tar bort stegen exportera / korrigera / importera. Faktum<br />
är att man ibland inte ens behöver exportera alls eftersom man faktiskt kan göra många<br />
effekter direkt i redigeringen. Detta bör man alltså prova först innan man exporterar klippen.<br />
Ok, ni har gått igenom stegen ovan och beslutat att extern bearbetning är nödvändig. Vilket<br />
program skall ni använda? Detta kan vara svårt om man inte känner till de olika för- och<br />
nackdelarna med de olika programmen som finns inom videoeffekt fronten. Man är<br />
naturligtvis inte begränsad till ett enda program, man bör använda det programmet som<br />
lämpar sig bäst för scenen i fråga. Visserligen är de flesta effektprogrammen någorlunda lika<br />
och erbjuder många liknande funktioner som oftast är tillräckliga för medelanvändaren, men<br />
små skillnader kan i längden spara mycket tid. Följande jämförelse mellan Discreet<br />
Combustion och Adobe After Effects kan vara till hjälp när man står och funderar:<br />
Beskrivning Discreet Combustion Adobe After Effects (PB*)<br />
Keying (blue-, greenscreen) Mycket bra Godkänd**<br />
Tracking Mycket bra Bra<br />
3d compositing (2d planes) Mycket bra Godkänd<br />
Deformering Knappt godkänd Mycket bra<br />
Färgkorrigering Mycket bra Bra<br />
Caching (RAM Preview) Godkänd Mycket bra<br />
Rotoscoping & Paint Mycket bra Knappt godkänd<br />
Animering Lätt och flexibel Lätt och flexibel<br />
*PB – Production Bundle<br />
**Ultimatte finns som plug-in, som fungerar mycket bra. Den inbyggda keyern är inte så bra.<br />
Innan man börjar själva arbetet med effekten i fråga, bör man ha tänkt igenom innan hur man<br />
bäst och på enklast sätt går till väga för att åstadkomma effekten. Det finns många olika sätt<br />
att göra en och samma effekt, precis som i 3D. Nu sätts planeringen på prov!<br />
Vad skall man tänka på så att effekterna blir lätthanterliga?<br />
Att jobba med compositing är precis som att jobba med Photoshop. Skillnaden är att alla filter<br />
går att slå av och på närsomhelst, plus att allt går att animera såklart. Bägge programmen ovan<br />
är lagerbaserade, precis som Photoshop. Så fort man ”lägger på ett filter”, läggs det till en<br />
operator i hirarkin. På grund av detta går det snabbt att testa olika kombinationer av filter.<br />
Man kan även ändra ordningen på dem, för att ytterligare skapa variationer.<br />
För att få så stor flexibilitet som möjligt när man jobbar med compositing, bör man försöka att<br />
åstadkomma det mesta direkt i programmet just pga. egenskapen ovan. Detta gäller särskilt då<br />
man vill trycka in 3D i sin scen. Ett vanlig miss är att man lägger ner timmar på att få<br />
renderingen så lik videoklippet som möjligt. Det är då bättre att rendera ut sin 3D i olika lager<br />
som t.ex. diffuse, ambient, shadow och specular. Det går alltid snabbare att jobba i 2D än vad<br />
det gör i 3D. Med alla dessa lager, kan man på ett snabbt och effektivt sätt ändra utseendet<br />
och intrycket av 3D:n utan att behöva rendera om. Detta sätt att jobba på anses vara det<br />
snabbaste och utnyttjas av alla effekthus. Man behöver nästan alltid anpassa färg och skugga<br />
på renderingarna ändå, så då kan man lika gärna fixa till resten också.<br />
Samla allt material du jobbar med i en och samma mapp. Ha bildsekvenserna i undermappar.<br />
Det är lätt att jobba sig blind med en scen och innan man märker det, ligger alla källfiler<br />
118
utspridda över hela hårddisken. Skapa även nya mappar för testrenderingar, färgnycklar eller<br />
tracking-filer osv. Detta underlättar arbetet nästa gång du fortsätter med samma scen. Skriv<br />
anteckningar i textfiler om färdiga keyframes, små saker som är svåra att se eller kanske<br />
t.o.m. hur du vill att slutresultatet skall bli. Efter ett tag med samma scen, hittar man alltid nya<br />
sätt att ändra utseendet till det bättre/coolare och glömmer lätt av hur man tänkt sig från<br />
början.<br />
Namnge alla lager du använder! Används de inte, ta bort dem eller skriv något på lagernamnet<br />
så du vet att de inte skall vara med. Detta kan vara aktuellt om du använder referenser i din<br />
composite.<br />
Rendera testbilder! Har du flera scener som följer varandra är det en stor fördel att rendera ut<br />
någon stillbild från varje scen och öppna upp dem alla i photoshop. Nu kan du lätt jämföra<br />
scenerna och lätt märka eventuella skillnader som kanske inte är önskevärda. Anteckna!<br />
Lite om filformat och video codecs.<br />
.AVI – Windows egna videoformat. Kan komprimeras med bl.a. DV, Divx eller Sorenson.<br />
Dock fungerar inte DV-formatet i varken After Effects eller Combustion. Okomprimerat<br />
fungerar dock, men tar upp mycket utrymme på hårddisken.<br />
.TGA – Bitmapformat. Kan innehålla upp till 32 bitar, varav 24 är för färg och 8 bitar för en<br />
alpha-kanal. Fungerar bra, men varje fil (bildruta) ligger på ca 1.2 MB, vilket också tar upp<br />
mycket utrymme.<br />
.PNG – Bitmapformat. Kan innehålla upp till 48 bitar, varav 36 är för färg och 12 för alphakanalen.<br />
Detta format är ”loss-less”, dvs komprimering utan kvalitétsförlust. Rekommenderas<br />
framför allt annat. Dessa bildfiler tar ca hälften av utrymmet som TGA-bilder gör, dessutom<br />
försämras inte kvalitén när man sparar om filerna. P.g.a. storleken går det även fortare att<br />
arbeta med PNG, mindre mängd data behöver läsas in vid uppspelning. Däremot används<br />
samma mängd RAM-minne för att läsa in en PNG-sekvens som en TGA-sekvens<br />
motsvarande samma klipp. De buffrade bildrutorna är programmets egna, inte filerna själva.<br />
.JPG – Bitmapformat. Detta format bör undvikas. Komprimeringen är hård och försämrar<br />
bildkvalitén även vid högsta inställning då man sparar. Fungerar dock utmärkt för att spara<br />
sina testrenderingar i eftersom det snabbt går att öppna i vilket webläsare som helst.<br />
Hur gör man det där?<br />
• Genomgång av det aktuella programmets användargränssnitt.<br />
Man bör lära känna arbetsflödet i programmet man tänkt bygga upp sin effekt i. Många kan<br />
känna igen sig i After Effects, eftersom gränssnittet påminner mycket om Photoshop. Fast<br />
många lösa fönster kan lätt bli stökigt. I Combustion finns allt nerpackat bakom ett antal flikar<br />
som man lätt kommer åt med musen eller F-tangenterna. Däremot har Combustion ett<br />
gränssnitt som inte påminner om något annat. Det tar tid innan man blir bekant med<br />
arbetsflödet, men det är faktiskt ett av det bättre. För att lära sig gränsnittet är det viktigt att gå<br />
igenom de rekommenderade steg som programmets egna hjälpfil föreslår. Har man väl gjort<br />
dessa, går det mycket fort att lära sig resten. De flesta effekter byggs upp på samma sätt, det<br />
är bara arbetsflödet som varierar. Vanligtvis har man en lagerlista, där alla lager eller klipp i<br />
ens composite står listade och tillhörande filter under varje lager. Det översta lagret hamnar i<br />
förgrunder och det nedersta i bakgrunden. Det finns normalt även en timeline, precis som i ett<br />
119
edigeringsprogram, där alla klippen representeras som en linjärt område motsvarande sin<br />
tidslängd. Från dessa och menyerna överst tillkommer fler fönster eller delar där man gör<br />
inställningarna för det filter man applicerar. Ta en titt på programmens hemsidor:<br />
www.discreet.com och www.adobe.com för bilder på gränssnitten.<br />
Filter, markeringar och typiska effekter.<br />
När man jobbar med att sammanställa flera olika källor till en enda uppkommer oundvikligen<br />
avvikelser. Därför använder man olika filter för att korrigera och minimera skillnader mellan<br />
dem. Filter används naturligtvis för att skapa nya intryck också. Man vill t.ex. lägga fokus på<br />
ett särskilt område i bilden, då kan man använda blur på de övriga delarna för att skapa en<br />
kamerafokus effekt. Blur används också flitigt när någonting har en rörelse, s.k. motionblur.<br />
För att använda detta filter på särskilda delar av bilden, drar man nytta av markeringar, eller<br />
masks som det heter på engelska. Man ritar då linjer runt den delen eller delar man vill lägga<br />
blur på. Markeringar är mycket användbara, speciellt eftersom de faktiskt går att animera,<br />
vilket är ytterst nödvändigt eftersom man jobbar med video. Mycket av arbetet i post är just<br />
att dela upp bilden på alla de delar som kommer att ställas in annorlunda mot de övriga. När<br />
man använder greenscreens eller bluescreens, är detta just för att kunna använda förgrunden<br />
som ett separat lager eller markering som ger oändliga möjligheter senare. Man kan använda<br />
vilken bakgrund som helst, ändra färg på förgrunden eller kanske animera den för att skapa en<br />
virtuell kamerarörelse. Med detta kan man på ett lätt sätt foga samman surrealistiska miljöer<br />
som inte varit praktiskt möjliga. När man laddat in klippet, väljer man en grundfärg att filtrera<br />
ut, därefter lägger man till fler nyanser av samma färg för att ta bort så mycket blått eller grönt<br />
som möjligt direkt. Därefter kan man normalt ställa in antal grånivåer på sin alfakanal som<br />
man skapat, för att skapa större kontrast och minska färgblödningen runt markeringens kanter.<br />
Som sista steg sänker man färgmättnaden runt kanten för att få blödningen att försvinna helt.<br />
Man kan även krympa hela markeringen. Det känsligaste området är såklart kanterna kring<br />
objekten man vill hålla kvar. Eftersom alla material, även matta, reflekterar ljus så är det<br />
naturligt att kanterna får en del av bakgrundsfärgen. Man kan dock i förhand använda lampor<br />
för att minimera detta, för att separera förgrunden ytterligare från bakgrunden. Man riktar då<br />
lampor bakifrån skådespelaren mot kameran, för att belysa kanterna med en annan färg eller<br />
bara öka kontrasten runt om kanterna. På detta sätt får man en bättre mask, och skär inte bort<br />
lika mycket när man filtrerar. För att smälta ihop förgrunden med den nya bakgrunden är det<br />
nästan alltid nödvändigt med färgkorrigering. Man ställer då in saker som kontrast,<br />
färgmättnad, nyans, skugga och ljuspunkt. Här får man valuta för de åtgärder man tagit under<br />
filmandet. Har man haft lagom med ljus och en neutral vitbalans är det mycket lättare att<br />
ställa in färgerna. Tyvärr blir det ofta att man försöker ”rädda” en scen, just för att man missat<br />
att kolla av färgerna innan. Å andra sidan kan man faktiskt åstadkomma en väldig skillnad på<br />
intrycket av sin scen, just med bara färger. Vill man ge en ”varm” känsla, använder man<br />
mycket rött och gult i bilden. Vill man ha ett ”kallt” intryck, brukar man dra bilden åt det blåa<br />
hållet. Här kan man också sänka färgmättnaden för ett ”verkligare” intryck. Ett bra exempel<br />
på detta är ”Saving private Ryan”, där bilden nästan drar åt det svart-vita hållet under<br />
stormningen i början av filmen. Kanske just för att många förknippar svart-vitt med<br />
dokumentärer?<br />
Hur gör proffsen?<br />
Den största skillnaden mellan amatörer och proffs är budgeten. Med hundratals miljoner<br />
kronor är det inte så konstigt att effekterna blir så bra som de blir. Man får inte bli avskrämd<br />
från att lära sig jobba med effekter när man ser filmer som ”Jurassic Park” eller ”Pearl<br />
Harbour”. Personerna som suttit och gjort dessa effekter har jobbat flera månader, ibland över<br />
120
ett år, för att åstadkomma dem. Det enda vi ser är resultatet, inte allt jobb bakom. Trots detta,<br />
är arbetsgången identisk med den beskriven i detta dokument. Det sker bara på en större och<br />
mer omfattande skala. Allt är lite nogrannare och mer planerat än vad vi kanske är vana vid.<br />
Det finns en känd typ av kameraeffekt, där förgrunden närmar sig kameran samtidigt som<br />
bakgrunden tycks avlägsna sig. Detta är inte något man åstadkommer i post vanligtvis, utan<br />
filmas direkt. Effekten kallas ”dolly-zoom”, då man rör kameran mot skådespelaren samtidigt<br />
som man zoomar ut. Denna effekt tar ca 2-3 timmar att förbereda och brukar inte vara längre<br />
än 5-10 sekunder i längd. Så här är det på de flesta håll inom filmbranschen. Väldigt mycket<br />
förberedelse för en kort scen, men då får man den korrekt filmad också. Det är vanligtvis 3-8<br />
personer som sköter en enda filmkamera. Tänk på alla olika delar som utgör en filmkamera:<br />
linsen, filmen, kamerahus, ställningen eller spåret kameran står på och rörelsen i sig. Alla<br />
dessa delar kräver experter för att nå optimal bildkvalité. Fast när man har 100 miljoner i<br />
fickan, varför riskera något? Fast när DV-band är så billiga som de är, är det inte bättre att<br />
filma för mycket än för lite? Varför riskera något? Är DET verkligen nödvändigt?<br />
121