19.07.2014 Views

Videons historia och utveckling

Videons historia och utveckling

Videons historia och utveckling

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

Kompendium i videoteknik<br />

- Idé – Produktion – Distribution –<br />

Preliminär upplaga sept 2006<br />

av<br />

Dag Haugum<br />

Medverkande: Niklas Rönnberg, Greger Svanström, Markus Karlsson<br />

1


<strong>Videons</strong> <strong>historia</strong> <strong>och</strong> <strong>utveckling</strong><br />

Video kommer från latin <strong>och</strong> betyder ”jag ser”. Idag är det en benämning på upptagning,<br />

överföring, lagring <strong>och</strong> återgivning av elektriska bildsignaler. Till skillnad från film som är ett<br />

kemiskt medium, så är video ett elektroniskt medium. Man omvandlar bild <strong>och</strong> ljud till<br />

elektriska signaler. Dessa signaler lagras på olika sätt för att sedan omvandlas till bild <strong>och</strong> ljud<br />

igen.<br />

Den kinematografiska filmen<br />

Kinematografisk film, eller rörlig film, handlar om att lura hjärnan. Vi projicerar en serie<br />

stillbilder med en viss frekvens som får oss att uppfatta sekvensen som rörlig. Vår oförmåga<br />

att urskilja enskilda bilder ur en sådan sekvens av likartade bilder har man känt till sedan<br />

medeltiden. I <strong>och</strong> med att den fotografiska tekniken utvecklades under 1800-talet, så började<br />

man också experimentera med tekniker för att kunna avbilda verkligheten i rörliga bilder. De<br />

mest grundläggande tekniska förutsättningarna för att man skulle lyckas var att utveckla en<br />

tillräckligt ljuskänslig film på en flexibel filmbas i form av en lång remsa. Sedan måste en<br />

mekanisk-optisk enhet tas fram för att kunna fotografera bildserier på denna remsa <strong>och</strong><br />

slutligen en enhet för att kunna projicera densamma. Genombrottet för den rörliga filmen kom<br />

1895 då bröderna Lumiére startade visning av kortfilmer inför publik. Man använde sig av en<br />

kombinerad filmkamera <strong>och</strong> projektor. Gensvaret blev enormt <strong>och</strong> sedan dess har<br />

<strong>utveckling</strong>en av kinematografisk filmteknik präglat hela 1900-talet.<br />

Att visa film<br />

För att en rörlig bildfrekvens verkligen skall kännas rörlig <strong>och</strong> inte som en serie stillbilder, så<br />

krävs en minsta bildfrekvens. Denna minsta bildfrekvens är beroende av storleken på motivets<br />

förändring mellan varje enskild bild (vinkelförändring). Man brukar dock säga att gränsen för<br />

att uppfatta en bildsekvens som rörlig ligger på ca 16 Hz. Denna gräns kallas för phifenomemet<br />

(grekiska ϕ). Den standard som man har i dag över hela världen ligger på 24 Hz<br />

(bilder/sekund).<br />

En annan parameter som styr vår uppfattning av en filmprojektion är temporalt flicker. Under<br />

bytet mellan två bilder måste projektorn släckas. Detta sker med hjälp av en mekanisk slutare.<br />

Effekten blir då en mörkerpaus mellan varje bild. Vid låga frekvenser uppfattas det som<br />

flimmer eller flicker, ett slags stroboskopeffekt. Ögats kritiska gräns för att uppfatta temporalt<br />

flicker beror på betraktningsförhållanden <strong>och</strong> personlig känslighet. Man brukar ange att<br />

gränsen ligger mellan 48-75 Hz. Detta är betydligt över bildfrekvensen på 24 Hz för film. För<br />

att råda bot på detta konstrueras projektorslutaren så att varje bild visas två gånger, eller t.o.m.<br />

tre, innan byte till nästa bild sker. Genom detta förfarande erhåller vi en frekvens på 48 eller<br />

72 Hz, vilket ju får betraktas som tillfredställande.<br />

2


Figur 1: Principskiss över hur en projektor för kinematografisk film fungerar. Notera<br />

sektorbländaren som dubblerar bländarfrekvensen (men inte bildfrekvensen).<br />

Den elektroniska bilden<br />

Teoretiskt sett kan man betrakta kinematografisk film som ett parallellt medium. När varje<br />

enskild bild projiceras på bioduken, så skjuts ju hela bilden ut samtidigt från projektorn (alla<br />

fotoner på en gång). Om vi däremot skulle vilja visa filmen samtidigt i en annan lokal, så<br />

måste vi hitta på ett sätt att i realtid skicka över bilderna. Då fungerar inte det parallella<br />

distributionssättet. Vi måste överföra bilden seriellt (i realiteten via en koppartråd eller<br />

liknande). Detta är den avgörande praktiska skillnaden mellan kinematografisk film <strong>och</strong><br />

video. Behovet av, eller intresset för, att kunna distribuera rörliga bilder över långa sträckor,<br />

helst samtidigt som de filmas drev <strong>utveckling</strong>en av videotekniken.<br />

Startsträckan för videotekniken<br />

Upptakten till det som så småningom skulle bli dagens videoteknik skedde faktiskt till stora<br />

delar parallellt med den kinematografiska filmen. Dock dröjde det längre innan den praktiska<br />

tillämpningen spred sig.<br />

Det finns ett antal milstolpar som kännetecknar <strong>utveckling</strong>en av dagens videoteknik. Om man<br />

ska ta det hela från början, så kan man säga att det första fröet såddes i <strong>och</strong> med upptäckten av<br />

3


grundämnet selen år 1817. Naturligtvis hade man då ingen aning om vilken betydelse selen<br />

skulle ha för framtida elektronisk bildöverföring.<br />

Den franske fysikern Edmond Becquerel upptäckte att när man sänkte ner två metallplattor i<br />

en elektrolyt, så uppstod en elektrisk laddning mellan plattorna när dessa belystes. Trots att<br />

Becquerel i <strong>och</strong> med detta hade upptäckt den elektrokemiska effekten under inverkan av ljus,<br />

så hade han inga förslag på hur man praktiskt kunde dra nytta av denna upptäckt.<br />

Nästa viktiga steg i <strong>utveckling</strong>en kom när Alexander Bain år 1842 skissade fram funktionen<br />

för en telefaxapparat baserad på Becquerels upptäckt. Idén gick ut på att elektriskt laddade<br />

metallbokstäver skulle skannas av en pendel. Den elektriska strömmen som uppstod i pendeln<br />

skulle via en telegraflina överföras till en liknande pendel, synkroniserad med den första.<br />

Bokstäverna skulle sedan reproduceras på ett kemiskt papper som placerades under den andra<br />

pendeln. Hans resonemang belyste flera grundläggande kriterier för elektrisk överföring av<br />

bilder. För det första att bryta ner bildinformationen i små bitar som kan skickas seriellt som<br />

en elektrisk ström till en mottagare. Dessutom vikten av synkronisering mellan sändare <strong>och</strong><br />

mottagare.<br />

1847 patenterade F. Bakwell en kemisk telegraf byggd på Alexander Bains resonemang.<br />

Istället för pendel använde han istället synkroniserade roterande trummor.<br />

1873 upptäckte den brittiske telegrafisten Louia May grunderna till det som vi idag utnyttjar i<br />

fotoelektriska ledare, nämligen det att selen ändrade sin elektriska ledningsförmåga när det<br />

exponerades för ljus. Ledningsförmågan varierade beroende på hur stor mängd ljus som<br />

träffade metallen.<br />

Den slutliga länken mellan telegrafi <strong>och</strong> television gjordes av fransmannen M. Senlaq. 1878<br />

föreslog han att selen kunde överföra dokument. Han menade att ändringen i den elektriska<br />

strömmen som uppstod i selen när denna skannade ett dokument kunde kontrollera en penna<br />

på magnetisk väg i mottagardelen vid en elektrisk överföring.<br />

Den elektromekaniska TV:n<br />

Sex år senare uppfann den tyske universitetsstudenten Paul Nipkow det som kan betecknas<br />

som den första föregångaren till dagens video. Den kallas för Nipkows skiva <strong>och</strong> den består i<br />

princip av två identiska skivor, en ”sändare” <strong>och</strong> en ”mottagare” med ett antal små hål som är<br />

ordnade i spiralform. Dessa skivor roterar synkront. På den ena skivan, sändarskivan,<br />

projiceras en liten bild som de små hålen passerar över. På andra sidan av skivan sitter en<br />

fotocell som registrerar ljusvariationerna när hålen passerar över bilden.<br />

Eftersom hålen är ordnade spiralformigt på skivan, så sveper varje hål över en ny sträcka intill<br />

föregående svep på bilden. När skivan roterat ett varv, så har hela bilden skannats av.<br />

På mottagarskivan har man placerat en lampa. Mellan lampan <strong>och</strong> skivan har man två<br />

polarisationsfilter som styrs av fotocellen på sändarskivan. På så sätt regleras ljusstyrkan<br />

analogt med den som fotocellen registrerar. Mottagarskivan kan på så sätt projicera en bild<br />

motsvarande den som visas på sändarskivan. Principen att låta bilden ritas upp av en serie<br />

linjer är densamma som används i videoöverföring idag.<br />

4


Figur 2: Principen för hur en elektromekanisk TV överföring fungerar enligt Nipkow.<br />

Figur 3: Ett exempel på Nipkows egna anteckningar när han utvecklade sin skiva.<br />

Bildrör<br />

Den elektromekaniska TV:n blev ingen kioskvältare av flera orsaker. Framför allt den<br />

mekaniskt roterande skivan var otymplig <strong>och</strong> apparaten förde ett ganska stort oväsen. Det var<br />

först på 1930-talet som elektroniken kom in på allvar i form av det första helt elektroniska<br />

mottagarbildröret (TV röret), kineskopet <strong>och</strong> motsvarande kamerarör. Kameraröret bygger på<br />

att man skapar en elektronisk bild inne i röret som sedan scannas av en elektronstråle. De<br />

första kommersiella kamerarören utnyttjade fotoemissionstekniken <strong>och</strong> hade beteckningen<br />

Ikonoscope.<br />

1937 sände BBC för första gången med ett 405 linjers system med en bildfrekvens på 25 Hz.<br />

Detta skulle alltså motsvara 405 hål på Nipkows skiva med en rotationshastighet på 25<br />

varv/sekund enligt ovan.<br />

5


Bild 1: Kamerarör av typen Iconoscope från 1939.<br />

Vidare<strong>utveckling</strong> skedde från att använda fotoemissionsteknik till att utnyttja<br />

fotokonduktivitet i rören. Under årens lopp fick rören namn som Ohrtikon, Plumbikon,<br />

Satikon <strong>och</strong> Vidikon. Rören var dyra i tillverkning, hade begränsad livslängd, krävde<br />

kalibrering (position), ganska ljussvaga, krävde relativt stor plats <strong>och</strong> var känsliga för stötar.<br />

Detta gjorde kamerorna till dyra <strong>och</strong> relativt otympliga pjäser. Dessutom kunde de skadas av<br />

alltför kraftigt ljus (s.k. inbränning). En bieffekt av detta var de typiska ”eftersläpningarna”<br />

som bildades när en kraftig ljuskälla passerade över bildytan. Det bildades en ”ljusorm” som<br />

gjorde att ljuskällan blev utdragen i rörelseriktningen.<br />

Figur 4: Principen för hur ett kamerarör fungerar ( i detta fall Vidicon). När<br />

elektronstrålen sveper över den fotokänsliga ytan kommer en varierande mängd<br />

elektroner att frigöras beroende på hur mycket ljus som projiceras via<br />

kameraobjektivet. På så sätt skapas en varierande spänningspotential (V s ) som skickas<br />

vidare direkt eller indirekt till en TV mottagare.<br />

6


Bild 2: Något ”modernare” kamerarör (RCA 2P23 Orthicon).<br />

Vad gäller mottagare, så hade bildröret, i analogi med kameraröret, en cirkulär projiceringsyta<br />

från början. TV chassiet utformades dock så att betraktningsytan var i det närmaste fyrkantig.<br />

Successivt utvecklades bildröret mot att få ni det närmaste 90 gradiga hörn <strong>och</strong> ett<br />

bredd:höjdförhållande 4:3.<br />

Någon gång under andra halvan av 1980 talet övertogs rören av CCD tekniken. Den nya<br />

tekniken eliminerade många av de olägenheter som kamerarören hade.<br />

Interlased scanning<br />

Ett problem med äldre tiders katodstrålerör som användes för att projicera TV bilder var den<br />

begränsade efterglödningstiden hos den fosfortäckta frontytan på bildröret. Man kom snart<br />

fram till att bildfrekvensen skulle ligga på 25 bilder per sekund (Europa) eftersom det var en<br />

jämn multipel på nätfrekvensen som var 50 Hz. Man använde alltså nätfrekvensen som<br />

synkroniseringskälla.<br />

Det visade sig att från det att elektronstrålen startat uppe i det vänstra hörnet tills det att<br />

strålen 1/25 sekund senare nått fram till det nedre högra hörnet, så hade efterglöden på<br />

skärmen avtagit så mycket att det skapade ett påtagligt ojämnt ljusflöde. Bilden pulserade<br />

med 25 Hz. Dessutom ligger 25 Hz en bra bit under gränsen där det mänskliga ögat uppfattar<br />

temporalt flicker. Genom att höja frekvensen till det dubbla, minskade denna effekt påtagligt.<br />

Istället för att öka bildfrekvensen som skulle medföra ökad bandbredd, så kom man på att<br />

man i <strong>och</strong> för sig skulle öka frekvensen till det dubbla, men i varje svep bara rita ut varannan<br />

linje. Resultatet blev att man i första svepet ritade ut alla ojämna linjer, medan man i det andra<br />

svepet ritade ut resterande jämna linjer. På detta sätt kunde man fördubbla frekvensen (till en<br />

delbildsfrekvens på 50 Hz) utan att öka bandbredd. Detta förfarande kallas Interlaced<br />

Scanning.<br />

7


Figur 5: Principen för interlaced scanning.<br />

Olika TV system<br />

Utvecklingen på TV området avbröts i Europa under andra världskriget för att sedan snabbt<br />

tas upp igen efter krigsslutet. Efter en hel del experimenterande startade de första svenska<br />

reguljära TV sändningarna 1956. Naturligtvis svart-vitt <strong>och</strong> med 625 linjers vertikal<br />

upplösning <strong>och</strong> 25 bilder/sekund. Dock hade RCA i USA redan tre år tidigare utvecklat ett<br />

färg-TV system kallat NTSC (National Television System Committee).<br />

Bild 3: Sändningsutrustning för video 1956.<br />

Det dröjde till 1966 innan Europa beslutade om ett eget färg-TV system. Det fick namnet<br />

8


PAL (Phase Alternate Lines). Frankrike, som ofta ser sig som lite bättre, beslutade sig för sitt<br />

eget SECAM (Sequential Couleur Avec Mémoire). Dessa system fördelar sig på olika sätt<br />

runt om i världen idag. Den första reguljära färg-TV sändningen i Sverige gjordes 1970.<br />

De tre sinsemellan helt inkompatibla färg-TV systemen fördelades över världen. Detta<br />

skapade naturligtvis problem i det internationella programutbytet med det elektroniska<br />

formatet. Samtidigt skapades en marknad för konverteringsteknik mellan de olika systemen.<br />

Konvertering tar tid, kostar pengar <strong>och</strong> medför vissa kvalitetsförluster.<br />

NTSC (National Television System Cimmittee) infördes i USA 1953 <strong>och</strong> är baserad på 525<br />

TV-linjers upplösning <strong>och</strong> 60 Hz delbildsfrekvens (eller rättare 59,94 Hz p.g.a.<br />

interferensproblem med färgbärvågen). Bandbredden är 4,2 MHz. Systemet<br />

tillämpas i Nordamerika, huvuddelen av Mellan- <strong>och</strong> Sydamerika, Japan <strong>och</strong> Australien.<br />

PAL (Phase Alternation Line) introducerades 1963 av tyska Telefunken. Systemet bygger på<br />

625 TV-linjers upplösning <strong>och</strong> 50 Hz delbildsfrekvens. Bandbredden är 5,0 MHz. Systemet<br />

tillämpas i hela Västeuropa, utom Frankrike, huvuddelen av Afrika <strong>och</strong> arabstaterna, Kina <strong>och</strong><br />

Indien.<br />

SECAM (Séquentiel Couleur Avec Memorie) anammades av Frankrike 1967. Det bygger på<br />

625 TV-linjers upplösning, 50 Hz delbildsfrekvens <strong>och</strong> en bandbredd på 6,0 Mhz. Systemet<br />

används, förutom av Frankrike, av de flesta stater i det forna Östeuropa, Nordafrika <strong>och</strong> en<br />

rad stater i Mellanöstern.<br />

Utöver dessa standards, så döljer varje standard ytterligare undergrupper som främst berör<br />

skillnader i bärvågsfrekvens för bild <strong>och</strong> ljud.<br />

Tabell 1: Jämförande karakteristik mellan de tre TV-systemen i världen.<br />

Inspelningsteknik<br />

I USA där direktsända underhållningsprogram sändes från kust till kust med uppemot sex<br />

timmars tidsdifferens blev önskemålet att spela in programmen, för att sända dom vid ett<br />

senare tillfälle, alltmer angeläget. Till en början filmade man helt enkelt av en TV-skärm med<br />

en filmkamera. Denna typ av konvertering till kemisk film kallas för telefilmning <strong>och</strong> gav inte<br />

någon bra kvalitet. Man funderade på att istället spela in videosignalen på ett stålband eller<br />

tape belagd med magnetiserbar metalloxid. Redan 1888 kunde dansken Valdemar Poulsen<br />

spela in ljudsignaler på en ståltråd. Den uppfinningen ligger till grund för all elektromagnetisk<br />

inspelning idag.<br />

9


Problemet med att spela in bild på samma sätt som ljud var att bildsignalens bandbredd är<br />

betydligt större än ljudets. Ljudsignalens frekvensområde ligger mellan 20 - 20 000 Hz medan<br />

videosignalens ligger mellan 20 - 5 000 000 Hz (MHz). Bandbredden för ljudet är ca 10<br />

oktaver medan motsvarande bandbredd för video är 18 oktaver. (En oktav motsvarar en<br />

fördubbling av frekvensen.) Hög frekvens medför kort våglängd. Hur kort våglängd som man<br />

kan spela in på ett videoband beror av flera fysiska parametrar, bl.a. de magnetiserbara<br />

partiklarnas storlek på bandet. Genom att öka bandhastigheten, så kan man ”öka” våglängden<br />

på bandet. För att kunna registrera de korta våglängder som gällde för video, så skulle man<br />

tvingas öka bandhastigheten till 12 meter per sekund. En timmes videomaterial skulle behöva<br />

42 km magnettape, vilket var orealistiskt.<br />

Charles Ginsburg <strong>och</strong> Ray Dolby, som arbetade på företaget Ampex i USA, kom på att man<br />

kunde öka den så kallade skrivhastigheten med hjälp av att flera videohuvuden monterades på<br />

en roterande cylinder. Genom att låta cylindern rotera mot bandtransportriktningen, så ökade<br />

man videobandets hastighet relativt videohuvudets utan att behöva öka bandets hastighet.<br />

Detta gjorde att man kunde erhålla tillräckligt ”långa” våglängder för att kunna spela in på<br />

magnetbandet. Den första videobandspelaren visades den 14 april 1956.<br />

Den använde sig av det sk Quadruplex-systemet. Den använde sig av 2” band <strong>och</strong> var en<br />

allmänt otymplig pjäs. Den första inspelningskonfigurationen som användes kallades Arcurate<br />

scan där bandet fick löpa utmed en roterande skiva där inspelningshuvudet placerades på<br />

skivans periferi.<br />

Bild 4: Arcurate scan. Mittbilden visar hur magnetspåren hamnade på bandet.<br />

Kurvaturens radie motsvarar inspelningsskivans.<br />

10


Tekniken utvecklades <strong>och</strong> nästa steg var Transverse scanning där videobandet fick löpa över<br />

utsidan av en roterande skiva. För att full magnetisering skulle ske, så måste bandet böjas<br />

något i tvärriktningen.<br />

Figur 6: Principen för Transverse recording.<br />

I början hade man inte möjlighet att kopiera från ett band till ett annat. Transverse recording<br />

tekniken möjliggjorde att klippa i bandet även om det hörde till undantagen. Var man tvungen<br />

att göra det, så måste man använda sig av olja, järnfilsspån <strong>och</strong> lupp för att kunna lokalisera<br />

bildsynksignal <strong>och</strong> bildsläckfas. Inspelningshuvudet bestod alltså av en roterande skiva som<br />

lagrade bildrutorna som parallella spår så gott som vinkelrätt mot bandriktningen.<br />

En vidare<strong>utveckling</strong> av Quadruplex-systemet var Helical-systemet. Det innebar att man lutade<br />

videohuvudet i förhållande till videobandet. På så sätt lades de till bildrutorna hörande spåren<br />

diagonalt på banden <strong>och</strong> man var därigenom inte lika beroende av videobandets bredd för att<br />

lagra tillräcklig information iför varje bildruta.<br />

Figur 7: Principen för Helical recording.<br />

11


Bild 5: Video huvud (Upper drum) på en VHS bandspelare som utnyttjar Helical scanning.<br />

Figur 8: Trackingkonfiguration för Betacam som utnyttjar Helicaltekniken för inspelning<br />

på band. ”Y Track” <strong>och</strong> ”C Track” är luminans resp. krominanssignaler.<br />

Formatstrid<br />

I början av 70-talet fanns ett antal ½” bandformat för skol- <strong>och</strong> institutionsbruk. Alla dessa<br />

var s.k. spolband med öppna bandspolar. Videoformatet var svartvitt.<br />

1972 presenterade Philips ett bandformat för ”den vanlige konsumenten”. Dom kallade det för<br />

VCR (Video Cassette Recorder) <strong>och</strong> var alltså ett kassettbundet system. Kassetterna hade 1/2”<br />

bredd på videobanden <strong>och</strong> en bandhastighet på 14,29 m/s <strong>och</strong> en maximal speltid på 60<br />

minuter. Önskemålet från köparna om att kunna spela in långfilmer växte <strong>och</strong> man tvingades<br />

att tillverka ett system som klarade detta. En ny modell lanserades där bandhastigheten sänkts<br />

till 6,56 m/s med bl.a. sämre ljudåtergivning som följd. Dessutom var det inte kompatibelt<br />

med det förra systemet.<br />

12


1978 lanserades Sonys Betamax system <strong>och</strong> JVC m.fl. VHS system. 1979 ersatte Philips sina<br />

två tidigare VCR system med Video-2000. Det system som sedermera vann striden om<br />

konsumentmarknaden är det väl ingen som missat.<br />

I slutet av 70-talet kom 1” formatet som ett nytt professionellt bandformat med öppna spolar.<br />

Systemet återfanns i två varianter 1”B <strong>och</strong> 1”C <strong>och</strong> var ett utpräglat studioformat p.g.a. sin<br />

storlek. Det förekom även portabla 1” maskiner då man önskade videoinspelning med högre<br />

kvalitet. Alternativet var film eller U-Matic.<br />

Sony som förlorade med sitt Betamax system på konsumentmarknaden kontrade i den<br />

semiprofessionella branschen med sitt U-Matic system. Detta utvecklades sedermera till U-<br />

Matic Hi Band (även benämnt BVU, Broadcast Video U-Matic) <strong>och</strong> U-Matic Hi Band SP.<br />

Bild 6: Entums videobandspelare från slutet av 80-talet.<br />

Camcorder<br />

1982 introducerade Sony sin nya camcorderteknik på den professionella marknaden (dvs.<br />

bandspelaren inbyggd i kameran) med Betacam <strong>och</strong> sedermera den vässade versionen<br />

Betacam SP. Dessa system revolutionerade inspelningstekniken. En yttreligare fördel var att<br />

man utnyttjade komponentsignal vilket innebar att man separerade luminansen <strong>och</strong> de tre<br />

grundfärgerna.<br />

13


Bild 7: Modern camcorder (DVCAM).<br />

Parallellt med detta utvecklades på amatörsidan VHS systemet till VHS-C (ett<br />

kompaktsystem) <strong>och</strong> S-VHS. S-VHS utnyttjar en S-videosignal som skiljer sig från den<br />

gängse kompositsignalen på så sätt att färg <strong>och</strong> ljus (krominans <strong>och</strong> luminans) hålls<br />

separerade. På så sätt erhålls en renare signal <strong>och</strong> därmed bättre bild. På motsvarande sätt<br />

kontrade Sony med sitt kompakta Video 8 <strong>och</strong> sedermera Hi-8.<br />

Figur 9: Illustration hur den tekniska <strong>utveckling</strong>en bidragit till mindre <strong>och</strong> billigare<br />

lagringsformat, samtidigt som kvalitén förbättrats.<br />

Både på amatör <strong>och</strong> på proffssidan har man försökt att lansera konkurrerande system.<br />

Panasonics M2 var ett exempel på sådant system för att försöka att bryta Sonys i det närmaste<br />

monopoliserade ställning på proffsmarknaden.<br />

I början av 90-talet började digitala system att dyka upp, främst på proffsmarknaden. Det<br />

första kompletta systemet var Sonys Digital Betacam eller ”Digibeta” som det kallas.<br />

14


Under de sista åren på 90-talet har den digitala revolutionen tagit fart på allvar. Idag finns<br />

system som DV, DVCAM, DVCPRO, DVCPRO-50, Digital-S, Betacam SX, IMX, Digital<br />

Betacam. På sista tiden har system som baseras på annat än band som inspelningsmedium.<br />

Exempel på detta är Sonys XDCAM som använder sig av ett diskbaserat inspelningssystem<br />

byggt på blålaserteknik samt Panasonics P2 som utnyttjar fastminne som lagringsmedium.<br />

Ett exempel på komplexiteten i <strong>utveckling</strong>en av olika videosystem kan illustreras av vad SVT<br />

införskaffat under åren för att hålla igång produktionen. Se tabellen nedan. Utöver dessa fanns<br />

ytterligare konkurrerande system.<br />

Startår Format Modellexempel Bandbredd Teknik<br />

1959 2-tum, LB Ampex, VR-1000 Spole, 50 mm Analog, sv/v<br />

1966 2-tum, HB Ampex, VR-2000 Spole, 50 mm Analog, komposit<br />

1966 1-tum Philips, EL3402 Spole, 25 mm Analog, sv/v<br />

1966 1-tum, A Ampex, VR7000 Spole 25 mm Analog, komposit<br />

1969 1-tum Bell & Howell, 2920 Spole 25 mm Analog, komposit<br />

1972 ¼-tum Akai, VT-300 Kassett, 6 mm Analog, sv/v<br />

1974 VCR Philips, N-1500C Kassett, 12 mm Analog, komposit<br />

1976 U-matic, LB Sony, VO-2850 Kassett, 19 mm Analog, komposit<br />

1977 ½-tum National, NV-3085 Spole, 12 mm Analog, sv/v<br />

1978 1-tum, B Bosch, BCN51 Spole 25 mm Analog, komposit<br />

1980 1-tum, C Ampex, VPR3 Spole, 25 mm Analog, komposit<br />

1980 U-matic HB Sony, BVU-800 Kassett, 19 mm Analog, komposit<br />

1981 VHS Panasonic, NV-7000 Kassett, 12 mm Analog, komposit<br />

1982 Betamax Sony, SL-T50 ME Kassett, 12 mm Analog, komposit<br />

1982 Video-2000 Philips, VR-2020 Kassett, 12 mm Analog, komposit<br />

1983 1-tum, B/LP Bosch, BCN51LP Spole, 25 mm Analog, komposit<br />

1984 Betacam Sony, BVW-40 Kassett, 12 mm Analog, komponent<br />

1986 Video-8 Sony, EV-A300 EC Kassett, 8 mm Analog, komposit<br />

1988 S-VHS Panasonic, NV-FS100 Kassett, 12 mm Analog, komposit<br />

1989 Betacam SP Sony, BVW-75 Kassett, 12 mm Analog, komponent<br />

1990 D2 Sony, DVR18 Kassett, 19 mm Digital, komposit<br />

1991 D3 Panasonic, AJ-D350 Kassett, 12 mm Digital, komposit<br />

1991 Hi-8 Sony, EVO-9850P Kassett, 8 mm Analog, komposit<br />

1992 1-tum, B-HDTV Bosch, BCH-1000 Spole, 25 mm Analog, komponent<br />

1993 Digital Betacam Sony, DVW-500 Kassett, 12 mm Digital, komponent<br />

1996 DV Sony, DCR-VX-1000 Kassett, 6 mm Digital, komponent<br />

1997 DVCAM Sony, DSR-80 Kassett, 6 mm Digital, komponent<br />

1997 DVCPRO Panasonic, AJ-D750 Kassett, 6 mm Digital, komponent<br />

1997 Betacam SX Sony, DNW-A100 Kassett, 12 mm Digital, komponent<br />

1999 DVCPRO-50 Panasonic, AJ, D950 Kassett, 6 mm Digital, komponent<br />

2002 IMX Sony, Kassett, 12 mm Digital, komponent<br />

2003 XDCAM Sony, DVD skiva Digital, komponent<br />

2004 P2 Panasonic, Fastminne Digital, komponent<br />

Tabell 2: Videoformat på SVT under drygt 40 år<br />

HDTV - högupplösnings-TV<br />

Redan i början av 70-talet började de stora hemelektroniktillverkarna att titta på TV-system<br />

som skulle kunna ge ännu bättre bild än vad NTSC, PAL <strong>och</strong> SECAM kunde erbjuda.<br />

Mikroelektronikens <strong>utveckling</strong> gick så snabbt, så att detta inte skulle vara några tekniska<br />

problem. Speciellt var förbättringslängtan stor i de länder som hade det förhållandevis gamla<br />

15


NTSC systemet. I Japan, som mer eller mindre påtvingats NTSC systemet, började företag<br />

som Sony, Matsushita <strong>och</strong> NHK att utveckla ett nytt TV-system med bättre bild- <strong>och</strong><br />

ljudkvalitet - HDTV (High Definition TV).<br />

1986 föreslog japanerna att deras, vid det här laget långt utvecklade system, skulle bli<br />

världsstandard för det nya HDTV-systemet. Det skulle ha 1125 TV-linjer <strong>och</strong> 60 Hz<br />

delbildsfrekvens. Naturligtvis kunde inte europeerna med Frankrike i spetsen gå med på detta,<br />

utan föreslog ett eget system med 1250 linjer <strong>och</strong> 50 Hz. Därmed var formatkriget i full gång<br />

igen.<br />

Entusiasmen inför det analoga HDTV-systemet var mycket stort. Vidfilmsbild i 16:9 format<br />

med sex gånger tätare bildraster än en vanlig TV-bild. Den knivskarpa <strong>och</strong> detaljrika bilden<br />

tillsammans med mycket hög ljudkvalitet var förförisk <strong>och</strong> man började hårdlansera tekniken.<br />

Verkligheten kom dock ikapp. En TV-mottagare byggd på katodstråleprincipen skulle väga<br />

uppemot 70 kg <strong>och</strong> priset, även vid serieproduktion, skulle hamna på 35 000:-. Den analoga<br />

HDTV-signalen krävde enorm bandbredd, i storleksordningen 30 Mhz. Alltså sex gånger mer<br />

än de existerande TV-systemen.<br />

Parallellt utvecklades digitaltekniken samtidigt som marknadsundersökningar visade att<br />

konsumenterna hellre ville ha ett större programutbud än bättre bild- <strong>och</strong> ljudkvalitet.<br />

Dessutom kan man lättare anpassa digitaltekniken till befintliga mottagare. HDTV innebär att<br />

allt från inspelning, bearbetning, sändningssystem mottagare <strong>och</strong> bandspelare måste bytas ut.<br />

Europa <strong>och</strong> Japan hade fram till i början av 1990-talet satsat enorma summor pengar i det<br />

analoga HDTV-systemet. I Europa ville man satsa på ett satellitbaserat analogt system under<br />

beteckningen HD-MAC. Dåvarande svenska, norska <strong>och</strong> danska televerket i samarbete med<br />

SVT presenterade 1992 ett digitalt HDTV koncept, HD-DIVINE, som skulle kunna sändas i<br />

det befintliga telenätet. Resultatet blev att Europa lade ner HD-MAC projektet. Men istället<br />

för att satsa på HD-DIVINE, så fokuserade man istället på en digital broadcaststandard<br />

(DBV). USA var redan tidigt inne på att utveckla den digitala HDTV tekniken <strong>och</strong> har,<br />

tillsammans med flera länder runt om i världen (utom Europa) ryckt åt sig initiativet vad<br />

gäller den digitala HDTV <strong>utveckling</strong>en. Det blev också amerikanska lösningar som<br />

drivit den digitala HDTV <strong>utveckling</strong>en framåt sedan den senare delen av 90-talet.<br />

Det som man normalt menar när man pratar om HDTV är en upplösning på 1920x1080 pixlar<br />

(1080i) (att jämföra med SDTV (Standard Definition TV) på 720x 576 pixlar) <strong>och</strong> 25 bilder<br />

per sekund interlaced scanning eller 1280x720 pixlar progressive (720P). Det finns ytterligare<br />

ett antal varianter på detta som alla går under benämningen HDTV. En annat HD format är<br />

2K (2048x1526) som används vid arbete med digitala effekter, men har även blivit ett format<br />

för s.k. E-bio.<br />

Generellt eftersträvar man att gå ifrån interlacetekniken i HD sammanhang.<br />

TV-skärmens format<br />

När en gång TV skulle introduceras, så sneglade man av naturliga skäl på filmindustrin.<br />

Stumfilmens format fixerades till proportionerna 1,33:1 där 1 alltid representerar bildhöjden.<br />

Detta förhållande anammades av TV-världen, men man uttryckte samma bildförhållande med<br />

siffrorna 4:3 istället. Till en början fanns en samstämmighet mellan filmens <strong>och</strong> TV<br />

bildformat, men i <strong>och</strong> med TV:s snabba expansion så kände sig filmbranschen sig alltmer<br />

hotad. I början av 1950 talet bestämde sig filmbolagen att satsa på filmformat som var svåra<br />

16


<strong>och</strong> ibland omöjliga att visa i TV. Format som CinemaScope, Todd-AO <strong>och</strong> icke-anamorfisk<br />

vidfilm togs fram till priset av höga kostnader för bl.a. biografägare.<br />

Så småningom började filmbranschen ändå att inse att deras filmer förr eller senare skulle<br />

hamna i TV-rutan. Olika åtgärder vidtogs för att på bästa sätt göra rättvisa åt de filmer som<br />

hade ett annat bildformat än 4:3. Det finns fortfarande en uppsjö av åsikter <strong>och</strong> tekniker om<br />

hur man bäst tar tillvara olika filmformat i TV-rutan. Genom lanserande av vidfilms-TV<br />

formatet 16:9 har man underlättat betydligt för visning av film på TV. 16:9 har ingenting med<br />

HDTV att göra annat än just förhållandet mellan bildens höjd <strong>och</strong> bredd.<br />

Bild 8: CinemaScope i jämförelse med TV formatet 4:3.<br />

17


Videosignalen<br />

I optiska sammanhang talar man om att en hel bild som vi upplever den är en parallell<br />

process. D.v.s. att alla delar av bilden projiceras samtidigt över hela den aktuella bildytan.<br />

Detta gäller också vår subjektiva upplevelse av en videobild. Verkligheten är dock en annan.<br />

Videosignalen är linjär, vilket innebär att bilden måste ritas upp bit för bit. Vi talar om att<br />

bilden scannas. På en datorskärm scannas bilden linjevis (s.k. linjesvep) från övre vänstra<br />

hörnet till den nedre högra för att en bild ska uppstå (s.k. bildsvep). Denna process upprepas<br />

ett antal gånger per sekund (t.ex. 70 Hz). Antalet linjer (linjeupplösning) kan normalt ställas<br />

via datorns mjukvara. Denna scanning kallas för progressiv.<br />

Figur 10:Progressiv scanning.<br />

När det gäller det videosystem som vi använder idag, så använder vi i PAL systemet en<br />

bildfrekvens på 25 bilder per sekund. Istället för att scanna linje för linje, så låter vi istället<br />

elektronstrålen scanna varannan linje för att i nästa bildsvep scanna resterande linjer. Med<br />

detta förfaringssätt krävs två hela bildsvep för att skapa en komplett bild. Med en bildfrekvens<br />

på 25 bilder/sek skapas 50 delbilder/sek. Detta kallas för interlaced scanning <strong>och</strong> är ett arv<br />

från tidiga CRT med begränsad ”efterglödningstid”. Fördelen med interlaced scanning är att<br />

man kan öka bildfrekvensen utan att öka bandbredd.<br />

Aktiva linjer<br />

I PAL systemet använder vi oss av 625 horisontella linjer. Dock använder vi oss inte av alla<br />

dessa linjer för att rita upp TV bilden. Istället är bildupplösningen 576 linjers vertikal<br />

upplösning. Även horisontellt utnyttjas inte hela bandbredden för att rita upp en bild. Den del<br />

av signalen som vi använder för att rita upp en bild kallas aktiva linjer, medan de ”osynliga”<br />

signalerna kallas vertikalsläck respektive horisontalsläck. Dessa ”osynliga” signaler används<br />

för att föra över tilläggsinformation till TV:n. T.ex. synkroniseringspulser <strong>och</strong> text-TV.<br />

18


Rörelse <strong>och</strong> flicker<br />

Vår uppfattning av hur ”mjukt” som vi upplever en rörlig film styrs av främst två parametrar.<br />

Det ena styr den lägsta bildfrekvens där vi upplever rörelser som mjuka utan ryckighet. Denna<br />

lägsta gräns styrs bl.a. av rörelsens storlek, avstånd till bildskärm m.m. De bildfrekvenser som<br />

vi använder oss av i videosammanhang ligger normalt över denna gräns.<br />

Figur 11: Interlaced scanning.<br />

Den andra parametern är flicker. Denna kan dessutom uppdelas i temporalt- <strong>och</strong> spatialt<br />

flicker. En typ av flicker är stroboskopeffekt (temporal), d.v.s. en hastigt oscillerande<br />

variation i ljusflöde.<br />

Förekomsten av ett kraftigt flicker p.g.a. dålig efterglödtid på tidiga CRT gjorde, som vi<br />

tidigare nämnt, att man valde interlaced scanning för att på så sätt öka bildfrekvensen.<br />

Spatialt flicker uppkommer då tunna horisontella linjer eller skarpa övergångar projiceras via<br />

interlaced scanning. Om exempelvis en tunn linje på motivet hamnar mellan två intilliggande<br />

linjesvep på videon, kan samma linje på motivet registreras av de båda intilliggande<br />

linjesvepen. Eftersom de intilliggande tillhör olika bildsvep, så kommer linjen att oscillera<br />

mellan de två linjesvepen.<br />

Konvertering mellan interlaced- <strong>och</strong> progressive scanning.<br />

När en interlaced videosekvens skall konverteras till progressivt format, vilket förekommer så<br />

fort materialet skall användas i datorsammanhang, kan fenomen uppstå i konturer på rörliga<br />

föremål. Eftersom en bild registreras i endast vartannat linjesvep i ett bildsvep, så kommer<br />

linjerna i nästa bildsvep att vara tidsmässigt förskjutna 1/50 sek. Detta innebär att varannan<br />

19


linje är förskjutna 1/50 sek i förhållande till intilliggande. När man konverterar till<br />

progressivt, så kommer två interlaced bildsvep att ritas upp samtidigt. Detta innebär att<br />

tidsförskjutningen mellan två linjer ritas upp samtidigt. Föremål som förflyttat sig i bild<br />

kommer att ha olika lägen i de olika bildsvepen vilket resulterat i att dessa föremål kommer<br />

att få taggiga konturer.<br />

Fig 12: Konvertering mellan interlaced <strong>och</strong> progressiv ger taggiga kanter på rörliga objekt.<br />

Motivet delförstorat i mitten.<br />

Genom s.k. deinterlace kommer man tillrätta med problemet. Man plockar helt sonika bort<br />

varannan linje <strong>och</strong> antingen dubblerar de övriga, eller så interpolerar man fram de nya<br />

ersättningslinjerna. I båda fallen går information förlorad.<br />

Odd eller even<br />

I interlace sammanhang pratar man om odd or even, d.v.s. ojämna eller jämna linjer. En hel<br />

bild ritas upp av två bildsvep. Ibland är det viktigt att veta om den hela bilden börjar med ett<br />

bildsvep som ritar upp de ojämna linjerna eller tvärt om. Detta gäller om man skall skapa<br />

animationer som utnyttjar deinterlaced scanning. I de flesta fall får man testa. Gör man fel, så<br />

märker man det tydligt på att alla rörelser rycker fram <strong>och</strong> tillbaka med en frekvens av 50Hz.<br />

Det är inte njutbart.<br />

Kell faktorn<br />

Man pratar om en bilds upplösning <strong>och</strong> då pratar man ofta i videosammanhang om antalet TV<br />

linjer. D.v.s. att den vertikala upplösningen i en bild är lika med antalet linjer. Tyvärr är den<br />

reella upplösningen lägre. Hur mycket lägre beror på den enskilda bildens utseende (motivets<br />

uppbyggnad). Man har genom olika empiriska tester kommit fram till att den absoluta<br />

upplösningen i en progressivt skannad bild ligger på i genomsnitt ca 70 % av antalet linjer.<br />

Detta värde kallas för Kell faktorn.<br />

20


Vi tänker oss extremfallet att vi har en videobild som innehåller ett horisontellt raster med<br />

omväxlande vita <strong>och</strong> svarta linjer med samma intervall som TV linjerna. Om linjesvepet<br />

skulle överensstämma exakt med respektive svart <strong>och</strong> vit linje, så skulle varannan TV linje<br />

återges svart <strong>och</strong> varannan vit enligt figuren nedan.<br />

Figur 13: Resultat när de horisontella rasterlinjerna sammanfaller med TV linjerna.<br />

Om TV linjerna skulle vara förskjutna, så att övergången mellan de svarta <strong>och</strong> vita linjerna i<br />

rastret skulle hamna mitt på en TV linje, så skulle TV linjen registrera medelvärdet, d.v.s.<br />

grått.<br />

21


Figur 14: Resultatet när de horisontella rasterlinjerna hamnar mellan TV linjerna.<br />

Naturligtvis består inte en TV bild av något raster, men dock ett antal olika konturer. Skärpan<br />

i dessa konturer påverkas alltså på samma sätt som beskrivits ovan av hur de hamnar i<br />

förhållande till linjesvepet. Eftersom bilderna ser olika ut, så kan man inte ange något absolut<br />

värde på Kell faktorn.<br />

Det angivna värdet på Kell faktorn gäller för progressivt skannade bilder samt för interlaced,<br />

så länge som det handlar om stillbilder. När man för in en rörelsekomponent i interlace fallet,<br />

så kommer Kell faktorn att sjunka ytterligare till så lågt som 50 %. Detta beror på att varje<br />

delbild skannas med halva antalet linjer. Eftersom motivet hinner att flytta sig en bit innan<br />

nästa delbild skannas, så kommer upplösningen i de rörliga delarna av bilden att försämras<br />

ytterligare.<br />

Vad drar vi för slutsatser av detta?<br />

I diskussionen kring framtida HDTV system, så pratar man främst om två standarder,<br />

nämligen 1920x1080 pixlar interlaced eller 1280x720 pixlar progressiv. Vid första påseendet<br />

kan man förledas att tro att 1920x1080i är överlägset i upplösning. Tar man hänsyn till Kell<br />

faktorn, så är skillnaden inte lika stor.<br />

Professionella videokameror marknadsförs ofta med en upplösning som vida överstiger den<br />

videostandard som dessa används till. Om man tar hänsyn till Kell faktorn, så förstår man<br />

argumentet att satsa på kameror med högre upplösning fastän priset är betydligt saftigare.<br />

22


Färgreproduktion<br />

1931 kom man överens om en definition om samtliga verkliga <strong>och</strong> teoretiska färgers inbördes<br />

förhållande representerat i det s.k. CIE diagrammet (CIE - Commision Internationale de<br />

l’Eclairage).<br />

Figur 15: CIE diagrammet.<br />

Diagrammet representerar alla de färger som teoretiskt förekommer i naturen <strong>och</strong> används<br />

som grund för hur utrustning byggs för att återge de färger som man önskar.<br />

Videokamerans uppgift är att fånga <strong>och</strong> registrera ljus <strong>och</strong> färg som finns i naturen. Samtidigt<br />

ska detta ske på ett sådant sätt att vi människor uppfattar de återgivna färgerna naturliga.<br />

Videotekniken bygger på tre grundfärger, rött, grönt <strong>och</strong> blått, som via additiv färgblandning<br />

skall återge så många färger <strong>och</strong> färgnyanser som möjligt. Som grund för framtagning av färg-<br />

TV systemen ställdes bl.a. följande krav:<br />

- Alla färger i naturen bör kunna reproduceras av färgmottagare.<br />

- Mottagarens primärfärger ska helst vara spektralfärger, så att också mättade färger kan<br />

reproduceras.<br />

- Det ska vara enkelt att styra primärstrålens intensitet i mottagaren.<br />

- Ämnet som ska reproducera dess strålar måste finnas.<br />

- Priset på dessa ämnen måste vara rimligt. Ämnets verkningsgrad måste vara hög, <strong>och</strong> så lika<br />

som möjligt för alla ämnena.<br />

Man kom så småningom fram till följande villkor för primärfärgernas koordinater <strong>och</strong><br />

våglängd:<br />

Röd X=0,67 Y=0,33 (610nm)<br />

Grön X=0,21 Y=0,71 (535nm)<br />

Blå X=0,14 Y=0,08 (470nm)<br />

23


Figur 16: CIE diagram där videosystemets primärfärger visas i relation till andra<br />

parametrar.<br />

När videokameran fångar in ljus, delas detta upp i RGB komponenter. Principen för hur detta<br />

går till skiljer sig från kameror med en eller tre sensorer (CCD chip). I detta fall utgår vi från<br />

professoinella kameror med tre sensorer. En för varje grundfärg.<br />

Figur 17: Färgseparation hos de tre primärfärgerna i en videokamera.<br />

I kameran registreras de tre grundfärgerna separat. Ljusbidraget från varje färg omvandlas till<br />

en spänning som är proportionell mot intensiteten. Olika primärfärger med samma<br />

energiinnehåll får samma värde på spänningen. Om en vit yta filmas, så blir alltså spänningen<br />

för varje primärfärg lika. Maximalt reflekterat ljus vid respektive primärfärg ligger alltså vid<br />

våglängderna 470nm (blått) 535nm (grönt) <strong>och</strong> 610nm (rött).<br />

24


Figur 18: Diagrammet visar vid vilka våglängder som spektralfärgerna separeras i en<br />

videokamera.<br />

Men det mänskliga ögats känslighet motsvarar inte videokamerans. I själva verket är det så att<br />

ögat inte uppfattar primärfärgerna som kameran registrerar med lika inbördes intensitet. I<br />

diagrammet nedan finns en kurva som visar ögats spektrala känslighetskurva. I det fall där<br />

alla färger har samma energiinnehåll, så uppfattar ögat färgernas intensitet (luminans) olika.<br />

Ögat uppfattar olika färger olika intensivt. Det behövs mer energi för ögat att uppleva blått<br />

lika starkt som t.ex. gröngult.<br />

(Man kan ju utifrån detta fråga sig vilka argument som ligger till grund för att man använder<br />

blått ljus på utryckningsfordon…)<br />

Figur 19: Ögats spektrala känslighetskurva i förhållande till videokamerans.<br />

25


I diagrammet ser vi att ögat uppfattar intensiteten i de primärfärger som kameran registrerar<br />

som olika. Förhållandet är för blått ( 470nm) 0,17, för grönt (535nm) 0,92 <strong>och</strong> för rött<br />

(610nm) 0,47 av maximal känslighet.<br />

Utifrån detta förhållande kan vi enkelt räkna fram hur stor andel av den totala luminansen som<br />

varje primärfärg bidrar med. Denna uttrycks i den s.k. luminansnormen:<br />

U Y<br />

= 0,3 . U R<br />

+ 0,59 . U G<br />

+ 0,11 . U B<br />

. Med luminansnormen kan man kompensera skillnaderna<br />

mellan hur videokameran uppfattar olika färgers ljushet med det mänskliga ögats. Vad man<br />

gör är att man ökar spänningen i TV mottagaren runt det gröna spektralområdet jämfört med<br />

andra färger.<br />

Luminansnormen används för att räkna fram luminanssignalsammansättningen i en<br />

videosignal. På så sätt använder sig också av normen när man ska kalibrera t.ex. kameror mot<br />

varandra med hjälp av en s.k. färgbalk.<br />

Figur 20: Enkel färgbalk för kalibrering av videosignalens utstyrning (styrka). I själva<br />

verket är det luminansen, illustrerat i den högra bilden, som man mäter.<br />

De olika primärfärgernas bidrag till färgbalken framgår av nedanstående figur.<br />

26


Figur 21:<br />

Om vi antar att den maximala spänningen från respektive chips är 1 volt, så kan vi med hjälp<br />

av luminansnormen räkna ut spänningen för alla färgerna i färgbalken. Exempelvis blir<br />

luminansspänningen för vitt: U Y<br />

= 0,3 . 1V + 0,59 . 1V + 0,11 . 1V = 1V. Luminansspänningen<br />

för t.ex. cyan blir enligt figuren: U Y<br />

= 0,3 . 0V + 0,59 . 1V + 0,11 . 1V = 0,7V. För svart blir U Y<br />

= 0,3 . 0V + 0,59 . 0V + 0,11 . 0V = 0V.<br />

Luminansspänningarna för färgbalken kan man rita upp i ett katodstrålerör (oscilloskop)<br />

vilket används i studiosammanhang för att kontrollera <strong>och</strong> kalibrera luminanssignalens bidrag<br />

till videosignalen.<br />

27


Bild 9:Linjemönstret till höger visar på luminansnivåerna för de olika färgerna i en<br />

färgbalk. Till vänster syns motsvarande bild, men där även färgdifferenssignalen har<br />

adderats.<br />

När man gick över från svart-vit till färg-TV, så fanns det ett kompatibilitetskrav. Man skulle<br />

kunna återge en färg-TV bild i de ”gamla” svart-vita mottagarna <strong>och</strong> på motsvarande sätt<br />

kunna återge en TV bild från en svart-vit kamera som en svart-vit bild i en färg-TV mottagare.<br />

Genom att separera luminansen (bildens gråskala eller ljushet) från krominansen<br />

(färgsignalen) kunde man uppfylla kompatibilitetskraven. Krominansen är ju i sin tur<br />

uppbyggd av tre grundfärger eller primärfärger, blått, grönt <strong>och</strong> rött.<br />

Signalkonvertering<br />

Värdet på luminansen, som betecknas Y, är summan av de tre grundfärgerna i proportioner<br />

som motsvarar ögats ljuskänslighet för de olika färgerna, alltså enligt luminansnormen.<br />

Värdena på krominansbidraget utgörs av färgdifferenssignalerna R-Y <strong>och</strong> B-Y. Den<br />

kompletta videosignalen utgörs alltså av de tre komponenterna Y, R-Y <strong>och</strong> B-Y. Den gröna<br />

komponenten överförs inte utan kan räknas fram. Vid utsändning sätts dessa signaler samman<br />

till en signal (kompositsignal). I TV mottagaren återskapas sedan RGB signalen på nytt.<br />

28


Figur 22:Principen hur man adderar luminans <strong>och</strong> färgdifferenssignalerna för att erhålla<br />

en oscilloskopbild enligt figur ovan.<br />

Den signal som består av de tre komponenterna Y, R-Y <strong>och</strong> R-B kallas komponentsignal.<br />

Denna signal används i alla professionella sammanhang <strong>och</strong> ger det bästa bildresultatet. Rent<br />

praktiskt överförs signalen i tre separata ledare, två för krominans <strong>och</strong> en för luminans. I<br />

hemmavideosystem <strong>och</strong> vid TV utsändningar används en annan signal som kallas komposit. I<br />

denna kompositsignalen slås luminans <strong>och</strong> krominans samman till en enda signal som ryms i<br />

en enda ledare. Det finns också ett mellanläge mellan komponent <strong>och</strong> kompositsignal. Där har<br />

man endast slagit samman fördifferenssignalerna, men behållit luminansen separerad. Denna<br />

signal går under benämningen S-video <strong>och</strong> använder följaktligen två ledare.<br />

Färgsignalen<br />

Färgbärvågens amplitud är ett mått på färgens mättnad, medan fasläget styr färgtonenen.<br />

Referensamplitud <strong>och</strong> referensfas anges av den s.k. bursten eller färgsynken. Den består av en<br />

10 periodig signal som sänds i linjesläcket innan varje ny linje. Denna princip används i<br />

samtliga TV-system. Det äldsta färgsystemet NTSC är dock känsligt för yttre störningar som<br />

kan påverka färgbursten. En yttre störning kan relativt lätt ändra fasvinkeln med påföljd att<br />

färgtonen ändras. ( Det kan vara orsaken till att vissa menar att NTSC egentligen står för<br />

Never The Same Color). PAL, som utvecklades av tyska Grundig, tog fasta på det<br />

amerikanska färgsystemets tillkortakommanden <strong>och</strong> införde en teknik där man i linjetakt<br />

alternerande byter tecken för fasläget. En fasvridande störning förvränger färgtonen på en<br />

linje i en riktning <strong>och</strong> på nästföljande linje i motsatt håll. I färgmottagaren kombineras<br />

färginformationen från två efterföljande linjer på så sätt att fasfelen tar ut varandra. Rätt<br />

färgton visas, men en något lägre mättnad kan bli resultatet, men det är ögat inte lika känsligt<br />

för.<br />

29


Bild 10:Representation av färgfas för en färgbalk i NTSC till vänster <strong>och</strong> PAL till höger.<br />

PAL-bilden visar två fasvända svep där signalen är fasvänd 90°.<br />

30


Analog/digital<br />

Även om vi idag övergår till digital teknik när vi ska insamla, bearbeta <strong>och</strong> spara<br />

videomaterial, så är dock vår omvärld analog. Det innebär att vi i videokameran <strong>och</strong> TV<br />

monitorn måste omvandla analoga signaler till digitala <strong>och</strong> tvärt om.<br />

I videokameran registreras det infallande ljuset. Detta ljus omvandlas till digitala signaler.<br />

Detta sker med hjälp av sampling, d.v.s. ett slags ”provtagning” på den analoga signalen med<br />

en viss frekvens.<br />

Figur 23: Blockdiagram över AD omvandling (analogt till digitalt)<br />

När det gäller den monitor som bilden skall visas i, så är förhållandet det motsatta. Här sker<br />

en omvandling från digital till analog signal. I bildröret, eller katodstråleröret (CRT ”Cathod<br />

Ray Tube”), avlänkas en elektronstråle så att den träffar den främre delen.<br />

Figur 24: CRT bildrör<br />

Numera visas elektroniska bilder alltmer på digitala skärmar som t.ex. LCD <strong>och</strong><br />

plasmaskärmar som har lättare att hantera digitala signaler direkt<br />

31


Digital video<br />

Bandbredd <strong>och</strong> lagringskapacitet är alltid begränsad. Det är också den främsta orsaken till att<br />

vi har flera olika filformat, alla med sina speciella egenskaper <strong>och</strong> avsedda för olika<br />

tillämpningar. I vilka sammanhang används de?<br />

1. Multimedia för persondator distribuerad via Internet<br />

2. Multimedia för persondator lagrad på CD-ROM<br />

3. Digital distribuerad video, populärt kallat TV<br />

4. DVD<br />

5. Multimedia för persondator distribuerad via lokalt nätverk<br />

6. Multimedia för persondator lagrad på hårddisk<br />

7. Digital video för SD-produktion (Standard definition)<br />

8. Digital video för HD-produktion (High Definition)<br />

9. Digital filmproduktion<br />

Alla presentationstekniker har olika behov, bandbredd, lagring samt bildkvalitet.<br />

Vi behöver veta hur vårt material ska visas för att kunna välja det lämpligaste filformatet.<br />

Figur 25: Tillgänglig/nödvändig bandbredd för olika typer av mediedistribution.<br />

Figur 26: Nödvändig bandbredd förolika typer av videoproduktion.<br />

32


Olika filformat för olika faser i produktionen<br />

Vi behöver välja filformat för:<br />

1. Insamling (inspelning) (Inspelning, animering <strong>och</strong> grafik)<br />

2. Bearbetning (Redigering, compositing, special effects, chromakey etc)<br />

3. Slutprodukt (Anpassning till mediabärare <strong>och</strong> uppspelningsutrustning, kodning,<br />

komprimering etc)<br />

Insamling<br />

Vid insamling är det oftast inte filformat som väljs utan inspelningsutrustning <strong>och</strong> därmed<br />

kvalitetsnivå.<br />

1. DV, DV-CAM, DVC-Pro<br />

5 ggr kompression, halv färgbandbredd jämfört med fullkvalitetsvideo<br />

2. BetaCam SP<br />

analogt system, broadcastkvalitet<br />

3. Betacam SX, DVCPRO 50, XDCAM, P2<br />

MPEG-2 baserat produktionssystem med hög broadcastkvalitet<br />

4. Digital Betacam<br />

högsta broadcastkvalitet, 2ggr kompression<br />

5. High Definition video<br />

oftast 1920x1080i eller 1280x720p<br />

6. 24p Universalformat<br />

progressiv video som kan konverteras till PAL, NTSC <strong>och</strong> film.<br />

7. Film<br />

mycket hög upplösning men dyrt<br />

Bearbetning<br />

Digitala videoband lagrar inte datafiler utan en videoström. För att kunna bearbeta materialet i<br />

en datormiljö överförs videoströmmen till ett filsystem. Enkelt beskrivet, man kopplar<br />

videobandspelaren till datorn <strong>och</strong> ”spelar” in materialet.<br />

Det optimala kan tyckas att låta filen ha samma kvalitetsnivå som originalet. Därmed slipper<br />

man omkomprimering av materialet. Men om produktionens slutresultat ska vara av låg<br />

kvalitet kan man redan här använda ett filformat med kompression. Å andra sidan kan det i<br />

vissa fall löna sig att bearbeta materialet i en högre kvalitet än det inspelade. Detta gäller<br />

bearbetningar som innehåller avancerade bearbetningar med många bildlager. När dessa<br />

bildlager skall föras ner på en videoström, måste materialet renderas. Använder man sig av<br />

lägre komprimeringsgrad i detta steg, så blir förluster <strong>och</strong> fel mindre. Ofta bestämmer<br />

utrustningen filformatet men graden av kompression kan för det mesta varieras. När filerna är<br />

lagrade kan materialet bearbetas med redigering, färgkorrigering etc. Produktionen kan även<br />

innehålla grafik från t ex animationsprogram. Materialet bör överensstämma med<br />

videofilernas kvalitet.<br />

När bearbetningen är klar konverteras materialet för att passa den slutliga mediebäraren<br />

(DVD, CD- multimedia etc.). I praktiken innebär det komprimering eller helt enkelt<br />

överföring till videotape.<br />

33


Filstorlek vs. upplösning <strong>och</strong> färgdjup<br />

Filernas storlek bestäms av fyra parametrar<br />

1. Antal pixlar<br />

2. ”Color mode”, RGB eller YUV<br />

3. Färgdjup<br />

4. Kompression<br />

De tre första parametrarna påverkar bildens upplösning medan<br />

kompressionen är en kvalitetsfaktor.<br />

Square pixels eller non square pixels<br />

En TV bild har ett bredd/höjdförhållande 4:3. Digital PAL video består av 720x576 pixlar.<br />

(Det riktiga förhållandet bör vara 768x576 pixlar.) För att teckna ut hela bilden måste pixlarna<br />

dras ut lite i horisontalled. En vanlig videoruta innehåller 414.720 pixlar.<br />

Figur 27: Samma bild med upplösning i square pixels (till vänster) <strong>och</strong> non square pixels<br />

(till höger)<br />

Praktiskt är det viktigt att hålla reda på antalet pixlar <strong>och</strong> dess utseende när man importerar<br />

olika typer av grafik i videon.<br />

Colour mode<br />

”Colour mode” kan vara RGB eller YUV. En videoström/fil är oftast en YUV där Y är<br />

bildens ljushet (en svartvit bild helt enkelt) <strong>och</strong> U <strong>och</strong> V är färgkomponenter.<br />

Färgkomponenterna i video är oftast lägre samplade <strong>och</strong> har därmed en sämre upplösning.<br />

Metoden grundar sig på egenskaper i ögats perception där tester visat att det är<br />

ljusinformationen som är viktigast för ”skärpan” i en bild.<br />

34


Y = luminanskomponent 0.30R + 0.59G + 0.11B<br />

RGB<br />

U = färgkomponent 0.493(B-Y)<br />

V = färgkomponent 0.877(R-Y)<br />

Fig 28: YUV är en anpassning till ögats egenskaper, ”färg är inte så viktigt för skärpan”.<br />

YUV 4:2:2 sparar 33% bandbredd.<br />

Luminansdelen samplas 13,5 miljoner gånger per sekund (13,5MHz) medan<br />

samplingsfrekvensen för färgdelen varierar, beroende på vilken kvalitet som vi vill jobba<br />

med. Man utnyttjar att ögat är mindre känsligt för variationer i färginformation (chroma) än<br />

variationer i ljushet (luminans). I den digitala värden ser man begrepp som 4:4:4, 4:2:2, 4:2:0<br />

<strong>och</strong> 4:1:1. Dessa sifferkombinationer är olika standards <strong>och</strong> anger hur ofta färginformationen<br />

samplas i förhållande till luminansen.<br />

4:4:4 anger att luminans <strong>och</strong> chroma samplas lika ofta eller att luminans <strong>och</strong> chroma<br />

registreras lika mycket i varje pixel.<br />

4:2:2 anger att luminans registreras i varje pixel medan chroma registreras i varannan.<br />

Samplingsfrekvensen för chroman har halverats i förhållande till luminansen. Denna standard<br />

betraktas som fullt acceptabel för de flesta professionella sammanhang.<br />

Ett snäpp lägre är 4:2:0 som innebär att luminansen registreras i varje pixel medan chroman<br />

endast registreras i varannan pixel <strong>och</strong> på varannan rad.<br />

4:1:1 innebär att luminansen registreras i varje pixel medan chroman registreras i var fjärde<br />

pixel, men på varje rad. I de två senare samplingsförhållanderna registreras alltså chroman<br />

med fyra gånger lägre frekvens än luminansen.<br />

Broadcaststandard har samplingsförhållandet YUV 4:2:2, dvs färgkomponenterna har Y-<br />

signalens halva sampling. Det innebär att en videoruta har 2/3 filstorlek jämfört med en<br />

motsvarande RGB-ruta med 4:4:4, där ju varje färg har samma ”vikt”.<br />

• YUV 4:4:4 bearbetning med HQ<br />

• YUV 4:2:2 fullkvalitetsvideo<br />

• YUV 4:2:0 PAL DV / DVCAM<br />

• YUV 4:1:1 DVCPRO<br />

• RGB 4:4:4 datorgrafik<br />

• RGB 4:4:4:4 datorgrafik med alfakanal<br />

35


Under videoredigering behålls YUV formatet. Dock är det<br />

vanligt med konvertering till RGB under processing <strong>och</strong> sedan tillbaka<br />

till YUV. Vissa utrustningar behåller dock YUV formatet under<br />

processing vilket är att föredra av kvalitetsskäl. Processing kan t ex<br />

bestå av färgkorrigering.<br />

”DV-video” använder 4:2:0 (PAL DV/DVCam) eller 4:1:1 (DVC-Pro)<br />

sampling.<br />

Färgdjup<br />

Färgdjup är antalet färgnyanser som en pixel kan anta. Det vanligaste färgdjupet är 8 bitar per<br />

pixel <strong>och</strong> komponent. Det är också det vanligaste färgdjupet när man bearbetar video.<br />

Betacam digital 10 bitar YUV<br />

DV/DVCam, DVCPro 8 bitar YUV<br />

Videoredigering 8 bitar YUV (med vissa få undantag)<br />

MPEG1, MPEG2 8-bitar YUV<br />

High Definition video 8-12 bitar YUV<br />

24p 12 bitar<br />

Digtaliserad film 12-16 bitar<br />

Observera att man i videovärlden anger bitar per komponent. I den<br />

grafiska världen anger man oftast pixelns totala antal bitar.<br />

Exempel:<br />

24 bitars TIFF: 8+8+8 bitar RGB<br />

32 bitars TIFF: 8+8+8+8 bitar CMYK för tryck eller 8+8+8+8 RGBA<br />

(med alfakanal).<br />

Komprimering<br />

Video kan komprimeras på olika sätt. Det finns olika videokomprimeringsstandarder där<br />

MPEG är vanligast. Vi tittar lite närmare på detta sätt att komprimera, men det finns en<br />

uppsjö av andra standards som jobbar på likartat sätt. MPEG-1 är den äldsta versionen <strong>och</strong> är<br />

designad för 1,5Mb/s <strong>och</strong> komprimerar en faktor 100. Standarden är vanlig när man<br />

komprimerar för CD-ROM läsare. Även de vanliga webbläsarna klarar MPEG-1.<br />

Den nyare standarden MPEG-2 hanterar datahastigheter upp till 40 Mb/s. Den ska klara<br />

HDTV <strong>och</strong> både interlaced <strong>och</strong> progressive scan. Vid komprimering av ”vanlig” video men<br />

med broadcastkvalitet genererar man ca 5Mb/s plus ljud på ca 300kb/s. MPEG-2<br />

rekommenderas av framträdande TV organisationer i världen som en framtida standard för<br />

komprimering av video för sändning. Sedan lång tid tillbaka nyttjar man MPEG-2 för<br />

komprimering vid satellitöverföring.<br />

MPEG-4 är främst inriktad mot överföring via nät med begränsade bithastigheter. Det är en<br />

komprimeringsstandard som används mer <strong>och</strong> mer för överföring av bild på nätet.<br />

Videokomprimering går ut på att ta bort så mycket redundans som förutsättningarna tillåter.<br />

Tillvägagångssättet vid komprimering kan mycket förenklat beskrivas så här: Sampling<br />

→RGB→ YUV → Komprimering i pixelplanet (spatial) → Komprimering i tidsplanet<br />

(temporal) → Entropikodning (tar bort resterande redundans).<br />

36


Komprimering i<br />

pixelplanet<br />

(spatial komprimering)<br />

Sampling<br />

RGB → YUV<br />

Komprimering i<br />

tidsplanet<br />

(temporal komprimering)<br />

Entropikodning<br />

Figur 29: Tågordningen hur komprimering går till av en videobild.<br />

Komprimering av en TV bild.<br />

En TV signal enligt ITU-601 standard (ITU = Internationella TV Unionen) har en bithastighet<br />

på 270 Mbit/s. Denna signal hanteras i ett TV hus, men är alldeles för omfattande för digital<br />

TV distribution. Det digitala marknätet har idag en bithastighet på 5-6 Mbit/s. Det krävs alltså<br />

en kraftig bitredusering i form av komprimering.<br />

För att komprimera en TV signal används MPEG 2 komprimering. Tillvägagångssättet för<br />

komprimeringen sker i flera steg.<br />

Utgångsläget är alltså 270 Mbit/s 4:2:2 sampling <strong>och</strong> 10 bitars upplösning. Genom att<br />

reducera till 8 bitar <strong>och</strong> 4:2:0 sampling har vi kommit en liten bit på väg. Men mycket<br />

återstår.<br />

Nu tar den egentliga komprimeringen vid. Av beräknings- <strong>och</strong> kodningsmässiga skäl delas<br />

bilden in i lite olika hierarkiska nivåer. Det mest finmaskiga av dessa är blocket som består av<br />

8x8 pixlar. Komprimeringen i pixelplanet opererar på blocknivå. Informationen i pixelplanet<br />

konverteras till ett frekvensplan med hjälp av DCT (Discrete Cosinus Transform). DCT är en<br />

matematisk transform som påminner om Fouriertransformen. Man representerar bilden på ett<br />

sådant sätt att olika ändringar i bilden grupperas i frekvensplanet.<br />

Figur 30: 8x8 block. dc-komponenten är rutan längst uppe till vänster.<br />

I övre vänstra hörnet finns dc-komponenten, d.v.s. det som motsvarar det genomsnittliga<br />

gråskalevärdet i blocket. Värdena på de övriga rutorna representerar förändringar mot<br />

37


medelvärdet. Låga frekvenser närmast dc-komponenten. Ju högre frekvenser en ruta<br />

innehåller ju mindre påverkar den synintrycket av bilden. Därför kan man skära bort de<br />

komponenter som ligger mot den nedre högra delen. Bild som enbart är komprimerad i<br />

pixelplanet kallas för I-bild.<br />

Vid komprimering i tidsplanet (temporal komprimering) görs en jämförelse mellan<br />

intilliggande bilder i en bildsekvens, d.v.s. en videofilm. I sekvensen stoppar man först <strong>och</strong><br />

främst stoppa in I-bilder, Intra frame, (referensbilder) med jämna mellanrum. Sedan letar man<br />

efter skillnader i utseende på intilliggande bilder. Det är endast skillnaderna mellan bilderna<br />

som behöver komprimeras om. Statiska partier räknas som stillbilder. Bilder som återskapas<br />

enbart utifrån närmast föregående I-bild kallas P-bild (predicted frame). Bilder som<br />

återskapas utgående både från föregående <strong>och</strong> efterkommande bilder kallas B-bilder (bidirectional<br />

frame). För dessa krävs en buffert eftersom efterkommande bilder måste<br />

analyseras innan B-bilden kan skapas. Ett intervall mellan två I-bilder kallas GOP (Group Of<br />

Pictures) <strong>och</strong> kan se ut som följer: IBBBPBBBI.<br />

Figur 31: En MPEG dekoder kräver ett bildminne, eftersom vissa bilder i strukturen inte<br />

kan ritas upp innan efterföljande bilder analyserats. Detta gör att komprimeringen har en<br />

inbyggd fördröjning.<br />

Vid mätningar visar det sig att en I-bild innehåller ca sju gånger mer information än en B-bild<br />

<strong>och</strong> tre gånger mer än en P-bild. Detta är naturligtvis beroende på hur mycket förändringar<br />

som sker mellan de olika bilderna. Inom MPEG standarden har man möjlighet att välja<br />

utseende på sin GOP. Längre avstånd mellan I-bilder minskar datamängden, men gör filmen<br />

känsligare för störningar.<br />

MPEG är egentligen ett uppspelningsformat <strong>och</strong> lämpar sig inte i sin grundform att klippa i.<br />

Har man otur kan man ju göra sitt klipp strax innan en P-bild. Resultatet blir att P-bilden<br />

tappar sin relation till närmast föregående I-bild. Detta har man numera löst genom att införa<br />

GOP strukturer med enbart I bilder eller alternerande I <strong>och</strong> P bilder<br />

Entropikodning är ett sätt att presentera det kodade materialet på ett effektivt sätt, samtidigt<br />

som man tar bort ytterligare redundant material.<br />

Run Lenght Coding kallas det när man istället för att skicka 50 nollor efter varandra skickar<br />

en nolla <strong>och</strong> sedan siffran 50.<br />

38


Huffmankodning innebär att man tilldelar de DCT koefficienterna som förekommer oftare ett<br />

färre antal bitar än de som förekommer mer sällan. Resultatet blir en mycket kompakt ström<br />

av kodade koefficientvärden.<br />

Feltolerant kodning innebär att när videoinformation strömmar ut i nätet är det viktigt att veta<br />

att alla bitar inte är lika mycket värda. Ett obetydligt fel är en modifikation av en DCT<br />

koefficient i en B-bild som räcker 1/25 sekund medan en modifierad koefficient i en I-bild<br />

kan påverka bilderna i uppemot en sekund.<br />

Filformat för bearbetning <strong>och</strong> slutprodukt<br />

Video<br />

AVI<br />

• AVI, AudioVideoInterleaved är det vanligaste filformatet i Windows- miljö.<br />

• Filformatet är anpassat till Microsoft´s DirectShow teknik som är en uppsättning<br />

”byggstenar” som utför olika moment, t ex inspelning, uppspelning <strong>och</strong> kodning.<br />

• AVI är bara en struktur för filformatet <strong>och</strong> det finns en mängd olika typer<br />

standardiserade (se avsnittet ”Codecs”).<br />

• Kan än så länge bara användas i Windows- miljö.<br />

Quicktime<br />

• Quicktime är det vanligaste filformatet i Apple- miljö.<br />

• Fungerar efter samma princip som AVI.<br />

• Kan användas på både Mac <strong>och</strong> Windows.<br />

MPEG<br />

MPEG är egentligen inte ett filformat utan en bitström. Information<br />

om innehållets struktur finns kontinuerligt ”inbakat” i bitströmmen<br />

(jfr Internet-streaming.) För att förenkla kallar vi dock MPEG för ett<br />

filformat i det här sammanhanget.<br />

MPEG-1<br />

• Ett bra generellt filformat för multimedia.<br />

• Standard upplösningen motsvarar ca ¼ PAL-video (352x240). Man kan använda andra<br />

upplösningar men problem kan uppstå med vissa players. Windows MediaPlayer<br />

fungerar bra med olika upplösningar.<br />

• Spelbar på både Mac <strong>och</strong> Windows, ingår i operativens grundinstallation.<br />

MPEG-2<br />

• Mest känt som filformatet för DVD men används även i broadcast-sammanhang<br />

• Standard upplösning motsvarar PAL (720x576) resp. NTSC (720x480), fler standarder<br />

finns bl a för HD-TV<br />

• Color mode YUV (YCbCr för att vara exakt)<br />

• Sampling 4:2:0 för MPEG IBP Main profile (”DVD-MPEG2”).<br />

• Kompression upp till 30 ggr. Kan ej redigeras (utan problem). Används även för<br />

”Digital-TV” distribution hem till vardagsrummet.<br />

• Sampling 4:2:2 för MPEG I-frame High Profile (”Proffs- MPEG2”). Kompression 3-10<br />

ggr. Kan redigeras. MPEG2 Iframe används vid insamling (t ex Sony IMX), vid<br />

produktion (redigering). Ett område där det används till 100% är vid digital<br />

distribution <strong>och</strong> programutbyte mellan broadcastaktörer i länknät t ex Terracoms<br />

39


länkar.<br />

MPEG-4<br />

• Är en <strong>utveckling</strong> av MPEG med förbättrad kvalitet vid låga bitrates (hög kompression).<br />

• Standarden innehåller även en mängd möjligheter för multimedia.<br />

• En populär variant av MPEG- 4 är DivX.<br />

Bitmap (punktuppbyggd grafik)<br />

TGA<br />

• Ett mycket använt bitmap-format för grafik.<br />

• Kompatibelt med alla plattformar.<br />

• Okomprimerad eller oförstörande komprimering.<br />

• Mycket bra för att spara ner sekvensiella (numrerade) ”stillbilder” från<br />

animationsprogram.<br />

• Fungerar även utmärkt med alfa-kanal.<br />

TIF<br />

• Sedan lång tid etablerat bitmap-filformat för grafik.<br />

• Finns i en mängd varianter men är nu förtiden ett moget format som har bra<br />

kompabilitet.<br />

• Olika varianter för PC resp Mac.<br />

• Har kompressionsmöjlighet <strong>och</strong> alfakanal.<br />

• Ganska bra kompabilitet med videorelaterade tillämpningar.<br />

JPEG<br />

• Det mest använda filformatet för bitmap-bilder med hög kompression.<br />

• Ofta kan 10-20 ggr kompression användas på fotografiska bilder. Var mer försiktig med<br />

grafik!<br />

• Kan ej innehålla alfakanal.<br />

• Kompatibelt med alla plattformar.<br />

PSD<br />

• Photoshop´s nativa filformat.<br />

• Sparar projektets alla inställningar.<br />

• Vissa egenskaper som t ex lagerinformation kan användas i After Effects, Premeire,<br />

Combustion <strong>och</strong> Final Cut etc.<br />

BMP<br />

• Ett specifikt Windows-format med begränsade möjligheter.<br />

• Bra kompabilitet mellan tillämpningar.<br />

Bitmap grafik vs. vektorgrafik<br />

I den grafiska världen förekommer pixeluppbyggd grafik (punktgrafik eller bitmap) <strong>och</strong><br />

vektorgrafik. Vektorgrafik består i grunden av matematiskt beskrivna kurvor. Photoshop är ett<br />

program som huvudsakligen är ett bitmap-program, medan Illustrator är ett<br />

vektorbaserat program.<br />

”Bildrutebaserad” digital media (vi kan kalla det video) är alltid pixelbaserad. Men<br />

vektorgrafik används i många sammanhang för produktion av videomaterial. Vektorerna<br />

måste dock konverteras till pixelgrafik innan användning. Som exempel kan nämnas<br />

textprogram för video.<br />

40


Ljud i filerna, hur går det till?<br />

I alla de ”video-filformat” vi behandlat upp finns möjlighet att ”bädda in ljud”. Ljudet är<br />

egentligen inte en del av videofilen, utan en separat information som är multiplexad med<br />

video-informationen. Dvs små bitar av ljud är inpetade på lämpliga ställen i videons<br />

information men för användaren verkar det som allt är en fil. Vid uppspelning separeras audio<br />

<strong>och</strong> video <strong>och</strong> spelas genom separata codecs. Vid distribution <strong>och</strong> i slutprodukter är audio så<br />

gott som alltid inbäddad i videon. Vid bearbetning hanteras video <strong>och</strong> audio ofta som separata<br />

filer. Vid redigering kan ett t ex redigeringsprogram hantera video som .avi<br />

<strong>och</strong> audio som .wav-filer. Länkningen mellan filerna sker automatiskt med programmets egen<br />

databas.<br />

Codecs<br />

En codec är en algoritm. Med en matematisk ”formel” behandlas video eller audioinformationen.<br />

Ofta är det fråga om att komprimera eller dekomprimera. Men en codec<br />

behövs även t ex för att från en SDI-ström (från t ex en bandspelare) skapa en okomprimerad<br />

videofil. En codec bestämmer helt enkelt hur informationen skrivs i<br />

filen. Vid uppspelning behövs en motsvarande decoder. En codec finns inte i videofilen utan<br />

installe rad som en fil i datorsystemet. I mediafilen finns information om vilken codec som<br />

ska användas. Vid uppspelning söker datorn efter en lämplig codec <strong>och</strong> i bästa fall startar<br />

uppspelningen.<br />

En codec för MPEG följer mycket strikt den standard som finns specificerad av Moving<br />

Pictures Experts Groups. Den kan visserligen vara skriven av olika tillverkare, <strong>och</strong> vara av<br />

olika kvalitet, men kan spela upp alla MPEG-filer av en given typ (1, 2 eller 4).<br />

AVI <strong>och</strong> Quicktime-filer är annorlunda. Man brukar populärt kalla dem för ”wrappers”. Det<br />

är helt enkelt inslagna paket med olika innehåll, men alla är de Quicktime eller AVI.<br />

”Innehållet” består av video <strong>och</strong>/eller audioinformation, oftast multiplexad. Dessutom finns<br />

metadata, dvs filens specifikationer, som bl a beskriver med vilken codec filen ska spelas.<br />

Hur väljer jag filformat <strong>och</strong> codec för en produktion?<br />

Exempel:<br />

Jag har redigerat ett videoavsnitt. Materialet är vanlig PAL-video men slutprodukten ska bli<br />

en multimediapresentation gjord med Director. Den ska distribueras på CD-ROM <strong>och</strong><br />

målgruppen använder endast Windows-plattform.<br />

Vi måste ta hänsyn till följande:<br />

1. Vilken prestanda har CD-spelaren hos slutanvändaren?<br />

2. Vilken prestanda har slutanvändarens dator? Processor, minne?<br />

3. Vilken upplösning har slutanvändarens bildskärm?<br />

4. Hur stort utrymme finns för videofilen på vår CD-ROM?<br />

Låt oss anta att den ”sämsta” datorn har följande specifikation:<br />

1. 4x CD- ROM (150KB/s x 4= 600KB/s<br />

2. Pentium II 400 MHz, 32MB<br />

3. 800x600 pixlar<br />

4. Videofilen får ta upp max 7MB på vår CD-ROM<br />

41


• AVI? Helt OK, vi kan välja mellan olika codecs. Men se upp, många av de codecs som<br />

finns för AVI bygger på gammal teknik <strong>och</strong> finns mest för att få bakåtkompabilitet.<br />

Har slutanvändaren DivX-codec? I så fall är det en mycket bra AVI-lösning.<br />

• Quicktime? Också bra, men vi kan knappast räkna med att våra slutanvändare har QT<br />

installerat <strong>och</strong> vi kan inte räkna med att de kan/vill/får installera.<br />

• MPEG-1? Mycket bra. Går att spela med de flesta Windows Media-spelare <strong>och</strong> därmed<br />

oftast utan problem i andra applikationer.<br />

• MPEG-2? Nja, visserligen kan filerna spelas upp på datormonitor. Men MPEG-2 är inte<br />

mycket bättre än MPEG-1 vid samma bitrate <strong>och</strong> codec saknas hos de flesta<br />

slutanvändare. MPEG-2 är ett utpräglat ”TV-video” format.<br />

Vi satsar på MPEG-1. Nu gäller det att få en fil med så bra kvalitet som möjligt men som är<br />

spelbar på ”den sämsta” datorn. Dessutom ska filen rymmas på lagringsmediet.<br />

Ta reda på vilken pixelstorlek som videoavsnittet ska ha i Director.<br />

Koda helst avsnittet i exakt rätt upplösning, eller i alla fall strax under den rätta. Aldrig större!<br />

Välj gärna den standardiserade upplösningen för MPEG-1, då spelas den bra på alla system.<br />

Ska filmen visas på helskärm ställs högre krav på datorn hos slutanvändaren. I det aktuella<br />

fallet är det på gränsen att det går att använda fullskärmsläge.<br />

Gör sedan kodningar med olika inställningar. Kontrollera noggrant kvalitet efter varje prov.<br />

Se på filstorleken <strong>och</strong> beräkna bitströmmen.<br />

Slutligen, om så är möjligt, testa filen på en dator som liknar de specifikationer vi satte som<br />

”sämsta dator”.<br />

Övriga parametrar vid kodningen<br />

Utöver val av codec finns det en del andra egenskaper att tänka på.<br />

Interlace<br />

Om källmaterialet är video är det inspelat med sk interlace. Varannan linje i bilden<br />

”exponeras” först <strong>och</strong> sedan de övriga linjerna. Det innebär att varannan linje har en viss<br />

tidsförskjutning. P.g.a. av den här tekniken får man en simulering av 50 bilder/s<br />

(1 bildruta=2 fields). Som vi alla vet märker man inget av detta när man ser materialet på<br />

videomonitor. Men när materialet visas på datormonitor visas bildrutans båda fields samtidigt<br />

<strong>och</strong> man får en horisontellt ”trasig” bild vid snabba rörelser.<br />

För att undvika fenomenet vid visning på datormonitor används deinterlace som innebär att en<br />

field helt enkelt plockas bort <strong>och</strong> de tomma linjerna ersätts med en interpolering av<br />

angränsande linjer. Vi minskar den vertikala upplösningen men metoden ger ända bilden en<br />

bättre kvalitet.<br />

Upplösning<br />

Vid konvertering bör man tänka på att om möjligt göra den i så få steg som möjligt.<br />

Konvertera t ex aldrig först till en annan upplösning <strong>och</strong> codec <strong>och</strong> sedan komprimera. Det<br />

försämrar kvalitén betydligt. Bestäm också pixelupplösning noggrant så att den<br />

överensstämmer med slutproduktionens upplösning. Om videomaterialet t ex ingår i en<br />

multimediaproduktion bör man undvika att låta spelaren/multimediaprogrammet skala om<br />

pixelupplösningen.<br />

42


Crop<br />

Vid digitalisering av analog video får man ofta svarta kanter till höger <strong>och</strong> vänster om bilden.<br />

Ev lite svart i ovan <strong>och</strong> nederkant. Kanterna syns inte på vanlig videomonitor som är inställd<br />

för att ”ta bort” ca 10% av bilden. Om materialet ska spelas på datormonitor bör man därför<br />

använda crop-funktionen som finns i kodningsprogrammet.<br />

Square <strong>och</strong> non-square pixel<br />

Standarden för PAL är 720x576 pixlar. Men bildformatet är 4:3 vilket ju inte rimmar speciellt<br />

bra. Upplösningen borde vara 768x576 kan man tycka. Anledningen till att man valt 720<br />

pixlar horisontellt är för att kunna använda en viss samplingfrekvens (13.5 MHz). Låt oss inte<br />

fördjupa oss i detta utan helt enkelt acceptera detta, OK?<br />

Man kallar det för ”non-square pixels”. Men icke-kvadratiska pixlar finns givetvis inte. Pixlar<br />

finns överhuvudtaget inte fysiskt. Rent praktiskt innebär det att en PAL-videobild som visas<br />

på en datormonitor är 6% för smal <strong>och</strong> alltså en aning ”ihoptryckt” horisontellt. Vissa<br />

professionella programvaror kompenserar dock för detta <strong>och</strong> ”drar ut” bilden.<br />

Men hur blir bilden rätt hemma i vardagsrummmet? Jo, när bilden passerar en ”digital till<br />

analog” omvandlare, någonstans på vägen till bildröret, ”dras bilden ut” <strong>och</strong> den analoga<br />

bilden blir OK. Omvandlaren kan sitta i DVD-spelaren, parabolmottagaren, Terracoms länkar<br />

etc. Det här är inget som vanliga TV-konsumenter behöver bekymra sig om.<br />

Om vanlig PAL-video ska visas på datormonitor bör man justera bildformatet så ett det får<br />

bildförhållandet 4:3. Inställningar finns i alla bra kodningsprogram. Bildförhållande kallas<br />

”aspect ratio” på engelska. Välj 768x576 för fullformat video eller ett mindre format som får<br />

förhållandet 4:3.<br />

Bildformat 4:3 vs 16:9<br />

TV-mottagare med ”bredbild” blir alltmer populär. Man talar om 16:9 bildformat. Men det<br />

kommer att dröja 5-10 år innan sändningar med äkta 16:9 börjar <strong>och</strong> DVD-skivor med äkta<br />

16:9 finns på marknaden. Anledningen är att man måste vänta till alla bytt till nya mottagare.<br />

Äkta 16:9 kallas mer exakt för ”anamorphic 16:9”. PAL-bilden har fortfarande upplösningen<br />

720x576. När man väljer ”anamorphic 16:9” på sin TVs fjärrkontroll ”dras bilden ut” 1,5 ggr<br />

horisontellt <strong>och</strong> får den avsedda proportionen. (Självklart på bekostnad av den horisontella<br />

upplösningen <strong>och</strong> ”skärpan”).<br />

DVD formatet är förberett för ”äkta 16:9”.<br />

Många konsumenter förbereder sig redan nu för ”äkta 16:9” genom att använda den här<br />

inställningen vid vanliga 4:3 sändningar. Resultatet blir en horisontellt förvrängd bild med t<br />

ex breda ansikten. Men visst är det coolt, eller…?<br />

När långfilmer <strong>och</strong> vissa DVD visas är det vanlig med s.k. brevlådeformat. Man visar helt<br />

enkelt filmens hela bildyta men fortfarande i 4:3 format. Resultatet är svarta kanter ovan <strong>och</strong><br />

under bildytan. Har man en bredbilds-TV kan man då använda ett läge där man ”zoomar in i<br />

bilden” <strong>och</strong> därmed får bort de svarta områdena.<br />

En äkta 16:9 bild är horisontellt kraftigt ihoptryckt. I ett redigeringprogram finns inställning<br />

för att växla till 16:9 läge. Då ändras bilden utseende på datormonitorn <strong>och</strong> får rätt proportion.<br />

Dessutom justeras textprogrammets egenskaper <strong>och</strong> även övergångar (wipes etc) justeras.<br />

Själva videomaterialet ändras inte på något sätt utan är egentligen en helt vanlig PAL video.<br />

Om man vill använda anamorhpic 16:9 för visning på datorskärm<br />

43


ehöver man ändra bildens proportion vid kodningen. Multiplicera den horisontella<br />

upplösningen med 1,42 så blir det rätt. (Då kompenserar man både för 16:9 formatet <strong>och</strong> nonsquare<br />

pixel).<br />

Gamma<br />

Video ger alltid olika intryck på video resp. datormonitor. Dels p.g.a. av olika färgåtergivning<br />

men givetvis också interlace-egenskaperna. Vid produktion av material som ska visas på<br />

videomonitor bör man därför sträva efter att alltid ha en videomonitor kopplad till sin dator<br />

som referens. Speciellt viktigt är detta vid t ex färgkorrigering <strong>och</strong><br />

kodning av DVD/MPEG-2.<br />

Vid visning av video på en ”medel-dator- monitor” får man en lite mörkare bild än när den<br />

visas på videomonitor. Använd därför gärna gamma-justering för att göra bilden en aning<br />

ljusare vid kodningen. Prova gärna verktyget ”Ställ in kurvor” i Photoshop. Om<br />

kodningsprogrammet bara har en numerisk inställning är det samma justering som om man<br />

gör en snygg böj på RGB-kuvan i Photoshops verktyg.<br />

44


Dramaturgi<br />

Publiken har alltid rätt! Oavsett vilka intentioner filmskaparen än hade. All möda,<br />

all talang, all tid <strong>och</strong> alla pengar man lägger på en film är till ingen nytta om man<br />

inte lyckas engagera publiken. Då spelar det ingen roll om bilderna är vackra,<br />

ljudet kristallklart <strong>och</strong> ämnet intressant.<br />

Hur engagerar man då publiken? Först <strong>och</strong> främst måste man komma ihåg att film<br />

är ett berättande medium. Det gäller alltså att berätta sin <strong>historia</strong> på rätt sätt. Det<br />

är viktigt att tänka på att film inte är en objektiv redovisningsmetod, utan filmen<br />

manipulerar ständigt publikens känslor.<br />

Dramaturgi innebär konsten att berätta. I denna text kommer framför allt den<br />

dramatiska formen diskuteras, men även episk <strong>och</strong> lyrisk form. Det är viktigt att<br />

tänka på att de dramaturgiska reglerna är gjorda för att bryta mot, men endast<br />

genom att kunna reglerna kan man bryta mot dem <strong>och</strong> veta vad man kan<br />

åstadkomma med det. Och i många fall kan man få god hjälp, tips <strong>och</strong> inspiration<br />

genom dem.<br />

Handlingsplan <strong>och</strong> berättarplan<br />

I filmen kan man skilja på handlingsplan <strong>och</strong> berättarplan, dvs filmberättandets<br />

vad <strong>och</strong> hur. Handlingsplan är filmens eller TV-programmets innehållssida, vad<br />

filmen innehåller/handlar om. Berättarplan är filmens formsida, hur det filmen<br />

handlar om berättas.<br />

Berättarelement<br />

Berättarelementen är filmens uttrycksmedel.<br />

Handlingsplanets uttrycksmedel:<br />

Kroppslig framtoning – Människan är normalt det viktigaste berättarelementet i<br />

film. När man ser en film är man tvungen att i stort sett uteslutande avläsa <strong>och</strong><br />

förstå det inre i filmen genom det yttre, därför har det skapats ett antal schabloner.<br />

Tex beteendet hos en stor <strong>och</strong> kraftig person vs liten <strong>och</strong> tanig. Alltså är valet av<br />

skådespelare väldigt viktig för filmen. Motiveringar till val av skådespelare:<br />

Realistisk motivering – Tex en proffsboxare kan inte se ut hur som helst... (när<br />

Stallone skrev Rocky <strong>och</strong> ville spela själv så var han tvungen att styrketräna<br />

mycket innan inspelningen)<br />

Dramatisk motivering – Någon ska vara liten, eller vacker i enlighet med storyn<br />

Komisk motivering – Tex stora fötter, utstående öron, liten <strong>och</strong> tjock...<br />

Extern motivering – Påverkan utifrån som filmskaparen inte kan kontrollera, tex<br />

ekonomiska skäl<br />

Spel (ingår i vad som kallas spelsceneri) – Allt en skådespelare gör ”på scenen” är<br />

spel. Även här handlar det om att uttrycka det inre med det yttre, <strong>och</strong> det görs<br />

framför allt genom kroppsspråket.<br />

Realistisk motivering – En högt uppsatt chef rör sig på ett annat sätt än en<br />

utslagen uteliggare<br />

Dramatisk motivering – Varje utspel som en person gör, gör den som följd av<br />

eller för att påverka den dramatiska situationen<br />

45


Komisk motivering – Tex Charlie Chaplin’s gång<br />

Klädsel <strong>och</strong> make-up – Kläderna är väldigt viktiga för att beskriva en person. Ta<br />

tex skillnaden mellan Indiana Jones, James Bond, Darth Vader...<br />

Realistisk motivering – En läkare i vit rock<br />

Dramatisk motivering – En elev som vägrar bära skoluniform...<br />

Komisk motivering – Någon som bär för korta byxor...<br />

Miljö – Miljön ska väljas för att ge filmen maximal dramatisk effekt <strong>och</strong> stöd åt<br />

handlingen. Tex i filmen Gökboet som handlar om frihet <strong>och</strong> tvång, så återfinns<br />

handlingen i miljön, mentalsjukhus vs havet.<br />

Realistisk motivering – New Yorks gator i en deckare<br />

Dramatisk motivering – Slagfältet som tvingar fram de sämsta sidorna men<br />

kanske även de bästa sidorna hos soldaterna i en krigsfilm<br />

Extern motivering – Man måste ha tillstånd för att filma <strong>och</strong> därför kanske det<br />

inte alltid blir det första valet som man slutligen filmar i<br />

Rekvisita – Rekvisitan berättar mycket om människorna som finns runt den.<br />

Föremål kan ha en passiv eller aktiv roll i en film. Passivt finns föremålen runt en<br />

person <strong>och</strong> berättar om karaktären, om värderingar, hobbys <strong>och</strong> vardagsliv. Aktivt<br />

används ett föremål för att föra handlingen vidare.<br />

Realistisk motivering – Ett vapen används för att skjuta någon<br />

Dramatisk motivering – En skruvmejsel smugglas in till en fängelsekund<br />

Tidpunkt – Årstiderna förknippas med vissa skeenden, som jul <strong>och</strong> julklappar.<br />

Men även tidpunkter på dagen eller natten... En person som äter frukost klockan<br />

tre på natten väcker nog en del frågetecken hos publiken. En historisk film, som<br />

utspelar sig på 1500-talet, <strong>och</strong> innehåller en scen där någon går förbi en TV-apparat<br />

väcker nog också en funderingar...<br />

Väderlek – Vädret påverkar publikens upplevelse av filmen. I en dokumentärfilm<br />

accepteras vädret mer som en neutral faktor än i en spelfilm. Normalt är det<br />

solsken på bröllop <strong>och</strong> regn vid begravningar...<br />

Fysiska relationer (ingår spelsceneri) – Hur skådespelarna placerar sig fysiskt på<br />

scenen kan också ha betydelse för upplevelsen.<br />

Dramatisk motivering – Tex en person som står tryckt i ett hörn på en fest, eller<br />

en man som kommer ombord på en halvtom buss <strong>och</strong> sätter sig brevid en kvinna...<br />

Komisk motivering – Två personer som letar efter varandra <strong>och</strong> går runt en pelare<br />

på varsin sida, hela tiden med ryggen vänd mot den andre...<br />

Motivrörelse (ingår i spelsceneri) – Om det inte rör sig i bilden under en scen<br />

upplevs den lätt som statisk, men rörelse är inte samma sak som dramatik!<br />

Realistisk motivering – Människor som inte rör sig är antingen döda, skadade<br />

eller sover<br />

Dramatisk motivering – Enda sättet att överleva är att springa ifrån mördaren<br />

Realfärger – Realfärger är verkliga färger, dvs färger som finns i miljön vid<br />

inspelningen. Ibland förstärks färger <strong>och</strong> ibland tas färger bort i redigeringen.<br />

Detta för att färger upplevs olika tex blått för kyla <strong>och</strong> grönt för lugn.<br />

46


Naturliga ljuskällor – Starkt upplysta föremål får normalt mer uppmärksamhet<br />

än svagt upplysta. Mörker <strong>och</strong> skugga kan upplevas som hot medan jämt <strong>och</strong><br />

mjukt ljus associeras med godhet.<br />

Dramatisk motivering – Alien-filmerna där det ofta finns mycket lampor men det<br />

ändå alltid är dåligt upplyst vilket ger monstren många skuggor att gömma sig i<br />

Realljud – Med realljud menas alla ljud utom dialog <strong>och</strong> musik som finns i<br />

handlingsplanet. Det finns två sorters realljud, effekter <strong>och</strong> atmosfärljud. Effekter<br />

är punktljud som är viktiga att publiken hör, tex ett pistolskott. Atmosfärljud är<br />

det övriga ljudrummet, tex sorl i en restaurang <strong>och</strong> trafikljud från gatan utanför.<br />

Med atmosfärljudet kan man förstora scenen <strong>och</strong> visa att det finns en värld<br />

utanför bilden. Det är dock viktigt att tänka på att man aldrig använder mer <strong>och</strong><br />

starkare ljud än vad som är nödvändigt, då kan ”fel ljud” störa det som är<br />

väsentligt för berättelsen.<br />

Realmusik – Musik som personerna i filmen hör, denna musik kallas också för<br />

diegetisk musik. Det är viktigt att tänka på att publiken måste antingen se eller<br />

förstå varifrån musiken kommer <strong>och</strong> att personerna i filmen också hör den, för att<br />

musiken ska fungera som realmusik.<br />

Realistisk motivering – Svag pianomusik från pianisten i restaurangen<br />

Dramatisk motivering – Mördaren som alltid visslar ”Bergakungens sal” innan<br />

han slår till (Hitchcocks ”Mannen som visste för mycket”(?))<br />

Komisk motivering – “Allways look on the brigth side of life” i slutet av ”Life of<br />

Brian”<br />

Dialog – Dialogen ska inte gestalta dramatiken (!), utan komma ur dramatiken.<br />

Dialogen ska alltså vara en funktion av karaktärerna <strong>och</strong> den situation de befinner<br />

sig i. Dialogen ska inte förklara handlingen.<br />

Berättarplanets uttrycksmedel:<br />

Format – Det är skillnad i bildformatet mellan TV <strong>och</strong> bio. Detta innebär att man<br />

ibland måste tänka annorlunda vid inspelning av filmen beroende på bildformatet.<br />

I TV-rutan ryms inte lika mycket <strong>och</strong> bilden som visas är i regel mindre den på än<br />

bioduken, vilket gör att tex en folksamling på TV mest består av en massa prickar.<br />

På bioduken ryms däremot mer, vilket innebär att det ibland kan vara svårt för<br />

publiken att fästa uppmärksamheten på rätt saker i bilden.<br />

Bildkomposition (ingår i vad som kallas kamerasceneri) – Hur bilden<br />

komponeras är beroende av personernas placering på scenen (fysiska relationer).<br />

Men kamerans placering ingår (normalt) inte i berättelsen. Den komponerade<br />

bilden existerar enbart på berättarplanet <strong>och</strong> inte i handlingsplanet. Hur<br />

personerna är placerade på scenen bestäms av deras relation till varandra <strong>och</strong> vad<br />

som händer etc. Kameran styr inte de handlande, den styr åskådarens upplevelse<br />

av de handlande. Kort skulle man kunna säga att vågräta linjer skapar större lugn<br />

än vertikala. Diagonaler åstadkommer dynamik, bilddjup <strong>och</strong> en känsla av<br />

rörlighet. Asymmetriska kompositioner främjar obalans. Dåligt med luft kring<br />

personerna kan ge en instängd känsla, osv.<br />

47


Brännvidd <strong>och</strong> skärpa (ingår i kamerasceneri) – Vad gäller brännvid bör man<br />

använda samma inställning genom hela filmen, om man inte vill använda<br />

brännvidden för att skapa en effekt. Något man bör tänka på är vitbalansen som<br />

bör vara lika inställd på alla kameror, annars varierar färgen i bilden.<br />

Bildstorlek (ingår i kamerasceneri) – Det vill säga: extrem närbild, närbild,<br />

halvbild, helbild <strong>och</strong> totalbild. De olika bildstorlekarna används för att svara på<br />

var, vem <strong>och</strong> vad. Dvs de etablerar (totalbild), presenterar (Hel- eller halvbild)<br />

<strong>och</strong> de accentuerar (Närbild).<br />

Kameravinkel (ingår i kamerasceneri) – Kameravinkeln är nära kopplat till<br />

berättarpositionen, dvs berättarens synvinkel. En extremt hög vinkel<br />

(”fågelperspektiv”) får motivet att verka litet <strong>och</strong> obetydligt, medan en låg vinkel<br />

(”grodperspektiv”) får motivet att verka stort <strong>och</strong> överlägset.<br />

Kamerarörelse (ingår i kamerasceneri) – Det finns i huvudsak två funktioner<br />

med en kamerarörelse. Den första funktionen är att följa ett rörligt motiv, tex om<br />

huvudpersonen reser sig upp <strong>och</strong> går fram till fönstret. Den andra funktionen är<br />

kamerarörelser som berättargrepp, tex en inzoomning mot ett viktigt föremål.<br />

Färgeffekter <strong>och</strong> svart/vitt – Färgeffekter finns inte i den filmade verkligheten,<br />

utan är ditlagda efteråt. Ett exempel här är Schindler’s list som är svart/vit,<br />

förutom den lilla flickan i röd jacka.<br />

Artificiellt ljus – Allt ljus som inte är naturligt, tex färgade strålkastare. Man kan<br />

säga att samma sak gäller för artificiellt ljus som för de naturliga ljuskällorna.<br />

Meningen med artificiellt ljus är att publiken inte ska se den utan uppleva filmen<br />

tack vare den.<br />

Filmsort <strong>och</strong> exponering – Valet av film <strong>och</strong> exponering spelar roll för<br />

kvaliteten på den färdiga filmen, tex kan filmens snabbhet, kornighet <strong>och</strong><br />

kontrastomfång vara olika. Det samma gäller för video, olika videotekniker ger<br />

olika bra kvalitet. I dag när mycket video filmas <strong>och</strong> redigeras digitalt så handlar<br />

det snarare om vilken grad av komprimering som används.<br />

Klippning – Hur man klipper kan delas upp i två sätt: osynliga klipp <strong>och</strong> synliga<br />

klipp. Vid osynliga klipp ska publiken inte märka klippen. Vi kan kalla dessa<br />

klipp för kontinuitetsklipp <strong>och</strong> de används för att skapa en enhetlig handling, eller<br />

ett enhetligt rum eller en enhetlig tid. Vid synliga klipp ska publiken lägga märke<br />

till klippen. Klippen markerar då en förflyttning i rum <strong>och</strong>/eller tid. De synliga<br />

klippen behöver inte vara hårda klipp, utan kan även vara övertoningar.<br />

Effektljud – Är väldigt svåra att skilja från realljuden. Effektljud är egentligen<br />

sådana ljud som personerna i filmen inte hör utan de hör till berättarplanet. Men<br />

ofta förstärks realljuden med hjälp av effektljud <strong>och</strong> då kan det vara svårt att klart<br />

<strong>och</strong> tydligt skilja ljudtyperna åt. Tex däckskrik, skott <strong>och</strong> dörrgnissel, men det kan<br />

också vara ljud som inte ”syns” i bild, tex restaurangsorl eller brus från trafiken<br />

utanför.<br />

Filmmusik – Dvs icke-diegetisk musik används för att förstärka <strong>och</strong> understryka<br />

48


ildernas känsloinnehåll. Personerna i filmen hör inte denna musik! Bra<br />

filmmusik hör inte publiken heller, utan de påverkas av den.<br />

Speaker – Om en film berättas till stora delar av en speaker så innebär det att<br />

filmskaparen inte lyckats lösa de dramaturgiska konstruktionsproblemen. Tex så<br />

fanns en speaker i Ridley Scotts film Bladerunner på grund av att producenten<br />

ansåg att filmen var för svår att förstå annars. Denna togs sedan bort i andra<br />

utgåvan, directors cut. Men en speaker kan vara ett bra sätt att starta en film. I den<br />

episka filmen har speakern en mycket mer naturlig funktion, än i den dramatiska<br />

filmen.<br />

Texter – Det är sällan texter i en spelfilm annat än i förtexterna <strong>och</strong> i<br />

eftertexterna. Förtexten kommer ofta en liten bit in i filmen efter en så kallad<br />

teaser eller hook som har fångat publiken först. Ibland används dock texter för att<br />

förklara tid eller platser.<br />

Titel – Titeln är viktig för filmen. Den ska locka publiken!<br />

Det är viktigt att tänkta på att berättarelementen egentligen inte kan ses så här,<br />

utan måste betraktas utifrån sin plats i helheten.<br />

Filmrum, filmtid<br />

Filmrummet är det som syns i bilden <strong>och</strong> det som finns strax utanför. Det är<br />

viktigt att publiken kan orientera sig i filmrummet. Verkligheten som filmas är<br />

oändlig <strong>och</strong> tredimensionell, men publiken möter denna verklighet i form av en<br />

tvådimensionell rektangulär bildruta. Man hjälper publiken att förstå filmens<br />

verklighet genom att först etablera en miljö <strong>och</strong> sedan behålla dessa relationer<br />

(mellan höger <strong>och</strong> vänster) tills vi etablerar nya.<br />

Man börjar med en geografisk etablering. Detta gör vi tex med en bild på<br />

polisstationen <strong>och</strong> lägger in dialogen som hör till nästa bild redan nu. Sedan<br />

klipper vi in en bild på två som pratar (dialogen fortsätter). Dialogen knyter ihop<br />

de två bilderna <strong>och</strong> vi vet därför att vi nu är inne på polisstationen.<br />

När vi sedan filmar dialogen så använder vi oss av den optiska axeln <strong>och</strong> kliver<br />

inte över denna någon gång. Detta underlättar för publiken att förstå rummet, <strong>och</strong><br />

är lite av en helig regel som man inte ska bryta mot. Man kan bryta den optiska<br />

49


axeln om man först gör en extrem närbild.<br />

Den optiska axeln utnyttjas även vid t.ex. förflyttning. Om vi gör olika tagningar på en bil<br />

som kör genom ett landskap, så betraktar vi som att den är på väg mot sitt mål så länge bilen<br />

förflyttar sig i samma riktning i bild. Skulle vi av någon anledning gå över den optiska axeln,<br />

så att bilen färdas åt motsatt håll, så tror vi att bilen är på väg tillbaka.<br />

Filmtiden är egentligen väldigt konstig. Det kan gå veckor på duken under en<br />

halvtimme i biosalongen. För att detta ska fungera görs synliga eller osynliga<br />

tidsförkortningar. Om vi återgår till föregående scen så kan vi tänka oss den här<br />

handlingen. En man upptäcker att det har varit inbrott i grannhuset. Han går till<br />

bilen. En bil åker över den stora bron till staden. Bild på polisstationen, osv.<br />

Denna scen innehåller i huvudsak osynliga tidsförkortningar.<br />

50


En synlig tidsförkortning hade varit om marken hade varit täckt av snö när<br />

mannen upptäckte inbrottet <strong>och</strong> sedan varm sommar när han var på polisstationen.<br />

Ofta används text för att visa synliga tidsförkortningar, ”Två veckor senare i<br />

Moskva”.<br />

Tidsförlängning är mindre vanligt, men ofta tar det längre tid än de 10 sekunder<br />

som det står på tidsinställningen innan hjälten har desarmerat bomben.<br />

Dramatisk struktur<br />

Den dramatiska strukturen bygger på handling <strong>och</strong> handlingen bygger på konflikt.<br />

Detta är grundförutsättningen för det dramatiska filmberättandet.<br />

Den dramatiska formen har sina grunder i treakts dramat, det finns en början, en<br />

mitt <strong>och</strong> ett slut. Början (akt 1) presenterar karaktärerna (protagonisten =<br />

huvudkaraktären <strong>och</strong> antagonisten motståndskaraktären), konflikten (problemet<br />

eller krisen), tiden <strong>och</strong> platsen. Mitten (akt 2) är huvuddelen av filmen. I denna<br />

del utvecklas <strong>och</strong> intensifieras konflikten, bihandlingar <strong>och</strong> mindre viktiga<br />

karaktärer presenteras, <strong>och</strong> handlingen leder till ett klimax där huvudkaraktären<br />

måste ta till handling för att lösa konflikten (point-of-no-return). Slutet (akt 3) är<br />

upplösningen. Huvudkaraktärens agerande löser konflikten, klarar krisen <strong>och</strong><br />

löser problemen. Varje del av filmen slutar med en vändpunkt eller klimax, en<br />

händelse som ändrar händelse<strong>utveckling</strong>en <strong>och</strong> huvudkaraktärens handlande. På<br />

Hollywood-vis skulle man kunna sammanfatta treakts dramat som ”pojke möter<br />

flicka, pojke förlorar flicka, pojke får flicka”.<br />

Om en film är 100 minuter lång, så händer något efter 25 minuter som påverkar<br />

huvudkaraktären så pass att denne måste ändra sitt handlande, <strong>och</strong> 25 minuter<br />

innan slutet händer ytterligare något som leder till filmens slutliga klimax.<br />

I över 2000 år har vi blivit övade i detta sätt att se på teater <strong>och</strong> i 100 år på film, så<br />

dagens publik är vältränad att se denna struktur. Detta ger naturligtvis utrymme<br />

för att bryta mot det förväntade <strong>och</strong> utnyttja denna effekt för att åstadkomma en<br />

reaktion hos publiken. Ett exempel på detta är Hitchcocks Psycho (1960) där vi<br />

får träffa en ung kvinna, Marion, som jobbar på ett kontor. Hon tänker knycka<br />

40.000 från företaget <strong>och</strong> starta upp ett nytt liv med sin pojkvän. Ok, vad händer?<br />

Jo, efter 45 minuter mördas hon. Men under dessa 45 minuter har publiken hunnit<br />

bekanta sig med henne, identifiera sig med henne <strong>och</strong> tänker: ”Ja, här har vi<br />

Marion, <strong>och</strong> hon är huvudperson”. Och sedan dör hon… Detta leder till att<br />

publiken förlorar den fasta punkt som man har identifierat sig med i filmen, vilket<br />

gör att resten av filmen blir mer obehaglig. Hitchcock själv sa: ”Psycho has a very<br />

interesting construction. The game with the audience was fascinating.”<br />

I den dramatiska formen finns ofta en underliggande moralisk ståndpunkt (det är<br />

fel att döda, brott lönar sig inte osv), karaktärerna är ofta arketyper (hjälten,<br />

skurken <strong>och</strong> flickan som måste räddas) <strong>och</strong> slutet löser alla konflikter så att inga<br />

lösa trådar finns när eftertexterna rullar.<br />

51


I den dramatiska filmen har vi ofta ytterligare en karaktär, förutom protagonisten<br />

<strong>och</strong> antagonisten, <strong>och</strong> det är hjälten. Hjälten förhåller sig annorlunda genom<br />

filmen än vad protagonisten <strong>och</strong> antagonisten gör, hjälten utvecklas nämligen inte.<br />

Protagonisten går från – till +, Antagonisten går från + till –, men hjälten ligger<br />

hela tiden på +.<br />

Den dramatiska strukturen<br />

Öppningen (anslaget) introducerar huvudkaraktärerna <strong>och</strong> plotten. För att få<br />

maximal effekt introduceras fyra punkter:<br />

1. Konflikten<br />

2. Huvudkaraktärens mål<br />

3. Huvudkaraktären i kris<br />

4. Huvudkaraktären hindras att nå sina mål<br />

Presentationen ger information om karaktärerna, plotten <strong>och</strong> bakgrunden. All<br />

information som ges är relevant för handlingen <strong>och</strong> leder den framåt.<br />

Presentationen avslöjar:<br />

1. Hinder som huvudkaraktären måste klara<br />

2. Problem som måste lösas<br />

3. Det är bråttom: en tidsgräns eller nedräkning<br />

4. En viktig ledtråd, eller fakta, som ännu inte är känd<br />

5. En besvärlig situation (ett predikament)<br />

Under fördjupningen (eller konflikt<strong>utveckling</strong>en) är alla karaktärer kända, alla<br />

relationer presenterade, alla mindre konflikter introducerade <strong>och</strong> alla miljöer<br />

uppdagade. Här utvecklas bihandlingar <strong>och</strong> skuggkaraktärer. Vissa okända<br />

egenskaper hos protagonisten <strong>och</strong> antagonisten avslöjas.<br />

I konfliktupptrappningen byggs konflikten upp mer <strong>och</strong> mer, vilket leder till en<br />

point-of-no-return, dvs den direkta konfrontationen mellan protagonisten <strong>och</strong><br />

antagonisten.<br />

Under konfliktförlösningen vinner ena sidan <strong>och</strong> den andra sidan förlorar.<br />

Plotten blir upplöst. Bihandlingar <strong>och</strong> biplotter med mindre karaktärer blir också<br />

lösta.<br />

Avtoningen ger ett lugn efter klimaxen, här framkommer också den<br />

underliggande moralen i filmen.<br />

52


Episk struktur<br />

Även den episka strukturen har rötter bak till antikens Grekland. Ett tydligt<br />

exempel på det episka berättandet är Homeros Odyssén, som beskriver olika<br />

episoder som kretsar runt en huvudkaraktär.<br />

I den episka filmen så försöker man inte framföra en handling som i den<br />

dramatiska strukturen, utan man berättar något för någon annan. Där dramat är<br />

handling är eposet beskrivning. I stället för en filmberättare som är gömd <strong>och</strong><br />

olika dramatiska förutsättningar leder till ett uppsatt dramatiskt mål, är den episka<br />

filmen snarare uppbyggd av många olika byggstenar, alla berättade ur samma<br />

synvinkel med en tydlig tematisk inrikting.<br />

Men i den episka filmen finns inget problem som en karaktär måste lösa för att<br />

filmen ska nå sitt slut, som det gör i den dramatiska strukturen. Den episka filmen<br />

är snarare statisk, än linjär rörelse <strong>och</strong> handling. Den utgår från en berättar-synvinkel<br />

med olika episka byggstenar, <strong>och</strong> återgår till samma punkt, samma<br />

berättarsynvinkel.<br />

53


Den episka filmen används ofta för att diskutera ett problem, inte för att lösa det<br />

utan snarare för att väcka tankar hos publiken.<br />

Lyrisk struktur<br />

Det finns tre olika sätt att arbeta med film i den lyriska strukturen. Antingen gör<br />

man film av skriven diktning. Man försöker då fånga det skrivna ordet i bild,<br />

handling, tal <strong>och</strong> musik. Det andra alternativet är att göra film som talar till<br />

känslorna, film som är poesi i sig själv. Det tredje alternativet, <strong>och</strong> som nog är det<br />

vanligaste förekommande, är poetiska sekvenser i vanlig film. Då handlar det<br />

oftast om drömsekvenser.<br />

Ingen av dessa sätt att göra lyrisk film på behöver följa någon tydlig berättande linje,<br />

eller använda sig av alla berättarelement. Lyrisk film är snarare väldigt fri för<br />

filmskaparen att skapa det känslointryck han/hon vill gestalta.<br />

Karaktärsteckning<br />

I ett dramatiskt berättande är det i första hand genom karaktärerna som filmskaparen för fram<br />

sitt budskap. Därför är valet <strong>och</strong> skapandet av karaktärerna en väldigt viktig uppgift. Det är<br />

livsfarligt att säga att den här karaktären kommer jag säkert på vad han ska göra när jag<br />

skriver dialogen. Karaktärernas drivkrafter, egenskaper <strong>och</strong> förutsättningar måste vara klara<br />

när manus skrivs.<br />

En karaktärs egenskaper som inverkar på handlingen måste beskrivas precist, så<br />

att personen inte blir luddig <strong>och</strong> svårförståelig. Om man inte tecknar en tydlig<br />

karaktär finns ingen profil eller individualitet. En person som är sammansatt <strong>och</strong><br />

mångtydig bör ha alla dessa motsättningsfyllda drag tydligt angivna.<br />

När man sedan skriver manuset är det inte nödvändigt att berätta allt om en person<br />

för publiken, utan man bör fokusera på det som är nödvändigt för handlingen. Det<br />

kan räcka att berätta 10% om personen, ytterligare 30-40% räknar publiken ut<br />

tack vare berättelsen, rekvisita, andra karaktärer <strong>och</strong> sina egna fördomar. Resten<br />

av karaktären är inte intressant för filmen, men manusförfattaren måste veta allt<br />

om den för att kunna skriva en naturlig person.<br />

Fysiska data:<br />

• Kön<br />

• Ålder<br />

54


• Kroppstyp <strong>och</strong> kroppshållning<br />

• Utseende (hårfärg <strong>och</strong> frisyr)<br />

• Klädsel <strong>och</strong> deras tillstånd<br />

• Gester <strong>och</strong> mimik<br />

• Sätt att tala<br />

Sociologiska data:<br />

• Etnisk tillhörighet <strong>och</strong> nationalitet<br />

• Klassbakgrund<br />

• Utbildning<br />

• Yrke (inkomst, arbetsförhållanden)<br />

• Bostadsförhållanden<br />

• Familjeförhållanden<br />

• Vänkrets<br />

• Fritidsaktiviteter<br />

• Politisk inställning <strong>och</strong> tillhörighet<br />

• Religiös inställning <strong>och</strong> tillhörighet<br />

• Namn<br />

Psykologiska data:<br />

• Ambitioner<br />

• Frustrationer<br />

• Drömmar<br />

• Personliga svagheter<br />

• Temperament<br />

• Intelligens<br />

• Livsinställning <strong>och</strong> moralisk läggning<br />

• Grundläggande värden<br />

• Romantisk/sexuell läggning<br />

• Komplexer<br />

• Speciella talanger<br />

Presentation av karaktärsdrag<br />

I en film är en person aldrig något annat än det den gör. Ett karaktärsdrag<br />

existerar endast eftersom det visas i handling. Därför måste man hitta sätt att<br />

visualisera karaktärsdragen. Det finns förstås olika sätt att visualisera<br />

karaktärsdrag:<br />

• genom handling (vad personen gör, försöker göra <strong>och</strong> hur denne gör det)<br />

• genom kontrast till vad andra gör<br />

• genom reaktioner (hur personen reagerar på vad andra gör)<br />

• genom andras reaktioner<br />

• genom dialog (vad en person inte säger)<br />

• genom utseende (kläder <strong>och</strong> beteende mönster)<br />

• genom förhållande till rekvisitan<br />

• genom förhållande till miljön<br />

• genom namn<br />

55


Ett karaktärsdrag kan komma bäst fram om det visas i kontrast mot personens<br />

huvuddrag. En hänsynslös man kan bli farligare om han är snäll <strong>och</strong> kärleksfull i<br />

en del situationer <strong>och</strong> en kallblodig mördare i andra.<br />

Scenuppbyggnad<br />

Vår upplevelse av en scen bestäms inte bara av det som händer i den, utan även<br />

vad som händer före <strong>och</strong> efter. Scenens huvuduppgift är att föra handlingen<br />

framåt <strong>och</strong>/eller öka publikens förståelse <strong>och</strong> insikt i filmen. När man skriver en<br />

scen är det viktigt att följande tre moment tas i beaktning: handling, funktion <strong>och</strong><br />

gestaltning.<br />

Handling<br />

Vad händer i scenen? Vem gör vad <strong>och</strong> varför? Vilka är förutsättningarna för det<br />

som händer i scenen? Detta bör ha presenterats i tidigare scener, om inte så bör<br />

det göras så fort som möjligt i scenen. I den dramatiska formen så kan man se<br />

varje scen som ett eget litet drama med anslag, konfliktupptrappning <strong>och</strong><br />

konfliktlösning.<br />

Funktion<br />

Scenens funktion bestäms av dess placering i den dramatiska eller episka<br />

helheten. Inom dramat ska varje scen leda konfliktmaterialet till dess slutgiltiga<br />

upplösning. Inom den episka formen ska scenen profilera, kasta nytt ljus över <strong>och</strong><br />

öka publikens insikt. Scenens funktion är att stödja filmens centralidé.<br />

Gestaltning<br />

När vi väl vet scenens handling <strong>och</strong> funktion måste vi hitta ett uttryck som<br />

framför handlingen på effektivaste sätt. Det gäller alltså att använda<br />

berättarelementen på rätt sätt.<br />

Man skriver sällan in handlingar som är meningslösa för handlingen <strong>och</strong> som bara<br />

är till för att skådespelarna ska ha något att göra, <strong>och</strong> som är naturliga för en<br />

människa. Det kan tex vara att någon kliar sig i huvudet eller tänder en cigarett.<br />

Detta är upp till regissören <strong>och</strong> skådespelarna att hitta på.<br />

Dialog<br />

Dialogen som jag sa tidigare ska alltså inte förklara handlingen utan vara en följd<br />

av den. För att klara det kan man prova att skriva hela scenen utan någon dialog.<br />

Då tvingas man att fundera över vad som är dramatiskt bärande i scenen. Vad är<br />

avsikten med scenen? Vad vill personerna? Vad är det som händer? När man har<br />

fått dessa dramatiska element att fungera kan man skriva en dialog som uppstår ur<br />

situationen, utan att man behöver förklara den.<br />

En dialogs funktioner <strong>och</strong> krav:<br />

• Dialogen måste vara realistisk <strong>och</strong> trovärdig i sitt sammanhang.<br />

56


• Dialogen ska karaktärisera den talande. En persons sätt att tala berättar en<br />

hel del om vem han är, vad han tycker <strong>och</strong> tänker oavsett vad han<br />

egentligen säger.<br />

• Dialogen ska uttrycka den talandes sinnesstämning. Uttryckssättet är även<br />

här viktigare än vad som faktiskt sägs.<br />

• Dialogen ska leda handlingen framåt.<br />

• Dialogen ska ge information. Men denna information måste komma<br />

naturligt in i sitt sammanhang.<br />

Att skriva dialog<br />

När man skriver en dialog är det viktigt att tänka talspråk <strong>och</strong> inte skriftspråk.<br />

Men en filmdialog simulerar verkligt tal <strong>och</strong> kopierar det inte. Man skriver ett<br />

urval <strong>och</strong> en koncentration av talspråk. Man ska tänka på att:<br />

• Varje replik är karaktäristisk för den som talar.<br />

• Känsloinnehållet är viktigare än den verbala betydelsen.<br />

• En bra dialog ofta är osammanhängande <strong>och</strong> ologisk, dvs naturlig.<br />

• Gester, utbrott <strong>och</strong> handling bör användas istället för det talade ordet (där<br />

det är möjligt).<br />

• Dialogens karaktär bör reflektera situationen.<br />

• Tänk på varför personer säger något <strong>och</strong> varför de svarar. En dramatisk<br />

dialog är aldrig konversation.<br />

• En replik säger bara en sak i taget. Hellre två korta repliker än en som<br />

säger två saker samtidigt.<br />

57


Kommunikationsteori<br />

Ett budskap som förmedlas med hjälp av ljud <strong>och</strong> rörliga bilder Kan få en mycket stor<br />

genomslagskraft. Man har i mediet ett antal redskap som man kan kombinera på ett oerhört<br />

kraftfullt sätt för att nå sitt mål. Å andra sidan, så kan dessa verktyg ha motsatt verkan om<br />

dom inte används på rätt sätt.<br />

Linjärt berättande (i motsats till t.ex. interaktivt berättande) bygger på att man berättar en<br />

<strong>historia</strong> eller på annat sätt för fram ett budskap med en bestämd start <strong>och</strong> slutpunkt.<br />

Mottagaren har begränsade möjligheter att påverka innehållet eller göra paus i berättandet.<br />

Det första som man kan tänka sig som exempel är vanligt dramatiskt berättande på film. Men<br />

det kan även röra sig om reportage, nyhetssändning <strong>och</strong> ”soffprogram”.<br />

Det finns naturligtvis både för <strong>och</strong> nackdelar med denna typ av berättande:<br />

+ Föra fram känslor <strong>och</strong> stämningar<br />

+ Engagera<br />

+ Skapa överblick<br />

+ Visa ”verkligheten”<br />

+ Förklara svåra sammanhang<br />

- Passiv inlärningssituation<br />

- Dålig på att förmedla detaljfakta<br />

- Kräver ”uppstartningstid”<br />

Analys<br />

I grunden för all kommunikation finns ett behov. Behovet att berätta, påverka, utbilda m.m.<br />

Behovet hos målgruppen behöver inte vara lika uttalat. Det är inte alltid som man aktivt söker<br />

sig till en speciell typ av information. Jämför t.ex. reklam. Vid utvärdering av behov ska man<br />

ställa sig frågan om det som jag vill förmedla eller sättet som det görs på tillför något nytt.<br />

Syftet styr till viss del valet av formen på budskapet. Är syftet att visualisera, konkretisera,<br />

påverka, underhålla o.s.v?<br />

Målet är naturligtvis att mottagaren ska ta till sig programmet. Det handlar om åskådarens<br />

behållning, t.ex. känsla <strong>och</strong>/eller kunskap. Vad har åskådaren med sig direkt efter<br />

programmet? Vad är den bestående känslan en vecka efter programmet?<br />

Målgruppen är viktig för rätt analys. Vilken ålder? Vilka förkunskaper? Vilka attityder,<br />

intressen <strong>och</strong> referensramar har man?<br />

Hur är visningssituationen? Sitter man hemma framför TV:n <strong>och</strong> kan zappa mellan kanalerna,<br />

eller sitter man i ett för ändamålet avsett visningsrum? Har det linjära berättandet samverkan<br />

med andra medier t.ex. trycksaker eller utställningsskärmar?<br />

Idé<br />

Idén är ett sätt att förpacka budskapet så att den får rätt form för ändamålet. Förpackningen<br />

syftar till att på effektivast möjliga sätt nå ut till den målgrupp som man önskar. Ofta handlar<br />

58


det om att t.ex. en film ”andas” ett budskap. Man kan dela in filmen/videon i flera<br />

övergripande former, t.ex.:<br />

fiction, lyrik, dokumentär/dramadokumentär, reportage, reklam, information, utbildning,<br />

underhållning, musikvideo m.fl.<br />

Kommunikationens villkor<br />

Det fria valet har naturligtvis stora fördelar. Men rädslan för att tittaren ska byta kanal gör att<br />

man inte vågar fördjupa sig i ämnen. Med nya mediakanaler ökas behovet av volym.<br />

Kanalerna måste fyllas med något. Kvantitet framför kvalitet. Risken är att innehållet tunnas<br />

ut.<br />

Det fria valet gör att du själv kan söka dig till den information som du är intresserad av,<br />

samtidigt som det är mycket lätt att sprida ny information. Risken är också att man aktivt<br />

väljer bort information som går emot dina egna förutfattade meningar. Att ständigt ges<br />

möjlighet att välja vinklad information kan skapa en grogrund för en fördjupad personlig<br />

likriktning eller fundamentalism om man så vill. En paradox i vårt täta mediabrus.<br />

Kommunikationens broar <strong>och</strong> raviner<br />

När man ska kommunicera via linjära medier, så finns ett antal fallgropar som minskar, eller<br />

helt eliminerar den förväntade effekten.<br />

De vanligaste fallgroparna kan rubriceras:<br />

Kannibalisering<br />

Redundans<br />

Känslofällan<br />

Osynlighetsfällan<br />

Logisk bubbla<br />

Haloeffekt<br />

Kannibalisering kan sammanfattas med att formen äter upp budskapet. Utmanande klädsel,<br />

känsloladdade bilder, störande bakgrund m.m. kan ta bort uppmärksamheten från det<br />

egentliga budskapet. Man kan dela upp begreppet i två skilda delar. Rikedoms-kannibalisering<br />

<strong>och</strong> fattigdoms-kannibalisering. Exempel på rikedoms-kannibalisering är när man i ett<br />

program brer på för mycket av avvikande bildspråk så att åskådaren inte uppfattar innehållet i<br />

berättartexten.<br />

59


Vi tittar alltid först på vad bilden berättar. Sedan kanske vi lyssnar också. Allra starkast<br />

fängslar bilderna om vi själva kan tänka oss att vara i den situation som visas. Rörliga bilder<br />

har starkare dragningskraft än stillbilder. Bilder av människor har starkare dragningskraft än<br />

bilder på djur. Röda <strong>och</strong> gula föremål uppmärksammar mer än andra färger o.s.v.<br />

Fattigdoms-kannibalisering uppstår när uppmärksamheten från innehållet störs av<br />

felaktigheter, om speakern stakar sig, om bilden är dålig (omotiverat suddig eller skakig), om<br />

ljudet låter kraxigt m.m.<br />

Är man ovan att använda sin apparatur eller har dålig yrkesvana är risken att budskapet blir<br />

fattigdoms-kannibaliserat. Är man däremot mycket skicklig på att utnyttja sina tekniska<br />

resurser, så är risken att budskapet blir rikedoms-kannibaliserat. Det drunknar i alla ”tjusiga”<br />

videoeffekter eller häftiga kameraåkningar. Här gäller som alltid att det är budskapet som ska<br />

styra valet av teknik <strong>och</strong> tekniska lösningar.<br />

All förmedling av ett budskap riskerar att bli föremål för kannibalisering. Speakerrösten kan<br />

ha en dialekt som man försöker att härleda. Musiken kan skapa associationsbanor hos olika<br />

människor. Speciellt om man använder kommersiell musik som produceras för<br />

konsumentmarknaden.<br />

Redundans innebär att man talar om för åskådaren det som redan är uppenbart. T. ex. man<br />

visar en bild på en apelsin <strong>och</strong> speakern talar om att "det här är en apelsin". Att på detta sätt<br />

dumförklara åskådaren gör att man snabbt tappar intresset.<br />

När man producerar en film ska man ha som riktlinje att berättelsen hela tiden ska sträva<br />

framåt. All ny information som tillförs skall bidra till att föra berättelsen framåt. Vi kan tänka<br />

oss att vi bygger ett hus. Varje liten del i huset bidrar till den färdiga byggnaden. I filmen kan<br />

vi byta ut byggnaden mot syftet. Detta innebär inte att vi hela tiden skall späcka vår<br />

framställning med ny information. Framåtrörelse kan också innebära att vi t.ex. belyser en<br />

uppgift från flera sidor, bygger upp stämningar eller en spänning. Men hela tiden ska man<br />

väga allt nytt material, om inte på guldvåg, så i alla fall på våg.<br />

En typ av redundans kan t.ex. bli resultatet av att man låter en copywriter, som normalt jobbar<br />

med utformning av broschyrtext, skriver ett speakermanus till en informationsfilm. Speakern<br />

berättar om allt som är av värde, på samma sätt som broschyrtexten skulle vara utformad, <strong>och</strong><br />

lämnar inget över till bilden att illustrera. Resultatet blir, om man inte är uppmärksam, vad<br />

man brukar kalla ”bildsatt speaker”. I detta fall är det bilden som ”talar om något” som redan<br />

sägs i speakern. Detta är mycket vanligt i nyhetssammanhang där man främst har krav på<br />

tydlighet <strong>och</strong> inte heller har tid att bygga en berätardynamik mellan bild <strong>och</strong> ljud. Att vi<br />

accepterar detta som åskådare kan förklaras med att det som förmedlas engagerar oss på olika<br />

sätt.<br />

Man kan göra experimentet med att stå i ett angränsande rum <strong>och</strong> enbart lyssna på TV<br />

nyheterna. I de flesta fall ska man finna att man snappar det mesta av innehållet i nyheterna.<br />

Skulle vi däremot skruva ner ljudet <strong>och</strong> enbart titta på bilderna, så kommer vi att ha svårt att<br />

uppfatta innehållet i nyhetssändningen, utom möjligtvis vädret.<br />

Känslofällan. Människan är en känslovarelse, även om man inte upplever det själv. Även till<br />

synes rationella beslut fattas många gånger på känslomässiga grunder. Man har mycket lätt att<br />

glömma bort eller förringa argument som talar emot ett beslut fattat på känslor. Det är normalt<br />

60


mycket svårt att nå igenom med argumentation om denna inte också kryddas med faktorer<br />

som spelar på känslor.<br />

Detta är faktorer som utnyttjas i religiösa, politiska <strong>och</strong> affärsmässiga sammanhang (reklam).<br />

Rädsla eller hopp om lycka är faktorer som ofta finns bakom vårt engagemang i en sak. I<br />

reklamen spelar man på sådana känslor.<br />

- Om du inte beställer idag, så blir det dyrare!<br />

- Om du inte gör så här, så blir du aldrig omtyckt!<br />

- Investera nu så blir du rik!<br />

- Köp det här, så vill alla bli dina vänner!<br />

Om vi bara försöker att nå ut med enbart förnuftiga argument, så är det risk för att vi bara når<br />

ett fåtal analytiskt tänkande människor.<br />

Osynlighetsfällan. Fyra faktorer spelar in om jag ska intressera mig för en nyhet.<br />

Det bör handla om något som jag inte kan påverka.<br />

Det bör ske här, där jag är.<br />

Det bör ske nu, strax, eller bör just ha skett.<br />

Det bör ske plötsligt.<br />

Minst tre av dessa faktorer bör finnas med för att en nyhet ska få genomslagskraft.<br />

Exempelvis Kuwaitkriget. Det var opåverkbart - icke självvalt. Det skedde här, d. v. s. i TVsoffan.<br />

Det skedde nu med hjälp av direktsändning <strong>och</strong> det inträffade plötsligt.<br />

Å andra sidan kan man jämföra FN:s senfärdighet i kriget i forna Jugoslavien. Kriget ansågs<br />

som självvalt. Flera grupper slogs mot varann. Det var bara att lägga ner vapnen. Det hade<br />

inte inträffat plötsligt. Man har ju varit osams där i flera hundra år. Det skedde inte här, utan i<br />

Jugoslavien. Vi fick i inledningsskedet inte så mycket bilder levererade till oss i TV-soffan.<br />

Logisk bubbla. Kan liknas vid förutfattade meningar. Vi har en åsikt i en fråga <strong>och</strong> är inte<br />

beredda att ta emot argument som bevisar motsatsen. Bubblan kan innehålla värderingar,<br />

kulturmönster, religion, ideologi, föreställningar, uppfattningar <strong>och</strong> fördomar. Det kan i vissa<br />

fall vara oerhört svårt att få hål på en logisk bubbla.<br />

Haloeffekter uppstår när man mer ser till vem som förmedlar ett budskap än till innehållet.<br />

Man lyssnar t.ex. mer på en professor som yttrar sig i ett ämne, även om det ligger utanför<br />

dennes normala kunskapsområde.<br />

”Kill your darlings”<br />

Det händer titt som tätt att man sitter med material till en film som man långt i förväg har<br />

bestämt att man ska ha med. Det kan vara en scen eller bild som man verkligen kämpat för att<br />

få precis som man vill ha den. Ofta har man med sig historien hur man skapat bilden i<br />

bakhuvudet. Det kan vara den där fantastiska utsikten som man fick kämpa i tre timmar för att<br />

komma upp till, eller den där lilla blomman som man fick hänga i krokig arm intill ett<br />

vattenfall för att kunna ta. Problemet är att den som sedan ska titta på materialet enbart ser<br />

resultatet av ens strapatser. Detta resultat är kanske inte alls i proportion till de umbäranden<br />

som krävdes för att skapa bilden. När man sammanställer ett material är det mycket viktigt att<br />

man försöker att sätta sig in i målgruppens förutsättningar. Dom ser <strong>och</strong> hör bara det som<br />

finns med i programmet <strong>och</strong> inget annat. Under dessa förutsättningar kanske det visar sig att<br />

61


ens favoritscener inte alls fungerar i sitt sammanhang. Att då refusera en sådan favoritbild<br />

eller scen kan vara extra svårt, men nödvändigt.<br />

Att hela tiden försöka att sätta sig in i målgruppens förutsättningar måste hela tiden följa<br />

arbetet med att färdigställa en film. Den som skapar en film måste vara medveten om att man<br />

under arbetets gång blir mer <strong>och</strong> mer insatt i det ämne som filmen handlar om. Till slut är man<br />

expert. Även här gäller det att tänka på vilka som ska se på programmet. Det som jag tycker<br />

är självklart kanske inte är så själklart för målgruppen. Detta gäller även enstaka bilder.<br />

Komplexa bilder med mycket information är svåra att läsa av för en ovan betraktare. Det som<br />

har skapat programmet kan bilderna <strong>och</strong> vet var i bilden som man ska titta för att se den<br />

viktiga informationen. Men vet åskådaren var man ska titta i bilden? Här kan man utnyttja<br />

klippteknik <strong>och</strong> bildspråk för att underlätta för tittaren.<br />

Metonym<br />

För att förmedla ett budskap på ett effektivt sätt utan att lyssnaren eller åskådaren tappar<br />

intresset på grund av en omständlig handling, så kan vi utnyttja metonymer. Vi utnyttjar våra<br />

fördomar <strong>och</strong> klichéer för att med olika symbolspråk föra en handling framåt. Framför allt är<br />

detta vanligt i inledningen av en film där man snabbt vill skapa ett anslag som fängslar<br />

tittaren/lyssnaren <strong>och</strong> som sedan den fortsatta handlingen bygger vidare på.<br />

Lägerbålskurvan<br />

Begreppet lägerbålskurvan faller tillbaka på hur det kan vara när ett gäng samlas runt ett<br />

lägerbål. Man samlas, samlar ihop ved, tänder elden, sjunger, berättar historier, grillar korv,<br />

käkar o.s.v. Varje enskild händelse kan graderas i hur ”trevlig” den är. Vissa är lite trevligare<br />

än andra. Som oftast är det lite trevligare i inledningen av varje händelse. Men ganska snabbt<br />

avtar graden av ”trevlighet”. Att samla ved kan vara kul en liten stund. Att sjunga sånger kan<br />

också vara kul, men inte hur länge som helst. Hela händelsförloppet kan illustreras med en<br />

kurva där graden av trevlighet illustreras som en funktion av tiden.<br />

Lägerbålskurvan fungerar även som illustration på hur man kan hålla en åskådare intresserad<br />

av ett program. I princip går den ut på att graden av spänning, intressanta uppgifter eller vad<br />

det nu må vara ska variera i intensitet genom hela programmet. Åskådaren ska matas med små<br />

händelser i lagom stora munsbitar. Lägerbålskurvan fungerar som illustration på hur man<br />

bygger upp program där den traditionella dramaturgin inte är direkt tillämplig. T.ex reklameller<br />

informationsprogram. Men även inom ramen för ett dramaturgiskt berättande kan mindre<br />

avsnitt illustreras med lägerbålskurvan. Det ligger ju lite i sakens natur när vi pratar om att<br />

filmberättandet hela tiden skall tillföras nya element som för berättelsen framåt.<br />

62


Typisk lägerbålskurva där åskådaren matas med omväxling.<br />

Åskådarens upplevelsegrad är relativ. Lägger man sig på en "hög" nivå redan från början<br />

kommer denna nivå att betraktas som en referens. Kan man inte sedan leva upp till den<br />

referensen, så blir upplevelsen i värsta fall negativ.<br />

”Ballongen” i inledningen höjer förväntningarna som man sedan inte kan leva upp till.<br />

Att hela tiden ligga på en jämn <strong>och</strong> hög nivå är krävande <strong>och</strong> inte särskilt effektivt. Åskådaren<br />

vänjer sig snabbt vid den nya nivån <strong>och</strong> det blir en ny ”nollnivå”.<br />

63


Människan är anpassningsbar. Man blir snabbt lätt bortskämd med en genomgående hög<br />

nivå. Resultatet blir att den relativa upplevelsen inte uppfattas så hög som man skulle ha<br />

kunnat förvänta sig.<br />

Det gäller också att kunna sluta en berättelse i tid. man brukar säga att man ska sluta när man<br />

har som roligast. Det ligger något i det. Ett utdraget slut kan förta effekten av ett i annars bra<br />

upplägg.<br />

”Vampyren” är en effektiv sabotör av en i övrigt positiv upplevelse.<br />

Lägerbålskurvan kan sägas vara ett alternativ eller komplement till den klassiska dramaturgin.<br />

Den är mest tillämpbar där informationen är uppdelad <strong>och</strong> där man har svårt att skapa en<br />

sammanhängande story. Man måste också veta att man har publiken med sig hela tiden, så att<br />

dom under resans gång inte har möjlighet att välja något annat program. Då kan man leva med<br />

devisen ”Man måste ha lite tråkigt för att kunna uppskatta det roliga”.<br />

64


Manusarbete<br />

Film är ett mycket bra verktyg när man vill berätta något som engagerar <strong>och</strong>/eller underhåller.<br />

Filmberättandet innehåller många verktyg, både bildligt <strong>och</strong> bokstavligt talat. För att hålla<br />

koll på allt detta behövs en struktur.<br />

Manus uppgift är att detaljerat beskriva filmens utseende <strong>och</strong> innehåll från början till slut.<br />

Detta ska ligga till grund för det fortsatta planerandet <strong>och</strong> genomförandet av inspelningen.<br />

Manus är det egentliga filmskapandet<br />

Manus är det färdiga arbetet. Den innehåller allt som behövs för att kunna filma<br />

en scen, hur scenen ska delas upp i olika bildinställningar (kamervinklar,<br />

bildformat), vilken tid på dagen det är, vilka som medverkar, speciell rekvisita,<br />

repliker osv.<br />

Själva filmningen <strong>och</strong> efterbearbetningen (redigering) är egentligen bara ett verkställande av<br />

alla de idéer som finns dokumenterade i manuset. Det finns vissa som påstår att det kreativa<br />

arbetet är avslutat i <strong>och</strong> med att manus är färdigställt. Alfred Hitchcock sa en gång efter<br />

avslutat manusarbete, ”Nu återstår bara det mödosamma arbetet att fästa det hela på celluloid<br />

<strong>och</strong> klippa ihop det i rätt ordning.” De idéer som inte finns med i manus fungerar sällan i en<br />

slutlig produkt. Detta gäller inte minst trickeffekter som läggs in vid s. k. "bildtorka". Alla<br />

effekter <strong>och</strong> liknande ska vara motiverade på något sätt för att föra handlingen framåt.<br />

För att frångå manus på inspelningsplatsen måste man ha mycket starka argument. Däremot är<br />

det inget som hindrar (utom möjligen budget) att man utöver manusbilder tar de bilder som<br />

man fick en snilleblixt om på inspelningsplatsen.<br />

Manus är slutprodukten av en lång kedja av idéer, research, skisser <strong>och</strong> diskussioner. En<br />

arbetsgång kan se ut så här:<br />

1) Synopsis – berättelsen i stora drag. Sammanfattning av syfte <strong>och</strong> innehåll.<br />

2) Arbetsmanus (grovmanus) - manus som används på inspelningsplats där det slutliga<br />

utseendet är svårt att bestämma.<br />

3) Konturskiss (outline) – dialog/speaker klar, men med skissade miljöer<br />

4) Manus (screenplay) – allt inkl dialog/komplett speaker<br />

5) Bildmanus (storyboard) – detaljbeskrivning av scener som kräver hög precision<br />

Det första man behöver bestämma innan arbetet med en film börjar är den<br />

tematiska inriktningen. Man måste bestämma vad filmen ska handla om, <strong>och</strong> hur<br />

man avgränsar detta. Temat säger alltså vad filmen ska handla om, men inte vad<br />

vi vill säga med den, inget om vilka insikter eller hållningar vi vill förmedla med<br />

den.<br />

Centralidén är filmens struktureringsprincip. Den bestämmer vad vi anser är<br />

viktigt att betona, <strong>och</strong> vad som är mindre viktigt <strong>och</strong> som skjuts åt sidan. Den<br />

bestämmer också hur vi arbetar med varje berättarelement, hur vi börjar, utvecklar<br />

<strong>och</strong> avslutar filmen.<br />

I dramatisk framställning tar centralidén form av en premiss (X leder till Y) som<br />

gestaltas genom <strong>utveckling</strong>en av de dramatiska situationerna på handlingsplanet.<br />

I episk framställning tar centralidén ofta form av en episk ledfråga som man<br />

försöker besvara genom uppställning av relevanta hypoteser som testas mot<br />

verkligheten.<br />

Med den gestaltande idén skapar vi en form för filmen som får temat <strong>och</strong><br />

65


centralidén att vara så tydlig <strong>och</strong> slagkraftig som möjligt.<br />

Synopsis<br />

Ett synopsis är hela historien i korta drag. Synopsis kan, liksom alla övriga steg, successivt<br />

arbetas fram utifrån ett idéarbete <strong>och</strong> research likväl som det kan vara en skiss på en<br />

krogservett. Syftet med ett synopsis är att strukturera <strong>och</strong> klarlägga programinnehåll <strong>och</strong><br />

syfte, både för en själv <strong>och</strong> för andra som inte är så insatta i dina tankegångar. I en<br />

beställarsituation är det inte ovanligt att det är synopsis som ligger till grunden för avgörandet<br />

om man är intresserad eller ej. I många fall ligger det också till grund för en kostnadskalkyl.<br />

När man formulerar ett synopsis bör man ha tänkt igenom följande:<br />

1) Fungerar idén<br />

2) Vilken är målgruppen<br />

3) Vad är premissen, d. v. s. budskapet<br />

Som sista steg i synopsisarbetet kan man scenindela handlingen. Det<br />

är viktigt att inte scenindela förrän man känner sig nöjd med hela handlingen.<br />

Detta arbete leder till en konturskiss (outline).<br />

Vägen till ett färdigt manus<br />

När synopsis är formulerat <strong>och</strong> godkänt återstår att bryta ner <strong>och</strong> utveckla detta till ett slutligt<br />

manus. Denna process kan se väldigt olika ut beroende på vilken typ av produktion som man<br />

ska göra <strong>och</strong> vem som utvecklar manus.<br />

Ett användbart knep är att använda sig av korttricket. Då använder man sig av kort vilka var<br />

<strong>och</strong> en representerar en scen. På kortet skriver man Syfte (tex gräl) <strong>och</strong> Funktion<br />

(i förhållande till hela handlingen) <strong>och</strong> slutligen Roller (vilka som är med i<br />

scenen). Man numrerar korten i tänkt ordningsföljd, <strong>och</strong> ordnar scenerna i<br />

sekvenser. När man har hittat rätt ordning kompletteras korten med en mer<br />

utförlig beskrivning av scenen, dvs konturskiss.<br />

Den ena ytterligheten är dokumentären där producenten påbörjar filmning endast med ett<br />

synopsis till grund. Under inspelningens gång kan synopsis utvecklas mer till ett manus. Det<br />

är inte ovanligt att manus inte blir mer än till ett arbetsmanus.<br />

Den andra ytterligheten är det dramatiska berättandet i en spelfilm. En stor inspelningsbudget<br />

<strong>och</strong> med många inblandade människor kräver ett mycket detaljerat manus.<br />

Manus uppgift är att detaljerat beskriva filmens utseende <strong>och</strong> innehåll från början till slut.<br />

Detta ska ligga till grund för det fortsatta planerandet <strong>och</strong> genomförandet av inspelningen.<br />

En enkel form av manus kan se ut så här:<br />

Bild<br />

Här beskrivs hur en tagning ska se ut.<br />

Ljud<br />

Här beskrivs musik, miljö/effektljud <strong>och</strong> ordalydelsen i<br />

en dialog eller speaker.<br />

En annan variant är där man numrerar varje tagning. Detta gör det lättare att samla ihop<br />

likartade scener vid ett inspelningstillfälle.<br />

66


Nr Bild Ljud<br />

Ett detaljerat manus i form av ett bildmanus eller storyboard kan se ut så här:<br />

Nr Action-anm. Ljud Bild Bildbeskrivning Speaker/dialog<br />

1 Beskrivning av<br />

atmosfär, stämning.<br />

Även<br />

inspelningsanvisningar<br />

som kameraplacering<br />

<strong>och</strong> resursanskaffning.<br />

Beskrivning av<br />

effekt- <strong>och</strong><br />

miljöljud samt<br />

musik.<br />

Tecknad<br />

illustration av<br />

tagning<br />

Beskrivning i ord av<br />

tagning<br />

Speaker/dialog<br />

Det finns naturligtvis flera vägar att successivt strukturera sin idé. Ett exempel är att skriva<br />

ner varje tagning på små självhäftande notisar. Dessa kan sedan fritt flyttas runt eller bytas ut<br />

efter hand som programmet växer fram.<br />

Grund för detaljplanering<br />

Ett väl genomarbetat manus en förutsättning för att man ska kunna hålla givna ramar vad<br />

gäller tid, pengar <strong>och</strong> resursbehov. Trots detta kan det naturligtvis dyka upp oförutsedda<br />

händelser, eller så visar det sig att en scenlösning inte fungerar som den är tänkt. Men ju<br />

mindre sådana oförutsedda händelser dyker upp, ju större möjlighet har man att lösa<br />

problemen på plats.<br />

Manus kan brytas ner till olika listor som t ex tidplan, resursanskaffning, speaker/dialog,<br />

kostnadskalkyl m. m. Dessa kan se ut på många olika sätt, men ett genomgående drag är att<br />

man lätt kan relatera olika poster till manus med t. ex. scennumrering (eller tagning).<br />

Kostnadskalkyl<br />

För att illustrera vilka poster som kan ingå i en produktion av lite enklare karaktär kan man<br />

titta på ett kalkylblad för produktionskostnad.<br />

Produktionskalkyl Videofilm<br />

tid/ant á pris summa<br />

Projektledning<br />

Research/Idé/Manus<br />

FÄLTINSAMLING----------------------------------------------------------------------------------<br />

Film/Video<br />

Ljud<br />

ATELJÉ------------------------------------------------------------------------------------------------<br />

Film/Video<br />

Ljud<br />

Original/Skyltar/Repro<br />

Videografik/Animering<br />

STUDIO------------------------------------------------------------------------------------------------<br />

67


Förredigering/Digitalisering<br />

Ljud<br />

Videoredigering<br />

Effekter (teknik)<br />

FRÄMMANDE TJÄNSTER/HYRA------------------------------------------------------------<br />

Inköp av uppdrag externt<br />

Studio/Ateljé<br />

Rekvisita<br />

Skådespelare/Statister<br />

Smink/kostym/scenografi<br />

Specialteknik<br />

Assistent<br />

Eget arkiv<br />

Bildrätt (inköp)<br />

Övriga illustrationer/grafik/animation<br />

Musikrättigheter<br />

Specialkomponerad musik/effektljud<br />

Svensk speaker<br />

Dramatiserade röster mm<br />

2:a språk<br />

MATERIAL---------------------------------------------------------------------------------------<br />

Magnetband ljud/video<br />

Grafiskt material<br />

Rekvisita<br />

Övrig förbrukningsmaterial/kostnader<br />

ÖVRIGT-------------------------------------------------------------------------------------------<br />

Resor/övernattning<br />

Frakter<br />

68


Ljussättning<br />

Den omgivning som vi ser omkring oss som tredimensionell. Det beror på att vi har ett<br />

stereoseende men också att vi mer eller mindre omedvetet rör på oss lite som gör att vi kan få<br />

relativa rörelser mellan olika plan i djupled. Detta sammantaget skapar bilden av<br />

tredimensionalitet i vår omgivning. Ett användbart knep är att som fotograf testa om ett motiv<br />

”håller” genom att blunda med ena ögat. Detta eliminerar djupseendet <strong>och</strong> kan ge en bättre<br />

uppfattning om hur bilden fungerar på t.ex. en TV-skärm.<br />

Som videofotograf kan vi bara återge motiven som tvådimensionella. Detta innebär att vi har<br />

svårare att förmedla djup i bilden. För att överbrygga detta finns olika knep. Ett av de<br />

viktigaste är ljussättning. Ljussättningen fyller flera funktioner. Det basala är att belysa ett<br />

motiv så att det över huvud taget går att exponera. I de flesta fall behövs inte ljussättning av<br />

den orsaken, eftersom det naturliga ljuset räcker för tillfredställande exponering. Många<br />

fotografer nöjer sig med detta <strong>och</strong> lämnar ljuslådan hemma. Med lite större ambitioner kan<br />

man dock utnyttja ljussättning för att skapa djup <strong>och</strong> framhäva stämningar.<br />

Allt som vi ser omkring oss består av reflekterat ljus<br />

Vitt ljus består av olika våglängder. De olika våglängderna i det för oss synliga ljuset<br />

uppfattar vi som olika färger. Vitt ljus är summan av alla färger i ljusspektret. Tar vi bort en<br />

eller flera våglängder, så får vi en färgförändring i ljuset. När alla våglängder i ljuset<br />

reflekteras lika mycket från en yta, så uppfattar vi den som vit. Motsatsen är då alla<br />

våglängder absorberas. Då uppfattar vi ytan som svart. Mellanläget är då bara vissa<br />

våglängder reflekteras. Det är då som vi uppfattar att ytan har en färg. En röd yta reflekterar<br />

våglängderna i det röda området, medan de andra våglängderna absorberas.<br />

På samma sätt kan en yta reflektera med olika intensitet.<br />

Kontrastomfång<br />

Ögat, tillsammans med hjärnan som processar våra synintryck, har en särklassigt hög<br />

känslighet. De kameror <strong>och</strong> de medier som vi lagrar bildinformation på är bara trubbiga<br />

hjälpmedel för att försöka efterlikna vårt synorgan. Det är viktigt att känna till<br />

begränsningarna. T. ex. klarar vår syn att särskilja ungefär 2 000 nyanser i gråskalan från vitt<br />

till svart. Fotografisk film har ungefär en tiondel av detta kontrastomfång, eller 200 steg på<br />

gråskalan. Videon är ännu sämre, ungefär 60 steg kan videofilmen urskilja. Komprimerad<br />

video ska vi inte tala om. Man brukar säga att videon har hårdare kontraster än fotografisk<br />

film. Detta gör att videon kräver mjukare <strong>och</strong> en mer balanserad ljussättning än filmen för att<br />

resultatet ska bli bra.<br />

Färgtemperatur<br />

Vitt ljus är ett relativt begrepp. Egentligen kan vitt ljus vid vissa förhållanden ha en dragning<br />

åt gult. Vid andra tillfällen åt blått. Vi talar om att ljuset har en färgtemperatur. Normalt<br />

lägger vi inte märke till dessa färgvariationer i ljuset då hjärnan kompenserar<br />

färgförskjutningen. Kameran däremot kompenserar normalt inte för detta själv.<br />

Färgtemperaturen mäts i Kelvingrader som utgår från absoluta nollpunkten <strong>och</strong> har samma<br />

riktningskoefficient som Celsiusskalan. Färgtemperaturen från en halogenlampa är ca 3 200K<br />

(Kelvingrader) medan vanligt dagsljus brukar anges till 5 600K. Dagsljuset kan variera<br />

mycket beroende på om det är soligt eller mulet eller om man befinner sig på en fjälltopp eller<br />

havsstrand. I fotografiska sammanhang använder man sig av en färgtemperaturmätare som är<br />

69


avstämd för den aktuella film som man använder. Avvikelsen i färgtemperatur justerar man<br />

med filter som tar bort lite av de blåa eller röda våglängderna.<br />

När man använder videokamera är detta betydligt enklare. Videokameran är avstämd för<br />

3 200K. Vid filmning utomhus vrids ett orangefilter in i strålgången bakom objektivet som<br />

åtminstone delvis kompenserar för det blåare utomhusljuset. Detta är grundfiltrering. Sedan<br />

riktar man kameran mot en vit yta som belyses med det ljus som man ska filma i. Genom att<br />

trycka in en knapp för vitbalansering, talar man om för kameran att detta är referensen för vitt<br />

ljus i denna scen.<br />

Blandljus<br />

När man ska filma i en miljö med ljuskällor an olika karaktär, så kan det bli problem. En<br />

vanlig situation är när man ska filma en person i ett rum som ljussatts med halogenlampor,<br />

samtidigt som det blåare dagsljuset strömmar in genom fönsterrutor.<br />

Ett sätt är att filtrera ljuset. Antingen sätter man blåfilter på lamporna, eller så sätter man<br />

orangefilter på fönsterrutorna. Nackdelen med filter är att dom tar bort en hel del ljus. I vissa<br />

situationer kan man mycket väl klara sig med det ofiltrerade blandljuset. Det kan t.o.m. göra<br />

bilden intressantare. Men det är viktigt att notera att vi accepterar hellre en något för orange<br />

bild än en som är för blåaktig. Alltså görs vitbalanseringen mot den yta som dagsljuset har<br />

störst inverkan på.<br />

Djupseende<br />

Tack vare att vi människor har två ögon, så har vi "stereoseende" eller "djupseende". Kameran<br />

har bara ett "öga" vilket gör att bilden som vi erhåller saknar det "djup" som vi är vana att se<br />

vår omgivning i. Bilden känns platt. Det finns olika knep för att skapa mer djup i en bild. Ett<br />

sätt är att utnyttja ljuset. Genom att ta tillvara på skuggor <strong>och</strong> högdagrar så kan vi "frilägga"<br />

<strong>och</strong> lyfta fram motiv. Detta innebär att åtminstone en del av ljuset måste komma från ett annat<br />

håll än där kameran står. Detta är den grundläggande tanken med ljussättning.<br />

Grunden för enkel ljussättning<br />

I ljussättningssammanhang talar vi om trepunktsljussättning. Detta är grunden för enkel<br />

ljussättning. Trepunktsljussättning består av huvudljus (modulationsljus), lättningsljus <strong>och</strong><br />

bakljus.<br />

Figur 32: Uppställning för trepunktljussättning.<br />

Huvudljuset används till att primärt lysa upp motivet. Lampan placeras normalt ganska nära<br />

70


kameran eller nära kamerans strålgång. Som ljuskälla används en lampa med ganska<br />

koncentrerad strålgång t. ex. en spotlight med fresnellins. Detta ljus ger hårda skuggor.<br />

Figur 33: Fresnellampa.<br />

För att lätta upp dessa skuggor används lättningsljus. Detta ljus består av en mer diffus<br />

ljuskälla <strong>och</strong> har till uppgift att dämpa skuggor, dock inte att utplåna dom. Lättningsljuset<br />

sätts på motstående sidan av objektivets strålgång <strong>och</strong> med en större vinkel från denna.<br />

Figur 34: Lampa för att sätta mjukljus, s.k. säng.<br />

Slutligen sätts bakljus. Detta ljus placeras högt ovanför <strong>och</strong> bakom motivet. Ljuset markerar<br />

motivets konturer <strong>och</strong> lyfter på så sätt fram detta från bakgrunden. Bakljuset sätts så att det<br />

ligger i linje med huvudljuset fast på motstående sida om objektet. På så sätt lättas skuggan i<br />

nackpartiet på ett bra sätt. Bakljuset sätts normalt med försiktighet så att man inte lägger<br />

märke till ljuset men däremot effekten av det.<br />

Figur 35: Fresnellampa för att sätta bakljus.<br />

I ljussättningssammanhang talar man också om fondljus. Detta ljus används för att ljussätta<br />

71


akgrunden för att på så sätt göra den lite mer levande. Fondljuset kan också dämpa<br />

eventuella skuggor på bakgrunden. Fondbelysningen kan man experimentera en hel del med.<br />

Med olika struktur på bakgrunden <strong>och</strong> s.k. släpljus kan man åstadkomma olika effekter.<br />

Figur 36: Fondljus består av flera lampor. Det är vanligt att dessa förses med färgade<br />

filter.<br />

I fält när man ska ha en rörlig utrustning så släpar man inte på studiobelysning. I stället<br />

använder man sig av portabla ljuskit bestående av tre till fyra lampor med stativ. Dessa har<br />

naturligtvis begränsningar vad gäller möjlighet att ställa ljusbilden. Som oftast finns möjlighet<br />

att i begränsad omfattning sälla in mellan koncentrerad ljuskägla <strong>och</strong> mer spridd (spot –<br />

flood). Ytterligare hjälp har man med reflexskärmar <strong>och</strong> liknande.<br />

Figur 37: Portabel lampa typ ”Red Head”.<br />

Ljusmixer<br />

En portabel ljusmixer (eller ljusbord) är mycket användbar när man ska reglera ljus i fält. En<br />

sådan används vanligen när man ska rigga mer komplicerade scener. Det är viktigt att notera<br />

att färgtemperaturen ändras när matningen till lamporna ändras. Alternativ till ljusmixer är<br />

ND filter som sätts framför lamporna. Fördelen är att färgtemperaturen inte ändras men dessa<br />

är naturligtvis inte lika smidiga som ljusreglarna i en mixer.<br />

72


Videokameran<br />

Färgtemperatur<br />

När vi läser en bok i glödljus uppfattar vi boksidorna som vita. Skulle vi läsa samma bok i<br />

solljus, så skulle vi fortfarande uppfatta samma boksida som vit. Skulle vi filma eller<br />

fotografera boksidan vid de olika tillfällena utan att kamerainställningarna ändrades eller att<br />

filmen byttes ut, så skulle vi se en tydlig skillnad. Bilderna från glödljusbelysningen skulle<br />

visa sig mer gulaktiga <strong>och</strong> utomhusbilderna mer blåaktiga. Våra ögon, eller hjärnan, är<br />

känsligt för färgskillnader som registreras samtidigt, men betydligt mer okänsligt när det<br />

sträcker sig över tid. Det här innebär att det som vi med våra ögon betraktar som vitt inte<br />

alltid är det för kameran. Vi har att göra med olika färgtemperatur som är beroende av det ljus<br />

som vi betraktar ett föremål i. Definitionen för färgtemperatur är det ljus som sänds ut från en<br />

absolut svart kropp som värms upp. Förhållandet åskådliggörs i Fig 2. nedan. När vi filmar<br />

med videokamera, så måste vi tala om för den vad som är vitt. Tekniskt innebär detta att de<br />

tre grundfärgernas bidrag skall vara lika stort.<br />

Som vi ser, så har ett ”blåaktigare” ljus ett större energiinnehåll än ett rödare. Dagsljus har<br />

alltså en högre färgtemperatur. Detta skiljer sig från det som vi i dagligt tal kallar för varma<br />

<strong>och</strong> kalla färger.<br />

Vitt ljus innehåller alla spektralfärger. Skillnaden mellan olika ”vithet” är att det är en<br />

förskjutning mot det blåa eller det röda området. Detta är något som en videokamera kan<br />

hantera. En videokamera är avstämd för en färgtemperatur på 3 200 K. Denna färgtemperatur<br />

motsvarar ljuset från en halogenlampa. Avvikelser från detta måste kompenseras. I<br />

professionella videokameror görs en elektronisk vitbalansering inom två intervall, 3 200 k <strong>och</strong><br />

5 600 K. för att åstadkomma en avstämning för 5 600 K skjuts ett orangefilter in i kamerans<br />

strålgång. Vanligen via ett filterhjul som sitter på kamerakroppen bakom infästningen till<br />

objektivet. 5 600 K betraktas som ett normalvärde för dagsljus. Finjustering görs sedan<br />

elektroniskt genom att rikta kameran mot en vit (eller neutralgrå) yta <strong>och</strong> kalibrera de tre<br />

grundfärgerna till samma nivå. Det är viktigt att notera att kalibrering görs i det ljus som man<br />

sedan ska filma i.<br />

Figur 38. CIE diagram<br />

73


Figur 39. Färgtemperaturer i det ”vita” området i ett CIE diagram:<br />

a=24 000 K<br />

b=10 000 K<br />

c= 8 000 K<br />

d= 4 500 K<br />

e= 3 000 K<br />

f= 2 300 K<br />

g= 1 800 K<br />

h= 1 000 K<br />

i= 600 K<br />

Färgerna inom det streckade området kommer ögat att godta som vitt där man inte har<br />

tillgång till jämförelse med annat ljus.<br />

Vitbalansering<br />

En videokamera är avstämd för en färgtemperatur på 3 200° Kelvin. Det är samma<br />

färgtemperatur som en halogenlampa avger. Om färgtemperaturen avviker från<br />

halogenlampans. T.ex. om man ska filma i dagsljus, så måste kameran kalibreras för detta<br />

annars blir bilden blåaktig. Detta kallas för att man vitbalanserar kameran. Kameran klarar till<br />

viss del på elektronisk väg att justera färgtemperaturen. Men avviker temperaturen för<br />

mycket, så måste man föra in ett färgat filter i objektivets strålgång. Skillnaden mellan<br />

kamerans grundinställning <strong>och</strong> dagsljusets färgtemperatur är normalt så stor att man använder<br />

sig av ett dagsljusfilter som gör att kameran får en grundinställning för 5 400° Kelvin. Detta<br />

filter finns inbyggt i kameran <strong>och</strong> ändras på via en ratt ovanför objektivfästet. Normalt brukar<br />

det också finnar ett eller två olika ND filter kopplad till samma ratt. Vitbalanseringen går till<br />

så att man kalibrerar kameran mot en yta som definieras som neutral (vit) i den aktuella<br />

inspelningsmiljön. Den skall göras så fort ljussituationen förändras på så sätt att den tidigare<br />

74


definierade neutral (vita) ändrar färgtemperatur. Vitbalanseringen i kameran aktiveras via en<br />

vippbrytare.<br />

Optik<br />

Ett objektiv på en videokamera kan ha flera olika funktioner inbyggda <strong>och</strong> skiljer sig mycket<br />

mellan amatör- <strong>och</strong> professionella kameror. Vi tittar lite närmare på ett professionellt<br />

objektiv. Objektivet sitter fast i kamerakroppen via en bajonettfattning. Man brukar tala om<br />

olika dimensioner på objektivfattningen. Då menar man egentligen måtten på bildelementen i<br />

kameran, d.v.s. CCD sensorn. Grovt uttryckt kan man säga att amatörkameror har 1/3” (tum),<br />

semiprofessionella 1/2” <strong>och</strong> professionella 2/3”.<br />

Skärpan ställs in med avståndsringen. Eftersom sökaren på videokameran har så dålig<br />

upplösning, så är det regel att man zoomar in maximalt mot det föremål som skall ligga i<br />

fokus <strong>och</strong> ställer in skärpan. Därefter zoomar man ut till önskat bildutsnitt. Vid fokusering.<br />

sker förflyttningen av linselementen via snäckdrev (en slags gänga). När man vrider den<br />

främre delen av objektivet med hjälp av fokuseringsringen, så förflyttas linselementen i<br />

förhållande till varandra utefter den optiska axeln. Normalt roterar främre delen av objektivet<br />

<strong>och</strong> frontlinsen med. Men vissa lite dyrare objektiv har s.k. innerfokusering. Detta innebär att<br />

den främre delen av objektivet inte snurrar med när man ställer in skärpan. Detta är speciellt<br />

tacksamt om man t.ex. använder filter som är beroende av orienteringen i rotationsplanet som<br />

exempelvis polarisationsfilter <strong>och</strong> avtonande (graduated) filter.<br />

På professionella objektiv ser man sällan än så länge någon autofokusfunktion. Detta beror till<br />

stor del på att man vid autofokus har sämre kontroll på var skärpan ligger i bild. Speciellt om<br />

något plötsligt passerar framför huvudmotivet kan man uppleva att skärpan åker fram <strong>och</strong><br />

tillbaka på ett otrevligt sätt.<br />

Bländaren, d.v.s. det som styr hur mycket ljus som släpps in i kameran, brukar normalt både<br />

kunna regleras manuellt <strong>och</strong> automatiskt. Eftersom exponeringstiden är fixerad (normalt 1/60<br />

sek) så är det med bländaren som man styr exponeringen. Om man har manuell inställning på<br />

bländaren, så finns det en knapp vid omkopplaren för auto-man som man kan trycka in för att<br />

momentant aktivera autobländaren. Detta är användbart för att snabbt kunna ändra<br />

bländarinställningen om man är osäker. Automatiken i bländarfunktionen är justerad för att<br />

återge en yta med 18% reflektion av maximalt vitt. Detta innebär att bländarautomatiken alltid<br />

eftersträvar att efterlikna omgivningen vid en yta som har 18% reflektion. Kameran<br />

eftersträvar alltså att göra en vit yta grå <strong>och</strong> en svart yta lika grå som den vita. Så är det inte<br />

alltid som vi vill ha det. En nattscen ska t.ex. vara mörk. Vid dessa tillfällen måste bländaren<br />

justeras manuellt. Bländaren kan också användas till att reglera skärpedjupet. Stor<br />

bländaröppning ger litet skärpedjup <strong>och</strong> liten bländare ger stort skärpedjup.<br />

75


Bild 11. Bild tagen med manuell styrning av exponeringen. Hade man använt automatik, så<br />

hade vattenytan blivit mycket ljusare <strong>och</strong> kontrasten mot den ljusa segelbåten blivit sämre.<br />

Och det ville inte fotografen.<br />

Zoomen används för att ändra bildutsnittet (beskärningen). Den kan regleras både manuellt<br />

eller via servo. Det är vanligast att man använder sig av servot då den, speciellt på lite dyrare<br />

objektiv, fungerar mycket smidigt. Zoomen ska användas sparsamt. Det normala är dock att<br />

man vid t.ex. ändring av bildutsnitt på en tagning också spelar in zoomningen för att sedan ha<br />

möjlighet att använda även den vid redigeringen. Annars gäller som alltid att varje<br />

kamerarörelse, inklusive zoomning, ska vara motiverad.<br />

På de flesta objektiv finns också en makroinställning. Oftast kopplas makroläget in med en<br />

speciell knapp eller spak på objektivet. Makrot medger filmning på mycket nära håll.<br />

På vissa objektiv har man möjlighet att koppla in ett linselement i strålgången som fördubblar<br />

brännvidden (2X zoomläge).<br />

Vid inställning av fokus mot ett föremål zoomas objektivet in maximalt. Därefter zoomas det<br />

ut till önskat bildutsnitt. En förutsättning att detta ska fungera är att skärpeplanet är konstant<br />

vid zoomning. Detta går att justera med s.k. backfokusjustering. Med ett antal upprepade<br />

inställningsförfaranden med ömsom maximalt inzoomat läge <strong>och</strong> ömsom maximalt utzoomat<br />

läge kan man justera objektivet så att skärpeplanet är konstant genom hela zoomregistret.<br />

Filter<br />

Filter används för att påverka det ljus som samlas in genom objektivet. Normalt placeras<br />

filtret framför objektivet. Några filter för färgfiltrering är dock inbyggda i kameran. Mer om<br />

detta i stycket om vitbalansering. Annars används färgfilter relativt sparsamt i<br />

videosammanhang av den enkla orsaken att man kan manipulera vitbalanseringen genom att<br />

medvetet vitbalansera mot en färgad yta. Ska man ha ett kraftigt färgstick eller en färg som<br />

avviker från färgtemperaturskalan använder man dock färgfilter.<br />

Alla ytor som vi ser omkring oss ser vi på grund av att dom reflekterar ljus. Gör dom inte det,<br />

så upplevs dom som svarta. Färgade ytor som t.ex. röda reflekterar mest ljus inom det röda<br />

76


våglängdsområdet, medan de övriga våglängderna absorberas av ytan. Det ljus som<br />

absorberas omvandlas till värme (ljusenergi övergår i värmeenergi). Det är därför som svarta<br />

ytor som absorberar det mesta av ljuset lättare blir varma än vita ytor som reflekterar det<br />

mesta av ljusenergin.<br />

Färgfilter fungerar på samma sätt. Ett grönfärgat filter släpper igenom ljus i det gröna<br />

våglängdsområdet medan de övriga våglängderna absorberas. Detta kallas för subtraktiv<br />

filtrering, d.v.s. man tar bort vissa bestämda våglängder. Det innebär t.ex. att om man sätter<br />

för ett grönt filter i ett ljus där de våglängder som representerar det gröna ljuset redan är<br />

bortfiltrerade så blir det svart. Man kan alltså inte lägga till färger med färgade filter. Prova att<br />

sätta ett grönt filter framför ett rödfärgat ljus. Vid normal belysning finns alla våglängder<br />

(färger) representerade, men vissa lysrör har egenheten att några våglängder saknas helt. Detta<br />

saknar normalt praktisk betydelse utom vid vissa kritiska tillfällen t.ex.<br />

modefotografering/filmning. Vid sådana tillfällen är det dock brukligt att man har med egen<br />

belysning för ljussättning.<br />

ND filter eller neutral density filter är ett neutralgrått filter som är gjort för att ta bort en viss<br />

mängd ljus likvärdigt över hela spektret. Det påverkar alltså inte färgbalansen. ND filtret<br />

används för att hjälpa kameran med att mörka ner bilden vid filmning i extremt ljusa miljöer<br />

t.ex. en solig vinterdag i fjällen. Videokameran har inte tillräckligt stort kontrastomfång för att<br />

man med enbart bländarens hjälp kan bemästra alla normala ljussituationer. ND filtret är<br />

också användbart då man även i mer ”normala” ljusförhållanden vill ha större bländaröppning<br />

för att på så sätt minska skärpedjupet.<br />

UV- eller skylightfilter är nästan helt genomskinliga filter. Dessa är gjorda för att ta bort ljus i<br />

gränszonen till det ultravioletta området. Praktiskt rör det sig om att man tar bort lite av blådis<br />

främst när man filmar vid- eller på havet <strong>och</strong> i fjälltrakter där UV-strålningen gör sig mest<br />

påmind. Skillnaden mellan UV- <strong>och</strong> skylightfiltren är att skylightfiltret är marginellt lite mer<br />

rosafärgat. Eftersom filtren i praktiken inte tar bort något ljus <strong>och</strong> kan användas så gott som<br />

alltid, så brukar filtren även användas som ett skydd för objektivets frontlins. Det är betydligt<br />

billigare att byta ett repat eller spräckt filter än frontlinsen på objektivet.<br />

Det finns en uppsjö av mer eller mindre användbara effektfilter till kameran. De filter som<br />

används mest är bl.a. fog- eller softfilter <strong>och</strong> stjärn- eller överstrålningsfilter.<br />

77


Bild 12. Exempel på användning av stjärnfilter.<br />

Avtonande filter räknas i vissa fall till effektfilter. Dom är uppbyggda så att ungefär ena<br />

halvan är helt klar medan andra halvan är grå eller färgad. Övergången mellan de båda<br />

områdena är successiv (avtonande). Finessen med dessa filter är att man kan filtrera en<br />

begränsad del av bilden. Exempelvis är filtren användbara vid filmning av landskap där<br />

himlen finns med. Normalt brukar himlen vara mycket ljusare än marken. Resultatet blir<br />

tyvärr ofta att kameran inte klarar av kontrastomfånget <strong>och</strong> man får låta himlen bli<br />

överexponerad. Genom att skjuta in ett gråtonat filter som endast mörkar ner himlen kan man<br />

få en dramatiskt förbättrad balans i exponeringen. Vill man öka dramatiken kan man använda<br />

sig av ett färgat filter t.ex. rökfärgat som ger en lätt domedagsprägel på scenen.<br />

Bild 13: Avtonande rökfärgat- <strong>och</strong> gråfilter i kombination skapar domedagsstämning.<br />

Bild 14: En mer försiktig användning av avtonande gråfilter.<br />

78


Ett av de mer användbara filtren är polarisationsfiltret. Filtret kan liknas vid ett galler som tar<br />

bort ljus som svänger i ett visst plan. Ljus som reflekteras mot blanka ytor som vatten, glas,<br />

metall m.m. har också ljusvågor i ett visst plan reducerat. Genom att vrida polarisationsfiltret<br />

så att man även eliminerar de ljusvågor som inte är påverkade så kan man minska det<br />

reflekterade ljuset från dessa ytor påtagligt.<br />

Bild 15: Polarisationsfilter kan i rätta förhållanden mörka ner himlen <strong>och</strong> öka intensiteten<br />

i färger.<br />

Praktiskt kan man alltså ta bort blänk i vatten- <strong>och</strong> metallytor samt ta bort speglingar i<br />

glasrutor <strong>och</strong> på så sätt göra dessa ”genomskinligare”. Man kan också få mustigare färger<br />

soliga dagar genom att man minskar påverkan av reflektionen i fuktpartiklar i luften. På detta<br />

sätt kan man också filtrera bort regnbågar, men det var kanske inte den effekten som man<br />

önskade.<br />

Färgseparation i videokameran<br />

I en videokamera separeras ljuset till dessa tre primärfärger via optiska system som kan se ut<br />

på lite olika sätt. Syftet är att dela upp dela upp ljuset i separata färger samtidigt som man vill<br />

förlora så lite ljusenergi som möjligt. I 3CCD kameror är dikroiska speglar som visas i Fig 3<br />

är lösningen på problemet. En dikroisk spegel består av ett eller flera tunna ytbeläggningar på<br />

ett optiskt substrat såsom glas. Ytbeläggningen har ett avvikande brytningsindex i förhållande<br />

till det optiska substratet. Genom interferens av ljusets våglängders reflektion <strong>och</strong> refraktion<br />

mellan skikten avlänkas vissa våglängder enligt Fig 3b. Genom att välja en bestämd tjocklek<br />

på en ytbeläggning kan man styra vilka våglängder som ska reflekteras <strong>och</strong> vilka som skall<br />

passera igenom.<br />

79


I Fig 3 ser vi att blått ljus reflekteras i den första spegeln. I den andra spegeln reflekteras de<br />

röda våglängderna. Det resterande ljus som passerar de båda speglarna ligger inom det gröna<br />

våglängdsområdet.<br />

Dikroiska speglar ger trots allt en ganska grov uppdelning av ljuset. Det gröna ljuset kan man<br />

ganska bra styra med dikroiska speglar, medan man måste filtrera det blå <strong>och</strong> röda ljuset i det<br />

korta respektive långa våglängdsområdet. Målsättningen med en dikroisk uppdelning av ljuset<br />

är att minimera graden av användning av filter eftersom dessa stjäl ljusenergi.<br />

Figur 40: Dikroiska speglar<br />

Dikroiska speglar användes i tidigare kameror. En av nackdelarna var den relativt långa<br />

strålgången (den väg som ljuset måste passera) mellan objektiv <strong>och</strong> sensor. I vissa kameror<br />

var man tvungen att kompensera den långa distansen med extra linselement. På det hela var<br />

det en dyrbar <strong>och</strong> känslig konstruktion där varje spegel måste ha exakt placering. Ett om<br />

möjligt ännu allvarligare problem var att spegelytorna var svåra att skydda mot damm <strong>och</strong><br />

andra typer av beläggningar. Detta gjorde att speglarna fick sämre verkningsgrad med tiden.<br />

De problem som fanns med dikroiska speglar kunde elimineras helt i <strong>och</strong> med introduktion av<br />

dikroiskt prisma. Se Fig 4. Prismakonstruktionen tillåter en kompakt konstruktion som kan<br />

göras mycket rigid. Prismorna A, B <strong>och</strong> C är separerade med luftspalter för att åstadkomma<br />

totalreflektion. Mellan prismorna <strong>och</strong> sensorerna är det placerat filter för att åstadkomma rätt<br />

80


våglängdsrepresentation. Hela konstruktionen kan förseglas på så sätt att justering aldrig blir<br />

nödvändig.<br />

Figur 41: Dikroiskt prisma<br />

CCD – Charge-Coupled Device<br />

De olika färgerna registreras i små sensorer bestående av en mängd ljuskänsliga bildelement.<br />

Dessa bygger på s.k. fotokonduktivitet, d.v.s. halvledare vars resistans sjunker när dessa<br />

belyses. Genom att lägga en spänning på fotokonduktorn, så bildas en ”brunn” i substratet<br />

under detta. När ljus träffar fotokonduktorn frigörs elektroner i en omfattning som är<br />

proportionell mot den infallande ljusmängden. Dessa elektroner faller ner i brunnen <strong>och</strong> hålls<br />

fast där.<br />

Figur 42: Två olika typer av fotosensorer.<br />

81


I en CCD samlas en stor mängd fotosensorer på en yta. De olika sensorerna kommer att<br />

representera bidraget från enskilda bildelement eller pixlar. På detta sätt kan vi återskapa ett<br />

helt motiv. Problemet med video är att vi skall återskapa ett nytt motiv var 50:e sekund. Alltså<br />

måste laddningarna som skapas vid varje sensor tömmas mellan varje bild.<br />

Om man lägger på en högre spänning på en intilliggande fotosensor, så görs brunnen under<br />

denna ”djupare”. Elektronerna kommer att rinna över till den ”djupare” brunnen. Detta är<br />

finessen med CCD (charge-coupled device). Man kan alltså förflytta laddningar tvärs över en<br />

CCD genom att ändra spänningen över de enskilda sensorerna. Se Fig 6.<br />

Figur 43: Laddningsförflyttning i en CCD<br />

82


I Figur 6a ser vi strukturen på hur en pixel kan vara uppbyggd. I detta fall används tre<br />

fotosensorer för att bygga upp en pixel. Laddningsförflyttningen styrs av en transfer klocka. I<br />

detta fall en trefasklocka. En fas för varje sensor. I Fig 6b ser vi de olika faserna för<br />

respektive sensor. I inledningen (registreringsfasen där vi ”exponerar” motivet) ser vi att<br />

spänningen på Φ2 är förhöjd, medan de andra två hålls nere. Det innebär att negativa<br />

laddningar skapas i anslutning till Φ2. Notera att även de laddningar som skapas under de<br />

intilliggande sensorerna, Φ1 <strong>och</strong> Φ3, samlas under Φ2. I slutet av registreringsfasen sjunker<br />

spänningen långsamt (relativt sett) i Φ2, medan spänningen i Φ3 ökas. Transferfasen börjar.<br />

Laddningarna transporteras till Φ3. Denna process återupprepas enligt transferklockorna.<br />

Spänningen sjunker i Φ3 <strong>och</strong> ökar i Φ1 <strong>och</strong> laddningarna förflyttas till Φ1. Alla<br />

laddningsförflyttningar sker simultant över hela CCD:n i alla pixlar som är kopplade till de tre<br />

klockorna. I en korrekt utförd CCD struktur kan transfereringen ske med en klockfrekvens på<br />

flera tiotals MHz. I praktiken sker transfereringen i den vertikala släckpulsen mellan två<br />

bildsvep (fields).<br />

En CCD består först <strong>och</strong> främst av en sensoryta <strong>och</strong> en lagringsyta. I den enklaste varianten<br />

(Frame-Transfer Arcitecture) är dessa båda ytor en spegling av varandra. Transfereringsfasen<br />

går ut på att först förflytta laddningarna till motsvarande platser i lagringsytan.<br />

Figur 44: Frame-Transfer Arcitecture<br />

Under tiden som en ny bild registreras sker en tömning av lagringsytan via en videoutgång.<br />

Eftersom CCD:n belyses även under den vertikala släckpulsen när laddningarna förflyttas<br />

kommer en viss laddningspåverkan att ske även under denna fas. Eftersom laddningarna<br />

83


förflyttas vertikalt under denna tid, så uppträder de laddningar som bildas under denna fas<br />

som en vertikal ”slöja” eller smear. Den vertikala släckpulsen representerar 6% av den totala<br />

bildsveptiden. Alltså har smear en 6 procentig inverkan på den totala exponeringen, vilket kan<br />

betraktas som ansenligt. Kraftiga ljuspunkter påverkar bilden ännu mer <strong>och</strong> störningar i form<br />

av vertikala linjer utifrån ljuskällorna uppträder. Detta kallas för transfer smear <strong>och</strong> är ett<br />

allvarligt problem i FT sensorer.<br />

Det enda sättet att komma till rätta med transfer smear i FT kameror är att använda sig av en<br />

mekanisk slutare som skärmar av ljuset under vertikalsläckpulsen. På tidiga kameramodeller<br />

fanns faktiskt sådana slutare, men mekaniska delar i en i övrigt elektronisk kamera är inte att<br />

föredra <strong>och</strong> andra CCD arkitekturer utvecklades snart för att överbrygga problemen med<br />

transfer smear.<br />

I s.k. Interline-Transfer arkitektur låter man fotosensorerna ligga sida vid sida med<br />

lagringssensorerna. Se Fig 8.<br />

Figur 45: Interline-Transfer Arcitecture<br />

Varje pixel består alltså av två sensorer varav endast den ena registrerar det infallande ljuset.<br />

Det första momentet under den vertikala släckpulsen är en massiv förflyttning horisontellt av<br />

samtliga laddningar från de sensorer som registrerat ljuset till lagringssensorn. När<br />

laddningarna väl befinner sig i lagringsdelen påverkas de mycket lite av ljuset då sensorerna<br />

skyddas av en optisk mask. Man får dock ett visst inläckage från sidan. Efter detta förflyttas<br />

laddningarna med hjälp av transferklocka på ett likartat sätt som i fallet FT strukturen till en<br />

videoutgång.<br />

Då en pixel till hälften består av en optiskt avskärmad del kommer det ske ett ca. 50%<br />

ljusbortfall. Detta är normalt inget större problem då CCD:n har tillräckligt hög känslighet.<br />

84


Då transfertiden under yttre ljuspåverkan vid IT arkitektur minimerats till ett enda steg, så har<br />

problemet med transfer smear nästan helt eliminerats.<br />

En tredje typ av CCD eliminerar dock de små problem med transfer smear som IT<br />

arkitekturen fortfarande har. Det är en kombination av de båda tidigare arkitekturerna <strong>och</strong><br />

kallas Frame-Interline Transfer Arcitecture. Se Fig 9.<br />

Figur 46: Frame-Interline Transfer Arcitecture<br />

Genom att kombinera med den nedre lagringsytan, så kan förflyttning av laddningarna från<br />

Vertical Shift Register ske simultant i alla register <strong>och</strong> därmed korta tiden i sensorytan.<br />

Utvecklingen av CCD eftersträvar hög ljuskänslighet, kompakt konstruktion <strong>och</strong> okänslighet<br />

för smear. Som exempel har Sony har tagit fram en sensor kallad Hyper HAD. Se Fig 10. För<br />

att öka känsligheten <strong>och</strong> för att minimera ströljus som kan orsaka smear, så är varje sensor<br />

försedd med en mikrolins. Sensorn är mycket kompakt, vilket gör att man kan få plats med ett<br />

större antal pixlar per ytenhet än med motsvarande traditionella sensorer.<br />

85


Figur 47:. Genomskärning av Sony Hyper HAD sensor<br />

Singel-CCD kameror<br />

I enklare kameror registreras färgerna i ett CCD chip. Framför detta chip har man placerat en<br />

mask bestående av ett färgfilter framför varje bildelement fördelat på så sätt att vart tredje<br />

bildelement registrerar respektive grundfärg. Med detta förfarande uppnår man en sämre<br />

representation av färgerna. Dessutom tar filtren bort en del ljusenergi, vilket försämrar<br />

kamerornas verkningsgrad.<br />

Figur 48:. Färgsampling i en singel CCD kamera<br />

Spatial offset<br />

Bildupplösning kostar pengar. Olika tekniker initieras för att på ett kostnadseffektivt sätt öka<br />

upplösningen. I en tre-CCD kamera finns möjlighet att näst intill dubblera den horisontella<br />

upplösningen i luminansområdet utan att tillföra mer pixlar. Detta görs genom att förskjuta<br />

86


pixlarna i det röda <strong>och</strong> blå området ett halvt steg i förhållande till det gröna <strong>och</strong> sedan vikta<br />

dessa enligt Fig 12.<br />

Figur 49: Spatial offset<br />

Videokamerans uppbyggnad<br />

En videokamera består av tre delar, objektiv, kameradel <strong>och</strong> inspelningsdel. På de flesta<br />

kameror är kameradelen <strong>och</strong> inspelningsdelen hopbyggda, medan objektivet på mer<br />

professionella kameror är utbytbara. Förutom rena kvalitetsskillnader, så skiljer sig<br />

”proffskameror” <strong>och</strong> ”amatörkameror” från varandra rent handhavandemässigt. Professionella<br />

kameror är byggda för att fotografen så långt som möjligt både skall kunna kontrollera <strong>och</strong><br />

påverka resultatet. En amatörkamera är främst byggd för att på ett för fotografen enklast<br />

möjliga sätt skapa en acceptabel bild i en normalsituation.<br />

87


Bild 16: Sony DXC-D50 med DVCAM bakstycke<br />

Slutartid<br />

Slutartid är den tid som bländaren är öppen. Eftersom bildfrekvensen i PAL är 25 bilder per<br />

sekund <strong>och</strong> varje bild utgörs av två delbilder (frames), så kan inte slutartiden vara längre än<br />

1/50 sekund. Samma gäller slutarfrekvens, d.v.s. hur många gånger som slutaren öppnar <strong>och</strong><br />

stänger per sekund. Den kan inte vara långsammare än 50 Hz. Slutartiden kan vara snabbare<br />

än motsvarande slutarfrekvens. Exempelvis kan slutartiden vara 1/250 sekund vid 50 Hz<br />

slutarfrekvens (slutaren hålls stängd lite längre mellan varje exponering). Däremot kan inte<br />

slutarfrekvensen vara snabbare än motsvarande slutartid.<br />

Justering av slutartiden används främst för att påverka exponeringen eller frysa snabba<br />

rörelser vid t.ex. tekniska applikationer. Nackdelen med snabb slutartid, förutom mindre<br />

ljusinsläpp till bildelementen, är just det att rörelser i bild fryses. Detta ger ett litet ryckigare<br />

intryck. Det är rörelseoskärpan i varje enskild bild som gör att snabba rörelser på film<br />

uppfattas mjukare.<br />

Justering av slutarfrekvens används för att matcha datorskärmar med andra frekvenser för att<br />

eliminera flimmer (s.k. variable scan).<br />

Exponering<br />

I normalfallet justeras exponeringen med bländarinställningen. I de fall där det är så mörkt att<br />

största bländaröppningen inte räcker till för att erhålla korrekt exponering används elektronisk<br />

bildförstärkning. Förstärkningsgraden anges i dB. Nackdelen med bildförstärkning är att<br />

bilden blir grynigare (mer brus i bilden). Vid högre ljusstyrka används neutralgrått filter (ND).<br />

Detta kan användas även i mer ”normala” ljusförhållanden för att minska skärpedjupet (öppna<br />

bländaren mer). Slutligen kan man påverka exponeringen genom att ändra slutartid. Med<br />

kortare slutartider minskas exponeringen. Nackdelen är att rörelseoskärpan minskar <strong>och</strong><br />

resultatet blir ryckigare intryck vid snabba rörelser.<br />

Ljud<br />

En professionell videokamera är utrustad med flera funktioner för att underlätta<br />

ljudinspelning. Ett digitalband typ DV eller DVCAM har två inspelningsbara ljudkanaler. På<br />

88


kameran sitter en mikrofon som via omkopplare kan fås att spela in på båda ljudkanalerna. På<br />

baksidan av kameran sitter två XLR kontakter där man kan koppla in två externa mikrofoner.<br />

En för respektive kanal. Omkopplarna ger valmöjlighet att, som tidigare nämnts, spela in ljud<br />

via kameramikrofonen på båda ljudkanalerna eller via kameramikrofonen på ena <strong>och</strong> extern<br />

mikrofon på den andra. Man kan också välja att spela in ljud på respektive ljudkanal via två<br />

separata mikrofoner.<br />

För att reglera inspelningsnivåerna har man möjlighet att välja automatisk nivåkontroll av<br />

inspelningen eller manuell justering. Den automatiska inställningen är praktisk när man bara<br />

ska spela in miljöljud. Ska man däremot göra en intervju är det en fördel att använda manuell<br />

justering. Det automatreglerade ljudet kan tendera att ”pumpa” eftersom talet består av<br />

plötsliga svängningar mellan tystnad <strong>och</strong> tal. För att kontrollera ljudet i kritiska skeden, t.ex.<br />

vid en intervju, så behöver man hörlurar som kopplas till kameran.<br />

Bild 17: Sony PDW-530P med mottagare för trådlös ljudupptagning.<br />

89


Ljud<br />

Ljudet i en film är ofta mycket viktigt. Vissa påstår att ljudet utgör ”halva filmen”. Om ljudet<br />

låter fel märker publiken det omdelbart <strong>och</strong> hela filmen kan vara förstörd! Därför är det<br />

viktigt att man kan ljudtekniken när man gör en film.<br />

Ljud är förtätningar <strong>och</strong> förtunningar av luftpartiklar, vilka utbreder sig som ljudvågor där<br />

förtätningen är vågtoppen <strong>och</strong> förtunningen är vågdalen. Begreppet Hertz (Hz) anger antalet<br />

svängningar per sekund (frekvens). Det innebär enkelt sagt hur högt (ljust) eller lågt (mörkt)<br />

ett ljud är. Amplituden anger ljudstyrkan.<br />

De olika svängningarna är ofta uppdelade i en frekvensskala som är indelad i bas (10-200 Hz,<br />

eller 10-200 perioder per sekund), mellanregister (200-5 000 Hz) <strong>och</strong> diskant (5 000-20 000<br />

Hz). Det är normalt dessa olika nivåer som går att justera när man slutligen mixar ljudet. En<br />

ung person med oförstörda öron kan uppfatta ljud som sträcker sig från 20-20 000 Hz (eller<br />

20 kHz). En kvinnlig röst börjar i det lägre mellanregistret <strong>och</strong> rör sig sedan upp mot halva<br />

diskantregistret (dvs från omkring 300 Hz till 10 kHz). En manlig röst börjar i basregistret <strong>och</strong><br />

sträcker sig en bit upp i diskantregistret (dvs från omkring 150 Hz till 7 kHz).<br />

Amplituden (ljudstyrkan) mäter man i decibel (dB). Decibel är ett relativt mått. Det innebär<br />

att man måste ange värdet i förhållande till ett referensvärde. Det normala är att man utgår<br />

från hörtröskeln (eller hörbarhetsgränsen). Hörtröskeln är den lägsta ljudstyrka som det<br />

mänskliga örat kan uppfatta. Det relativa mått man då får förkortas dB(A). 0 dB(A) är alltså<br />

hörbarhetsgränsen, en viskning ligger på 20 dB(A), ett samtal ligger på 60 dB(A),<br />

smärtgränsen ligger på 130 dB(A) (eller 130 dB över hörbarhetsgränsen).<br />

Decibel anger en relativ ljudstyrkeförändringen i en 10-logaritmisk skala. Förhållandet är<br />

alltså att en ljudstyrkeförändring på 10dB är lika med 10 ggr, 20 dB är lika med 100 ggr<br />

o. s. v.<br />

100 000 000 000 000 ggr 140dB(A) jetmotor (25 m bort)<br />

10 000 000 000 000 ggr 130dB(A) nithammare<br />

1 000 000 000 000 ggr 120dB(A) propellerplan (50 meter bort)<br />

100 000 000 000 ggr 110dB(A) bergborrmaskin<br />

10 000 000 000 ggr 100dB(A) plåtverkstad<br />

1 000 000 000 ggr 90dB(A) tung lastbil<br />

100 000 000 ggr 80dB(A) starkt trafikerad gata<br />

90


10 000 000 ggr 70dB(A) personbil<br />

1 000 000 ggr 60dB(A) vanligt samtal<br />

100 000 ggr 50dB(A) lågmält samtal<br />

10 000 ggr 40dB(A) dämpad radiomusik<br />

1 000 ggr 30dB(A) viskning<br />

100 ggr 20dB(A) tyst stadsvåning<br />

10 ggr 10dB(A) prassel från ett löv<br />

1 enhet 0dB(A) hörtröskeln<br />

Örat (<strong>och</strong> den mänskliga förmågan att höra ljud) är väldigt mycket känsligare än en mikrofon.<br />

T.ex. har vår hörsel ett mycket större dynamikomfång än vad en mikrofon kan registrera. Med<br />

dynamikomfång menas omfånget från det tystaste ljud vi kan höra till det starkaste. Det går<br />

inte att med samma mikrofon <strong>och</strong> samma inställning på utrustningen spela in en person som<br />

viskar <strong>och</strong> en rockkonsert.<br />

Tre lagar<br />

Vid ljudinspelning är det avgörande att känna till tre viktiga lagar:<br />

• Ljudvågors spridning.<br />

• Ljudvågors dämpning <strong>och</strong> reflektion.<br />

• Ljudkvot.<br />

Ljudvågors spridning<br />

Ljudet sprids klotformigt runt ljudkällan. Detta innebär att det uppfattas som att ljud dämpas<br />

ju längre ifrån ljudkällan som vi kommer. I enlighet med hur en sfärs yta ändras i förhållande<br />

till avståndet till centrum så kan vi utnyttja samma förhållande på ljudstyrkan. Det innebär att<br />

vi kan säga att ljudstyrkan minskar med kvadraten på avståndet. Alltså: dubblering av<br />

avståndet mellan ljudkälla <strong>och</strong> lyssnare minskar ljudstyrkan med en fjärdedel. Detta är samma<br />

sak som en sänkning med ca 6dB.<br />

Hur mycket är 6dB? Rent fysikaliskt har vi ju redan konstaterat det, men hur uppfattas 6dB<br />

ljudförändring av människor? Det finns inget absolut mått, men utan att gå in på detaljer, så<br />

uppfattas en förändring på 6dB av de flesta människor som ett "lagom" steg i förändring när<br />

ett ljud hörs "för svagt" eller "för starkt". Alltså, när man ska ändra ljudstyrkan vid<br />

mikrofonen, så är det lämpligt att stegvis fördubbla respektive halvera avståndet.<br />

Exempel: Vi mäter ljudstyrkan på avståndet a från en ljudkälla <strong>och</strong> anger där vår nollpunkt,<br />

alltså 0dB. Om vi fördubblar avståndet till 2a, så sjunker ljudstyrkan med 4 gånger eller 6dB.<br />

Om vi fördubblar avståndet ytterligare till 4a , så sjunker ljudstyrkan i förhållande till vår<br />

nollpunkt med 16 gånger eller 12dB.<br />

Analogt gäller det omvända förhållandet när man förflyttar sig närmare ljudkällan.<br />

Ljudvågors dämpning <strong>och</strong> reflektion<br />

Örats frekvensomfång är 20Hz -20kHz. Vid konstant ljudhastighet, som den normalt är i luft,<br />

så är våglängden linjärt beroende av frekvensen. Ju högre frekvens desto kortare våglängd.<br />

91


Vid en ljudhastighet på 340 m/s blir våglängden 17 meter vid 20Hz <strong>och</strong> 17 millimeter vid 20<br />

kHz. Ljud reflekteras bäst mot hårda <strong>och</strong> släta ytor. Detta förhållande kan användas till att<br />

både förstärka eller skymma bort (länka av) ljud.<br />

Språkljuden när vi talar har olika frekvens. De tonlösa konsonanterna F-G-H-K-P-S-T (ibland<br />

också C-X <strong>och</strong> Z) <strong>och</strong> ljuden CH-SJ-TJ har höga frekvenser kring 3,4kHz vilket motsvarar en<br />

våglängd på 10 cm. Dessa ljud går att skymma bort eller reflektera med hjälp av handflatan.<br />

De tonlösa konsonanterna är viktiga för förståelsen i bl. a. svenska språket medan vokalerna<br />

är viktigare i t. ex. engelskan.<br />

Vokalerna A-O-U-Å-E-I-Y-Ä-Ö har det mesta av sin energi inom frekvensområdet 1kHz.<br />

Detta motsvarar en våglängd på 34 cm, d. v. s. som ett A-4 papper. Det krävs alltså en yta av<br />

minst motsvarande storlek för att reflektera eller dämpa detta ljud.<br />

I vissa sammanhang där man har ett begränsat informationsutrymme väljer man att skära bort<br />

frekvenser under 340Hz. Ljud under denna frekvens är sällan avgörande för förståelsen för<br />

det talade ordet. Detta utnyttjas t. ex. i telefonöverföring.<br />

Ett sätt att utnyttja reflektion är att hänga en mikrofon med ljudöppningen nedåt över en<br />

bordsskiva där flera sitter <strong>och</strong> samtalar. Skivan bör dock vara minst en meter bred för att<br />

kunna reflektera allt ljud över 340Hz. Alltså de frekvenser som är avgörande för förståelsen<br />

av vad som sägs.<br />

Ljudkvot<br />

Med direktljud menas det ljud som vi har för avsikt att spela in i så bra kvalitet som möjligt<br />

(med bästa möjliga hörbarhet). Med diffusljud menas det efterklangsljud som genereras av<br />

direktljudet. Det kan vara efterklang (eko) i rummet. Det kan också vara ljudet från de<br />

högtalare som skickar ut direktljudet i en lokal. Med störljud menas det ljud som uppstår av<br />

andra orsaker än direktljudet.<br />

På empirisk väg har man kunnat finna att direktljudet, i form av tal, måste vara minst 10<br />

gånger starkare än summan av diffusljud <strong>och</strong> störljud för att människor någorlunda obehindrat<br />

skall uppfatta vad som sägs. Det vill säga att ljudkvoten bör vara 10dB eller större. Förmågan<br />

att uppfatta enskilda ljud vid en viss ljudkvot avtar med stigande ålder, eller om man lider av<br />

hörselskada.<br />

Vid t. ex. nyheter bör ljudkvoten ligga på minst 20dB för att vuxna människor ska vara nöjda<br />

med mixningen. Hörselfrämjandet rekommenderar en ljudkvot på minst 30dB för<br />

hörselhandikappade.<br />

Akustik<br />

Det låter olika i olika rum. Det är viktigt att tänka på detta när man spelar in ljud. En del<br />

rum/miljöer kan nämligen vara svåra att spela in ljud i. Ibland spelas inte allt ljud in vid<br />

filmningen utan läggs till efteråt, det är då viktigt att tänka på att ljuden ska låta som om de<br />

sker i samma rum <strong>och</strong> vid samma tillfälle som det inspelade materialet.<br />

De olika faktorer som inverkar på hur det låter i ett rum är:<br />

• Rummets storlek<br />

• Material i väggar, tak <strong>och</strong> golv<br />

92


• Vägg-, tak- <strong>och</strong> golvytors inbördes förhållande (vinklar etc)<br />

• Möbler <strong>och</strong> lösa inventariers form <strong>och</strong> material<br />

Ljudet som vi hör i en ren akustisk miljö kan delas in i två huvudgrupper: direktljud <strong>och</strong><br />

reflekterat ljud (diffusljud). Det ljud som når oss först är direktljudet, sedan kommer<br />

diffusljudet. Reflektionerna av direktljudet kan vara många <strong>och</strong> med olika tidsintervall. Om<br />

reflektionerna kommer tätt <strong>och</strong> med många repetitioner skapas en efterklang. Om<br />

reflektionerna kommer långsammare hör man ett eko. Tiden det tar för efterklangen eller ekot<br />

att tystna <strong>och</strong> dö ut kallas efterklangstid. Med längre efterklangstider blir det svårare att få<br />

tydlighet i ljudkällan eftersom efterklangen blandar sig med ursprungsljudet.<br />

Beroende på hur väggar, tak <strong>och</strong> golv ser ut påverkas efterklangen <strong>och</strong> efterklangstiden.<br />

Generellt kan man säga att hårda ytor reflekterar tillbaka ljudet, medan mjuka ytor i stället<br />

absorberar ljudet. Men detta är inte helt sant, för både reflektionen <strong>och</strong> absorptionen är<br />

frekvensberoende. Höga frekvenser absorberas i mjuka <strong>och</strong> porösa material som gardiner,<br />

draperier <strong>och</strong> mineralull, medan de reflekteras i hårda ytor som tegelväggar, glas <strong>och</strong> marmor.<br />

Låga frekvenser är svårare att absorbera <strong>och</strong> det krävs tjockare porösa material kombinerat<br />

med luftspalter.<br />

Några akustiska exempel:<br />

Badrummet har oftast hårda väggar (kakel) som gör att ljudet reflekteras i så gott som alla<br />

frekvenser. Detta gör att det känns trevligt att sjunga där, men svårt att spela in bra ljud.<br />

Ljudet upplevs som ”burkigt” eftersom en mikrofon inte kan skilja på direktljudet <strong>och</strong><br />

diffusljudet.<br />

Garderoben är ett litet rum, som innehåller mycket kläder vilka absorberar de flesta<br />

frekvenser <strong>och</strong> reflekterar inga. Ljudet som har spelats in i garderoben låter därför ”torrt”.<br />

Vardagsrummet har en större volym vilket gör att efterklangen blir längre än i garderoben.<br />

Samtidigt är vardagsrummet möblerat vilket gör att efterklangstiden inte blir så lång som i<br />

badrummet. Vardagsrummet är faktiskt ett riktigt bra ställe för ljudinspelning.<br />

Sovrummet är mer dämpat än vardagsrummet (särskilt om det har heltäckningsmatta). En stor<br />

säng hjälper också till att dämpa reflektioner i basregistret.<br />

Mikrofonens känslighet<br />

Mikrofonen används som redskap för att fånga upp det ljud som vi hör omkring oss.<br />

Skillnaden är att människans hörselorgan är överlägset mikrofonen på flera punkter. Vår<br />

hörsels dynamikomfång är betydligt större än mikrofonens. Det innebär att örat steglöst kan<br />

ställa om sig från ljudet av en viskning till en dånande rockkonsert. Detta klarar en mikrofon<br />

inte av utan att man måste vidta olika handgrepp för att kompensera skillnaderna i ljudtryck.<br />

Det går t. ex. inte att göra en välljudande <strong>och</strong> verklig upptagning av viskningar omedelbart<br />

följt av skottlossning i samma scen.<br />

Vidare kan människans hörsel arbeta selektivt. Det vill säga att vi kan filtrera bort vissa för<br />

tillfället ointressanta ljud till förmån för andra. I realiteten handlar det om att vi koncentrerar<br />

oss på ett ljud som kommer från en speciell riktning. Ljudet från en viss riktning når<br />

respektive öra med en tidsdifferens, beroende på att avståndet till ljudkällan är olika. Denna<br />

93


tidsdifferens gör att vi kan orientera på tre grader när vart ljudet kommer ifrån. I de flesta fall<br />

gör vi detta omedvetet, vilket kan ställa till problem inför en ljudupptagning.<br />

En mikrofon kan inte ta upp ljudet selektivt på samma sätt. Med olika typer av riktmikrofoner<br />

kan man förvisso dämpa vissa riktningar, men inte så precist som vår hörsel. Om man inte<br />

känner till detta förhållande, så kan man komma hem med t ex en intervju där en störande<br />

transistorradio spelar i bakgrunden. Det var inget som man lade märke till vid inspelningen.<br />

Det är alltså mycket viktigt att på en inspelningsplats lyssna på ljudmiljön så som mikrofonen<br />

uppfattar den. I praktiken innebär det att man använder kapslade hörlurar (sådana med<br />

vadderade hörselkåpor) under inspelning för att lyssna på ljudet. Ett annat knep som man kan<br />

använda när man i förväg rekognoscerar en ljudmiljö är att hålla handen för ena örat. Då<br />

minskar man "riktningsfiltreringen" <strong>och</strong> efterliknar det ljud som mikrofonen "hör".<br />

Det finns ytterligare en egenskap hos rösten som uppstår när vi spelar in den. Det benämns<br />

puffljud. Puffljudet är en överbelastning hos mikrofonen som uppstår framför allt när vi säger<br />

hårda konsonanter som p, b, k, d <strong>och</strong> t. För att undvika detta kan man använda ett puffskydd<br />

som fångar upp ”vinden” i konsonanterna.<br />

Ett annat problem som kan uppstå när man arbetar med mikrofoner är mikrofoni. Det är<br />

muskelljud från den som håller i mikrofonen eller från den hängande mikrofonsladden. Ofta<br />

används en bom när man spelar in en dialog <strong>och</strong> denna kan ibland fungera som en<br />

resonanslåda för muskelljuden. En bom är en lång metallstång med en mikrofon i ena änden<br />

som en person håller upp över de som talar. Detta gör att vi kan få mikrofonen relativt nära de<br />

som talar utan att mikrofonen syns. Det gäller alltså att försöka hålla försiktigt i mikrofonen,<br />

helst med ett gummilager mellan handen <strong>och</strong> mikrofonen eller bommen, <strong>och</strong> binda upp<br />

sladden så att den inte bidrar till missljud.<br />

Störkänslig signal<br />

Mikrofonen omvandlar ljudet till en elektrisk signal. Denna signal har en mycket låg spänning<br />

<strong>och</strong> är därmed mycket störkänslig. Alla elektriska ledningar omges av ett magnetfält. Det<br />

elektriska fält som omger en 220V växelströmsledning är tillräckligt för att ge ett brummande<br />

ljud. Det kan räcka med att mikrofonkabeln ligger nära <strong>och</strong> parallellt med en lampsladd med<br />

dimmer (en ratt som man varierar ljusstyrkan med).<br />

Ledarna i alla mikrofonkablar har en metallomflätning som kallas skärmstrumpa. Denna<br />

skärm skyddar effektivt mot "normala" störningskällor som t ex växelströmsledningar. Om<br />

skärmstrumpan, på grund av omild behandling, slitits loss från sitt lödfäste inne i kontakten<br />

kan det istället bli stora problem med störningar som t. ex. "brum" (det 50 periodiska ljudet<br />

som växelströmmen kan ge ifrån sig).<br />

Mikrofonteknik<br />

Mikrofoner hör inte lika bra från alla håll. Det område som mikrofonen fungerar bäst inom<br />

avgränsas av öppningsvinkeln. Mikrofoner med stor öppningsvinkel kallas för rundtagande<br />

("kula" eller "omnidirekt"). Mikrofoner med en snävare öppningsvinkel kallas för riktade<br />

("kardioid" (hyperkardioid) eller "njure"). Skillnaden i ljudupptagningsförmågan sjunker<br />

drastiskt när man hamnar utanför öppningsvinkeln. På en rundtagande mikrofon är dock<br />

denna övergång mera diffus än med en riktad.<br />

94


Dynamisk mikrofon – är en relativt robust mikrofon som tål förhållandevis starka ljudtryck.<br />

Denna mikrofon behöver inte någon strömkälla eller batteri för att fungera. Nackdelen med<br />

den dynamiska mikrofonen är att det finns en viss tröghet i den, vilket ofta leder till en viss<br />

luddighet i inspelningen där briliansen minskas.<br />

Kondensatormikrofon – är beroende av en extra strömkälla (phantommatning) eller ett<br />

batteri för att driva en liten förstärkare som är inbyggd i mikrofonen. Skillnaden mellan<br />

mikrofonerna är att kondensatormikrofonen ger ett något bättre ljud. Den klarar också<br />

snabbare attackljud (transienter) än vad en dynamisk mikrofon gör. Nackdelen med<br />

kondensatormikrofonen är att den är mycket ömtåligare. Om mikrofonen inte fungerar vid<br />

inspelning, så kolla batteri eller phantom-matning!<br />

Rundtagande mikrofoner - har ingen närbashöjning. Klangfärgen ändras inte även om man<br />

går tätt in på mikrofonen. Dessa mikrofoner är nästan uteslutande dynamiska <strong>och</strong> detta gör att<br />

de är mindre vind <strong>och</strong> "handkänsliga" än andra mikrofoner. Dynamiska mikrofoner är<br />

betydligt mindre stötkänsliga än kondensatormikrofoner.<br />

Riktningskarakteristik för en rundtagande mikrofon<br />

Tryckzonsmikrofoner - utnyttjar diffusljudet i rummet. De placeras i en punkt där direkt <strong>och</strong><br />

diffusljud följer så tätt på varandra att man inte hör någon skillnad, vanligen tätt intill en<br />

vägg- eller golvyta i rummet.<br />

Riktmikrofoner<br />

Den vanligaste sorten av riktad mikrofon är kardioidmikrofonen. Dessa är normalt av<br />

kondensatortyp med kort anslagstid. D.v.s. att de reagerar snabbt vid plötsliga ljud.<br />

Riktmikrofoner har en mera markerad närbashöjning. Fördelen med riktmikrofon är främst att<br />

den dämpar diffus- <strong>och</strong> störljud so kommer in från sidan. På detta sätt kan man hålla<br />

mikrofonen längre ifrån ljudkällan utan att ljudkvoten blir för liten.<br />

95


Riktningskarakteristik för en riktad mikrofon<br />

Den åtta-kopplade mikrofonen kan jämföras med en dubbel njure. Den är känslig för ljud<br />

som kommer från två motsatta håll (fram- <strong>och</strong> bakifrån), men dämpar ljudet från sidorna<br />

(diffusljud).<br />

Riktningskarakteristik för en åtta-kopplad mikrofon<br />

VU-mätare<br />

På de flesta bandspelare <strong>och</strong> kameror finns en VU-mätare eller Peak-meter som anger nivån<br />

på ljudet som spelas in. En VU-mätare är ett ganska långsamt mätinstrument, med en visning<br />

från –20dB till +3dB eller +6dB (med 0dB däremellan). Ljudet ska ligga runt 0dB vid optimal<br />

inspelningsnivå, eller utstyrning som det kallas.<br />

VU-mätare<br />

96


En peak-meter reagerar däremot blixtsnabbt på ljudfärändringar. Skalan som visas av<br />

lysdioder går i regel från –24dB till +9dB (med 0dB däremellan). Ljudet ska ligga runt 0dB<br />

vid optimal utstyrning.<br />

Peak meter<br />

När man läser av dessa mätare krävs att man vet om man arbetar med en analog eller digital<br />

bandspelare. Vid inspelning med en analog bandspelare ska nivån ligga runt 0dB för optimal<br />

utstyrning, men vid inspelning med en digital bandspelare ska nivån aldrig överstiga 0dB! Om<br />

utstyrningen blir för hög uppstår distorsion av det inspelade ljudet. Distorsion innebär enkelt<br />

sagt att ljudet klipps sönder för att det blir för starkt. Resultatet är att ljudet låter sprucket,<br />

vasst <strong>och</strong> obehagligt. Om detta sker på en analog bandspelare kan inspelningen gå att använda<br />

ändå, men det sker på en digital bandspelare är inspelningen troligtvis helt värdelös.<br />

Flera mikrofoner<br />

Vid vissa tillfällen kan det krävas att man måste använda sig av mer än en mikrofon. Det kan<br />

till exempel vara när två personer sitter vid ett långsmalt bord <strong>och</strong> på ett sådant avstånd<br />

mellan varandra att en enda mikrofon är otillräcklig för att fånga ljudet. Detta på grund av en<br />

begränsad öppningsvinkel hos mikrofonen. Man kan då använda två mikrofoner för att få<br />

bättre inspelningsmöjligheter. Men att använda två mikrofoner kan också ställa till en del<br />

problem.<br />

A/B-stereo<br />

Om vi placerar två mikrofoner riktade rakt mot ljudkällan med ett visst avstånd från varandra<br />

får vi en bred stereobild <strong>och</strong> kan spela in båda personerna.<br />

97


Men denna mikrofonplacering kan ge upphov till vissa problem.<br />

Placerar man två mikrofoner en bit från varandra kommer ljudet att tas upp av båda<br />

mikrofonerna, men med en viss tidsförskjutning. Vi kommer också att få mer diffusljud.<br />

Dessutom kommer vissa ljud att ha sådan våglängd så att vi har maximal tryckökning vid ena<br />

mikrofonen, samtidigt som vi har maximal tryckminskning vid den andra. Detta kallas för<br />

fasutsläckning. Alla ljud som passar in i avståndet mellan mikrofonerna med halva, en<br />

fjärdedel, en åttondels våglängd o.s.v. ger upphov till fasutsläckning. Ju högre upp i<br />

frekvensbandet som vi kommer sker dessa utsläckningsfenomen tätare. Detta kallas för<br />

kamfiltereffekt.<br />

X/Y-teknik<br />

Ju närmare varandra som vi flyttar mikrofonerna, ju mer flyttar vi upp kamfiltereffekten i<br />

frekvensbandet. När vi når ca 1 centimeter (halva våglängden 17kHz) mellan mikrofonerna<br />

börjar vi närma oss gränsen för vad det mänskliga örat kan höra. I dessa frekvensområden är<br />

kamfiltereffekten inte heller speciellt hörbar. Genom att på detta sätt placera mikrofonerna<br />

nära varandra <strong>och</strong> med korsande öppningsvinklar kan man eliminera kamfiltereffekten,<br />

samtidigt som man erhåller en större öppningsvinkel. Denna mikrofonplacering kallas xyteknik.<br />

I andra fall kan av praktiska skäl inte xy-teknik inte användas. Då handlar det om att placera<br />

mikrofonerna på sådant avstånd att diffusljudet på en sådan nivå att det inte uppfattas som<br />

störande eller att de kamfiltereffekter som uppstår inte uppfattas som störande.<br />

98


XY-teknik<br />

Ljudmix<br />

När film <strong>och</strong> ljud är inspelat <strong>och</strong> filmen är färdigklippt, är det dags för ljud-mixningen. I de<br />

projekt som kommer att görasinom denna kurs kommer antagligen 3-4 stereokanaler att<br />

användas, dvs en för dialog, en för miljöljud, en för ljudeffekter <strong>och</strong> en för filmmusik. Tänk<br />

på att ju fler ljudkanaler desto mer måste varje ljudkanal sänkas för att inte det mixade ljudet<br />

ska bli för starkt.<br />

Ljud uppfattas olika<br />

Örats känslighetskurva vid konstant ljudstyrka men varierande frekvens är inte konstant. Örat<br />

är känsligast för frekvenser kring 3-4kHz. Det är ljud som liknar sprakande eld, forsande<br />

vatten, cymbaler <strong>och</strong> språkljuden S-F-SJ <strong>och</strong> SH. Detta innebär att man som ljudtekniker inte<br />

helt kan förlita sig på instrumenten när man ska styra ut ljud från en mixer. Man måste också<br />

lyssna.<br />

Det är många gånger svårt att mixa ihop olika ljud på ett sätt som både frambringar den känsla<br />

som man vill förmedla, samtidigt som texter ska gå fram. Detta är ett vanligt problem i<br />

musiksammanhang där man har en sångare med orkester. Ett sätt att komma till rätta med<br />

detta är via interfoliering. D. v. s. instrument, instrumentgrupper <strong>och</strong> sångare sjunger/spelar<br />

växelvis. Denna teknik används även vid ljudläggning av film. T. ex. läggs inte kraftiga<br />

effektljud i en dialog, utan i en paus där inte något sägs. Detta är något som inte bara åligger<br />

ljudteknikern att åstadkomma, utan även musikkompositören/manusförfattaren.<br />

Ett annat problem är att vi som arbetar med programmet vet vad som ska sägas <strong>och</strong> därför hör<br />

det lättare. Detta kan leda till att vi inte har tillräcklig ljudkvot mellan dialog <strong>och</strong> miljöljud för<br />

att publiken ska höra allt. Ett förslag på hur man kan lösa detta problem är att göra färdigt hela<br />

mixningen <strong>och</strong> sedan vänta ett par dagar för att därefter lyssna igenom allt igen. Då har man<br />

hunnit glömma av materialet något <strong>och</strong> kan förhoppningsvis rätta till mixningen, för att sedan<br />

avsluta arbetet.<br />

99


Dessa problem är något som inte bara åligger ljudteknikern att åstadkomma, utan även<br />

musikkompositören/manusförfattaren.<br />

Kannibalisering<br />

Ett budskap som förmedlas med hjälp av ljud <strong>och</strong> rörliga bilder kan få en mycket stor<br />

genomslagskraft. Man har i mediet ett antal redskap som man kan kombinera på ett oerhört<br />

kraftfullt sätt för att nå sitt mål. Å andra sidan, så kan dessa verktyg ha motsatt verkan om<br />

dom inte används på rätt sätt.<br />

En av vanligaste fallgroparna kan rubriceras kannibalisering. Med kannibalisering menas att<br />

formen äter upp budskapet. Utmanande klädsel, känsloladdade bilder, störande bakgrund, ljud<br />

mm kan ta bort uppmärksamheten från det egentliga budskapet.<br />

100


Videoredigering<br />

Icke linjär redigering är beteckningen på det sätt som man normalt jobbar på när man<br />

redigerar material som först kopierats på en dators hårddisk. Redigeringen av programmet<br />

behöver inte följa ett linjärt förlopp, d.v.s. man behöver inte starta med programmets början<br />

för att sedan successivt arbeta sig fram till programmets slut. I en icke linjär redigering har<br />

man möjlighet att gå in var som helst i det halvfärdiga programmet för att bearbeta detta. I det<br />

tidigare linjära sättet att arbeta kopierade man från band till band <strong>och</strong> bearbetade programmet<br />

i kronologisk ordning. I ett linjärt system har man mycket begränsade möjligheter att gå<br />

tillbaka i ett program <strong>och</strong> påverka det.<br />

I ett icke linjärt system kopierar man över videomaterialet till en hårddisk innan det egentliga<br />

redigeringsjobbet börjar. Detta är något som i nyhetssammanhang många gånger setts som ett<br />

extra steg som drar ner tempot i redigeringsprocessen. På grund av detta har tillverkarna av<br />

redigeringsprogram lagt ner mycket krut på att göra inloggningsprocessen så snabb <strong>och</strong><br />

smidig som möjligt. Ett exempel är att öka kopieringshastigheten, så att den t.ex. utförs 4 ggr<br />

realtidshastighet. Å andra sidan är vinsten i en icke linjär redigering så mycket större när väl<br />

inloggningsprocessen är genomförd.<br />

Lite grovt kan man jämföra skillnaden mellan linjär <strong>och</strong> icke linjär redigering som skillnaden<br />

mellan skrivmaskin <strong>och</strong> ordbehandlare. Den stora vinsten med icke linjär redigering är som<br />

sagt att man när som helst kan gå tillbaka i sitt redigerade material <strong>och</strong> göra justeringar <strong>och</strong><br />

omstuvningar utan att det påverkar omkringliggande delar. Ungefär på samma sätt som i en<br />

ordbehandlare.<br />

Kopiering till hårddisk<br />

Principen i en icke linjär redigering är att det videomaterial som lästs in på hårddisken lämnas<br />

opåverkat under redigeringen. Istället hämtas de delar av materialet som man programmerar<br />

in under redigeringen i realtid. Bildövergångar (utom raka klipp), trickeffekter mm kan,<br />

beroende på upplösning <strong>och</strong> datorns snabbhet, antingen renderas <strong>och</strong> bildar då en egen bildfil<br />

eller så klarar datorn av att köra dubbla videoströmmar i realtid. Ju dyrare/snabbare system<br />

desto mindre effekter behöver renderas.<br />

Vid renderingen omkomprimeras materialet, eftersom två eller flera bilder läggs på varandra.<br />

Komprimeringen medför risk för försämring av materialet. Ska man jobba med mycket<br />

effekter i flera lager som kräver mycket renderingar är det bra att välja en högre kvalitetsnivå<br />

på redigeringens interna hantering av materialet - om det går. På s.k. DV redigeringar finns<br />

endast "native" DV som enda valmöjlighet. Så länge inga renderingar görs kommer materialet<br />

att vara helt oförvanskat. Men så fort en rendering görs händer det saker.<br />

En av flaskhalsarna har varit, <strong>och</strong> är till viss del fortfarande, begränsat hårddiskutrymme.<br />

Fördelen med detta är att man tvingas vara lite mer disciplinerad när man läser in sitt<br />

råmaterial på hårddisk. Inloggningsprocessen kan ses som en första grovredigering av<br />

materialet. Det är alltså inte alltid smart att läsa in hela sitt råmaterial från början till slut om<br />

det nu inte är väldigt begränsat <strong>och</strong> fritt från sura missar.<br />

Inläsning av materialet på hårddisken sker i flera steg. Om man startar ett nytt arbete, så görs<br />

normalt några olika förinställningar som ska gälla just det projektet. Först bestäms<br />

videostandard vilken är PAL för vårt vidkommande. Sedan bör man ha koll på vilken typ av<br />

videosignal (komponent, S-video, komposit, Firewire (IEEE 1394 eller i.LINK) eller SDI<br />

101


(Serial Digital Interface) som ska tas in i datorn. Här väljer man den signal som representerar<br />

den högsta kvalitén eftersom denna inte påverkar komprimeringsgraden. Även ljudet kan man<br />

välja mellan balanserat (XLR), eller obalanserat (RCA/Phono). I programmet kan man sedan<br />

välja vilken ingång som den aktuella signalen kommer in via. Samplingsfrekvensen bör väljas<br />

så högt som möjligt, d.v.s. 48 kHz, som är den frekvens som t.ex. DV tekniken använder.<br />

Nästa steg är att välja kompressionsgrad. Detta gäller främst analoga signaler. När det gäller<br />

DV eftersträvar man att undvika att omkomprimera signalen, under förutsättningen att datorn<br />

hanterar DV internt. Ska man hantera ett stort material <strong>och</strong> har ett begränsat hårddiskutrymme<br />

kan det vara smart att läsa in sitt videomaterial med ganska låg kvalitet för att på så sätt spara<br />

utrymme. I ett senare skede när programmet är klart kan man läsa om sitt material med en<br />

högre kvalitet, men endast det som man använt i sin film. Det är mycket viktigt att kolla var<br />

materialet hamnar, speciellt om man jobbar med en lös hårddisk. I vissa program ställer man<br />

in detta via s.k. "scratch discs".<br />

När man filmar sitt material är det viktigt att, om möjligt, låta några sekunder gå efter det att<br />

man startat kameran innan den ”riktiga” tagningen börjar. Detta av två skäl. För det första är<br />

det alltid bra med lite ”luft” innan en tagning påbörjas eftersom man inte exakt vet hur<br />

materialet ska klippas i slutänden. Det är bra att ha lite trimnings- <strong>och</strong> mixningsmån. För det<br />

andra är det viktigt med några sekunders ”tomruta” i början av en ny tidkod (t.ex. i början av<br />

ett band eller vid ett brott på tidkoden). Vissa kameror har en olägenhet att nollställa tidkoden<br />

i tid <strong>och</strong> otid. Detta ställer till trassel vid inloggning av materialet till hårddisk. Orsaken till<br />

detta är att en bandspelare måste backa upp ett par, tre sekunder innan den punkt där<br />

kopiering till hårddisk startar. Bandtransporten måste hinna att stabilisera sig <strong>och</strong> det tar<br />

någon sekund för moderna bandspelare. Skulle man starta för tidigt, t.ex. en sekund in på en<br />

ny tidkod kommer bandspelaren att backa förbi nollpunkten <strong>och</strong> därmed förlora synken eller<br />

komma in på en ny tidskodserie. En serie brutna tidkoder på ett band omöjliggör en effektiv<br />

inloggning av ett helt band eftersom samma tidkod återkommer på flera ställen på bandet.<br />

Nästa steg i processen för kopiering till hårddisk är själva inloggningen. Man arbetar sig<br />

igenom det inspelade videomaterialet <strong>och</strong> väljer ut de tagningar som skall användas i<br />

redigeringsarbetet. Man markerar in- <strong>och</strong> utpunkter för respektive scen <strong>och</strong> lagrar dessa i en<br />

speciell logglista. Här är det, som tidigare nämnts, viktigt att man inte är för snål med början<br />

<strong>och</strong> slut på varje tagning. Inloggningen är ingen redigeringsprocess utan ett sätt att välja ut det<br />

material som man ska redigera ur. I vissa redigeringar finns det en funktion där man kan välja<br />

hur många rutor eller sekunder som man vill att datorn ska ta med i början <strong>och</strong> slutet av ett<br />

klipp utöver det som man valt ut. Detta värde väljs i inledningen av loggningsprocessen <strong>och</strong><br />

gäller sedan för alla klipp som väljs ut. När man har avverkat ett band är det lämpligt att<br />

kopiera över det valda videomaterialet till hårddisken. Detta är det sista steget <strong>och</strong> det sker<br />

automatiskt <strong>och</strong> kallas för digitalisering. Använder man sig av flera band är det mycket viktigt<br />

att man döper dessa så att man kan hålla reda på banden. Det gör nämligen inte datorn.<br />

Den digitala videobilden enligt CCIR601 består av 720x576 pixlar. Detta ger ett breddhöjdförhållande<br />

på 5:4. Men videobilden har motsvarande förhållande 4:3 eller 768x576<br />

pixlar. Vad man gjort är att man har gjort pixlarna rektangulära i horisontalled <strong>och</strong> därmed<br />

"sträcks" bilden ut till rätt format. I redigeringsprogrammen kan dessa standards uttryckas<br />

som CCIR 601/DV PAL (5:4) respektive CCIR 601 PAL Sq. (4:3). I dessa sammanhang är<br />

det viktigt att vara uppmärksam på vad som t.ex. händer med grafik som konverteras mellan<br />

de olika formaten.<br />

102


Firewire innefattar både bild, ljud, tidkod <strong>och</strong> fjärrstyrning av bandspelare. Har man inte<br />

Firewire, så kan man lösa fjärrstyrning <strong>och</strong> bandspelarkontroll via de seriella interfacen RS-<br />

232 <strong>och</strong> RS-422. Den största praktiska skillnaden mellan dessa protokoll är att SR-422 är<br />

mindre störningskänslig <strong>och</strong> därför används i större sammanhang där avstånden mellan<br />

enheterna är stora, som t.ex. TV stationer <strong>och</strong> post production studios. För vanligt användande<br />

duger RS-232 gott.<br />

För att beräkna åtgång på hårddisken är det bra att känna till med vilken datahastighet som de<br />

olika komprimeringssystemen jobbar med. DV använder en datahastighet av 3,6 MB/s.<br />

Motion JPEG (M-JPEG) är en annan vanlig standard för intern lagring i redigeringar.<br />

Beroende på kvalitetsnivå ligger datahastigheten på 1-12 MB/s,<br />

Arbetsfönstret<br />

Arbetsfönstret på en icke linjär redigering kan se lite olika ut, beroende på tillverkare. Men<br />

principen bygger på i grunden fyra olika arbetsytor. Först har vi en yta där man samlar alla<br />

sina inloggade klipp. Här har man möjlighet att organisera <strong>och</strong> sortera klippen. Den har olika<br />

namn t.ex. Bin, Browser mm.<br />

Sedan har vi två fönster där man kan titta på videomaterialet. Dessa kan liknas vid ”player”<br />

<strong>och</strong> ”recorder” fönster i linjära system. I playerfönstret (Source Viewer) kan man titta på de<br />

olika inloggade video (<strong>och</strong> ljudfilerna). Här har man främst möjlighet att bestämma in- <strong>och</strong><br />

utpunkter i det material som ska användas.<br />

Innan vi går till recorderfönstret (Timline Viewer), går vi till ”timeline”. Det är här som<br />

materialet bearbetas till färdig film. Timeline består av en tidsaxel som man lägger sina bild<strong>och</strong><br />

ljudklipp på. Här görs alla effektpålägg <strong>och</strong> trimningar. För att underlätta detta finns det<br />

som oftast en palett med olika verktyg.<br />

Det färdiga resultatet kan man sedan se i recorderfönstret. Normalt har man en TV monitor<br />

kopplad till redigeringen. Dels för att kunna se det färdiga resultatet i större format i video.<br />

Dels för att få ”rätt” beskärning på bilden. En TV monitor beskär bilden mer än den som syns<br />

på datorskärmen. Detta är speciellt känsligt när man lägger in texter. Man pratar om ”safe title<br />

area”. Det finns även något som heter ”safe action area” som är något större.<br />

Arbetsgång<br />

Man kan redan i sin bin organisera klippen i den ordning som de ska ligga i den färdiga<br />

filmen. Man har normalt ett flertal olika möjligheter att skapa ett utseende i sin bin enligt den<br />

personliga smaken.<br />

Efter att ha valt ut ett klipp dubbelklickar man på detta för att få upp det i sin ”Source<br />

Viewer”. Här trimmar man sitt material genom att välja in- <strong>och</strong> utpunkter där klippet ska<br />

börja <strong>och</strong> sluta. Efter detta drar man ner klippet till Timeline. Sedan fortsätter man med nästa<br />

klipp på samma sätt <strong>och</strong> lägger det efter föregående klipp på Timeline. Det finns en rad olika<br />

arbetssätt hur man går till väga vid redigering, beroende på personlig smak <strong>och</strong> typ av<br />

program.<br />

På sin Timeline har man möjlighet arr lägga på olika effekter som t.ex. mixningar, olika typer<br />

av ”wipar”, men även färgkorrigeringar, kromakey <strong>och</strong> andra specialeffekter. Till<br />

redigeringen finns normalt kopplat textverktyg för att skapa titlar <strong>och</strong> liknande. Ytterligare<br />

103


verktyg är s.k. compositing. Här har man möjlighet att mer djupgående påverka <strong>och</strong> lägga till<br />

element i den rörliga bilden.<br />

Slutligen ska den färdiga filmen exporteras i lämpligt format. Det vanliga är att det kopieras<br />

till videoband. I detta fall behövs ingen ytterligare komprimering. Om materialet däremot ska<br />

läggas på CD, DVD eller på nätet, så behövs en komprimering som är anpassad för det<br />

aktuella formatet. De flesta redigeringsprogram innehåller idag mer eller mindre sofistikerade<br />

komprimeringsverktyg.<br />

104


Bildberättande<br />

”En bild säger mer än tusen ord”. Hur mycket säger då en serie av bilder som läggs efter<br />

varandra till en film? Det beror på hur effektivt som man kan utnyttjar bildberättandet.<br />

Först <strong>och</strong> främst ska man ha klart för sig att det oftast är en ganska stor skillnad mellan en<br />

stillbild <strong>och</strong> en filmbild. Orsaken är att en stillbild skall kunna stå för sig själv utan hjälp av<br />

ljud eller andra bilder. Dessutom kan man normalt kan titta på en stillbild länge.<br />

En rörlig bild däremot har en begränsad tittartid. Detta gör att kravet på enkelhet i bilden ökar.<br />

Det skall vara lätt att se vad det är <strong>och</strong> det viktiga i bilden ska lätt kännas igen. Fördelen med<br />

rörliga bilder är att flera bilder kompletterar varandra till ett sammanhang. Dessutom tillförs<br />

ytterligare en informationskomponent till skillnad mot stillbilden, nämligen rörelse.<br />

Som stillbild fungerar denna bild dåligt. Kaktusen tar upp alldeles för stor plats <strong>och</strong> genom sin<br />

placering skapar den obalans i bilden. Ryttaren är för liten <strong>och</strong> svår att upptäcka. som rörlig<br />

bild däremot drar ryttarens rörelse till sig blicken <strong>och</strong> förskjuter tyngdpunkten i bilden så att<br />

man uppnår balans.<br />

Grunden i ett bildberättande är att varje bild tillför något nytt eller bilden måste fungera i sitt<br />

sammanhang.<br />

Dessa två bilder visar en scen där en man köper jordgubbar. Genom att klippa in en närbild på<br />

handen som sträcker fram jordgubbarna, så förstår vi (mer eller mindre undermedvetet) att<br />

105


just jordgubbarna är viktiga för filmens fortsatta handling. Hade dom inte varit viktiga, så<br />

hade vi förmodligen undvikit att föra in denna vilseledande information i form av en närbild.<br />

En film byggs upp av olika delar. Om man jämför med en vanlig text, så kan liknelsen se ut så<br />

här:<br />

Sekvens - Mening<br />

Scen - Sats<br />

Bild (Tagning) - Ord<br />

Generellt gäller att varje ny bild skall vara motiverad <strong>och</strong> tillföra något nytt till handling <strong>och</strong><br />

innehåll. Detta gäller även kamerarörelser.<br />

För att bygga ”meningar” i en film kan man använda sig av olika verktyg som t.ex.<br />

bilduppbyggnad, övergångseffekt (t.ex. klipp eller mix), grafik, musik, miljöljud, effektljud,<br />

speaker eller dramatiserade röster. Allt detta utnyttjas i klipptekniken d.v.s. på vilket sätt som<br />

bild <strong>och</strong> ljud byggs ihop till en hel berättelse. Klipptekniken syftar till att göra en berättelse så<br />

effektiv <strong>och</strong> fängslande som möjligt. För att undvika oväsentligheter i en <strong>historia</strong> tillgriper<br />

man ofta det som kallas tidsförkortning. Man klipper helt enkelt bort ”transportsträckor”<br />

mellan två väsentliga episoder. T.ex. en person som åker hemifrån till ett viktigt möte. Vi ser<br />

personen sätta sig i bilen <strong>och</strong> köra iväg. I nästa bild ser vi personen anlända till mötespunkten.<br />

Vill vi understryka att det varit en lång resa, så kan det ha hunnit att bli skymning. Vi kan<br />

också lägga in en parallellhandling, d.v.s. något som utspelar sig på en annan plats samtidigt<br />

som personen är på väg till sitt möte.<br />

Samtidigt som klippen ger möjlighet till att föra berättelsen framåt genom att skapa nya<br />

scener, så försöker man normalt också att se till att klippen märks så lite som möjligt. Det är<br />

ju som oftast inte klippen i sig som är intressanta. Ett sätt att överbrygga klippen är att skapa<br />

en kontinuitet i miljön. Det kan vara ljus, färg, miljö eller ljud som stämmer överens mellan<br />

klippen. Ett annat vanligt sätt att maskera klipp är att klippa på en rörelse i bilden. Ett s.k.<br />

rörelseklipp. Även ljudet kan utnyttjas på samma sätt där man klipper i en förändring av<br />

ljudet. normalt låter man klippet ske något efter det att ljudet introducerats (någon tiondels<br />

sekund).<br />

Med klaff menas att t.ex. en rörelse fortsätter kontinuerligt i nästa bild. Här handlar det inte<br />

om någon förskjutning i tiden. Man brukar tala om klaffel <strong>och</strong> syftar till en förändring mellan<br />

två bilder som tidsmässigt hänger ihop <strong>och</strong> där den aktuella förändringen omöjligen skulle<br />

kunna ha skett. Ett exempel är där en man går ut ur ett rum <strong>och</strong> lossar på slipsen. Man klipper<br />

till nästa bild där mannen kommer in i ett angränsande rum där slipsen är snyggt knuten igen.<br />

En viktig del är den s.k. 180 graders regeln (optiska axeln). Den bygger på att blick <strong>och</strong><br />

rörelseriktningar stämmer med varandra i den färdigklippta filmen.<br />

Bildväxling använder man sig av när man med till synes helt olika bilder skapar en<br />

sammanhängande berättelse. Oftast rör det sig om närbilder som sätts ihop. Exempelvis kan<br />

en bild på en blodig kniv i gräset sammanklippt med en man som ligger i gräset berätta en<br />

otrevlig <strong>historia</strong>. Historien förändras något om man istället för en kniv lägger en urdrucken<br />

vodkaflaska i gräset.<br />

Eyescan är ett sätt att underlätta avläsningen av en bild med till synes mycket information i.<br />

Om vi vill att publiken snabbt ska fästa blicken på ett visst föremål i en bild, så kan vi låta<br />

106


föregående bild ha ha något föremål som drar blickarna till sig i just den punkt som det<br />

intressanta händer i nästa scen.<br />

Med hjälp av olika tekniker kan vi styra åskådarens blickar till det väsentliga i bilden. Trots<br />

att mannen i centrum utgör en ganska liten del av bilden, så har man med hjälp av ljussättning<br />

lyft fram honom i bilden.<br />

Bildberättandet bygger ofta på att man växlar mellan olika bildutsnitt. Grovt kan man dela in<br />

de olika utsnitten mellan Översikts- eller totalbild (helt landskap), helbild (hel människa),<br />

halvbild (midjan <strong>och</strong> uppåt på människa), närbild (porträttbild) <strong>och</strong> detaljbild (närbild på öga).<br />

107


Exempel på vokabulär som används för att beskriva bildutsnitt. Det finns ingen direkt<br />

standard på området, så olika regissörer kan mena olika när dom uppger vilket bildutsnitt som<br />

dom vill ha i en bestämd tagning.<br />

Komponera bilden till en helhet. Innehållet i bilden ska berätta något. Använd inte kameran<br />

som kikarsikte.<br />

108


Det som gör en bild intressant är att den i vid bemärkelse på något sätt innehåller ett budskap.<br />

Bilden berättar något för oss. Det kan vara i form av harmoni, disharmoni, spänning, motsats,<br />

överraskning, djup etc.<br />

I inledningen av bilden ser vi bara ryttaren till höger. Det skapar obalans i bilden, en<br />

spänning, <strong>och</strong> vi förväntar oss att något ska hända i bildens vänstra del. Mycket riktigt, kliver<br />

skurkens ena ben in i bild. Ordningen är återställd.<br />

Vad visar denna bild? Att barnet sitter i en sandlåda <strong>och</strong> gör sandkakor eller att barnet är<br />

ensamt.<br />

Kamerans placering kan vara avgörande för hur motivet framställs. I en intervjusituation eller<br />

i andra fall där en person i bild skall framträda i neutral skepnad placeras kameran i jämnhöjd<br />

med motivet. Placeras kameran ovanför eller under motivet kan man illustrera makt eller<br />

undergivenhet.<br />

109


Kamerans placering kan vara avgörande för hur en person skall framhävas.<br />

Motivets placering i bild (beskärning) gör att mannen kan upplevas som lång, kort, på väg att<br />

röra sig eller stabil (stående).<br />

Brännvidd<br />

Kameraobjektivets optiska ”längd” kallas brännvidd. Normal brännvidd avbildar motivet<br />

oförvanskat. Tele eller lång brännvidd trycker ihop motivet <strong>och</strong> vidvinkel, eller kort<br />

brännvidd, särar på motivet (framhäver förgrunden i förhållande till bakgrunden). Olika<br />

brännvidder förändrar bildutsnittet men inte perspektivet. För att ändra perspektiv måste<br />

kameran flyttas.<br />

110


Bildparet till vänster är resultatet av olika brännvidd utan att kameran förflyttats. Bilderna har<br />

bara beskurits så att utsnittet stämmer överens. Höger bildpar visar vad som händer när<br />

kameran förflyttas. Perspektivet förändras.<br />

Vidvinkel används i många fall för att skapa djup i en bild. Den valda brännvidden kan inte<br />

enbart skapa djupet, men den accentuerar relationen mellan för- <strong>och</strong> bakgrund. Andra sätt att<br />

skapa djup är att låta motiv överlappa varandra. Man kan utnyttja skärpedjupet där t.ex.<br />

bakgrunden hamnar i oskärpa i förhållande till förgrunden. Genom ljussättning kan för- <strong>och</strong><br />

bakgrund tydligare åtskiljas. Det vanligaste är med s.k. bakljus. Slutligen kan man<br />

åstadkomma djup i bilden genom att röra kameran. På så sätt skapar man en relativ rörelse<br />

mellan för- <strong>och</strong> bakgrund.<br />

Med hjälp av vidvinkeloptik kan man framhäva förgrunden <strong>och</strong> samtidigt dämpa<br />

bakgrundens inflytande.<br />

111


Olika sätt att skapa djup i bild. I motivet till vänster placeras en person i förgrunden. I<br />

bilden till vänster låter man repet bilda en referens i djupled.<br />

Kamerarörelser skall göras med försiktighet <strong>och</strong> planering. Vissa kamerarörelser som t.ex.<br />

åkning i sidled kan göras mycket långsamma <strong>och</strong> ändå bidra till att skapa djup i bilden. Någon<br />

har sagt att ”Fotografens främsta uppgift är att förhindra att kameran zoomar <strong>och</strong> panorerar”.<br />

Detta påstående har sin grund i att vi människor varken zoomar med blicken eller panorerar<br />

på samma sätt som en kamera gör. Den enda ”naturliga” panoreringen är s.k. följning. D.v.s.<br />

att kameran panorerar med ett föremål som rör sig. Naturligtvis är det inte förbjudet att röra<br />

kameran eller zooma. Men alla rörelser ska vara motiverade, d.v.s. förstärka budskapet i<br />

bilden.<br />

Ett exempel är skillnaden mellan in- <strong>och</strong> utzoomning. Utzoomning startar med en närbild på<br />

ett föremål t.ex. en liten röd stuga. Under utzoomningen tillförs hela tiden mer<br />

informationskomponenter i bilden. En blomsterrabatt framför stugan, ett träd. Hade det<br />

stannat vid denna information hade vi lika gärna kunnat klippa mellan närbilder <strong>och</strong> helbilder.<br />

Men vi fortsätter utzoomningen <strong>och</strong> vi noterar att det bakom stugan ser ut som en grå vägg.<br />

Utzoomningen fortskrider <strong>och</strong> när den till slut stannar visar det sig att vår idylliska stuga<br />

ligger vid foten av en enorm vattenregleringsdamm. Utzoomningen gav i detta fall möjlighet<br />

att skapa en utdragen dramatik/spänning som klipp mellan bilderna inte skulle ha gjort.<br />

Det omvända förhållandet med inzoomning förstärker budskapet på ett annat sätt. Genom att<br />

zooma in mot ett föremål skalar vi bort information i bilden tills det enbart återstår en närbild<br />

på föremålet. Med detta förfarande vill vi förstärka budskapet genom att tala om att det är just<br />

detta föremål som är viktigt.<br />

112


Genom att placera den mindre personen så att han överlappar den större, så framhävs det rätta<br />

förhållandet mellan de båda personerna.<br />

Genom att använda ett litet skärpedjup (d.v.s. stor bländaröppning) kan vi lättare förskjuta<br />

fokus till det föremål/plan som är intressant. För att åstadkomma ett litet skärpedjup måste<br />

man ibland använda sig av ND filter av olika densitet (genomsläpplighet).<br />

Genom att förskjuta fokus (skärpeplanet) så skapas djup, samtidigt som man fokuserar på det<br />

gör tillfället viktigaste i bilden.<br />

Genom att överdriva perspektiv <strong>och</strong> djup kan man skapa dramatiska effekter.<br />

Färg<br />

En fotograf sa vid ett tillfälle till en kollega att ”Om du ska misslyckas ordentligt med en bild,<br />

så ska du göra det i färg”.<br />

Vad fotografen menade var att ju mer komponenter som du tillför, desto fler risker finns för<br />

att något ska bli fel. Han jämförde färg med svart vit <strong>och</strong> färgen tillför ju onekligen en<br />

komponent som kan gå fel, likaväl som färgen kan höja värdet på bilden. Olika färger har<br />

olika symboliska värden. Rätt utnyttjat kan man öka informationen i bilden.<br />

113


Röd färg är en signalfärg <strong>och</strong> drar till sig uppmärksamhet. I dessa bilder distraherar<br />

färgen <strong>och</strong> drar uppmärksamheten från huvudmotivet.<br />

Färg utnyttjas å andra sidan för att styra blicken till det väsentliga i motivet. Färgen kan<br />

även skapa djup i bilden.<br />

114


Att jobba med effekter för film <strong>och</strong> video<br />

Filma för effekter: Vad skall man tänka på?<br />

Det är den viktigaste frågan av alla<br />

Allför ofta hinner man inte med det man skall. Eller så har man hunnit med för mycket! För<br />

ett intressant berättande måste man försöka se vad som är nödvändigt <strong>och</strong> vad man kan vara<br />

utan. Frågan ovan är en som man konstant skall ställa till sig själv under planeringen <strong>och</strong><br />

filmningen. Man filmar ofta sådan som man inte behöver <strong>och</strong> glömmer av att få med det som<br />

är viktigt. Mycket av vad tittaren uppfattar av det man filmar kan göras underförstått utan att<br />

visa det. Fundera över en scen där en person skall gå igenom en dörr, är det verkligen<br />

nödvändigt att visa en närbild på handtaget som trycks ner? Nej, det förstår man ändå,<br />

eftersom handtaget måste tryckas ner för att öppna dörren! Man kan få med mycket mer<br />

berättande än vad man först tror. En person öppnar ett kylskåp <strong>och</strong> sitter sedan i en soffa med<br />

ett glas mjölk. Är kopplingen tydlig? Ja, alla vet att mjölken står i kylen, så det framgår<br />

tydligt att det var därifrån personen hämtade den. Man skall inte visa något om det inte har<br />

någon betydelse! Det är ingen mening med att visa att personen faktiskt häller upp mjölken i<br />

glaset, om inte glaset eller mjölken i sig utgör en viktig del av berättelsen.<br />

Men framför allt är frågan viktig då man skall avgöra hur man på lättast sätt åstadkommer en<br />

önskad videoeffekt. Om den är praktiskt genomförbar vid filmtillfället, är detta det såklart<br />

bästa alternativet. Man filmar ju då något ”äkta”. Många enkla trick kan spara massor av tid i<br />

”post.” Å andra sidan, finns även saker som bara är genomförbara i post <strong>och</strong> då gäller det att<br />

tänka extra noga när man filmar. Även små misstag kan medföra mycket onödigt arbete. Här<br />

sätts planeringen på prov, får man med allt man behöver? Är du säker?<br />

Innan du filmar <strong>och</strong> under tiden...<br />

Planering<br />

Planeringen är a <strong>och</strong> o gällande allt filmande, även om några digitala effekter inte är aktuella.<br />

Alla scener bör vara skissade som storyboard innan de filmas. Med detta enkla medel kan<br />

man snabbt se var det förekommer brister. Balanseringen av bilden brukar vara ett vanligt<br />

problem. Man vill hitta en intressant bild, en intressant vinkel med fin balansering. Symmetri i<br />

bilden brukar inte vara det bästa. Genom att skissa upp olika förslag på samma scen hittar<br />

man snabbt hur man vill ha det utan att ens ha filmat. Det går mycket smidigare <strong>och</strong> snabbare<br />

när man väl står ute på plats om man planerat ordentligt. Man försäkrar sig då om att allt som<br />

man behöver kommer att finnas i scenen <strong>och</strong> att den filmas på ett korrekt sätt. Men flera<br />

variationer är naturligtvis aldrig fel att filma.<br />

Innan man börjar filma bör man dessutom ha gjort en scenlista innehållande scener man måste<br />

ha med för att historien skall funka (A-scener), scener man skulle vilja ha med (B-scener) <strong>och</strong><br />

scener som man tycker kan vara bra att ha för att fylla ut historien (C-scener).<br />

Färgsättning<br />

Färgsättningen bör alltid vara neutral! Oavsett om det finns någon tuff effekt i kameran som<br />

man gärna vill ha, kan man alltid göra detta i efterhand, dessutom mycket bättre. Det<br />

viktigaste när man använder en DV kamera är att testa olika vitbalanser. Utomhus filmande<br />

innehåller mycket blått ljus, alltså måste man kompensera för detta. Inomhus filmande<br />

innehåller mycket gult ljus. Även om man vill ha en gul-aktig ”look” till scenen, är det alltid<br />

möjligt att man ångrar sig!<br />

115


Det är också vanligt att man använder ”svarta fält”-funktionen som finns i många kameror för<br />

att efterlikna film. Denna funktion skall man låta bli då man planerar att ändra på scenens<br />

utseende, vilket brukar vara ganska ofta. Den kan vara för mörk, för ljus, för gul eller för<br />

skarp. Eftersom de svarta fälten nu ingår i bilden, kommer de också att ändras. Det går<br />

alldeles utmärkt att bara lägga på en mask under redigeringen ifall man nu vill ha de svarta<br />

fälten. Det blir dessutom skarpare kant då.<br />

Ljus<br />

Ljuset i scenen är alltid viktigt att anteckna. Utomhus går det ofta att se hur skuggor faller<br />

enbart från det man filmat, men vid filmande inomhus är ofta lamporna placerade på speciella<br />

ställen. I detta fall är det då viktigt att veta var om man planerar att trycka in 3d i scenen. En<br />

annan aspekt är att det alltid är bra med mycket ljus i scenen. Även om den skall vara mörk,<br />

kan man aldrig filma i mörker, men man kan faktiskt göra en scen mörkare. Man undviker då<br />

all grynighet som uppkommer då kameran inte får tillräckligt med ljus. En annan del är<br />

exponeringen. Alla DV-kameror använder falsk exponering, det enda som sker när man ökar<br />

den i kameran är att signalen förstärks, dvs samma sak som att öka ljusstyrka <strong>och</strong> kontrast i<br />

Photoshop. Exponeringen bör alltid stå på den lägsta i kameran, vilket brukar vara 12dB.<br />

Ljussättning för bluescreen <strong>och</strong> greenscreen är alltid svår att få till. Målet är att få så jämnt<br />

ljus över filten utan inverkan av skuggor från skådespelarna. Tänk på att filten inte behöver<br />

fylla hela bilden, utan bara den del som skall filtreras ut. Allt annat kan man klippa ur bild<br />

ganska enkelt. Det är enklare att få till ljuset om filten befinner sig en bit ifrån skådespelaren.<br />

Reflekterat ljus är mjukare än direkt ljus. Tänk på att det går egentligen att använda vilken<br />

färg som helst på duken, bara den skiljer sig väsentligt från vad man vill ha kvar i bild.<br />

Kamerarörelse<br />

Rörelsen med kameran är en mycket stor del av allt effektarbete. Man bör försöka låsa<br />

kameran så ofta man kan. Med detta menas, då inte scenen verkligen kräver rörelse från<br />

kameran, skall den stå på ett stativ, riktigt stadigt. Scener utan rörelse är lättare på många<br />

plan. En scen med en kamera vridning är inte så väldigt komplicerad, men däremot om man<br />

går omkring med kameran, blir det helt plötsligt väldigt svårt att lägga in nya moment efteråt.<br />

Många rörelser kan man göra direkt i redigering, om man nu vill ha dem. Att göra jämna<br />

rörelser är svårt med handhållen kamera. Ett tips är att hålla i stativet istället för kameran, då<br />

slipper man små skakningar från handen, men rörelsen är fortfarande lite svajig.<br />

Information om kamerans position, lins, riktning <strong>och</strong> höjd är alltid viktigt att ha om scenen i<br />

fråga skall innehålla 3d. Även avstånd till några objekt i scenen är ett stort plus!<br />

Arbetsflöde<br />

Var börjar man?<br />

Vad är då nästa steg efter filmandet? Jo, att fånga in sin video på en dator för att sedan<br />

redigera ihop filmen. Redigeringen görs direkt för att minimera arbetet på scenerna som<br />

innehåller effekter. Man vill inte att någon sitter med en 10 sekunders scen som sedan visar<br />

sig bara bli 2 sekunder. Naturligtvis vill man bara göra de 2 sekunderna som kommer att<br />

visas. När man redigerat klart, exporterar man de aktuella klippen som skall innehålla effekter<br />

till ett passande filformat för efterbearbetning. En sak man bör tänka på redan innan man<br />

exporterar är hur färgen <strong>och</strong> kontrasten på alla scener skall se ut. Kommer den att ändras alls?<br />

116


Det kan vara lockande att ändra på dessa under effektbearbetningen, men då bör man också<br />

tänka på att scenen skall passa ihop med de övriga scenerna i filmen. Går det att få till önskat<br />

resultat direkt i redigeringen? Många redigeringsprogram erbjuder mycket bra färgkorrigering<br />

<strong>och</strong> kontrastinställningar, vilket helt tar bort stegen exportera / korrigera / importera. Faktum<br />

är att man ibland inte ens behöver exportera alls eftersom man faktiskt kan göra många<br />

effekter direkt i redigeringen. Detta bör man alltså prova först innan man exporterar klippen.<br />

Ok, ni har gått igenom stegen ovan <strong>och</strong> beslutat att extern bearbetning är nödvändig. Vilket<br />

program skall ni använda? Detta kan vara svårt om man inte känner till de olika för- <strong>och</strong><br />

nackdelarna med de olika programmen som finns inom videoeffekt fronten. Man är<br />

naturligtvis inte begränsad till ett enda program, man bör använda det programmet som<br />

lämpar sig bäst för scenen i fråga. Visserligen är de flesta effektprogrammen någorlunda lika<br />

<strong>och</strong> erbjuder många liknande funktioner som oftast är tillräckliga för medelanvändaren, men<br />

små skillnader kan i längden spara mycket tid. Följande jämförelse mellan Discreet<br />

Combustion <strong>och</strong> Adobe After Effects kan vara till hjälp när man står <strong>och</strong> funderar:<br />

Beskrivning Discreet Combustion Adobe After Effects (PB*)<br />

Keying (blue-, greenscreen) Mycket bra Godkänd**<br />

Tracking Mycket bra Bra<br />

3d compositing (2d planes) Mycket bra Godkänd<br />

Deformering Knappt godkänd Mycket bra<br />

Färgkorrigering Mycket bra Bra<br />

Caching (RAM Preview) Godkänd Mycket bra<br />

Rotoscoping & Paint Mycket bra Knappt godkänd<br />

Animering Lätt <strong>och</strong> flexibel Lätt <strong>och</strong> flexibel<br />

*PB – Production Bundle<br />

**Ultimatte finns som plug-in, som fungerar mycket bra. Den inbyggda keyern är inte så bra.<br />

Innan man börjar själva arbetet med effekten i fråga, bör man ha tänkt igenom innan hur man<br />

bäst <strong>och</strong> på enklast sätt går till väga för att åstadkomma effekten. Det finns många olika sätt<br />

att göra en <strong>och</strong> samma effekt, precis som i 3D. Nu sätts planeringen på prov!<br />

Vad skall man tänka på så att effekterna blir lätthanterliga?<br />

Att jobba med compositing är precis som att jobba med Photoshop. Skillnaden är att alla filter<br />

går att slå av <strong>och</strong> på närsomhelst, plus att allt går att animera såklart. Bägge programmen ovan<br />

är lagerbaserade, precis som Photoshop. Så fort man ”lägger på ett filter”, läggs det till en<br />

operator i hirarkin. På grund av detta går det snabbt att testa olika kombinationer av filter.<br />

Man kan även ändra ordningen på dem, för att ytterligare skapa variationer.<br />

För att få så stor flexibilitet som möjligt när man jobbar med compositing, bör man försöka att<br />

åstadkomma det mesta direkt i programmet just pga. egenskapen ovan. Detta gäller särskilt då<br />

man vill trycka in 3D i sin scen. Ett vanlig miss är att man lägger ner timmar på att få<br />

renderingen så lik videoklippet som möjligt. Det är då bättre att rendera ut sin 3D i olika lager<br />

som t.ex. diffuse, ambient, shadow <strong>och</strong> specular. Det går alltid snabbare att jobba i 2D än vad<br />

det gör i 3D. Med alla dessa lager, kan man på ett snabbt <strong>och</strong> effektivt sätt ändra utseendet<br />

<strong>och</strong> intrycket av 3D:n utan att behöva rendera om. Detta sätt att jobba på anses vara det<br />

snabbaste <strong>och</strong> utnyttjas av alla effekthus. Man behöver nästan alltid anpassa färg <strong>och</strong> skugga<br />

på renderingarna ändå, så då kan man lika gärna fixa till resten också.<br />

Samla allt material du jobbar med i en <strong>och</strong> samma mapp. Ha bildsekvenserna i undermappar.<br />

Det är lätt att jobba sig blind med en scen <strong>och</strong> innan man märker det, ligger alla källfiler<br />

117


utspridda över hela hårddisken. Skapa även nya mappar för testrenderingar, färgnycklar eller<br />

tracking-filer osv. Detta underlättar arbetet nästa gång du fortsätter med samma scen. Skriv<br />

anteckningar i textfiler om färdiga keyframes, små saker som är svåra att se eller kanske<br />

t.o.m. hur du vill att slutresultatet skall bli. Efter ett tag med samma scen, hittar man alltid nya<br />

sätt att ändra utseendet till det bättre/coolare <strong>och</strong> glömmer lätt av hur man tänkt sig från<br />

början.<br />

Namnge alla lager du använder! Används de inte, ta bort dem eller skriv något på lagernamnet<br />

så du vet att de inte skall vara med. Detta kan vara aktuellt om du använder referenser i din<br />

composite.<br />

Rendera testbilder! Har du flera scener som följer varandra är det en stor fördel att rendera ut<br />

någon stillbild från varje scen <strong>och</strong> öppna upp dem alla i photoshop. Nu kan du lätt jämföra<br />

scenerna <strong>och</strong> lätt märka eventuella skillnader som kanske inte är önskevärda. Anteckna!<br />

Lite om filformat <strong>och</strong> video codecs.<br />

.AVI – Windows egna videoformat. Kan komprimeras med bl.a. DV, Divx eller Sorenson.<br />

Dock fungerar inte DV-formatet i varken After Effects eller Combustion. Okomprimerat<br />

fungerar dock, men tar upp mycket utrymme på hårddisken.<br />

.TGA – Bitmapformat. Kan innehålla upp till 32 bitar, varav 24 är för färg <strong>och</strong> 8 bitar för en<br />

alpha-kanal. Fungerar bra, men varje fil (bildruta) ligger på ca 1.2 MB, vilket också tar upp<br />

mycket utrymme.<br />

.PNG – Bitmapformat. Kan innehålla upp till 48 bitar, varav 36 är för färg <strong>och</strong> 12 för alphakanalen.<br />

Detta format är ”loss-less”, dvs komprimering utan kvalitétsförlust. Rekommenderas<br />

framför allt annat. Dessa bildfiler tar ca hälften av utrymmet som TGA-bilder gör, dessutom<br />

försämras inte kvalitén när man sparar om filerna. P.g.a. storleken går det även fortare att<br />

arbeta med PNG, mindre mängd data behöver läsas in vid uppspelning. Däremot används<br />

samma mängd RAM-minne för att läsa in en PNG-sekvens som en TGA-sekvens<br />

motsvarande samma klipp. De buffrade bildrutorna är programmets egna, inte filerna själva.<br />

.JPG – Bitmapformat. Detta format bör undvikas. Komprimeringen är hård <strong>och</strong> försämrar<br />

bildkvalitén även vid högsta inställning då man sparar. Fungerar dock utmärkt för att spara<br />

sina testrenderingar i eftersom det snabbt går att öppna i vilket webläsare som helst.<br />

Hur gör man det där?<br />

• Genomgång av det aktuella programmets användargränssnitt.<br />

Man bör lära känna arbetsflödet i programmet man tänkt bygga upp sin effekt i. Många kan<br />

känna igen sig i After Effects, eftersom gränssnittet påminner mycket om Photoshop. Fast<br />

många lösa fönster kan lätt bli stökigt. I Combustion finns allt nerpackat bakom ett antal flikar<br />

som man lätt kommer åt med musen eller F-tangenterna. Däremot har Combustion ett<br />

gränssnitt som inte påminner om något annat. Det tar tid innan man blir bekant med<br />

arbetsflödet, men det är faktiskt ett av det bättre. För att lära sig gränsnittet är det viktigt att gå<br />

igenom de rekommenderade steg som programmets egna hjälpfil föreslår. Har man väl gjort<br />

dessa, går det mycket fort att lära sig resten. De flesta effekter byggs upp på samma sätt, det<br />

är bara arbetsflödet som varierar. Vanligtvis har man en lagerlista, där alla lager eller klipp i<br />

ens composite står listade <strong>och</strong> tillhörande filter under varje lager. Det översta lagret hamnar i<br />

förgrunder <strong>och</strong> det nedersta i bakgrunden. Det finns normalt även en timeline, precis som i ett<br />

118


edigeringsprogram, där alla klippen representeras som en linjärt område motsvarande sin<br />

tidslängd. Från dessa <strong>och</strong> menyerna överst tillkommer fler fönster eller delar där man gör<br />

inställningarna för det filter man applicerar. Ta en titt på programmens hemsidor:<br />

www.discreet.com <strong>och</strong> www.adobe.com för bilder på gränssnitten.<br />

Filter, markeringar <strong>och</strong> typiska effekter.<br />

När man jobbar med att sammanställa flera olika källor till en enda uppkommer oundvikligen<br />

avvikelser. Därför använder man olika filter för att korrigera <strong>och</strong> minimera skillnader mellan<br />

dem. Filter används naturligtvis för att skapa nya intryck också. Man vill t.ex. lägga fokus på<br />

ett särskilt område i bilden, då kan man använda blur på de övriga delarna för att skapa en<br />

kamerafokus effekt. Blur används också flitigt när någonting har en rörelse, s.k. motionblur.<br />

För att använda detta filter på särskilda delar av bilden, drar man nytta av markeringar, eller<br />

masks som det heter på engelska. Man ritar då linjer runt den delen eller delar man vill lägga<br />

blur på. Markeringar är mycket användbara, speciellt eftersom de faktiskt går att animera,<br />

vilket är ytterst nödvändigt eftersom man jobbar med video. Mycket av arbetet i post är just<br />

att dela upp bilden på alla de delar som kommer att ställas in annorlunda mot de övriga. När<br />

man använder greenscreens eller bluescreens, är detta just för att kunna använda förgrunden<br />

som ett separat lager eller markering som ger oändliga möjligheter senare. Man kan använda<br />

vilken bakgrund som helst, ändra färg på förgrunden eller kanske animera den för att skapa en<br />

virtuell kamerarörelse. Med detta kan man på ett lätt sätt foga samman surrealistiska miljöer<br />

som inte varit praktiskt möjliga. När man laddat in klippet, väljer man en grundfärg att filtrera<br />

ut, därefter lägger man till fler nyanser av samma färg för att ta bort så mycket blått eller grönt<br />

som möjligt direkt. Därefter kan man normalt ställa in antal grånivåer på sin alfakanal som<br />

man skapat, för att skapa större kontrast <strong>och</strong> minska färgblödningen runt markeringens kanter.<br />

Som sista steg sänker man färgmättnaden runt kanten för att få blödningen att försvinna helt.<br />

Man kan även krympa hela markeringen. Det känsligaste området är såklart kanterna kring<br />

objekten man vill hålla kvar. Eftersom alla material, även matta, reflekterar ljus så är det<br />

naturligt att kanterna får en del av bakgrundsfärgen. Man kan dock i förhand använda lampor<br />

för att minimera detta, för att separera förgrunden ytterligare från bakgrunden. Man riktar då<br />

lampor bakifrån skådespelaren mot kameran, för att belysa kanterna med en annan färg eller<br />

bara öka kontrasten runt om kanterna. På detta sätt får man en bättre mask, <strong>och</strong> skär inte bort<br />

lika mycket när man filtrerar. För att smälta ihop förgrunden med den nya bakgrunden är det<br />

nästan alltid nödvändigt med färgkorrigering. Man ställer då in saker som kontrast,<br />

färgmättnad, nyans, skugga <strong>och</strong> ljuspunkt. Här får man valuta för de åtgärder man tagit under<br />

filmandet. Har man haft lagom med ljus <strong>och</strong> en neutral vitbalans är det mycket lättare att<br />

ställa in färgerna. Tyvärr blir det ofta att man försöker ”rädda” en scen, just för att man missat<br />

att kolla av färgerna innan. Å andra sidan kan man faktiskt åstadkomma en väldig skillnad på<br />

intrycket av sin scen, just med bara färger. Vill man ge en ”varm” känsla, använder man<br />

mycket rött <strong>och</strong> gult i bilden. Vill man ha ett ”kallt” intryck, brukar man dra bilden åt det blåa<br />

hållet. Här kan man också sänka färgmättnaden för ett ”verkligare” intryck. Ett bra exempel<br />

på detta är ”Saving private Ryan”, där bilden nästan drar åt det svart-vita hållet under<br />

stormningen i början av filmen. Kanske just för att många förknippar svart-vitt med<br />

dokumentärer?<br />

Hur gör proffsen?<br />

Den största skillnaden mellan amatörer <strong>och</strong> proffs är budgeten. Med hundratals miljoner<br />

kronor är det inte så konstigt att effekterna blir så bra som de blir. Man får inte bli avskrämd<br />

från att lära sig jobba med effekter när man ser filmer som ”Jurassic Park” eller ”Pearl<br />

Harbour”. Personerna som suttit <strong>och</strong> gjort dessa effekter har jobbat flera månader, ibland över<br />

119


ett år, för att åstadkomma dem. Det enda vi ser är resultatet, inte allt jobb bakom. Trots detta,<br />

är arbetsgången identisk med den beskriven i detta dokument. Det sker bara på en större <strong>och</strong><br />

mer omfattande skala. Allt är lite nogrannare <strong>och</strong> mer planerat än vad vi kanske är vana vid.<br />

Det finns en känd typ av kameraeffekt, där förgrunden närmar sig kameran samtidigt som<br />

bakgrunden tycks avlägsna sig. Detta är inte något man åstadkommer i post vanligtvis, utan<br />

filmas direkt. Effekten kallas ”dolly-zoom”, då man rör kameran mot skådespelaren samtidigt<br />

som man zoomar ut. Denna effekt tar ca 2-3 timmar att förbereda <strong>och</strong> brukar inte vara längre<br />

än 5-10 sekunder i längd. Så här är det på de flesta håll inom filmbranschen. Väldigt mycket<br />

förberedelse för en kort scen, men då får man den korrekt filmad också. Det är vanligtvis 3-8<br />

personer som sköter en enda filmkamera. Tänk på alla olika delar som utgör en filmkamera:<br />

linsen, filmen, kamerahus, ställningen eller spåret kameran står på <strong>och</strong> rörelsen i sig. Alla<br />

dessa delar kräver experter för att nå optimal bildkvalité. Fast när man har 100 miljoner i<br />

fickan, varför riskera något? Fast när DV-band är så billiga som de är, är det inte bättre att<br />

filma för mycket än för lite? Varför riskera något? Är DET verkligen nödvändigt?<br />

120

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!