17.07.2013 Views

3 Stemmebaseret interaktion - The Game Design Chronologist ...

3 Stemmebaseret interaktion - The Game Design Chronologist ...

3 Stemmebaseret interaktion - The Game Design Chronologist ...

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

command and control, hvor der det også er brugeren der styrer dialogen,<br />

men med et større ordforråd er der ikke ligeså store begrænsninger i<br />

måden brugeren kan udstede kommandoer.<br />

• Mixed-initiative er den sidste af de overordnede tilgange til<br />

dialogmanagement, og her er det nøjagtigt som det lyder både muligt for<br />

systemet og brugeren at tage initiativ. Brugeren kan eksempelvis besvare<br />

et spørgsmål med et spørgsmål. Det giver et fleksibelt system, men det<br />

er naturligvis også sværere at designe.<br />

• Agent-based er ikke en egentlig tilgang til dialogmanagement, men i<br />

stedet en interessant udvidelse af de førnævnte. Det interessante er at der<br />

nu trækkes på teknikker fra kunstig intelligens (AI), idet dialogen<br />

modelleres som en problemløsningsopgave mellem to intelligente<br />

agenter (hvor den ene er brugeren) [McTear, 2004, s116]. Systemet vil<br />

reagere intelligent på brugerens spørgsmål eller kommandoer, ved at<br />

analysere situationen og brugerens input og giver en meningsfuld<br />

reaktion. Her må systemet naturligvis have informationer om målet med<br />

dialogen og konteksten den befinder sig i, for at give en meningsfuld<br />

intelligent reaktion.<br />

Der er altså flere tilgange til dialogmanagement, og mange ting som bør overvejes inden<br />

stilen vælges. I min situation ville system-directed initiative være praktisk muligt, men<br />

den forhørsagtige dialog der fremkommer, er ikke passende for et spil - her er det efter<br />

min mening spilleren der bør kontrollere forløbet. Af samme årsag mener jeg command<br />

and control er en langt bedre tilgang, og det er denne jeg har kombineret med en agentbased<br />

udvidelse sådan at systemet reagerer fornuftigt næsten uanset brugerens input.<br />

Hvordan det konkret er gjort vil jeg beskrive nærmere i projektets fjerde del, mens målet<br />

nu er at udforske dialogens forskellige modaliteter.<br />

3.3.1 Multimodalitet<br />

Den åbenlyse form på en dialog er at lade den være baseret på tale, men også andre<br />

modaliteter kan med fordel have en plads i dialogen. Der kan tales om både multimodalt<br />

input og multimodalt output [McTear, 2004, s379]:<br />

• Multimodalt input er hvor brugeren kan give systemet information<br />

gennem flere forskellige modaliteter, som f.eks. tale, mus, keyboard og<br />

trykfølsom skærm. Et eksempel kunne være at brugeren peger på et kort<br />

med musens cursor, og stiller et spørgsmål via tale. Der kan desuden<br />

skelnes mellem om input som i eksemplet foregår samtidigt, eller om<br />

brugeren kan vælge mellem flere modaliteter som tilbyder samme<br />

funktionalitet, men har forskellige fordele og ulemper. Man kan<br />

forestille sig en bilradio der kontrolleres via en trykfølsom skærm når<br />

bilen holder stille, og via tale når den kører - Ford har allerede<br />

eksperimenteret med dette [McTear, 2004, s384]. Der kan også skelnes<br />

33

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!