Henrik Kroos - Prosa
Henrik Kroos - Prosa
Henrik Kroos - Prosa
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
John McCarthy (1927-2011) var verdensberømt computeringeniør og ophavsmand til begrebet kunstig intelligens. Han var også<br />
manden bag det bredt anvendte programmeringssprog Lisp og en af udviklerne bag det banebrydende time-sharing-koncept:<br />
Det vil sige muligheden for, at flere personer kan bruge én computer samtidig. Foto: Stanford University.<br />
engang opererer med en klar forståelse for intelligens i<br />
dyreriget og blandt mennesker.<br />
Som insekter<br />
Esben Østergaard er stifter af og teknisk direktør hos den<br />
danske robotproducent Universal Robots. Han skrev i sin<br />
tid ph.d. om kunstig intelligens. Efter flere års granskning af<br />
begrebet overtog han en mere praktisk forståelse, defineret<br />
af bevægelsen Embodied Artificial Intelligence.<br />
– Jeg mener, at man skal forstå intelligens som "den rigtige<br />
hjerne og den rigtige krop til den rigtige opgave". En flue er<br />
for eksempel hamrende intelligent, fordi den har en mave,<br />
der kan spise lort, siger han.<br />
Og netop sammenligningen med insekter er på sin plads,<br />
når man taler om maskiner, der skal agere i den fysiske<br />
verden. Det mener <strong>Henrik</strong> Gordon Petersen, der forsker i<br />
robotik ved Mærsk Mc-Kinney Møller Instituttet.<br />
– Vi er nået dertil, hvor kunstig intelligens kan reagere<br />
på simpelt sensor-input på en autonom måde. Hvis man skal<br />
sammenligne med dyreriget, er vi omkring insektniveau.<br />
Programmeringen af maskinernes reaktioner kaldes<br />
"sensorbaseret realtidsstyring". I praksis fungerer programmerne<br />
ved, at en computer bearbejder forskellige<br />
"sanseindtryk" i realtid – fra kameraer til radarer og så videre.<br />
Via avanceret software – til for eksempel billedgen-<br />
kendelse - ved den, hvordan den skal reagere.<br />
<strong>Henrik</strong> Gordon Petersen forklarer:<br />
– Inden for blandt andet vision og navigation<br />
er man nået rimelig langt. Man kan<br />
godt programmere en robotbil til at dreje<br />
til venstre, hvis den ser en fodgænger<br />
gå ud på vejen. Men der er mange<br />
andre områder, hvor der ikke er<br />
nogen god model for, hvordan robotterne<br />
skal bruge sensor-input,<br />
siger han.<br />
Han peger på, at der er udfordringer både på den kognitive<br />
og den mekaniske side. Om de mekaniske udfordringer<br />
siger han:<br />
– Vi mangler at få den samme følesans ind i robotterne,<br />
som mennesker har. De føleevner, robotterne har i dag, er<br />
et sted mellem lavteknologiske og ubrugelige.<br />
Og om de kognitive udfordringer siger han:<br />
– Vi har brug for at sætte robotterne i stand til at lære af<br />
deres erfaringer. Hvis en robot har undersøgt ét løsningsområde,<br />
skal vi få den til at overføre dét, den har lært, til et<br />
andet løsningsområde. På samme måde som hvis et menneske<br />
har lært at åbne én dør og dermed nemt kan åbne en<br />
anden dør. Det med at skifte konteksten ud er noget, mennesker<br />
er rigtigt gode til, og som robotter er rigtigt dårlige til.<br />
<strong>Prosa</strong>bladet[23]