Straf! juni 2023
Straf! is het schoolmagazine van scholengemeenschap Mosa-RT. Het magazine verschijnt 3 keer per jaar.
Straf! is het schoolmagazine van scholengemeenschap Mosa-RT. Het magazine verschijnt 3 keer per jaar.
Create successful ePaper yourself
Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.
—<br />
Onze scholengemeenschap<br />
ChatGPT heeft last van hallucinaties… De robot<br />
zal immers zijn uiterste best doen om u altijd<br />
een antwoord te geven. Desnoods verzint<br />
hij er eentje, als u wil zelfs met referenties. Bij<br />
een groot aantal toepassingen blijft het dus<br />
de boodschap de antwoorden van ChatGPT<br />
te controleren. De feitelijke informatie checken<br />
blijft dus een must.<br />
Trouwens, als u vragen stelt die betrekking<br />
hebben op de periode na 2021, dan zal de robot<br />
u in de steek moeten laten: die informatie<br />
is te recent voor hem en dat zal hij dan ook<br />
ruiterlijk toegeven. Wellicht zal aan dit euvel<br />
snel verholpen worden en ondertussen kan u<br />
terecht bij de chatbot van Bing, die onlangs<br />
gelanceerd werd.<br />
Plagiaat?<br />
Wil u weten waar ChatGPT zijn mosterd haalt,<br />
dan komt u bedrogen uit. Die ‘bronnen’ worden<br />
angstvallig afgeschermd. Ja, over het onderwerp<br />
waar u naar vraagt kan er wel een<br />
bronnenlijst opgesteld worden, maar echt vragen<br />
naar waar ChatGPT zelf zijn info haalde,<br />
kan (voorlopig) niet.<br />
Pleegt u dan plagiaat als u gebruik maakt van<br />
een tekstgenerator? Wel, niet echt. Plagiaat is<br />
het gebruiken van het werk van iemand anders,<br />
zonder die ander te erkennen. Doen alsof<br />
jijzelf een werk afgeleverd hebt, is natuurlijk<br />
ook plagiaat. GPT doet dat eigenlijk niet. Het<br />
steelt of kopieert geen teksten, maar genereert<br />
zijn eigen<br />
tekst<br />
op basis van<br />
wat het systeem<br />
geleerd<br />
heeft vanuit<br />
de patronen<br />
en structuren<br />
van de menselijke<br />
taal.<br />
De tekst kan<br />
wel lijken op<br />
een tekst die je al eens eerder gezien hebt,<br />
maar er wordt niet letterlijk gekopieerd van<br />
een bepaalde bron. Wat wel vaststaat is dat u<br />
nooit de intellectuele eigendom kan claimen<br />
van een tekst die u door ChatGPT hebt laten<br />
schrijven. Met andere woorden, dat soort teksten<br />
kan niet in een opdracht voor school of<br />
in een opleiding, voor een eindproef of een<br />
proefschrift. Het is weer een ander verhaal<br />
als je aangeeft een tekstgenerator gebruikt<br />
te hebben, iets wat sommige opleidingsinstituten<br />
al eisen. Andere laten dan toch weer<br />
plagiaatsoftware op de teksten los om zo te<br />
achterhalen wat echt het werk van de indiener<br />
van een opdracht of proef is. Het is duidelijk<br />
dat er nog geen effectieve en efficiënte manier<br />
is om ‘chatbotteksten’ te onderscheiden<br />
van andere.<br />
Toch zijn er wel wat kenmerken die vaker opduiken<br />
in door AI gegenereerde teksten.<br />
Niet alles is grammaticaal correct en uiteraard<br />
komen er ook spelfouten voor. Bovendien vallen<br />
herhalingen vaker op. Logisch ook: door<br />
de grote hoeveelheden data waarmee ChatG-<br />
PT werkt is het ‘risico’ op herhalingen in een of<br />
andere vorm iets groter. En omdat we te maken<br />
hebben met statistieken en niet bepaald<br />
met literatuur, zijn onnatuurlijk aandoende,<br />
erg lange zinnen ook geen uitzondering. Dat<br />
ChatGPT af en toe heel wat fantasie toont<br />
60 <strong>Straf</strong>! <strong>juni</strong> <strong>2023</strong>