Ieder z’n specialisme op de redactie? Bij AI-gebruik is dat een valkuil

Nieuws | Wat zegt de wetenschap?

Redacties experimenteren volop met AI, maar een verantwoorde toepassing van kunstmatige intelligentie vergt behalve technische kennis ook gevoel voor journalistieke dilemma’s. En die twee zaken bevinden zich nog te vaak in gescheiden werelden, blijkt uit onderzoek van onder meer de Universiteit Leiden. De wetenschappers onderzochten hoe de communicatie over AI op redacties verloopt.

Kunstmatige intelligentie kan journalisten helpen bij onderzoek en tijd besparen door routineklusjes uit handen te nemen, maar het is soms lastig doorgronden hoe deze hulpmiddelen werken. Hoe garandeer je als medium objectiviteit en feitelijkheid, als je journalisten gebruik maken van AI? En vertrouwt de lezer de krant dan nog wel?

Verantwoord AI-gebruik vergt dat journalisten verstand hebben van de techniek, en de technici verstand van journalistieke afwegingen, schrijven wetenschappers uit Nederland, België en het Verenigd Koninkrijk in recent gepubliceerd onderzoek. Samenwerken is dus noodzakelijk. Sterker nog, niet alleen journalisten en ICT’ers moeten de handen ineenslaan, maar ook het management en de inkoopafdeling die de tools aanschaft.

Silo’s op de werkvloer

Goede communicatie binnen een organisatie is echter geen gegeven. Soms ontstaan er zogeheten ‘silo’s’ op de werkvloer. Specialistische kennis verzamelt zich op één plek in een organisatie – de IT-afdeling, het management, de redactievloer of zelfs bij één gespecialiseerde verslaggever – en vindt maar moeilijk een weg naar andere plekken. 

Zulke silo’s staan te boek als een sta-in-de-weg voor innovatie en vernieuwing. Belemmeren ze ook verantwoord AI-gebruik in de journalistiek? En zo ja, wat is daaraan te doen? Op die vragen zochten de wetenschappers een antwoord.

De onderzoekers interviewden uiteenlopende medewerkers van vier nieuwsredacties: De Telegraafde Volkskrant, de NOS en RTL Nederland. ‘We wilden zoveel mogelijk mensen met verschillende rollen interviewen: chefs, journalisten, sociale mediaredacteuren en IT’ers,’ zegt Tomás Dodds, universitair docent Journalistiek & Nieuwe Media aan de Universiteit Leiden en een van de auteurs van het onderzoek.

Dat ze uitgerekend in Nederland aan de slag gingen is geen toeval. Nederlandse media hebben de naam dat ze al relatief veel nadenken over, en gebruikmaken van, kunstmatige intelligentie. Zo hebben de NOS, RTL en de Volkskrant richtlijnen opgesteld voor ethisch AI-gebruik. En ook Mediahuis, de eigenaar van De Telegraaf, gebruikt AI, namelijk voor het schrijven van marketingberichten en vacatures, aldus de wetenschappers.

Kenniskloof

Op basis van de interviews konden de onderzoekers verschillende soorten silo’s op de redacties onderscheiden. Ten eerste vonden ze ‘horizontale’ silo’s, een kenniskloof tussen journalisten. ‘We zagen dat sommige verslaggevers weinig tot niets afwisten van AI, terwijl andere journalisten, techredacteuren bijvoorbeeld, het al volop gebruikten,’ zegt Dodds.

Ook vonden de wetenschappers een kenniskloof tussen de technisch onderlegde journalisten en hun leidinggevenden. De chefs hadden vaak weinig weet van welke AI-toepassingen erop de redactievloer gebruikt werden. Dodds: ‘We interviewden een journalist die datasets gebruikte die, in zijn woorden, op de “grens van de legaliteit” zitten. Deze gebruikte hij zonder redactioneel toezicht, aangezien zijn chef er niet vanaf wist.’

Silo’s op de redactie kunnen een ‘niet mijn probleem’-houding creëren

Tomás Dodds, AI-onderzoeker Universiteit Leiden

Verder merkten de onderzoekers ook dat de geïnterviewden voor de technische details vaak naar andere afdelingen verwezen. Gevraagd hoe bepaalde AI-toepassingen werken, zeiden ze al gauw ‘daarvoor moet je bij mijn IT-collega’s zijn’. Volgens Dodds kunnen zulke ‘interne’ silo’s een ‘niet mijn probleem’-houding creëren. De verantwoordelijkheid om goed doordacht gebruik te maken van AI wordt dan telkens bij anderen gelegd.

Tot slot vonden Dodds en zijn collega’s ‘externe’ silo’s: een kloof tussen de redactie en het moederbedrijf. ‘Journalisten verwachtten dat het moederbedrijf wel met AI bezig zou zijn, maar wisten niet precies wat,’ zegt Dodds.

Silo’s slopen

Genoeg aanwijzingen dus dat kennis van AI niet tot alle hoeken van mediaorganisaties doordringt. Maar wat valt eraan te doen? De onderzoekers zien verschillende manieren om ‘silo’s te slopen’.

Om te beginnen kunnen chefs, redacteuren en journalisten worden getraind in het gebruik van AI en meer leren over hoe de techniek erachter werkt. Zo blijft AI-kennis niet alleen bij de specialisten hangen.

Daarnaast zouden AI-gereedschappen van tevoren getest kunnen worden door journalisten: voldoen de tools aan journalistieke standaarden? Dit is een manier om samenwerking aan te jagen tussen redacteuren en de techneuten en kan volgens Dodds ook helpen om AI te ‘onthypen’. Door met een divers team zorgvuldig na te gaan wat een AI-hulpmiddel kan en hoe het werkt, wordt het ook voor de niet-techneuten wat tastbaarder.

Nieuwsbrief

Ontvang ons laatste nieuws
Dit veld is verborgen bij het bekijken van het formulier
Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.