Iedereen heeft het er over en ook fiscalisten ontkomen er niet aan: generatieve taalmodellen (Generative Pre- trained Transformer of GPT), beter bekend onder de merknamen ChatGPT, Gemini of Claude. Het zijn taalmodellen die worden getraind op grote hoeveelheden tekst en die nieuwe inhoud kunnen genereren in woorden, beeld of geluid.

We kennen allemaal de voorbeelden waar we in gewone taal met een – schijnbaar – intelligent systeem communiceren en zinnige antwoorden krijgen. Voor (fiscaal) juristen is dit temeer interessant, omdat het verwerken van tekstuele informatie centraal staat in ons vak. Omdat dergelijke systemen in staat zijn grote hoeveelheden tekst te verwerken, zouden zij in ons vak bij uitstek geschikt moeten zijn om juridisch onderzoek te doen, informatie te verzamelen, samen te vatten en te structureren en juridische documenten te genereren. In hun artikel ‘Fiscaliteit en kunstmatige intelligentie: stand van zaken en een fiscaal rapportcijfer van 7,4 voor ChatGPT’, MBB 2023/15, gaven Bruijsten en Putman een ruime voldoende aan ChatGPT voor het uitvoeren van een aantal taken uit het dagelijkse leven van de adviserende fiscalist. En kortgeleden zag ik een indrukwekkende demonstratie waarbij het arbeidsintensieve proces van een financiële benchmark voor een verrekenprijsrapport voor een belangrijk deel werd voorbereid door een expertsysteem.

Ik ben jong genoeg om enthousiast te zijn over de potentie van kunstmatige intelligentie in de fiscale (advies)praktijk, maar oud genoeg om daar ook kritisch en terughoudend over te zijn. Allereerst moeten de gebruikers rekening houden met hun geheimhoudingsplicht als vertrouwelijke cliënt- of zaakgegevens ter verwerking worden gevoerd. De privacyvoorwaarden van OpenAI, maken duidelijk dat hun systemen persoonlijke informatie en de aangevoerde inhoud gebruiken in hun dienstverlening. Gebruikers moeten er op bedacht zijn dat zij maatregelen moeten treffen zodat informatie die onder geheimhoudingsplicht valt niet wordt gebruikt om de modellen verder te trainen en vervolgens bij derden terecht kan komen.

Een ander bezwaar heeft betrekking op de betrouwbaarheid van de resultaten. Het is algemeen bekend dat GPT de neiging heeft te ‘hallucineren’: wanneer het zich geen raad weet met de gegeven invoer zal het onvolledige of onjuiste resultaten weergeven. De werkmethoden van de huidige modellen zijn niet inzichtelijk, zodat de verantwoording van het resultaat een black box is. De adviseur (of inspecteur, advocaat of rechter) moet blijven beseffen dat zijn onderzoek en geleverde werk is gebaseerd op alle relevante feiten en op redelijke feitelijke en juridische aannames. Voor betrouwbare resultaten is het essentieel om de juiste informatie duidelijk aan het model te geven en de daarbij behorende vragen te formuleren (prompt engineering). Thans zullen nog maar weinig fiscalisten in staat zijn om een passende prompt te formuleren die het model vraagt om relevante wetten en jurisprudentie te vinden bij een gegeven casus. Bovendien is in ons werkgebied de informatie vrijwel uitsluitend in het Nederlands beschikbaar en maar beperkt publiekelijk toegankelijk (veel literatuur is uitsluitend achter paywalls benaderbaar).

Ondanks de bezwaren zijn de mogelijkheden van de taalmodellen indrukwekkend. ChatGPT, Gemini and Claude zijn op dit moment leergierige, behulpzame maar nog onervaren collega’s met een schier onuitputtelijk uithoudingsvermogen.

Informatiesoort: Uitvergroot

Rubriek: Belastingrecht algemeen

Focus: Focus

1374

Gerelateerde artikelen