AI-richtlijnen voor advocaten in België en Nederland: all roads lead to Alice

Back to overview
Blog
December 15, 2025

AI maakt zijn intrede in veel Belgische en Nederlandse advocatenkantoren. Maar mag dit eigenlijk wel van de Ordes?

Intussen hebben zowel de Orde van Vlaamse Balies (OVB) als de Nederlandse orde van advocaten (NOvA) duidelijke AI-richtlijnen gepubliceerd. Die bevestigen dat AI een waardevol hulpmiddel kan zijn in de advocatuur, maar leggen tegelijk scherp vast onder welke voorwaarden.

In deze blog krijg je een praktisch overzicht van die AI-richtlijnen in België en Nederland - en tonen we hoe een AI-workspace zoals Alice daar naadloos op aansluit.

De kernboodschap: AI mag, maar de advocaat blijft aan het stuur

Zowel de Vlaamse als de Nederlandse richtlijnen vertrekken van hetzelfde uitgangspunt:

  • Het gebruik van AI is niet verboden en niet verplicht.
  • Het gebruik van AI behoort tot de eigen vrijheid én verantwoordelijkheid van de advocaat.

AI wordt expliciet erkend als een hulpmiddel voor de advocaat, zolang het wordt ingezet met respect voor de klassieke kernwaarden van de advocatuur: onafhankelijkheid, partijdigheid, deskundigheid, integriteit en vertrouwelijkheid.

Of je nu in een kantoor in Brussel of Amsterdam werkt: de boodschap is dezelfde. De advocaat blijft eindverantwoordelijk voor elk advies, elke conclusie en elk proceduredocument. AI mag ondersteunen, maar mag nooit beslissen in de plaats van de advocaat.

AI-richtlijnen in België: de OVB over AI in de advocatuur

Competentieplicht en kennis van AI

De OVB zegt expliciet dat de advocaat de basis van artificiële intelligentie en Large Language Models (LLM’s) moet kennen. AI-systemen herkennen patronen in grote hoeveelheden data, LLM’s genereren taal op basis van statistische waarschijnlijkheid: wie AI gebruikt, moet begrijpen wat daarachter zit.

Tegelijk herhaalt de OVB dat bij elk gebruik van AI de klassieke deontologische verplichtingen blijven gelden, zoals artikel 455 Ger.W. en de Codex Deontologie: deskundige beroepsuitoefening, respect voor het beroepsgeheim, onafhankelijkheid, partijdigheid en het vermijden van belangenconflicten.

Belangrijk detail voor de dagelijkse praktijk: de advocaat moet de gebruiksvoorwaarden van de AI-tool grondig doornemen - onder meer rond training, doorgifte en opslag van gegevens, locatie van de verwerkingen, open of gesloten systeem, aansprakelijkheid en intellectuele eigendomsrechten.

Gegevensbescherming en beroepsgeheim

De OVB legt een zeer strenge lat op het vlak van gegevensbescherming bij het gebruik van publiek toegankelijke AI tools:

  • De advocaat pseudonimiseert persoonsgegevens.
  • In principe onthoudt hij zich van het invoeren van persoonsgegevens in prompts, input of andere documenten bij AI-tools.
  • Als verwerking van persoonsgegevens toch essentieel is (bijvoorbeeld bij het opnemen van een vergadering om een verslag te genereren), moet hij transparant zijn en beschikken over een passende rechtsgrond (bv. toestemming).
  • Het beroepsgeheim blijft absoluut: stukken of informatie die onder het beroepsgeheim of een vertrouwelijkheidsverplichting vallen, worden niet ingevoerd in AI-tools, behalve in een uitzonderlijk geval waarin de advocaat absoluut zeker is dat hij in een volledig gesloten omgeving met voldoende waarborgen werkt (bv. binnen de eigen kantoorperimeter zonder datadeling naar buiten).

Robots, chatbots en aansprakelijkheid

De OVB laat ruimte voor chatbots en automatisering in Belgische advocatenkantoren, maar legt duidelijke spelregels op:

  • Gebruikers moeten begrijpen dat ze met een geautomatiseerd AI-systeem communiceren.
  • De advocaat blijft altijd eindverantwoordelijk voor de output van de AI die hij inzet. Alle klassieke aansprakelijkheidsprincipes blijven gelden.

AI-richtlijnen in Nederland: NOvA-aanbevelingen voor verantwoord AI-gebruik

Eerst kennis, dan toepassing

De NOvA benadrukt dat basiskennis van (generatieve) AI essentieel is voor iedere advocaat. Ze roept op om opleidingen te volgen over LLM-principes, prompt-engineering, hallucinaties, bias-mitigatie, foutdetectie, juridische regulering rond AI en cybersecurity.

Net als in België moet de advocaat:

  • praktische ervaring opdoen met AI-tools;
  • AI-output altijd verifiëren;
  • vooral werken met tools die bronvermelding tonen, zodat jurisprudentie, wetgeving en feiten controleerbaar blijven.

Vertrouwelijkheid en datastromen

De NOvA is uitermate duidelijk over vertrouwelijkheid bij het gebruik van publiek toegankelijke AI tools:

  • Gebruik geen vertrouwelijke gegevens in gratis, publieke AI-tools.
  • Deel alleen strikt noodzakelijke informatie en documenteer de afwegingen voor het gebruik van AI.
  • Voer geen vertrouwelijke of cliëntgegevens in publieke AI-modellen in.

Daarbovenop vraagt de NOvA om:

  • een Data Protection Impact Assessment (DPIA) bij verwerking van persoonsgegevens via AI;
  • zicht op waar data worden opgeslagen en verwerkt (land, onderaannemers, beveiliging);
  • zorgvuldige selectie van leveranciers op basis van contractvoorwaarden over data-eigendom, IP-rechten, aansprakelijkheid, exit-clausules en vendor lock-in.

Onafhankelijkheid, integriteit en partijdigheid

Onder de kopjes onafhankelijkheid, integriteit en partijdigheid vat de NOvA het scherp samen: “AI ondersteunt, maar stuurt niet.

  • De advocaat blijft eindverantwoordelijk voor advies en rechtsbijstand; AI is enkel een hulpmiddel.
  • Kantoren moeten een kantoorbreed AI-beleid opstellen, implementeren en erover communiceren naar cliënten.
  • Advocaten moeten alert blijven voor ongelijke of bevooroordeelde algoritmen die hun partijdige, maar rechtmatige belangenbehartiging kunnen ondermijnen.

Wat betekent dit voor jouw kantoor in België of Nederland?

De OVB- en NOvA-richtlijnen maken duidelijk dat AI-gebruik in de advocatuur in België en Nederland niet langer een individueel experiment mag zijn van één tech-minded collega:

  • Je hebt een duidelijk intern AI-beleid nodig (waarvoor, met welke tools, onder welke voorwaarden).
  • Je moet keuzes rond gegevensbescherming en beroepsgeheim expliciet maken en documenteren.
  • Je moet investeren in opleiding en competentie-opbouw rond AI en LLM’s.
  • Je moet kunnen aantonen dat je AI inzet op een manier die juridisch en deontologisch verantwoord is.

Belangrijk: de richtlijnen zijn niet bedoeld om AI te blokkeren, maar om een kader te scheppen waarin advocaten in België en Nederland AI juist met méér vertrouwen kunnen inzetten - zolang de regie duidelijk bij de advocaat blijft.

All roads lead to Alice: waarom dit precies is waar Alice voor gebouwd is

Hier komt Alice in beeld. Alice is geen generieke chatbot, maar een AI-workspace gebouwd door advocaten, voor advocaten, specifiek voor geschillenbeslechting en proceduredossiers in België en Nederland.

De advocaat houdt de regie

In Alice start je altijd vanuit het dossier: je uploadt processtukken, bewijsstukken en correspondentie, en laat de AI daarmee werken. Jij bepaalt welke stukken worden gebruikt, welke analyses worden gemaakt en welke argumenten of documenten worden gegenereerd.

De output van Alice is dus nooit een black box: de advocaat blijft altijd in controle, perfect in lijn met de boodschap van OVB en NOvA dat AI enkel een hulpmiddel is.

Bronvermelding en verifieerbaarheid by design

Eén van de expliciete aanbevelingen van de NOvA is om alleen tools te gebruiken met bronvermelding, zodat de output verifieerbaar blijft.

Dat is precies hoe Alice werkt:

  • elke juridische tekst of analyse in Alice is herleidbaar tot de onderliggende dossierstukken en bronnen;
  • je ziet welke passages gebruikt zijn en kunt rechtstreeks doorklikken naar het originele document;
  • zo kun je als advocaat de door de AI voorgestelde redenering snel controleren, aanpassen en verfijnen.

Dit sluit probleemloos aan bij de OVB-richtlijn dat de advocaat het bestaan van aangehaalde wetgeving, rechtspraak en rechtsleer moet controleren en kritisch moet blijven voor de gegenereerde argumentatie.

Gebouwd met vertrouwelijkheid als uitgangspunt

Waar de richtlijnen waarschuwen voor publieke of gratis AI-tools zonder controle over datastromen, vertrekt Alice net van het tegenovergestelde model:

  • Alice wordt gebruikt als afgeschermde kantooromgeving, niet als publieke chatbot.
  • Kantoren bepalen zelf hoe ze omgaan met toegangsrechten en integraties.
  • De architectuur is opgezet om input en output binnen de kantooromgeving te houden, in lijn met de OVB-vereisten rond beroepsgeheim en de NOvA-aanbevelingen rond datastromen en DPIA’s.

Van ad hoc naar kantoorbreed beleid

Zowel de OVB als de NOvA benadrukken de nood aan een kantoorbreed beleid rond AI.

Omdat Alice werkt op het niveau van het ganse kantoor - met gedeelde workflows, instellingen en kwaliteitscontrole – helpt het platform om AI te verankeren in je dagelijkse werking: niet als gimmick, maar als onderdeel van je juridische processen.

Samengevat

Of je nu een kantoor in Antwerpen of Amsterdam runt: de AI-richtlijnen in België en Nederland geven een helder kader. AI in de advocatuur mag, zolang je de kernwaarden van het beroep respecteert, vertrouwelijkheid bewaakt en zélf aan het stuur blijft.

Precies daar positioneert Alice zich: als legaltech-platform dat advocaten in België en Nederland helpt om AI veilig, controleerbaar en deontologisch verantwoord in hun workflow te integreren - van case-analyse tot argumentatie en documentgeneratie.

All roads lead to Alice.

Maak kennis met de nieuwe advocatuur

Door advocaten, voor advocaten

Je inzending is ontvangen. We nemen zo snel mogelijk contact met u op.
Oeps! Er is iets misgegaan tijdens het verzenden van het formulier.