De laatste tijd komt in gesprekken over AI het onderwerp ‘AI-Agents’ steeds vaker aan bod. Columnist Ingrid Van de Pol-Mensing, co-CEO van een legal tech bedrijf, duikt in de materie. Is dit een hype? Hoe werken AI-Agents? Kunnen we hier iets significants mee voor de advocatuur?
In het kort: Nee dit is geen hype en ja hier kunnen we iets significants mee voor de advocatuur. Voor alle advocaten die het interessant vinden om te weten wat er in de komende maanden weer aan nieuwe mogelijkheden beschikbaar komt, heb ik hieronder mijn bevindingen kort opgeschreven.
Wat zijn AI-Agents?
Volgens Sam Altman en Greg Brockman van OpenAI zijn dit systemen die zelfstandig acties kunnen ondernemen om vaag gedefinieerde doelen te bereiken.
AI-Agents zijn geavanceerde computerprogramma’s die zelfstandig kunnen opereren in hun omgeving. In tegenstelling tot traditionele AI-systemen, die doorgaans direct reageren op input, hebben AI-Agents het vermogen om autonoom beslissingen te nemen en acties uit te voeren. Ze kunnen plannen maken, hulpmiddelen gebruiken (zoals het internet of applicaties), en zich dynamisch aanpassen aan veranderende informatie.
AI-agenten functioneren volgens een cyclus: ze nemen waar, door informatie uit hun omgeving op te nemen, analyseren deze data, beslissen welke actie nodig is om een doel te bereiken, en handelen vervolgens door de actie uit te voeren.
Stel je een AI-assistent voor die juridische taken beheert zonder tussenkomst: van het bijhouden van agenda’s tot het opstellen van juridische documenten en het plannen van zittingen.
Oké, maar we gebruiken nu al taalmodellen en combineren dat met complexe code en software om advocaten te helpen, in welke situaties zouden AI-Agents dan nuttig zijn?
Net zoals dat er juridische vakliteratuur bestaat, bestaat er ook technische “developer georiënteerde” vakliteratuur. Wanneer ik die literatuur induik kom ik er snel achter dat AI-Agents vooral nuttig zijn voor complexe problemen waarbij het aantal mogelijke scenario’s en beslissingen exponentieel toeneemt. Waarom? Omdat het in zulke gevallen tijdrovend en ingewikkeld is om alle mogelijke uitkomsten handmatig te coderen. AI-Agents kunnen echter autonoom navigeren door complexe taken.
Hoe doen ze dat dan?
Ze gebruiken methoden zoals ‘chain-of-thought prompting’ om ingewikkelde taken in kleinere, beter beheersbare stappen te verdelen. Dit is een belangrijk onderdeel van hoe AI-Agents werken.
Een van de belangrijkste eigenschappen van AI-Agents is dat ze kunnen samenwerken met andere softwaretoepassingen. Denk aan het aanspreken van APIs, waarmee ze taken op verschillende digitale platforms kunnen uitvoeren.
Het is ook mogelijk om met meerdere AI-Agents te werken. Verschillende agents, elk met hun eigen specialisatie zoals plannen, programmeren of testen, kunnen samenwerken om ingewikkelde taken efficiënter aan te pakken. Deze aanpak, waarbij elke agent zijn eigen taak heeft, maakt de systemen krachtiger en flexibeler en werkt net als een team van mensen, maar met de snelheid en precisie van AI.
Oké, en wat betekent dit dan concreet voor de advocatuur?
Grote taalmodellen (LLM’s), zoals die van OpenAI, kunnen indrukwekkende teksten genereren en verwerken. Maar als het gaat om het uitvoeren van complexe taken, komen er een aantal beperkingen naar voren:
- Beperkte besluitvorming: Terwijl eenvoudige beslissingen goed kunnen worden afgehandeld, hebben LLM’s moeite met complexe besluitvorming die diepgaande analyses en meerdere stappen vereist.
- Gebrek aan contextueel begrip: LLM’s kunnen moeite hebben met het behouden van de juiste context over langere interacties, wat kan leiden tot misinterpretaties bij het oplossen van juridische vraagstukken.
AI-Agents bieden oplossingen voor de deze uitdagingen:
- Specialisatie: AI-Agents kunnen complexe taken opsplitsen in kleinere subtaken en deze zelfstandig afhandelen. Dit zorgt voor meer precisie en efficiëntie.
- Samenwerking: Meerdere AI-agents kunnen samenwerken om complexe problemen op te lossen. Elk kan zich specialiseren in een bepaald aspect, zoals planning, onderzoek, of gegevensanalyse.
- Dynamische planning: AI-Agents kunnen hun plannen continu aanpassen op basis van nieuwe of veranderende informatie. Dit maakt hen flexibel en beter in staat om te reageren op onverwachte situaties.
Hoe wij in de advocatuur AI momenteel gebruiken is door één opdracht aan de AI te geven. Bijvoorbeeld:
Opdracht: maak een samenvatting van dit document en focus op [x]
Output: samenvatting van document met focus op [X]
Opdracht: schrijf een arbeidsovereenkomst en neem daarin een vertrouwelijkheidsclausule en een IP clausule op.
Output: een arbeidsovereenkomst met een vertrouwelijkheidsclausule en IP clausule
Hoe we gebruik kunnen gaan maken van AI-agents is als volgt:
Opdracht: schrijf een advies voor cliënt [X] over de bestuurdersaansprakelijkheid
Output:
- AI-Agent doorzoekt de documenten van de cliënt voor feitelijke informatie die aanleiding kan geven tot bestuurdersaansprakelijkheid vraagstukken
- AI-Agent verzamelt de zoekresultaten en analyseert de situatie van de cliënt
- AI-Agent zoekt online of in andere externe bronnen naar relevante wet en regelgeving, literatuur en rechtspraak met inachtneming van het feitencomplex
- AI Agent verzamelt en analyseert de wet en regelgeving, literatuur en rechtspraak
- AI-Agent zoekt in de database van het advocatenkantoor naar de gebruikelijke opbouw van vergelijkbare memo’s
- De AI-agent verzamelt en valideert de resultaten van de eerste stappen om de oorspronkelijke opdracht uit te voeren.
- AI-Agent schrijft een memo dat de gebruikelijke opbouw volgt
- AI-Agent houdt bij waar alle informatie vandaan komt en noteert dit in het memo
In iedere stap zijn er enorm veel verschillende uitkomsten mogelijk en op basis van die uitkomsten verandert de volgende stap. Er zijn dus een heleboel momenten waarop de AI – net zoals een advocaat – de mist in kan gaan. Maar omdat in dit voorbeeld elke AI Agent kan worden gezien als een advocaat gespecialiseerd in zijn specifieke taak, wordt de kans dat de AI-Agent de mist ingaat steeds kleiner.
Bovendien worden de gedachtegang en bronnen die passen bij de redenering goed gedocumenteerd, dus kan je als advocaat nakijken of het wel klopt. Vergelijk het met het bevragen van je collega die het memo heeft geschreven om te testen of hij/zij misschien iets over het hoofd heeft gezien.
Klinkt top, zullen we maar meteen een legertje AI-Agents inzetten?
Nee, hoewel AI-Agents weer een verbeterslag gaan leveren in de output AI gedreven tools voor advocaten zijn er ook beperkingen die ervoor zorgen dat we voorzichtig om moeten gaan met de ontwikkeling en implementatie van AI-Agents.
In de advocatuur, waar precisie en nauwkeurigheid cruciaal zijn, kunnen bij een team AI-Agents, die elk een nauwkeurigheid van 80 procent per taak hebben, de fouten snel opstapelen.
De tussenkomst van advocaten is dus voorlopig noodzakelijk om risico’s te beperken en optimale prestaties te garanderen in complexe adviezen. Maar, hoe cool is het dat je straks wel je eigen team met virtuele advocaten kunt hebben die allemaal hun eigen taakje uitvoeren en met elkaar samenwerken. Jij bent er om dat team te leiden en te corrigeren waar nodig. Het team werkt altijd, levert altijd binnen een paar minuten en zeurt nooit.
Als ik nog advocaat was, zou ik zeker mijn ogen openhouden voor technologie die AI-Agents gebruikt, en het gewoon eens uitproberen.