AI chatbot of kennisbank laten bouwen
Op je eigen data

Wat we bouwen

Chatbot op je website of webapplicatie

Beantwoordt bezoekersvragen op basis van je eigen content, 24/7, met bronvermelding

Interne medewerkers-assistent

Doorzoekt handboeken, procedures en interne documentatie. Ideaal voor onboarding en support

Gerichte zoekfunctie

Vervangt een zwakke zoekfunctie op een website of intranet door semantisch zoeken

Maatwerk RAG of een no-code platform?

Er zijn veel no-code platforms (Chatbase, CustomGPT, Copilot Studio) waarmee je binnen een middag een chatbot op je website hebt staan. Voor een eenvoudige FAQ-bot op een marketingsite is dat vaak prima.

Zodra je bronnen in een CMS of backoffice leven, toegangsrechten per gebruiker relevant worden, of je bot moet aansluiten op bedrijfsspecifieke workflows, loop je snel tegen de grenzen van die platforms aan. Dan is maatwerk geen doel, maar een logisch gevolg: je houdt controle over indexering, prompts, hosting en data.

Een werkend voorbeeld: onze eigen kennisbank-bot

Om zelf te ervaren waar de knelpunten zitten, hebben we deze aanpak op onze eigen website toegepast. De bot beantwoordt vragen over diensten, aanpak en cases, uitsluitend op basis van wat er op de site staat.

Lees de technische achtergrond en probeer de bot

Waar we op letten bij een RAG-implementatie

Een werkende demo bouw je in een week. Een RAG-systeem dat na een jaar nog goede antwoorden geeft, vraagt een paar beslissingen vooraf. Dit zijn de vijf waar we met elke klant doorheen lopen voordat we gaan bouwen:

1. Kwaliteit van de brondata. Als je documentatie verouderd, inconsistent of versnipperd is, lost RAG dat niet op. Het reproduceert het alleen sneller. Voordat je embedding-kosten gaat maken, is het de moeite waard om te inventariseren wat er überhaupt aan actuele, gezaghebbende content ligt.

2. Gevoelige informatie en toegangsrechten. Niet elke medewerker mag alles zien. Een RAG-systeem dat over alle interne documenten heen zoekt, moet toegangsrechten respecteren, anders wordt de assistent per ongeluk een lek. Dit betekent meestal: per-gebruiker filteren in de retrieval-stap, niet pas in de UI.

3. Hosting en data-locatie. Gaat je data naar OpenAI's reguliere API, of naar Azure OpenAI in een Europese regio? Host je de vector database zelf, of bij een cloud-provider? Voor organisaties met gevoelige data is een volledig lokaal draaiend taalmodel ook een serieuze optie, bijvoorbeeld via open-source modellen zoals Llama die je op eigen hardware of binnen je eigen cloud-tenant host. Dan verlaat er geen enkele bedrijfsdata je eigen omgeving. Het kost meer aan infrastructuur, maar voor sommige organisaties maakt dit het verschil tussen "dit kan" en "dit mag niet".

4. Kosten-voorspelbaarheid. Embedding-kosten zijn eenmalig en voorspelbaar. Chat-kosten zijn gebruiksafhankelijk: een bot die populair wordt, kost meer. Met caching van herhaalde vragen, limieten per sessie en een goed ingestelde relevantie-drempel houd je dat onder controle.

5. Beheer en meetbaarheid. Wie zorgt dat de index vers blijft als er nieuwe content bijkomt? Hoe weet je of de antwoorden goed zijn? Een simpele eval-set van dertig representatieve vragen met verwachte bronnen is genoeg om na elke wijziging te controleren of de kwaliteit stabiel blijft. Zonder meetinstrument is tunen gokken.

Kosten en doorlooptijd

Een werkend proof-of-concept is doorgaans in één tot twee weken te realiseren. Een productiewaardige implementatie, mét doordachte chunking, monitoring, toegangsrechten en een eval-set, bedraagt in de regel een meerweeks traject, afhankelijk van de hoeveelheid bronnen en de complexiteit van de integratie met bestaande systemen.

Voor een concrete inschatting is een korte analyse van de bronnen en het verwachte gebruik voldoende.

Veelgestelde vragen over RAG

Een proof-of-concept in één à twee weken, een productiewaardige implementatie doorgaans een meerweeks traject.

Eenmalige bouwkosten hangen af van omvang en integraties. Een gemiddelde proof of concept is rond de 4000 euro te realiseren. Terugkerende kosten zijn voorspelbaar: eenmalige indexering per wijziging (paar tientjes tot enkele euro's per duizend pagina's) en enkele centen per vraag

Afhankelijk van de keuze voor cloud-LLM of lokaal model. Bij Azure OpenAI in een Europese regio of een lokaal draaiend model verlaat data de gekozen omgeving niet.

Ja, mits er aandacht is voor data-locatie, toegangsrechten, logging en retentie. Dat is een kwestie van ontwerp, niet van techniek.

Ja, dat is een natuurlijke fit. Umbraco's gestructureerde content en typed models maken het indexeren eenvoudig en efficiënt.

Umbraco is een natuurlijke fit vanwege onze specialisatie, maar RAG werkt op vrijwel elke tekstuele bron: SharePoint, Confluence, PDF's, Word-documenten, databases, eigen webapplicaties.

Ja, een proof-of-concept op een afgebakende set bronnen is vaak de slimste start. Daarmee bepaal je of het werkt voor jouw content voordat je verder investeert.

Benieuwd wat er voor jouw organisatie mogelijk is?

Stuur een bericht of bel, we kijken samen naar je bronnen en gebruikssituatie, en geven een eerlijke inschatting.

Neem contact op