Misschien ken je het wel. Je hebt een vraag en een dashboard met 40 visuals, maar het antwoord staat er niet tussen. De gebruikelijke weg is dan om een change aan te vragen bij de BI-afdeling. Tegen de tijd dat deze is opgeleverd, is je vraag soms al achterhaald.
Dus maak je zelf een download uit het dashboard en bouw je in Excel je eigen analyse.
Wat als dit tot het verleden zou behoren? Wat als je de mogelijkheid hebt om je businessvragen rechtstreeks te stellen aan een chatbot zoals ChatGPT of Claude?
Eind januari 2026 deed ik mijn eerste ervaring op met TimeXtender MCP. MCP (Model Context Protocol) vormt een brug tussen een Large Language Model (LLM) en jouw semantisch datamodel.
Dit blog introduceert het concept van dataproducten binnen Qlik en legt uit waarom ze relevant zijn voor moderne data-organisaties. Een dataproduct is meer dan alleen data: het is een goed beheerde, gedocumenteerde en betrouwbare dataset met duidelijk eigenaarschap, bedoeld om eenvoudig door anderen gebruikt te worden.
Het artikel beschrijft de belangrijkste kenmerken van een dataproduct, zoals vindbaarheid, betrouwbaarheid en interoperabiliteit, en plaatst het concept in de context van de Data Mesh-architectuur. Hoewel dataproducten organisaties helpen om efficiënter met data om te gaan en vertrouwen te vergroten, vraagt de implementatie om een cultuurverandering en duidelijke standaarden.
De conclusie: begin klein, leer van ervaringen en bouw stapsgewijs naar een schaalbare data-aanpak.
In dit tweede deel van de serie over dataproducten in Qlik staat de praktische toepassing centraal: hoe je zelf een dataproduct bouwt in Qlik Cloud Analytics. Waar deel 1 de theorie en Data Mesh-principes behandelde, laat dit artikel zien hoe die ideeën concreet worden in de Qlik-omgeving.
Dataproducten zijn inmiddels niet alleen beschikbaar binnen Talend QDI, maar ook direct in Qlik Cloud Analytics. Hierdoor kunnen gebruikers hun bestaande datasets (zoals QVD’s) bundelen tot gestructureerde, beheerde en vindbare dataproducten, inclusief governance-functionaliteiten zoals eigenaarschap, documentatie, lineage en datakwaliteit (Trust Score).
AI kan documentverwerking automatiseren door PDF’s te lezen, relevante gegevens te extraheren en direct te verwerken. Door de combinatie van Intelligent Document Processing (IDP) en Large Language Models (LLM’s) werkt dit flexibel, ongeacht opmaak, taal of structuur.
De oplossing zet data om naar bruikbare formaten, controleert automatisch de kwaliteit en legt alleen twijfelgevallen voor aan medewerkers. Dit zorgt voor tijdsbesparing, minder fouten en betere schaalbaarheid, en is breed inzetbaar voor verschillende documenttypes en organisaties.
Veel professionals gebruiken ChatGPT als een slimme zoekmachine en moeten daardoor telkens opnieuw uitleggen wie ze zijn, hoe hun organisatie werkt en in welke context ze opereren. Dat leidt tot generiek advies dat weinig aansluit op de praktijk. Dit is geen beperking van AI, maar een kwestie van configuratie.
Door ChatGPT te werken met projectfolders, context en duidelijke instructies kun je AI veranderen van een vraag-antwoordmachine in een echte denkpartner. Binnen zo’n project onthoudt ChatGPT relevante informatie, houdt het rekening met technische, organisatorische en compliance-eisen en past het zijn schrijfstijl en structuur aan op het publiek.
Ken je dat probleem? Je organisatie is te klein voor een compleet datateam, maar je ambities zijn te groot om het klein te houden. In eerdere blogs liet ik al zien hoe low-code tools zoals TimeXtender een nieuwe generatie Analytics Engineers mogelijk maken. In dit blog wil ik laten zien waarom juist deze Analytics Engineers een antwoord zijn op deze situatie.