In dit blog laten we zien hoe je Qlik dataproducten daadwerkelijk in gebruik brengt. Via de Data Marketplace kunnen gebruikers eenvoudig dataproducten ontdekken en direct gebruiken om Qlik Sense-apps te bouwen.
Daarnaast bespreken we hoe je datasets beschikbaar stelt als API-endpoints, zodat data ook buiten Qlik herbruikbaar wordt. Zo maak je van dataproducten niet alleen een goed georganiseerd geheel, maar een actieve en waardevolle bron voor zowel analisten als applicaties.
In dit blog laten we zien hoe je datakwaliteit binnen Qlik Data Products inzichtelijk en beheersbaar maakt met de Trust Score. Deze score combineert meerdere dimensies, zoals geldigheid, volledigheid en tijdigheid, tot één duidelijke kwaliteitsindicator per dataset.
Daarnaast bespreken we hoe je met eigen datakwaliteitsregels en AI-gedreven suggesties de kwaliteit verder kunt verbeteren en afstemmen op jouw bedrijfscontext. Zo bouw je niet alleen dataproducten, maar zorg je er ook voor dat gebruikers erop kunnen vertrouwen.
In dit tweede deel van de serie over dataproducten in Qlik staat de praktische toepassing centraal: hoe je zelf een dataproduct bouwt in Qlik Cloud Analytics. Waar deel 1 de theorie en Data Mesh-principes behandelde, laat dit artikel zien hoe die ideeën concreet worden in de Qlik-omgeving.
Dataproducten zijn inmiddels niet alleen beschikbaar binnen Talend QDI, maar ook direct in Qlik Cloud Analytics. Hierdoor kunnen gebruikers hun bestaande datasets (zoals QVD’s) bundelen tot gestructureerde, beheerde en vindbare dataproducten, inclusief governance-functionaliteiten zoals eigenaarschap, documentatie, lineage en datakwaliteit (Trust Score).
Dit blog introduceert het concept van dataproducten binnen Qlik en legt uit waarom ze relevant zijn voor moderne data-organisaties. Een dataproduct is meer dan alleen data: het is een goed beheerde, gedocumenteerde en betrouwbare dataset met duidelijk eigenaarschap, bedoeld om eenvoudig door anderen gebruikt te worden.
Het artikel beschrijft de belangrijkste kenmerken van een dataproduct, zoals vindbaarheid, betrouwbaarheid en interoperabiliteit, en plaatst het concept in de context van de Data Mesh-architectuur. Hoewel dataproducten organisaties helpen om efficiënter met data om te gaan en vertrouwen te vergroten, vraagt de implementatie om een cultuurverandering en duidelijke standaarden.
De conclusie: begin klein, leer van ervaringen en bouw stapsgewijs naar een schaalbare data-aanpak.
AI kan documentverwerking automatiseren door PDF’s te lezen, relevante gegevens te extraheren en direct te verwerken. Door de combinatie van Intelligent Document Processing (IDP) en Large Language Models (LLM’s) werkt dit flexibel, ongeacht opmaak, taal of structuur.
De oplossing zet data om naar bruikbare formaten, controleert automatisch de kwaliteit en legt alleen twijfelgevallen voor aan medewerkers. Dit zorgt voor tijdsbesparing, minder fouten en betere schaalbaarheid, en is breed inzetbaar voor verschillende documenttypes en organisaties.
Misschien ken je het wel. Je hebt een vraag en een dashboard met 40 visuals, maar het antwoord staat er niet tussen. De gebruikelijke weg is dan om een change aan te vragen bij de BI-afdeling. Tegen de tijd dat deze is opgeleverd, is je vraag soms al achterhaald.
Dus maak je zelf een download uit het dashboard en bouw je in Excel je eigen analyse.
Wat als dit tot het verleden zou behoren? Wat als je de mogelijkheid hebt om je businessvragen rechtstreeks te stellen aan een chatbot zoals ChatGPT of Claude?
Eind januari 2026 deed ik mijn eerste ervaring op met TimeXtender MCP. MCP (Model Context Protocol) vormt een brug tussen een Large Language Model (LLM) en jouw semantisch datamodel.