Veel organisaties worstelen met complexe datavraagstukken. Denk aan het vastleggen van datagebruik (zowel transactioneel als analytisch), het correct en volledig beheren van datahistorie, het synchroniseren van bronsystemen, het kunnen reconstrueren van gebeurtenissen (operationele lineage), het toegankelijk maken van data en rapportages via metadata, het stroomlijnen van data-uitwisseling en het voorbereiden van data voor AI-toepassingen.
Vaak wordt de oplossing gezocht in referentie-architecturen zoals het datawarehouse, datalake, datalakehouse of de datafabric. Hoewel waardevol, bieden deze architecturen geen antwoord op bovengenoemde uitdagingen. Ze richten zich slechts op een deel van het datatraject en lossen de kernproblemen niet op.
Om deze uitdagingen écht aan te pakken, moet een data-architectuur het volledige datatraject omvatten: van bron tot inzicht. Alleen een holistische benadering kan dit realiseren. Tijdens deze sessie bespreken we een data-architectuur die het hele traject beschrijft. Hierin kunnen de genoemde architecturen wel een rol spelen, maar slechts als onderdeel van een groter geheel.
De sessie behandelt onder andere:
Hallucinaties door AI kunnen het vertrouwen in Business Intelligence-outputs ondermijnen. Deze technische sessie laat zien hoe u een door LLM aangestuurde analyse-assistent bouwt die alleen antwoord geeft op basis van gecontroleerde, geverifieerde gegevens. Met behulp van Snowflake Cortex Semantic Models, Cortex Analyst en Cortex Search brengen we zakelijke termen in kaart aan de hand van daadwerkelijke definities, genereren we automatisch veilige SQL en traceren we elke stap voor controleerbaarheid. U ziet de volledige stack in actie, met architectuurdiagrammen en codepatronen die u kunt implementeren.
De belangrijkste punten zijn:
Zijn jouw data governance-inspanningen vastgelopen in eindeloze discussierondes of blijven ze steken op papier, zonder tastbare resultaten? De Data Governance Sprint™ is een bewezen en versnelde methode om binnen vijf weken een praktische basis voor data governance neer te zetten. Deze sessie introduceert een gestructureerde, workshop-gerichte aanpak die verder gaat dan theorie en concrete resultaten oplevert: duidelijke rollen, een business glossary, een werkend operating model en snelle successen die momentum creëren. Ontwikkeld voor data-leiders en praktijkmensen helpt deze methodologie je alignment-problemen te overwinnen, stakeholders te betrekken en meetbare vooruitgang te boeken.
Data lakes staan op een kantelpunt. Waar Hive jarenlang de standaard was, zien we nu een explosie van nieuwe open table formats: Apache Iceberg, Apache Hudi, Delta Lake en nieuwkomers zoals DuckDB. Ze beloven allemaal betere prestaties, ACID-transacties en flexibeler schema-beheer. Maar welke keuze maakt u?
Deze sessie biedt praktische handvatten voor architecten en engineers die voor deze beslissing staan. U krijgt inzicht in hoe elk format omgaat met schema-evolutie, time travel, transacties en metadata. Belangrijker nog: wat betekenen deze verschillen voor de prestaties, betrouwbaarheid en kosten van uw dataplatform?
Aan de hand van concrete implementaties bespreken we de valkuilen, verrassende voordelen en verborgen complexiteit van elk format. Of u nu een bestaande Hive-omgeving moderniseert, een nieuw data lake bouwt of een lakehouse-architectuur overweegt: u gaat naar huis met een helder besliskader om het juiste format te kiezen én te kunnen verantwoorden richting het management en uw team.
Highlights:
Data Mesh, coined by Zhamak Dehghani, is a framework for federated data management and governance that gets a lot of attention from large organizations around the world facing problems with bottlenecked data teams and sprawling solution spaces. While the core principles of Data Mesh are well established in the literature, and practical implementation stories have started to emerge giving meat to the theoretical bones, some questions remain.
One of the biggest challenges is managing business context across multiple domains and data products. In this session, we will discuss how data modeling can be used to enable both within-domain design of understandable and discoverable data products as well as cross-domain understanding of domain boundaries, overlaps, and possibly conflicting business concepts. The well-known best practices of conceptual and logical data models prove their worth in this modern de-centralized framework by enabling semantic interoperability across different data products and domains, as well as allowing the organization to maintain a big picture of their data contents.
Topics and discussion points:
Organisaties vertrouwen steeds meer op data maar missen vaak grip op wát ze precies beheren: inzicht ontbreekt, datasets zijn niet in beeld en metadata is versnipperd. Een solide data administratie brengt orde en overzicht. In deze sessie ontdek je waarom dit fundament onmisbaar is én hoe je het praktisch opbouwt.
De volgende onderwerpen komen aan bod:
We zijn gewend om data te beheren vóór de inzet van AI: zorgvuldig verzamelen, schonen en structureren. Maar die tijd kantelt. AI helpt nu zélf om data te verbeteren: automatisch te verrijken, te valideren, te integreren en te documenteren. Van statisch beheer gaan we naar dynamische verbetering: AI maakt data levend en verandert hoe we met data omgaan.
De volgende onderwerpen en discussiepunten worden behandeld:
Our speaker built his first concept model in 1979. It wasn’t very good. In fact, it looked like a hierarchical IMS physical database design. Eventually, over many modelling assignments around the globe, in every kind of organisation and culture, a small number of core principles emerged for effective modelling. All revolve around the idea we’re modelling for people, not machines. It turns out, even in the age of AI, virtual work, misinformation, and constantly changing technology, these lessons are proving to be just important as – or even more important than – ever. After all, we’re only human.
1. Data Modelling doesn’t matter (at first) – just start with a nice conversation.
2. Getting to the essence – “What” versus “Who, How, and other distractions.”
3. Good things come to those who wait – why patience is a virtue.
4. Be fearless, and play to your strengths – vulnerability and ignorance.
5. Every picture tells a story, except those that don’t – hire a graphic designer.
6. Bonus – your concept model is good for so much more than “data.”
Veel organisaties worstelen met complexe datavraagstukken. Denk aan het vastleggen van datagebruik (zowel transactioneel als analytisch), het correct en volledig beheren van datahistorie, het synchroniseren van bronsystemen, het kunnen reconstrueren van gebeurtenissen (operationele lineage), het toegankelijk maken van data en rapportages via metadata, het stroomlijnen van data-uitwisseling en het voorbereiden van data voor AI-toepassingen.
Vaak wordt de oplossing gezocht in referentie-architecturen zoals het datawarehouse, datalake, datalakehouse of de datafabric. Hoewel waardevol, bieden deze architecturen geen antwoord op bovengenoemde uitdagingen. Ze richten zich slechts op een deel van het datatraject en lossen de kernproblemen niet op.
Om deze uitdagingen écht aan te pakken, moet een data-architectuur het volledige datatraject omvatten: van bron tot inzicht. Alleen een holistische benadering kan dit realiseren. Tijdens deze sessie bespreken we een data-architectuur die het hele traject beschrijft. Hierin kunnen de genoemde architecturen wel een rol spelen, maar slechts als onderdeel van een groter geheel.
De sessie behandelt onder andere:
Hallucinaties door AI kunnen het vertrouwen in Business Intelligence-outputs ondermijnen. Deze technische sessie laat zien hoe u een door LLM aangestuurde analyse-assistent bouwt die alleen antwoord geeft op basis van gecontroleerde, geverifieerde gegevens. Met behulp van Snowflake Cortex Semantic Models, Cortex Analyst en Cortex Search brengen we zakelijke termen in kaart aan de hand van daadwerkelijke definities, genereren we automatisch veilige SQL en traceren we elke stap voor controleerbaarheid. U ziet de volledige stack in actie, met architectuurdiagrammen en codepatronen die u kunt implementeren.
De belangrijkste punten zijn:
Zijn jouw data governance-inspanningen vastgelopen in eindeloze discussierondes of blijven ze steken op papier, zonder tastbare resultaten? De Data Governance Sprint™ is een bewezen en versnelde methode om binnen vijf weken een praktische basis voor data governance neer te zetten. Deze sessie introduceert een gestructureerde, workshop-gerichte aanpak die verder gaat dan theorie en concrete resultaten oplevert: duidelijke rollen, een business glossary, een werkend operating model en snelle successen die momentum creëren. Ontwikkeld voor data-leiders en praktijkmensen helpt deze methodologie je alignment-problemen te overwinnen, stakeholders te betrekken en meetbare vooruitgang te boeken.
Data lakes staan op een kantelpunt. Waar Hive jarenlang de standaard was, zien we nu een explosie van nieuwe open table formats: Apache Iceberg, Apache Hudi, Delta Lake en nieuwkomers zoals DuckDB. Ze beloven allemaal betere prestaties, ACID-transacties en flexibeler schema-beheer. Maar welke keuze maakt u?
Deze sessie biedt praktische handvatten voor architecten en engineers die voor deze beslissing staan. U krijgt inzicht in hoe elk format omgaat met schema-evolutie, time travel, transacties en metadata. Belangrijker nog: wat betekenen deze verschillen voor de prestaties, betrouwbaarheid en kosten van uw dataplatform?
Aan de hand van concrete implementaties bespreken we de valkuilen, verrassende voordelen en verborgen complexiteit van elk format. Of u nu een bestaande Hive-omgeving moderniseert, een nieuw data lake bouwt of een lakehouse-architectuur overweegt: u gaat naar huis met een helder besliskader om het juiste format te kiezen én te kunnen verantwoorden richting het management en uw team.
Highlights:
Data Mesh, coined by Zhamak Dehghani, is a framework for federated data management and governance that gets a lot of attention from large organizations around the world facing problems with bottlenecked data teams and sprawling solution spaces. While the core principles of Data Mesh are well established in the literature, and practical implementation stories have started to emerge giving meat to the theoretical bones, some questions remain.
One of the biggest challenges is managing business context across multiple domains and data products. In this session, we will discuss how data modeling can be used to enable both within-domain design of understandable and discoverable data products as well as cross-domain understanding of domain boundaries, overlaps, and possibly conflicting business concepts. The well-known best practices of conceptual and logical data models prove their worth in this modern de-centralized framework by enabling semantic interoperability across different data products and domains, as well as allowing the organization to maintain a big picture of their data contents.
Topics and discussion points:
Organisaties vertrouwen steeds meer op data maar missen vaak grip op wát ze precies beheren: inzicht ontbreekt, datasets zijn niet in beeld en metadata is versnipperd. Een solide data administratie brengt orde en overzicht. In deze sessie ontdek je waarom dit fundament onmisbaar is én hoe je het praktisch opbouwt.
De volgende onderwerpen komen aan bod:
We zijn gewend om data te beheren vóór de inzet van AI: zorgvuldig verzamelen, schonen en structureren. Maar die tijd kantelt. AI helpt nu zélf om data te verbeteren: automatisch te verrijken, te valideren, te integreren en te documenteren. Van statisch beheer gaan we naar dynamische verbetering: AI maakt data levend en verandert hoe we met data omgaan.
De volgende onderwerpen en discussiepunten worden behandeld:
Our speaker built his first concept model in 1979. It wasn’t very good. In fact, it looked like a hierarchical IMS physical database design. Eventually, over many modelling assignments around the globe, in every kind of organisation and culture, a small number of core principles emerged for effective modelling. All revolve around the idea we’re modelling for people, not machines. It turns out, even in the age of AI, virtual work, misinformation, and constantly changing technology, these lessons are proving to be just important as – or even more important than – ever. After all, we’re only human.
1. Data Modelling doesn’t matter (at first) – just start with a nice conversation.
2. Getting to the essence – “What” versus “Who, How, and other distractions.”
3. Good things come to those who wait – why patience is a virtue.
4. Be fearless, and play to your strengths – vulnerability and ignorance.
5. Every picture tells a story, except those that don’t – hire a graphic designer.
6. Bonus – your concept model is good for so much more than “data.”
Data Mesh is a federated approach to data management and governance developed by Zhamak Dehghani. It’s structure is based on domains and data products, elements that have also seen wide attention from organizations that are not otherwise working towards a full Mesh implementation. Working with autonomous domains who share data to the rest of the organization via data products is an excellent way to bring data work closer to the business and to allow domain-specific prioritization instead of a massive centralized bottleneck team. However, with domains having their own understanding of business and its core concepts, semantic interoperability becomes a challenge. This workshop focuses on the problems of Information Architecture in a de-centralized landscape. How can we document what data we have available, how do we understand what other teams’ data means, and how do we maintain a big picture of what is where? We will explore conceptual modeling as a key method of documenting the business context and semantics of domains and data products, more detailed logical modeling as a means to document data product structures, and consider both within-domain and cross-domain linking of various models and objects in them. As a hands-on exercise, we will model a domain and design some example data products that maintain strong links with their domain-level semantics. The workshop will give you the basic skills to do data modeling at these higher levels of abstraction, and understanding of the key characteristics and challenges of the Data Mesh that affect the way we need to do data modeling.
Learning objectives
Who is it for
Detailed Course Outline
1. Introduction
2. Data Mesh basics
3. How conceptual models help with cross-domain understanding
4. Hands-on exercise: modeling a domain
5. Data modeling as part of data product design
6. Ensuring semantic interoperability at the domain boundary
7. Data Mesh information architecture operating model
8. Conclusion
Input volgt spoedig.
Praktische hands-on workshop waarbij je zélf met oefeningen aan de slag gaat op de eigen laptop.
Lees minderWhether you call it a conceptual data model, a domain model, a business object model, or even a “thing model,” the concept model is seeing a worldwide resurgence of interest. Why? Because a concept model is a fundamental technique for improving communication among stakeholders in any sort of initiative. Sadly, that communication often gets lost – in the clouds, in the weeds, or in chasing the latest bright and shiny object. Having experienced this, Business Analysts everywhere are realizing Concept Modelling is a powerful addition to their BA toolkit. This session will even show how a concept model can be used to easily identify use cases, user stories, services, and other functional requirements.
Realizing the value of concept modelling is also, surprisingly, taking hold in the data community. “Surprisingly” because many data practitioners had seen concept modelling as an “old school” technique. Not anymore! In the past few years, data professionals who have seen their big data, data science/AI, data lake, data mesh, data fabric, data lakehouse, etc. efforts fail to deliver expected benefits realise it is because they are not based on a shared view of the enterprise and the things it cares about. That’s where concept modelling helps. Data management/governance teams are (or should be!) taking advantage of the current support for Concept Modelling. After all, we can’t manage what hasn’t been modelled!
The Agile community is especially seeing the need for concept modelling. Because Agile is now the default approach, even on enterprise-scale initiatives, Agile teams need more than some user stories on Post-its in their backlog. Concept modelling is being embraced as an essential foundation on which to envision and develop solutions. In all these cases, the key is to see a concept model as a description of a business, not a technical description of a database schema.
This workshop introduces concept modelling from a non-technical perspective, provides tips and guidelines for the analyst, and explores entity-relationship modelling at conceptual and logical levels using techniques that maximise client engagement and understanding. We’ll also look at techniques for facilitating concept modelling sessions (virtually and in-person), applying concept modelling within other disciplines (e.g., process change or business analysis,) and moving into more complex modelling situations.
Drawing on over forty years of successful consulting and modelling, on projects of every size and type, this session provides proven techniques backed up with current, real-life examples.
Topics include:
Learning Objectives:
Artificiële intelligentie belooft enorme meerwaarde, maar zonder sterke governancefundamenten lopen AI-initiatieven het risico bevooroordeeld, ondoorzichtig of niet-conform te zijn. Organisaties worden in toenemende mate — door toezichthouders, klanten en de samenleving — verwacht te zorgen dat AI-systemen ethisch, uitlegbaar en betrouwbaar zijn. Toch blijven de meeste governance-inspanningen gefragmenteerd: AI Governance wordt vaak losgekoppeld van de principes van Responsible AI, terwijl Data Governance in een silo opereert.
Dit seminar verbindt de punten. Deelnemers krijgen een volledig inzicht in hoe Data Governance de basis vormt voor Responsible AI, en hoe AI Governance-kaders ethiek en compliance in de praktijk brengen. Door strategie, praktijkcases en hands-on kaders te combineren, biedt de cursus deelnemers de middelen om governance-aanpakken te ontwerpen en te implementeren die AI niet alleen innovatief maken, maar ook betrouwbaar en verantwoord.
Leerdoelen
Aan het einde van deze seminar zijn deelnemers in staat om:
Voor wie?
Deel 1 — Fundamenten & Risico’s
Deel 2 — Frameworks & Praktijken
Deel 3 — Connecting the Dots & Implementatie
Boek ook een van de praktische workshops!
Drie internationale topsprekers verzorgen de dag na het congres boeiende en zeer praktische workshops. Congresdeelnemers genieten combinatiekorting dus aarzel niet en boek snel want deelname aan de workshops is gelimiteerd.
Kijk op de agenda van Adept Events
“Good quality content from experienced speakers. Loved it!”
“As always a string of relevant subjects and topics.”
“Langere sessies leverden de mogelijkheid tot uitdiepen en dialoog. Dat vind ik goed aan deze summit.”
“Inspirerende summit met goede sprekers die de onderwerpen vanuit verschillende hoeken mooi belichten. Organisatie en locatie: prima!!”
“Inspirerend en prima verzorgd congres. Actuele onderwerpen met veel praktische richtlijnen, handvatten en do’s en don’ts over de informatie architectuur zoals Big Data, Data Lakes, datavirtualisatie en een logisch datawarehouse.”
“Een leuk en leerzaam event!”
“As a BI Consultant I feel inspired to recommend this conference to everyone looking for practical tools to implement a long term BI Customer Service.”
“Was weer prima!”