Bij AI-projecten zie je nog te vaak dat gevoelige informatie rechtstreeks naar externe systemen wordt gestuurd, zonder dat er goed wordt nagedacht over privacy.
In Fricta is dat anders. Ons uitgangspunt is dat privacy geen optionele laag achteraf is, maar de ruggengraat van het ontwerp.
Waar het vaak misgaat
In veel AI-implementaties zien we dezelfde valkuilen:
- Ruwe communicatie wordt direct in een groot taalmodel geladen
- Namen, adressen of ordernummers worden pas achteraf verwijderd
- Er is geen controle over welke data waar terechtkomt
Dit levert niet alleen juridische risico’s op (AVG, sectorregels), maar ook reputatieschade en verlies van vertrouwen.
Hoe Fricta het aanpakt
- Anonymizer als eerste stap
Zodra data het systeem binnenkomt, worden namen vervangen door rollen (“Planner A”, “Chauffeur B”), gevoelige details vervangen door placeholders, en niet-relevante data verwijderd. - Lokaal pre-processen
We ontwerpen Fricta zo dat de meest privacygevoelige stappen — zoals tagging en anonimisering — lokaal kunnen draaien via een lightweight LLM. Daarmee hoeft ruwe data niet naar externe servers, maar wordt deze eerst geschoond en veilig gemaakt. - Minimale datadeling
Alleen de informatie die écht nodig is voor analyse wordt verstuurd naar externe AI-modellen. De rest blijft veilig in de interne omgeving van de klant. - Versleuteling en controle
Zowel tijdens transport als in opslag is alle data versleuteld. Klanten hebben inzicht in en controle over de datastroom.

