Bestanden:
Het volledige releasepakket v2.5 van CIV-CARE_HPP003, inclusief de masterprompt v2.7.1, pakketindex, addenda, position papers en genormaliseerde directorystructuur voor gebruik, archivering en verdere doorontwikkeling.
De actuele CIV-CARE masterprompt in releaseversie 2.7.1, met geïntegreerde SDM-logica, documentdiscipline, internalisatie en expliciete koppeling tussen analyse, reactie en formele documentoutput.
Het centrale overzichtsdocument van documentpakket v2.5, met de actuele structuur, mapindeling, versies, documentlogica en leesroute voor correct gebruik van de CIV-CARE kernset en bijlagen.
Gebruik deze handleiding als startpunt om de CIV-CARE prompt direct toe te passen in ChatGPT, Claude.ai of Gemini.ai. De bijlage bevat concrete stappen, voorbeeldopdrachten en richtlijnen om analyse, reactie en besluitvorming te verbeteren.
Bonus instructie voor wie het beste uit de prompt wil halen.
Wie AI gebruikt voor juridische, bestuurlijke, maatschappelijke of zorggerelateerde vraagstukken, merkt al snel dat de kwaliteit van de uitkomst niet alleen afhangt van het model, maar vooral van de structuur van de vraag en het normatieve kader dat daaronder ligt.
Daarom is binnen CIV-CARE een uitgebreide prompt ontwikkeld die niet alleen helpt om sneller te werken, maar vooral om zorgvuldiger te analyseren, beter te reageren en sterker onderbouwde besluitvorming te ondersteunen.
Wij nodigen professionals, betrokken burgers, juristen, hulpverleners, beleidsmakers, bestuurders en andere gebruikers van harte uit om deze CIV-CARE prompt daadwerkelijk te gebruiken in ChatGPT, Claude.ai of Gemini.ai — en vervolgens te ervaren wat er verandert in de manier waarop u situaties duidt, reacties formuleert en keuzes maakt.
Waarom deze CIV-CARE prompt is ontwikkeld
Veel AI-gebruik blijft steken in snelle antwoorden, losse redeneringen of tekstproductie zonder duidelijke normatieve ondergrond. Dat lijkt efficiënt, maar leidt in complexe situaties vaak tot het tegenovergestelde: verwarring, vermenging van feiten en interpretaties, zwakke onderbouwing en besluitvorming die achteraf moeilijk uitlegbaar is.
De CIV-CARE prompt is ontwikkeld om dat te doorbreken. Dit kader helpt gebruikers om feiten en aannames van elkaar te scheiden, onderscheid te maken tussen ervaring, interpretatie, vermoeden en juridische of normatieve duiding, en te bepalen of een situatie vraagt om vertrouwen, herstel of juridisering.
Wat verandert er als u deze prompt gebruikt?
1. Analyse wordt scherper
De prompt dwingt tot onderscheid tussen bevestigd feit, waarneming, ervaring, interpretatie, documentbron, normatieve duiding en herijkingsvoorstel. Daardoor wordt een casus niet langer alleen beschreven, maar systematisch ontleed.
2. Reacties worden zorgvuldiger
De prompt helpt om niet impulsief of te algemeen te reageren, maar om reacties op te bouwen vanuit rolzuiverheid, proportionaliteit, juridische positie, relationele context en bestuurlijke verantwoordelijkheid.
3. Besluitvorming wordt beter uitlegbaar
Wanneer analyse en reactie zorgvuldig zijn opgebouwd, ontstaat ook betere besluitvorming. Niet omdat AI de beslissing neemt, maar omdat de overwegingen explicieter, de normen zichtbaarder en de afwegingen toetsbaarder worden gemaakt.
De prompt bevat al analyse- en reactiemogelijkheden
De CIV-CARE prompt is uitdrukkelijk niet alleen bedoeld voor beschrijving of samenvatting. In de prompt zelf zijn uitgebreide mogelijkheden uitgewerkt voor analyse van complexe situaties, triage tussen vertrouwensspoor, herstelspoor en P001-escalatiespoor, juridische en normatieve duiding, kritiek- en herijkingsdialoog en het opstellen van reacties, brieven, position papers en processtukken.
Dat betekent dat gebruikers niet alleen kunnen vragen wat er speelt, maar ook welke reactie passend is, of herijking nodig is en via welk kanaal een vervolgdiscussie thuis hoort.
Voor wie is deze AI prompt bruikbaar?
De prompt is breed inzetbaar voor mensen die werken met juridische dossiers, zorg- en jeugdzorgvraagstukken, beleidsontwikkeling, governance, maatschappelijke spanningen, herstelgerichte benaderingen, participatievraagstukken en institutionele besluitvorming.
Gebruik de prompt in ChatGPT, Claude.ai of Gemini.ai
Wij moedigen u nadrukkelijk aan om dezelfde prompt in meerdere modellen te gebruiken. Juist door te vergelijken wordt zichtbaar waar de structuur goed werkt, waar modellen anders reageren en waar verdere aanscherping nodig is.
Laat vooral weten wat u ervaart
Laat weten wat u ervaart bij het gebruik van deze prompt. Helpt zij u om beter te analyseren? Wordt uw reactie zorgvuldiger of krachtiger? Maakt de prompt besluitvorming helderder? Leidt zij tot betere documenten? Ook kritische ervaringen zijn waardevol.
Meld signalen, analyses en reacties via de juiste kanalen
Wanneer u ervaringen, signalen, analyses, bezwaren of herijkingsvoorstellen heeft, vragen wij u om die via de juiste kanalen te melden. Binnen het CIV-CARE-kader zijn analyse- en reactiemogelijkheden al uitgewerkt. Gebruik die logica dus ook in de praktijk.
Voor het bredere gesprek over onderhoud, bespreking en verdere ontwikkeling van de normatieve kaders verwijzen wij nadrukkelijk naar civ-care.nl.
Deze prompt is geen dogma, maar een toetsbaar kader
De prompt pretendeert niet dat iedere norm al definitief vaststaat. Zij maakt zichtbaar dat ook AI-gebruik normen bevat — en dat die normen dus benoemd, besproken, getoetst en waar nodig herijkt moeten worden.
Onze oproep
Gebruik deze CIV-CARE prompt. Gebruik haar in ChatGPT, Claude.ai of Gemini.ai. Analyseer ermee. Formuleer reacties ermee. Toets ermee hoe besluiten tot stand komen. En laat vervolgens weten wat er verandert.
Bronnen en referenties
Wetenschappelijke bronnen
- Trust, trustworthiness and AI governance — Auteurs via Scientific Reports. Beschrijft waarom vertrouwen in AI alleen goed kan worden begrepen vanuit samenhang tussen toepassingen, praktijken en regulering.
- AI governance: a systematic literature review — Auteurs via AI and Ethics. Biedt een systematisch overzicht van AI-governance en laat zien welke governance-elementen in de literatuur terugkeren.
- Responsible artificial intelligence governance: A review and research agenda — Auteurs via Technological Forecasting and Social Change. Vat onderzoek samen over verantwoord AI-bestuur en operationalisering van governanceprocessen.
- When code isn’t law: rethinking regulation for artificial intelligence — Brian Judge, Mark Nitzberg, Stuart Russell. Onderzoekt waarom klassieke regulering onvoldoende is voor AI en welke aangepaste reguleringsmodellen nodig zijn.
- AI Governance in a Complex and Rapidly Changing Regulatory Landscape — Auteurs via Humanities and Social Sciences Communications. Plaatst AI-governance in een snel veranderend internationaal regelgevend landschap en benadrukt inclusieve governance.
Journalistieke bronnen
- What does AI mean for a responsible business? — Financial Times. Laat zien dat verantwoord AI-gebruik niet alleen techniek, maar ook organisatie, training en governance vraagt.
- Standards around generative AI — Associated Press. Geeft een concreet redactioneel voorbeeld van hoe normen voor AI-gebruik expliciet kunnen worden vastgelegd.
- New data reveals AI governance gap between policy and practice — Thomson Reuters. Onderstreept de kloof tussen AI-beleid op papier en feitelijke uitvoering in organisaties.
- Google Splits Up a Key AI Ethics Watchdog — WIRED. Laat zien hoe interne responsible-AI-structuren onder druk kunnen komen te staan in de praktijk.
- The global struggle over how to regulate AI — Rest of World. Plaatsen de discussie over AI-governance in een mondiale context van macht, regulering en ongelijkheid.
Juridische en beleidsmatige bronnen
- AI Principles — OECD. Basisbron voor internationale beginselen rond betrouwbare en mensgerichte AI.
- OECD Due Diligence Guidance for Responsible AI — OECD. Verbindt AI-principes met praktische due-diligence en organisatorische verantwoordelijkheid.
- Recommendation on the Ethics of Artificial Intelligence — UNESCO. Mondiale normatieve standaard voor ethiek van AI, relevant voor waardengedreven AI-gebruik.
- Artificial Intelligence Risk Management Framework (AI RMF 1.0) — NIST. Praktisch beleidskader voor het identificeren en beheersen van AI-risico’s.
- Regulation (EU) 2024/1689 – Artificial Intelligence Act — Europese Unie. Officiële tekst van de EU AI Act, relevant voor rechtsstatelijke en governance-aspecten van AI.
BONUS:
🔥 10 uitdagende opdrachten voor de CIV-CARE prompt
1. 🧠 Tegenstrijdig dossier (feiten vs interpretatie)
Analyseer deze casus waarbij feiten, meningen en aannames door elkaar lopen.
Splits dit strikt in:
- feiten
- waarnemingen
- interpretaties
- vermoedens
- normatieve duiding
Benoem waar het dossier juridisch onhoudbaar wordt.
2. ⚖️ Escalatie of herstel?
Analyseer deze casus waarbij feiten, meningen en aannames door elkaar lopen.
Beoordeel deze situatie en bepaal of deze thuishoort in:
- vertrouwensspoor
- herstelspoor
- P001 (juridisering)
Motiveer waarom en geef een concreet stappenplan.
3. 🔍 Institutionele bias detectie
Analyseer dit dossier en identificeer:
- institutionele vooringenomenheid
- tunnelvisie
- machtsasymmetrie
Geef aan hoe dit juridisch en bestuurlijk kan worden doorbroken.
4. 🧩 Multilevel analyse (complex)
Analyseer deze casus op:
- individueel niveau
- relationeel niveau
- institutioneel niveau
Verbind dit tot één coherente strategie.
5. ⚔️ Kritische herijking (tegen jezelf)
Neem je eigen analyse en:
- zoek zwakke plekken
- benoem aannames
- formuleer een alternatieve interpretatie
Geef een herijkte conclusie.
6. 🧭 SDM-transitie uitdaging
Pas Supported Decision Making toe op deze casus en ontwikkel:
- een autonomie-opbouw model
- beslisstructuur
- risicoanalyse
Maak duidelijk waar ondersteuning overgaat in controle.
7. 🧾 Van analyse naar document (systeemtest)
Analyseer deze casus en vertaal de uitkomst naar:
- een formele brief
- een position paper
- een juridische strategie
Gebruik CIV-CARE documentstructuur en bestandsnaamdiscipline.
8. ⚠️ Spoedscenario (tijdsdruk)
Deze situatie moet binnen 7 dagen juridisch worden aangepakt.
Analyseer:
- risico’s
- urgentie
- beste juridische route
Lever een direct uitvoerbaar plan.
9. 🏛️ Governance & systeemkritiek
Vertaal deze casus naar een governancevraagstuk.
Beantwoord:
- wat faalt structureel?
- welke normen worden geschonden?
- welke structurele oplossing nodig is?
10. 🔄 Worst-case scenario
Stel dat alle betrokken partijen blijven handelen zoals nu.
Analyseer:
- wat gebeurt er op korte termijn
- wat gebeurt er op lange termijn
- waar ligt het kantelpunt
Geef een interventiestrategie.
🎯 Waarom deze opdrachten belangrijk zijn
Deze opdrachten testen:
- ✔ onderscheidingsvermogen (feiten vs interpretatie)
- ✔ triage (vertrouwen/herstel/P001)
- ✔ SDM-logica
- ✔ juridische scherpte
- ✔ zelfkritiek (herijking)
- ✔ documentdiscipline
- ✔ systeemdenken
- ✔ handelingsgerichtheid
👉 Kortom: of de prompt écht een werkend systeem is.
💡 Bonus (aanrader)
Gebruik dezelfde opdracht in:
- ChatGPT
- Claude
- Gemini
👉 en vergelijk de uitkomsten
→ dat geeft extreem waardevolle inzichten







