<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Bewust.ai Blog</title>
    <link>https://bewust.ai/blog</link>
    <atom:link href="https://bewust.ai/rss.xml" rel="self" type="application/rss+xml"/>
    <description>Inzichten over de AI-verordening, cybersecurity en verantwoord AI-gebruik.</description>
    <language>nl</language>
    <lastBuildDate>Thu, 02 Apr 2026 12:00:00 GMT</lastBuildDate>
    <item>
      <title>AI-veiligheid is een institutioneel vraagstuk</title>
      <link>https://bewust.ai/blog#ai-veiligheid-institutioneel-vraagstuk</link>
      <guid isPermaLink="true">https://bewust.ai/blog#ai-veiligheid-institutioneel-vraagstuk</guid>
      <pubDate>Thu, 02 Apr 2026 12:00:00 GMT</pubDate>
      <author>Kris</author>
      <description>Het lek bij Anthropic laat zien hoe wankel de aanname is dat technologische vooruitgang en verantwoord gebruik vanzelf samengaan. De les is niet dat AI krachtiger wordt, maar dat de instituties eromheen veel minder robuust zijn dan we denken.</description>
      <content:encoded><![CDATA[<p>Vrijdag daalden de koersen van grote cybersecuritybedrijven fors. Aanleiding was berichtgeving over een intern document van AI-bedrijf Anthropic, waarin het bedrijf het nieuwe model Claude Mythos omschrijft als aanzienlijk krachtiger dan voorgangers en als potentiële bron van nieuwe cybersecurityrisico&apos;s¹. Volgens de stukken zou het model kwetsbaarheden in software vinden en kunnen misbruiken op een schaal en snelheid die de beveiliging van computernetwerken onder druk zet.</p>
<p>Veelzeggender dan die claim zelf, was de manier waarop die naar buiten kwam. De concepttekst bleek opgeslagen in een publiek toegankelijke dataomgeving. Anthropic sprak van een menselijke fout. Een bedrijf dat waarschuwt voor de veiligheidsrisico&apos;s van steeds krachtiger AI, bleek zelf niet in staat basale informatiebeveiliging op orde te houden.</p>
<p>Dit is niet een saillant detail, maar een fundamenteel AI-vraagstuk. Het publieke debat over kunstmatige intelligentie gaat veelal over de capaciteiten van nieuwe modellen: worden ze slimmer, autonomer, sneller? Maar de maatschappelijke vraag is inmiddels een andere. Niet alleen wat deze systemen kunnen, maar of organisaties die ze bouwen en gebruiken de verantwoordelijkheid aankunnen.</p>
<p>Het lek van vrijdag is daarin geen uitzondering, maar een verscherping van een bredere ontwikkeling. Eind vorig jaar bracht Anthropic naar buiten dat het model Claude door hackers gelieerd aan de Chinese staat was gebruikt om &apos;autonoom&apos; de IT-netwerken van dertig organisaties binnen te dringen². Vorige maand haalde het bedrijf nog het nieuws met een ruzie met het Pentagon³. De aanleiding was de weigering van het bedrijf om hun AI in te zetten in het gebruik van autonome wapens. Het Amerikaanse ministerie van Defensie reageerde door Anthropic aan te merken als een risico in de toeleveringsketen. Een federale rechter zette daar deze week voorlopig een streep door en oordeelde dat die stap er eerder uitzag als vergelding voor Anthropic&apos;s standpunten dan als een zorgvuldige overweging voor de nationale veiligheid⁴.</p>
<p>In Nederland waarschuwde de Autoriteit Persoonsgegevens eind vorige maand dat de risico&apos;s van AI in korte tijd sterk zijn toegenomen⁵. De rode draad is steeds dezelfde: de inzet van AI versnelt, terwijl de beheersing achterblijft.</p>
<p>Dat probleem beperkt zich niet tot de bedrijven die deze systemen ontwikkelen. Het raakt ook de organisaties die ze gebruiken. Naarmate AI dieper doordringt in klantcontact, besluitvorming en publieke dienstverlening, wordt de vraag urgenter wie nog zicht heeft op de voorwaarden waaronder dat gebeurt. Welke gegevens worden verwerkt, wie houdt toezicht, en waar ligt de verantwoordelijkheid als het misgaat?</p>
<p>Daarmee is AI-veiligheid niet zozeer een technisch vraagstuk, maar een institutioneel en bestuurlijk vraagstuk. In het publieke debat over AI gaat de aandacht vaak uit naar snelheid, autonomie en concurrentiekracht. Veel minder aandacht gaat uit naar de vraag of de organisaties die ermee werken ook in staat zijn grenzen te stellen, afwegingen te maken en verantwoording af te leggen. Juist in de optelsom van de individuele keuzes die talloze organisaties maken, schuilt het grootste risico.</p>
<p>Het lek bij Anthropic laat zien hoe wankel de aanname is dat technologische vooruitgang en verantwoord gebruik vanzelf samengaan. Ook een bedrijf dat veiligheid tot onderdeel van zijn publieke en commerciële profiel heeft gemaakt, blijkt kwetsbaar voor menselijke fouten en politieke druk.</p>
<p>Relatief nieuwe Europese wetgeving als de AI-verordening⁶ en de Cyberbeveiligingswet⁷ (NIS2) wordt gemakkelijk weggezet als Brusselse regeldruk. Maar die wetten stellen de vragen die organisaties zelf niet stellen: welke systemen draaien er, welke data gaat erin, en wat gebeurt er als het misgaat? Niet als hinderlijk papierwerk, maar als de ondergrens van wat we mogen verwachten van iedereen die AI inzet in processen waar het ertoe doet.</p>
<p>De les van het lekken van Mythos is niet dat AI krachtiger wordt, maar dat de instituties rond de technologie veel minder robuust zijn dan de publieke narratief over innovatie vaak suggereert. Zolang dat zo is, hoort niet snelheid maar beheersbaarheid centraal te staan.</p>
<h2>Bronnen</h2>]]></content:encoded>
      <category>AI-veiligheid</category>
      <category>Opinie</category>
      <category>AI-verordening</category>
      <category>NIS2</category>
    </item>
    <item>
      <title>AI-geletterdheid is sinds 2 februari 2025 verplicht. Wat moet je nu regelen?</title>
      <link>https://bewust.ai/blog#ai-geletterdheid-verplicht-wat-nu</link>
      <guid isPermaLink="true">https://bewust.ai/blog#ai-geletterdheid-verplicht-wat-nu</guid>
      <pubDate>Tue, 24 Mar 2026 12:00:00 GMT</pubDate>
      <author>Kris</author>
      <description>Sinds 2 februari 2025 moeten aanbieders en deployers van AI-systemen zorgen voor een passend niveau van AI-geletterdheid. Maar wat betekent dat concreet voor jouw organisatie?</description>
      <content:encoded><![CDATA[<p>Artikel 4 van de EU AI-verordening verplicht aanbieders en deployers van AI-systemen om maatregelen te nemen voor een toereikend niveau van AI-geletterdheid bij hun personeel en andere personen die namens hen met AI werken. Die verplichting geldt sinds 2 februari 2025. De norm geldt dus al, ook al start het formele toezicht en de handhaving pas vanaf 3 augustus 2026.</p>
<p>AI-geletterdheid betekent niet dat iedere medewerker een technisch specialist moet worden. Het gaat om voldoende kennis en begrip om AI-systemen verantwoord te gebruiken, uitkomsten goed te duiden en risico&apos;s tijdig te herkennen. Welke kennis nodig is, hangt af van de rol van de medewerker, diens ervaring en opleiding, het type AI-systeem en de context waarin het wordt gebruikt.</p>
<p>De verplichting geldt dus niet alleen voor IT. Denk ook aan marketingteams die generatieve AI gebruiken, HR-medewerkers die AI inzetten bij selectie, managers die beslissingen nemen op basis van AI-analyses en externe opdrachtnemers die namens jouw organisatie met AI-systemen werken.</p>
<p>Wat moet je concreet doen? Begin met een inventarisatie van de AI-systemen die binnen je organisatie worden ontwikkeld of gebruikt, inclusief generatieve AI-tools die medewerkers in de praktijk inzetten. Bepaal daarna per rol welk kennisniveau nodig is. Voor laag-risico gebruik kan een goede basistraining voldoende zijn, bijvoorbeeld over werking, beperkingen, vertrouwelijkheid, privacy en controle van output. Voor toepassingen met meer impact, en zeker bij hoog-risico AI, is extra aandacht nodig voor menselijk toezicht, foutmarges, bias, incidenten en escalatie.</p>
<p>De AI-verordening schrijft geen vast opleidingsformat en geen certificaat voor. Wel is het verstandig om je aanpak goed vast te leggen: wie is getraind, op welke onderwerpen, voor welke systemen en wanneer. Een intern overzicht van trainingen, instructies en andere begeleidende maatregelen helpt om later aan te tonen dat je artikel 4 serieus hebt ingevuld.</p>
<p>Bij Bewust.ai helpen we organisaties met een AI-geletterdheidsprogramma dat past bij hun praktijk, sector en risicoprofiel. Neem contact op voor een vrijblijvend gesprek.</p>]]></content:encoded>
      <category>AI-verordening</category>
      <category>AI-geletterdheid</category>
      <category>Compliance</category>
    </item>
    <item>
      <title>Drie AI-risico&apos;s die je compliance-check vaak mist</title>
      <link>https://bewust.ai/blog#drie-ai-risicos-die-u-niet-ziet</link>
      <guid isPermaLink="true">https://bewust.ai/blog#drie-ai-risicos-die-u-niet-ziet</guid>
      <pubDate>Sun, 08 Mar 2026 12:00:00 GMT</pubDate>
      <author>Kris</author>
      <description>Veel AI-assessments blijven hangen in classificatie en documentatie. Maar de risico&apos;s die in de praktijk het verschil maken, zitten vaak in de techniek.</description>
      <content:encoded><![CDATA[<p>Veel AI-assessments beginnen juridisch. Valt het systeem onder de AI-verordening, is transparantie geregeld, is de documentatie op orde? Dat is logisch, maar niet genoeg. Voor hoog-risico AI-systemen eist de AI-verordening ook passende nauwkeurigheid, robuustheid en cybersecurity. En ook buiten die categorie kunnen dezelfde technische zwaktes leiden tot incidenten, datalekken en onbetrouwbare uitkomsten.</p>
<h2>1. Data poisoning via feedback loops</h2>
<p>Niet elk AI-systeem met feedback is kwetsbaar voor data poisoning. Het risico ontstaat vooral zodra gebruikersinput direct of indirect terugvloeit in fine-tuning, ranking, drempelwaarden of evaluatiesets. Dan kan een aanvaller via ogenschijnlijk normale interacties het gedrag van het systeem langzaam verschuiven. Denk aan moderatie, fraudedetectie of aanbevelingssystemen die periodiek opnieuw worden afgesteld op productiedata. Zonder duidelijke scheiding tussen productiedata en trainingsdata, zonder review vóór retraining en zonder monitoring op afwijkende patronen, merk je zo&apos;n aanval vaak pas laat op.</p>
<h2>2. Datalekken in RAG door zwakke toegangscontrole</h2>
<p>Bij RAG zit het grootste risico meestal niet in het letterlijk reconstrueren van tekst uit embeddings. In de praktijk gaat het vaker mis door te ruime rechten op brondata, onjuiste metadatafilters, gebrekkige tenant-isolatie of prompt injection via documenten of gebruikersinput. Dan kan iemand via het RAG-systeem informatie ophalen uit bronnen waarvoor die persoon normaal geen toegang heeft. In de praktijk is het dus vaak geen puur modelprobleem, maar een combinatie van applicatieontwerp, autorisatie en promptbeveiliging.</p>
<h2>3. Compromittering van de model supply chain</h2>
<p>De supply chain van een AI-systeem is breder dan alleen het modelbestand. Ook tokenizers, adapters, prompts, container-images, inference servers en afhankelijkheden horen erbij. Wie modellen of componenten van derden overneemt zonder herkomstcontrole, hash-verificatie, signing, SBOM&apos;s en een gecontroleerde release pipeline, neemt mogelijk ook kwetsbaarheden of manipulatie over. Zeker bij open modellen en snel samengestelde AI-stacks is dat risico reëel. De technische vraag is dus niet alleen welk model je gebruikt, maar ook of je de hele keten kunt vertrouwen en verifiëren.</p>
<p>De praktische les is simpel: een juridische classificatie is het begin, niet het einde. Voor AI-systemen met serieuze impact hoort daar ook een technische threat assessment bij, bijvoorbeeld met STRIDE voor de applicatiearchitectuur en MITRE ATLAS voor AI-specifieke aanvalspaden. Zo toets je niet alleen of je dossier klopt, maar ook of het systeem in de praktijk bestand is tegen misbruik.</p>
<p>Bij Bewust.ai combineren we juridische classificatie met een technische risicoanalyse. Zo krijg je niet alleen inzicht in compliance, maar ook in de vraag of je AI-omgeving daadwerkelijk beheersbaar en veilig is.</p>]]></content:encoded>
      <category>Cybersecurity</category>
      <category>STRIDE</category>
      <category>MITRE ATLAS</category>
    </item>
    <item>
      <title>De AI-verordening tijdlijn: wat moet wanneer geregeld zijn?</title>
      <link>https://bewust.ai/blog#ai-verordening-tijdlijn-mkb</link>
      <guid isPermaLink="true">https://bewust.ai/blog#ai-verordening-tijdlijn-mkb</guid>
      <pubDate>Sat, 28 Feb 2026 12:00:00 GMT</pubDate>
      <author>Kris</author>
      <description>De AI-verordening wordt stapsgewijs van toepassing. Dit zijn de deadlines die voor MKB-bedrijven meestal het belangrijkst zijn.</description>
      <content:encoded><![CDATA[<p>De EU AI-verordening trad op 1 augustus 2024 in werking, maar de regels gelden niet allemaal tegelijk. De hoofdregel is dat de meeste verplichtingen vanaf 2 augustus 2026 van toepassing zijn. Daarop bestaan een paar belangrijke uitzonderingen.</p>
<h2>2 februari 2025: AI-geletterdheid en verboden praktijken</h2>
<p>Sinds 2 februari 2025 gelden de eerste materiële regels uit de AI-verordening. Dat gaat onder meer om AI-geletterdheid en de verboden AI-praktijken. Denk aan social scoring en bepaalde vormen van schadelijke manipulatie. Ook sommige biometrische toepassingen vallen onder een verbod of onder een zeer streng regime.</p>
<h2>2 augustus 2025: governance en GPAI-modellen</h2>
<p>Vanaf 2 augustus 2025 gelden de governancebepalingen en de verplichtingen voor aanbieders van general-purpose AI-modellen. Voor veel MKB-bedrijven is dat alleen rechtstreeks relevant als zij zelf zulke modellen ontwikkelen of onder eigen naam aanbieden. Wie vooral standaardtools inkoopt, merkt dit meestal indirect via leveranciersdocumentatie, contracten en technische informatie die beschikbaar moet komen.</p>
<h2>2 augustus 2026: de meeste overige verplichtingen, inclusief de hoofdset regels voor hoog-risico AI</h2>
<p>Dit is voor de meeste organisaties de belangrijkste datum. Vanaf dan gelden in beginsel de regels voor hoog-risico AI-systemen uit de AI-verordening, samen met de bijbehorende verplichtingen voor aanbieders en deployers. Let op: een Fundamental Rights Impact Assessment geldt niet voor iedere deployer van hoog-risico AI, maar alleen voor bepaalde categorieën, zoals overheden, private partijen die publieke diensten leveren en bepaalde toepassingen voor kredietwaardigheid of levens- en zorgverzekeringen.</p>
<h2>2 augustus 2027: uitgestelde regels voor AI in gereguleerde producten</h2>
<p>Voor hoog-risico AI die onderdeel is van gereguleerde producten of veiligheidscomponenten onder sectorspecifieke productwetgeving geldt een langere overgangstermijn. Voor die categorie schuift de relevante deadline dus door naar 2 augustus 2027.</p>
<p>Wat moet je nu doen? Begin met een inventarisatie van je AI-gebruik: welke systemen zet je in, wie gebruikt ze, met welk doel en in welke processen? Maak daarna onderscheid tussen algemeen gebruik van generatieve AI, mogelijk hoog-risico toepassingen en systemen van leveranciers. Daarmee zie je snel welke verplichtingen nu al gelden en wat je uiterlijk vóór 2 augustus 2026 of 2 augustus 2027 geregeld moet hebben.</p>
<p>De AI Quickscan van Bewust.ai helpt om dat overzicht snel scherp te krijgen, zodat je weet waar je nu moet beginnen en welke acties later volgen.</p>]]></content:encoded>
      <category>AI-verordening</category>
      <category>Tijdlijn</category>
      <category>MKB</category>
    </item>
  </channel>
</rss>
