Een AI-model dat zo sterk is dat het voor het 'gewone' publiek niet beschikbaar is. Het Amerikaanse bedrijf Anthropic heeft er naar eigen zeggen een gebouwd, dat vooral sterk is op het gebied van cyberveiligheid.

Het model wordt nu alleen beschikbaar gesteld voor zo'n veertig techbedrijven, waaronder Apple, Microsoft en Google. Cyberspecialisten spreken van een grote verschuiving in de sector.

Dat het nieuwe AI-model krachtig is, bleek al in de testfase. Het model ontdekte volledig zelfstandig een 27 jaar oude kwetsbaarheid in het besturingssysteem OpenBSD. Binnen de techwereld heeft OpenBSD een reputatie als een van de best beveiligde besturingssystemen.

Juist omdat het model zo krachtig is, wil Anthropic het nog niet vrijgeven. Als dat gebeurt, kan het namelijk ook gebruikt worden door cybercriminelen.

Binnen de cybersecuritywereld wordt met grote belangstelling gekeken naar de ontwikkelingen. "Anthropic spreekt van een soort digitale koevoet", vertelt Dave Maasland, directeur van IT-beveiligingsbedrijf ESET. "Dat is een enorm probleem want de hele wereld draait op software. Je mag geen gebrek aan verbeelding hebben, je moet rekening houden met dit soort scenario's."

Anthropic is 'een buitenbeentje' binnen de AI-branche. Het positioneert zich als 'verantwoorde' AI-ontwikkelaar. Dat is ook een van de redenen waarom het bedrijf het AI-model achter slot en grendel houdt.

Dit jaar kwam het bedrijf in het nieuws omdat het in de clinch lag met het Pentagon over een deal die ze hadden gesloten. De Amerikaanse minister van Defensie Hegseth (of van Oorlog, zoals het tijdens de Trump-regering is gaan heten) wilde carte blanche om hun AI-model in te zetten. Anthropic wilde als voorwaarden opnemen dat het model niet gebruikt wordt voor wapens en massa-controlesystemen waar geen mens meer aan te pas komt.

Glasvlinder

Nu probeert Anthropic zich opnieuw te positioneren als een 'verantwoord AI-bedrijf' door het model niet vrij te geven voor het grote publiek. In plaats daarvan hebben ze Project Glasswing opgetuigd, vernoemd naar de glasvlinder.

De doorzichtige vleugels van de vlinder zorgen ervoor dat hij bijna onzichtbaar is, net als beveiligingslekken die jarenlang aanwezig kunnen zijn zonder dat iemand ze opmerkt. Het project houdt in dat veertig techbedrijven het model mogen gebruiken om op zoek te gaan naar beveiligingslekken.

Cybersecurityexpert Maasland plaatst een kanttekening bij de motieven van Anthropic, want buiten de ontwikkelaar heeft nog niemand het model gezien. "En ze hebben er alle baat bij dat iedereen naar Anthropic kijkt. Dat is goed voor de aandeelhouders en klanten."

Toch lijkt het model wel degelijk baanbrekend. Er waren al AI-modellen die beveiligingsrisico's konden zoeken, maar niet elk risico was een gevaar. Anthropic zegt dat zijn model een lek daadwerkelijk kan vinden en kan misbruiken. "Het is alsof je in de muur kan zien waar de scheur is, maar je kan ook met een tik met de hamer door de muur heen komen", vertelt Maasland.

Die nieuwe ontwikkeling betekent dat de cyberveiligheid een flinke inhaalslag moet maken, vertelt cybersecurityspecialist Sijmen Ruwhof. "We komen nu in een tijdperk dat AI veel sneller ontwikkelt dan wij als mensheid kunnen bijhouden. Dat is een zorgwekkende ontwikkeling", vindt Ruwhof. Hij vindt het daarom van Anthropic een goede keuze om het model nog niet vrij te geven. De grote techbedrijven kunnen hierdoor eerst hun systemen veiliger maken.

Ethische keuzes

Vroeg of laat zal het Anthropic-model toch naar buiten komen. De concurrentie is ook druk bezig met het ontwikkelen van modellen. Mogelijk maken die bedrijven andere keuzes. "De AI-bedrijven proberen elkaar allemaal van de troon te stoten. Het AI-bedrijf dat het meest ethisch is, zal niet het meest commercieel zijn. Aandeelhouders sturen sterk op het snel terugverdienen van investeringen en zoveel mogelijk winst maken. Daardoor komt de ethiek in de praktijk geregeld onder druk te staan", vertelt Ruwhof.

De komende tijd moeten bedrijven werken aan 'basishygiƫne', zoals Maasland het noemt. Bedrijven moeten de cyberveiligheid gaan prioriteren, vindt hij. "De stagiair kan bij de directiegegevens, bij wijze van spreken. Dat is niet in orde. Het is alsof de gebouwen al een beetje op instorten staan en nu komt AI met een sloopkogel. Dan kun je weinig doen. Dus we moeten als de donder deze basishygiƫne regelen."

Bron