Vreemder dan Science Fiction: De Toekomst van door AI versterkte Aanvallen

Exabeam biedt oplossingen voor security intelligence en beheer om organisaties te helpen hun meest waardevolle informatie te beschermen. Het Exabeam Security Intelligence Platform combineert op unieke wijze onbeperkte gegevensverzameling, machine learning voor geavanceerde analyses en geautomatiseerde incident respons in een geïntegreerde set van producten.

Terug in de beginperiode van 2020 kwam de FBI met een verontrustende waarschuwing. Ze waarschuwde dat deepfake-technologie – de mogelijkheid om zeer realistische beelden, video’s of audio te genereren – al in staat was om bepaalde biometrische tests te misleiden.

Fast forward naar het heden, en de steeds groeiende mogelijkheden van kunstmatige intelligentie (AI) kunnen mogelijk diepgaande uitdagingen opleveren voor het Security Operations Center (SOC). Bedreigingsactoren ontwikkelen al nieuwe tactieken om beveiligingsmaatregelen te omzeilen, en er zullen waarschijnlijk meer methoden opduiken.

In dit artikel:
    • Een nieuwe generatie bedreigingen
    • De race, en achtervolging, is begonnen

Een nieuwe generatie bedreigingen

Naast het vermogen om deepfakes te creëren, kan generatieve AI automatisch tekst produceren en code schrijven, wat kan worden gebruikt om de verdediging van een organisatie te ondermijnen – soms op verrassende manieren. Overweeg deze vijf scenario’s.

1. Phishing op een geheel nieuw niveau

Cybercriminelen hebben altijd geweten dat menselijke fouten vaak de zwakste schakel van een organisatie zijn. Historisch gezien is phishing de meest voorkomende vorm van sociale techniek – en in het tijdperk van generatieve AI kunnen bedreigingsactoren automatisch authentiek klinkende berichten maken die het specifieke schrijfpatroon van een persoon nabootsen. Ze kunnen ze ook veel efficiënter inzetten op een veel grotere schaal.

2. Malware met duizend gezichten

Analisten zijn al bekend met het probleem van polymorfe malware – zelfverkopende en muterende code die is geprogrammeerd om van vorm en handtekening te veranderen in een poging detectie te ontlopen. In een tijdperk waarin AI responsiever, reflexiever en aanpasbaarder is dan ooit, is het haalbaar – misschien zelfs onvermijdelijk – dat de ontwijkings- en verhullingsmethoden veel flexibeler en geavanceerder zullen worden.

3. Het misbruik van orchestratie

Zoveel organisaties hebben kritieke systemen “als code” geautomatiseerd en georkestreerd, wat betekent dat processen achter de schermen zijn geconfigureerd en gecoördineerd om bepaalde functies onmiddellijk uit te voeren wanneer ze de juiste prompts ontvangen. Naarmate AI zich ontwikkelt, zullen criminelen waarschijnlijk nieuwe manieren bedenken om dergelijke systemen binnen te dringen en te corrumperen. Natuurlijk moet het SOC zich ervan bewust zijn dat generatieve AI zelf fouten kan maken, en naarmate bedrijven nieuwe tools aannemen, kunnen er nieuwe kwetsbaarheden ontstaan zonder enige inmenging van bedreigingsactoren.

4. Een veelheid aan kwaadaardige binaries

Als generatieve AI automatisch kwaadaardige binaire code kan schrijven, is het niet vergezocht om je een scenario voor te stellen waarin een crimineel een AI-tool heeft die meerdere stukjes kwaadaardige code produceert die allemaal dezelfde functie uitvoeren. De eerste kan worden betrapt en geregistreerd in de bibliotheek, maar dat zou niets doen om de anderen te stoppen. Dit zou zorgelijk moeten zijn voor die SOCs die vertrouwen op op handtekening gebaseerde regels of onvolwassen machine learning-mogelijkheden.

5. Het bouwen van een doolhof van leugens

In het verleden hebben criminelen sociale technieken zoals “backstopping” gebruikt om hun meest gerichte aanvallen te ondersteunen, door tijd en middelen te investeren in het bouwen van een uitgebreid rook-en-spiegelnetwerk van valse mensen, producten en organisaties die hun frauduleuze façade er legitiemer laten uitzien. Nu betreedt de wereld een tijdperk waarin dergelijke misleiding geen tijd kost en aanzienlijk gebruikelijker zou kunnen worden.

De race, en achtervolging, is begonnen

Beveiligingsexperts onderzoeken actief hoe AI kan worden gebruikt voor schade en bedenken manieren om deze soorten aanvallen te omzeilen. Maar zoals elke security-leider weet, mag de vindingrijkheid van sterk gemotiveerde cybercriminelen nooit worden onderschat. Aanvallers en verdedigers zullen altijd nieuwe manieren zoeken om elkaar te slim af te zijn in een estafette die al tientallen jaren aan de gang is.

Als pionier in het leveren van AI aan security operations wil Exabeam dat je de monumentale verschuivingen begrijpt in het AI-gedreven landschap van vandaag. Bekijk de CISO’s Guide to the AI Opportunity in Security Operations voor meer informatie.

Lees het originele artikel

 


Meer weten over Exabeam SOC ? Download de whitepaper hier of neem contact op met Exclusive Networks op +31 (0)499 462121  of stuur een mail naar info@exclusive-networks.nl