The Dark Side: AI-angreb stiller nye krav til din cybersikkerhed


17. december 2025
Læsetid 7 min.
Illustration af en lille indbrudstyv, der kommer ud af tastaturet på en bærbar computer, omgivet af kabler, med fokus på teknologi og it-sikkerhed.
Flemming Månsson Hansen
Flemming Månsson BornhakCybersecurity Specialist

Når AI bliver brugt til at orkestrere cyberangreb, ændrer både tempo og kvalitet sig markant. De første dokumenterede tilfælde viser, at angreb nu kan automatiseres, personaliseres og skjules langt bedre end før. Denne artikel giver dig et overblik over ændringerne, og ikke mindst hvordan du kan ruste din digitale forretning til at modstå AI-drevet cyberkriminalitet.

AI har gjort hverdagen lettere for udviklere, sælgere, marketeers og kundeserviceteams. Men den gør også livet lettere for dem, der arbejder på den mørke side af internettet. Det kom for alvor frem i lyset, da Anthropic for nyligt skulle forsvare, hvordan deres AI-modeller og -agenter blev brugt til at automatisere et større, koordineret cyberangreb.

Ifølge Anthropic var det en kinesisk statssponsoreret gruppe, som de har døbt GTG-1002, der stod bag angrebet. Angribernes teknik var at jailbreake sikkerhedsmekanismerne ved at få AI’en til at tro, at den udførte en legitim cybersikkerhedstest, og dermed slippe uden om de indbyggede guardrails.

Og da de først havde adgang, kunne de altså bruge Anthropics modeller (særligt Claude) til at udføre størstedelen af en spionagekampagne med omkring 30 internationale mål – særligt inden for finans, tech og politik. Helt konkret blev Anthropics modeller brugt af hackerne til at:

  • kortlægge mål ved at organisere offentlige og stjålne data.
  • analysere dokumenter for at finde værdifuld information.
  • skrive troværdige beskeder til nøglepersoner.
  • foreslå næste skridt baseret på angrebets fremskridt.
  • automatisere opgaver, der normalt kræver erfaring og tid. 

I praksis vurderer Anthropic, at AI stod for 80-90% af arbejdet i angrebet. Samtidig vurderer de, at angrebet er sket med en hastighed, som det ville være umuligt for mennesker at matche.

Og det er lige netop hér, man vil spærre øjnene op, hvis man går op i sin it-sikkerhed. For når hackerne kan lægge så stor en del af arbejdet i hænderne på en AI-model, der kan tænke i strukturer, formulere sig troværdigt og eksekvere i et ekstremt højt tempo, så ændrer trusselbilledet sig markant.

 

Gamle ulve i nye fåreklæder

AI ændrer ikke på hvilke typer af angreb, der rammer virksomhederne, men derimod hvordan de bliver udført. De klassiske kategorier består: Phishing, malware, ransomware, datatyveri, SQL-angreb, Social Engineering etc. Men kvaliteten, skalaen og timingen er en helt anden end tidligere.

Særligt Social Engineering og phishing, hvor man forsøger at snyde brugere, bliver meget overbevisende med AI. Tidligere kunne man forholdsvist nemt spotte en falsk mail, SMS eller SoMe-besked ud fra et mærkeligt grafisk setup, en sketchy afsender-adresse eller et halvdårligt forsøg på at tale dansk. Den tid er forbi. AI er blevet dygtig til at efterligne interne roller, fagtermer, deadlines og projekter, ligesom den kan skrive fejlfrit på stort set alle sprog. Det gør beskederne svære at afkode, fordi de ikke længere ligner noget fremmed. De ligner noget, man burde svare på.

Samtidig ændrer angrebene karakter. De handler mindre om at bryde ind og mere om at blende ind. Det mest effektive angreb i dag er ikke nødvendigvis det mest tekniske. Det er det, der får en medarbejder til at give adgang, uden at vedkommende overhovedet opdager det. 

AI giver altså både hackerne bedre mulighed for at forstå virksomhederne, de forsøger at infiltrere, og samtidigt gør den indholdet langt mere troværdigt og virkelighedstro end tidligere. Derudover kræver det mindre teknisk viden og research at udføre ret komplicerede og overbevisende cyberangreb, fordi så store dele kan automatiseres med AI.

Oveni hatten kommer det faktum, at virksomhedernes egne løsninger også bliver mere komplekse med AI. Ikke at kompleksitet er farligt i sig selv, men det kan give nogle sprækker i fundamentet, som kan udnyttes af ubehagelige typer. En chatbot, der henter indhold eksternt, kan manipuleres. En AI-agent kan få adgang til mere kritisk information end tilsigtet. Usikker AI-genereret kode kan blive implementeret, hvis der ikke er helt styr på review-processen.

Samlet set er det en farlig cocktail, man som virksomhed bør være meget opmærksom på. Så lad os se nærmere på, hvordan I bedst forbereder jer på en fremtid med AI-drevne cyberangreb.

Sådan arbejder vi med cybersikkerhed i Vertica
E-commerce uden cybersikkerhed er som en butik uden lås på døren. Hos Vertica er IT-sikkerhed en del af murstenene i de løsninger, vi bygger – og ikke noget vi først kobler på til sidst. Derfor kan du stole på, at din forretning er godt beskyttet hos os. Både mod nutidens stigende krav og mod morgendagens trusler. Vi ved, at cybertruslerne hele tiden udvikler sig, og derfor skal sikkerheden selvfølgelig følge med.
Cybersikkerhed i Vertica
Grafisk illustration af ni bærbare computere i en cirkulær formation, hvor en af dem har et grønt sikkerhedssymbol og de øvrige har røde advarselssymboler, der repræsenterer cybersikkerhed og beskyttelse af data.
4 spørgsmål vi ofte får om it-sikkerhed i e-commerceLæsetid 6 min.

Byg it-sikkerheden ind i murstenene

Når cyberangreb bliver hurtigere og mere overbevisende, skal forsvaret være bedre forankret i selve arkitekturen. Det gør man bedst ved at skabe klarhed, struktur og en organisation, der ved, hvordan man arbejder sikkert med teknologi og AI.

Det starter med overblik.

Mange virksomheder har allerede AI (og andre værktøjer) i mange af deres systemer, uden at nogen helt har kortlagt hvor, hvordan og med hvilke rettigheder. Det er svært at beskytte noget, man ikke kan se. Derfor er første skridt at forstå jeres eget landskab: Hvilke AI-funktioner har adgang til hvilke data? Hvem bruger eksterne værktøjer? Og hvor flyder informationen hen på tværs af platforme?

Dernæst kommer identitetssikkerheden.

I dag går hackere langt oftere efter mennesker end efter tekniske huller. Så adgangsdesign, bedre overvågning af login-adfærd og et minimum af “superbrugere” kan ofte gøre en større forskel for mange virksomheder end endnu et lag sikkerhedssoftware. Her er det vigtigt at uddanne sine medarbejdere, så de kan genkende AI-genereret phishing, vide hvad en deepfake kan bruges til, og kende forskellen på en hurtig forespørgsel og en mistænkelig én. Det handler om at gøre det let for medarbejdere at gøre det rigtige – og svært for alle andre at komme igennem.

Så er der selve designet af løsningerne.

Når AI bliver en del af arkitekturen, skal sikkerheden følge med. Det betyder klare grænser for, hvad AI-komponenter må, hvordan de integreres, og hvordan deres output bliver kontrolleret. En agent behøver ikke adgang til hele systemet, bare fordi det er teknisk muligt. Og AI-genereret kode skal gennemgås grundigt, præcis som hvis en hvilken som helst anden udvikler havde skrevet det. Man skal være knivskarp på, at den kode, der bliver produceret, lever op til interne og eksterne sikkerhedskrav.

AI kan også bruges til forsvar.

Ligesom hackerne kan bruge AI til at øge hastigheden på sine angreb, kan man også bruge AI til at matche tempoet på forsvarssiden. AI kan overvåge systemer i realtid, genkende unormale mønstre og reagere hurtigere end en menneskelig analytiker. Den kan hjælpe med at isolere systemer, når noget går galt, og endda forudsige, hvor angreb sandsynligvis vil ramme. Så det er værd at overveje, om I skal bruge AI til at bekæmpe AI.

Til sidst er der det organisatoriske.

 AI (og tech generelt) i organisationen fungerer bedst, når alle ved, hvad der gælder. Hvilke værktøjer der er godkendt, hvad der må deles, og hvor grænsen går, når kundedata er i spil. Det giver både tryggere løsninger og mere plads til innovation, fordi ingen behøver gætte på, hvad de må.

Det bedste forsvar mod AI-understøttede cyberangreb handler derfor grundlæggende om at skabe større opmærksomhed omkring sikkerhed og tænke det ind som en del af designet, når man bygger sin IT-arkitektur og sine digitale løsninger.

Det er der som sådan ikke nogen revolution i, for det har længe været vores anbefaling til god it-sikkerhed. AI har bare gjort det mere relevant og akut end tidligere, fordi hackernes metoder med et snuptag er blevet mere sofistikerede og sværere at afkode. Trusselsniveauet er ganske enkelt blevet højere. Derfor kræver det god forberedelse og god intern uddannelse, at holde hackerne fra fadet.


Så hvor efterlader det os?

Angrebet med Claude var ikke en isoleret hændelse. Det var en markør for en ny virkelighed inden for cyber security, hvor angreb udføres med samme teknologier, som vi selv bruger til at skabe værdi. 

Overordnet set ændrer AI ikke selve spillet, men det ændrer tempoet og præcisionen hos dem, der gerne vil snyde os. Derfor er der brug for en ny version af den disciplin, vi altid har kendt inden for it-sikkerhed: Sund fornuft, stærke strukturer og et vågent øje på de steder, hvor data og mennesker mødes.

Når vi først får styr på landskabet, adgangene, arkitekturen og den interne uddannelse, står vi langt stærkere. Ikke kun mod AI-drevne angreb, men mod hele det moderne trusselsbillede af cyberangreb.

Og måske er det den vigtigste pointe: AI gør hackerne bedre. Men den gør også os bedre, hvis vi bruger den rigtigt. Det er stadig os, der bestemmer, hvordan vores digitale forretning skal bygges, og hvor svært det skal være at bryde ind.

Fremtiden bliver hurtigere, mere automatiseret og mere kreativ. Derfor skal vores sikkerhed være det samme. Gennemtænkt, til stede og lige så velbygget som resten af vores digitale butik.