OpenAI new skills

Indvirkning af kunstig intelligens på cybersikkerhed

Større skala og symbolske modeller er nødvendige, før AI og maskinindlæring kan imødekomme store udfordringer som at bryde de bedste krypteringsalgoritmer.

Vil kunstig intelligens blive klog nok til at vende op og ned på computersikkerheden? AI overrasker allerede kunstverdenen ved at producere mesterværker i enhver stil efter behov. Det er i stand til at skrive poesi, mens det graver mystiske fakta op i et stort lager. Hvis AI’er kan fungere som en bard, mens de leverer den omfattende kraft fra de bedste søgemaskiner, hvorfor kan de ikke også knuse sikkerhedsprotokoller?

Svarene er komplekse, hurtigt udviklende og stadig uklare. AI gør nogle dele af forsvaret af computere mod angreb lettere. Andre dele er mere udfordrende og giver måske aldrig efter for nogen intelligens, menneskelig eller kunstig. At vide, hvilket dog er svært. Den hurtige udvikling af de nye modeller gør det svært at sige, hvor AI vil eller ikke vil hjælpe med nogen sikkerhed. Den farligste erklæring kan være, “AI’er vil aldrig gøre det.”

Definition af kunstig intelligens og maskinlæring

Udtrykkene “kunstig intelligens” og “maskinlæring” bruges ofte om hverandre, men de er ikke de samme. AI refererer til teknologi, der kan efterligne menneskelig adfærd eller gå ud over den. Maskinindlæring er en delmængde af AI, der bruger algoritmer til at identificere mønstre i data for at få indsigt uden menneskelig indgriben. Målet med maskinlæring er at hjælpe mennesker eller computere med at træffe bedre beslutninger. Meget af det, der i dag omtales som AI i kommercielle produkter, er faktisk maskinlæring.

AI har styrker, der umiddelbart kan være nyttige for folk, der forsvarer systemer, og folk, der bryder ind. De kan søge efter mønstre i enorme mængder data og ofte finde måder at korrelere nye begivenheder med gamle.

Mange maskinlæringsteknikker er stærkt statistiske, og det samme er mange angreb på computersystemer og krypteringsalgoritmer. Den udbredte tilgængelighed af nye værktøjssæt til maskinel indlæring gør det nemt for angribere og forsvarere at afprøve algoritmerne. Angriberne bruger dem til at søge efter svagheder, og forsvarerne bruger dem til at holde øje med tegn på angriberne.

AI lever heller ikke op til forventningerne og fejler nogle gange. Det kan kun udtrykke, hvad der er i dets træningsdatasæt og kan være vanvittigt bogstaveligt, som computere ofte er. De er også uforudsigelige og ikke-deterministiske takket være deres brug af tilfældighed, som nogle kalder deres “temperatur”.

Eksempler på brug af cybersikkerhed for kunstig intelligens

Computersikkerhed er også mangefacetteret, og forsvarssystemer kræver opmærksomhed på mystiske grene af matematik, netværksanalyse og software engineering. For at gøre tingene mere komplicerede er mennesker en stor del af systemet, og det er vigtigt at forstå deres svagheder.

Feltet er også en blanding af mange subspecialiteter, der kan være meget forskellige. Hvad der fungerer på, siger at sikre et netværkslag ved at opdage ondsindede pakker, kan være ubrugeligt til hærdning af en hashalgoritme.

“Det er klart, at der er nogle områder, hvor du kan gøre fremskridt med AI’er,” siger Paul Kocher, administrerende direktør for Resilian, der har udforsket at bruge ny teknologi til at bryde kryptografiske algoritmer. “Til fejljagt og dobbeltkontrol af kode vil det være bedre end at fuzzing [processen med at introducere små, tilfældige fejl for at udløse fejl].”

Nogle finder allerede succes med denne tilgang. De enkleste eksempler involverer kodificering af gammel viden og genanvendelse af den. Conor Grogan, direktør hos Coinbase, bad ChatGPT om at tjekke en live-kontrakt, der kørte på Ethereum blockchain. AI kom tilbage med en kortfattet liste over svagheder sammen med forslag til løsning af dem.

Hvordan gjorde AI dette? AI’s mekanisme kan være uigennemsigtig, men den har sandsynligvis i en eller anden form været afhængig af offentlige diskussioner om lignende svagheder tidligere. Det var i stand til at stille den gamle indsigt op med den nye kode og producere en nyttig mangelliste over problemer, der skulle løses, alt sammen uden nogen brugerdefineret programmering eller vejledning fra en ekspert.

Microsoft begynder at kommercialisere denne tilgang. Den har trænet AI Security Copilot, en version af ChatGPT4 med grundlæggende viden om protokoller og krypteringsalgoritmer, så den kan reagere på prompter og hjælpe mennesker.

Nogle udnytter det dybe og brede reservoir af viden, der er indlejret i de store sprogmodeller. Forskere hos Claroty stolede på ChatGPT som en tidsbesparende hjælp med en encyklopædisk viden om kodning. De var i stand til at vinde en hackingkonkurrence ved hjælp af ChatGPT til at skrive den kode, der var nødvendig for at udnytte flere svagheder i koncerten.

Angribere kan også bruge AI’s evne til at forme og omforme kode. Joe Partlow, CTO hos ReliaQuest, siger, at vi ikke rigtig ved, hvordan AI’erne faktisk “tænker”, og denne uigennemskuelighed kan være nyttig. “Du kan se, at kodefuldførelsesmodeller som Codex eller Github Copilot allerede hjælper folk med at skrive software,” siger han. “Vi har allerede set malware-mutationer, der allerede er AI-genererede. Træning af en model på f.eks. de underhåndede C-konkurrencevindere kunne absolut bruges til at hjælpe med at udtænke effektive bagdøre.”

Nogle veletablerede virksomheder bruger AI til at lede efter netværksanomalier og andre problemer i virksomhedsmiljøer. De er afhængige af en kombination af maskinlæring og statistisk slutning for at markere adfærd, der kan være mistænkelig.

Brug af AI til at finde svagheder, bryde kryptering

Der er dog grænser for, hvor dybt disse scanninger kan se ind i datastrømme, især dem, der er krypteret. Hvis en hacker var i stand til at afgøre, hvilke krypterede pakker der er gode eller dårlige, ville de være i stand til at bryde den underliggende krypteringsalgoritme.

Det dybere spørgsmål er, om AI’er kan finde svaghed i de laveste, mest grundlæggende lag af computersikkerhed. Der har ikke været nogen større meddelelser, men nogle begynder at undre sig og endda spekulere i, hvad der måske eller måske ikke fungerer.

Der er ingen indlysende svar om dybere svagheder. AI’erne kan være programmeret til at opføre sig som mennesker, men nedenunder kan de være radikalt forskellige. De store modeller er samlinger af statistiske relationer arrangeret i flere hierarkier. De får deres fordele med størrelse, og mange af de seneste fremskridt er simpelthen kommet fra hurtigt at skalere antallet af parametre og vægte.

I deres kerne bruger mange af de mest almindelige tilgange til opbygning af store maskinlæringsmodeller store mængder lineær matematik, der kæder sekvenser af meget store matricer og tensorer sammen. Lineariteten er en afgørende del af algoritmen, fordi den gør noget af feedbacken mulig til træning.

De bedste krypteringsalgoritmer var dog designet til at være ikke-lineære. Algoritmer som AES eller SHA er afhængige af gentagne gange at kryptere dataene ved at sende dem gennem et sæt funktioner kendt som S-bokse. Disse funktioner blev omhyggeligt konstrueret til at være meget ikke-lineære. Endnu vigtigere sikrede algoritmernes designere, at de blev anvendt nok gange til at være sikre mod nogle velkendte statistiske angreb.

Nogle af disse angreb har meget til fælles med moderne AI’er. I årtier har kryptografer brugt store samlinger af statistikker til at modellere datastrømmen gennem en krypteringsalgoritme på stort set samme måde som AI’er modellerer deres træningsdata. Tidligere gjorde kryptograferne det komplekse arbejde med at finjustere statistikken ved hjælp af deres viden om krypteringsalgoritmerne.

Et af de mest kendte eksempler kaldes ofte differentiel kryptanalyse. Mens det først blev beskrevet offentligt af Adi Shamir og Eli Biham, sagde nogle af designerne til tidligere algoritmer som NISTs datakrypteringsstandard, at de forstod tilgangen og hærdede algoritmen mod den. Algoritmer som AES, der blev hærdet mod differentiel kryptanalyse, skulle være i stand til at modstå angreb fra AI’er, der implementerer meget af de samme lineære statistiske tilgange.

Der er dybere grundlæggende spørgsmål. Mange af de offentlige nøglealgoritmer er afhængige af tal med tusindvis af cifre med præcision. “Dette er lidt bare en implementeringsdetalje,” forklarer Nadia Heninger, en kryptograf ved UCSD, “Men det kan gå dybere end det, fordi disse modeller har vægte, der er flydere, og præcision er ekstremt vigtig.”

Mange maskinlæringsalgoritmer skærer ofte hjørner med præcision, fordi det ikke har været nødvendigt for succes på upræcise områder som menneskeligt sprog i en æra med sjusket, slangfyldt og proteisk grammatik. Dette betyder kun, at nogle af hyldeværktøjerne muligvis ikke passer godt til kryptanalyse. De generelle algoritmer kan tilpasses, og nogle udforsker allerede dette emne. (Se her og her.)

Større skala, symbolske modeller kan gøre AI til en større trussel

Et vanskeligt spørgsmål er dog, om massiv skala vil gøre en forskel. Hvis stigningen i magt har gjort det muligt for AI’erne at gøre store spring i tilsyneladende mere intelligente, vil der måske være en tærskel, der gør det muligt for AI at finde flere huller end de ældre differentielle algoritmer. Måske kan nogle af de ældre teknikker bruges til at guide maskinlæringsalgoritmerne mere effektivt.

Nogle AI-forskere forestiller sig måder at gifte sig med den store sprogmodels store magt med mere logiske tilgange og formelle metoder. Implementering af automatiserede mekanismer til ræsonnement om matematiske begreber kan være meget mere kraftfuld end blot at forsøge at efterligne mønstrene i et træningssæt.

“Disse store sprogmodeller mangler en symbolsk model for, hvad de faktisk genererer,” forklarer Simson Garfinkel, forfatter til The Quantum Age og sikkerhedsforsker. “Der er ingen grund til at antage, at sikkerhedsegenskaberne vil blive integreret, men der er allerede masser af erfaring med at bruge formelle metoder til at finde sikkerhedssårbarheder.”

AI-forskere arbejder på at udvide kraften i store sprogmodeller ved at pode dem med bedre symbolsk ræsonnement. Stephen Wolfram, for eksempel, en af udviklerne af Wolfram Alpha, forklarer, at dette er et af målene. “Lige nu har vi i Wolfram Language en enorm mængde indbygget beregningsviden om mange slags ting,” skrev han. “Men for et komplet symbolsk diskurssprog ville vi være nødt til at indbygge yderligere ‘beregninger’ om generelle ting i verden: Hvis et objekt bevæger sig fra A til B og fra B til C, flyttes det fra A til C osv.”

Whitfield Diffie, en kryptograf, der var banebrydende inden for offentlig nøglekryptografi, mener, at tilgange som denne med AI’er muligvis kan gøre fremskridt inden for nye, uudforskede områder af matematik. De tænker måske anderledes end mennesker til at være værdifulde. “Folk prøver at teste maskinmatematikere mod kendte teorier, hvor folk har opdaget masser af sætninger – sætninger, som folk beviste, og så af en type, folk er gode til at bevise,” siger han. “Hvorfor ikke prøve dem på noget som højere dimensionelle geometrier, hvor menneskelig intuition er elendig at se, om de finder ting, vi ikke kan?”

Områderne kryptanalyse er blot et af de er en lang række matematiske områder, der ikke er blevet testet. Mulighederne kan være uendelige, fordi matematikken i sig selv er uendelig. “Løst sagt, hvis en AI kan bidrage til at bryde ind i systemer, der er mere værd, end det koster, vil folk bruge det,” forudsiger Diffie. Det virkelige spørgsmål er hvordan.

Kilde: CSO

Foto: Pexels

Cybersikkerhed & Nyheder