Truslerne mod den nationale sikkerhed er kun lige begyndt i forhold til AI-chatbots
Da ChatGPT bragede ind på scenen, blev det hurtigt klart, at det rummer lige så mange trusler, som det gør underværker. Nationalstater rundt om i verden begynder at kæmpe med farerne ved chatbots, selvom de bekymrer sig om, hvad der kommer næste.
Det Britiske National Cyber Security Center (NCSC) udsendte for nylig en advarsel til sine vælgere om truslen fra kunstig intelligens (AI) mod Storbritanniens nationale sikkerhed. Dette blev kort efterfulgt af en lignende advarsel fra NSA’s cybersikkerhedsdirektør Rob Joyce. Det er klart, at der er stor bekymring fra mange nationer omkring de udfordringer og trusler, som AI udgør.
For at få et mere afrundet billede af farerne ved dårlige aktører, der bruger AI til at infiltrere eller angribe nationalstater, nåede jeg ud til branchen og fandt tanker og meninger, og ærligt talt nogle, der fravalgte diskussionen, i det mindste for nu.
NCSC advarede om, at forespørgsler arkiveres og dermed kan blive en del af den underliggende store sprogmodel (LLM) af AI-chatbots som ChatGPT. Sådanne forespørgsler kan afsløre områder af interesse for brugeren og i forlængelse heraf den organisation, de tilhører. Joyce hos NSA mente, at ChatGPT og dets ligesindede vil gøre cyberkriminelle bedre til deres job, især med en chatbots evne til at forbedre phishing-ordsprog, hvilket får det til at lyde mere autentisk og troværdigt for selv sofistikerede mål.
Hemmelig lækage gennem forespørgsler
Som på stikord afslørede Samsung, at de havde formanet deres medarbejdere om at bruge ChatGPT-funktionaliteten med omhu. En medarbejder ønskede at optimere et fortroligt og følsomt produktdesign og lade AI-motoren gøre sine ting – det fungerede, men efterlod også en forretningshemmelighed og inspirerede i sidste ende Samsung til at begynde at udvikle sin egen ML-software kun til intern brug.
I forbindelse med Samsung-hændelsen bemærkede CODE42 CISO Jadee Hanson, at eksplosionen af ChatGPT på trods af dens lovende fremskridt har antændt mange nye bekymringer vedrørende potentielle risici. “For organisationer intensiveres risikoen, når enhver medarbejder føder data ind i ChatGPT,” siger hun til CSO.
“ChatGPT og AI-værktøjer kan være utroligt nyttige og effektive, men medarbejderne skal forstå, hvilke data der er passende at lægge ind i ChatGPT, og hvad der ikke er, og sikkerhedsteams skal have ordentlig synlighed over, hvad organisationen sender til ChatGPT. Med alle nye kraftfulde teknologiske fremskridt kommer der risici, som vi er nødt til at forstå for at beskytte vores organisationer.
Kort sagt, når du trykker på “enter”, er oplysningerne væk og ikke længere under din kontrol. Hvis oplysningerne blev betragtet som en forretningshemmelighed, kan denne handling være tilstrækkelig til, at de ikke længere erklæres hemmelige. Samsung observerede, at “sådanne data er umulige at hente, da de nu er gemt på serverne, der tilhører OpenAI. I halvlederindustrien, hvor konkurrencen er hård, kan enhver form for datalækage betyde katastrofe for den pågældende virksomhed.
Det er ikke vanskeligt at ekstrapolere, hvordan sådanne forespørgsler, der stammer fra en regering, især den klassificerede informationsside af regeringen, kan bringe den nationale sikkerhed i fare.
AI ændrer alt
Tidligere i 2023 skitserede Dr. Jason Matheny, præsident og administrerende direktør for RAND Corporation, de fire primære områder, som hans organisation så som nationale sikkerhedsproblemer i vidnesbyrd for Homeland Security and Governmental Affairs Committee.
- Teknologierne drives af kommercielle enheder, der ofte er uden for vores nationale sikkerhedsrammer.
- Teknologierne udvikler sig hurtigt og overgår typisk politikker og organisatoriske reformer inden for regeringen.
- Vurderinger af teknologierne kræver ekspertise, der er koncentreret i den private sektor, og som sjældent er blevet brugt til national sikkerhed.
- Teknologierne mangler konventionelle intelligenssignaturer, der skelner godartet fra ondsindet brug, skelner forsætligt fra utilsigtet misbrug eller tillader tilskrivning med sikkerhed.
Det er ikke overdrivelse eller overdrivelse at sige, at AI vil ændre alt.
Den stigende frygt for AutoGPT
Jeg havde en omfattende diskussion med Rob Reiter, CTO for Sentra (som tidligere tjente inden for enhed 8200 inden for den israelske nationale forsvarsstyrke), hvor han kommenterede, at hans primære frygt vil blive fundet med fremkomsten af AutoGPT eller AgentGPT, AI-enheder, der kunne indsættes med GPT-motoren, der fungerer som en kraftmultiplikator – forbedrer angrebseffektiviteten ikke hundrede gange, men med mange tusindfold. En modstander giver AutoGPT opgaven og internetforbindelsen, og maskinen går og går (tænk Energizer Bunny), indtil den er færdig. Med andre ord fungerer malware alene. Med AutoGPT har modstanderen et værktøj, der kan være både vedholdende og skaleret.
Reiter er ikke alene. Patrick Harr, administrerende direktør for SlashNext, tilbød at hackere bruger ChatGPT til at levere en større mængde unikke, målrettede angreb hurtigere, hvilket skaber større sandsynlighed for et vellykket kompromis. “Der er to områder, hvor chatrobotter har succes i dag: malware og trusler mod kompromittering af forretningsmail (BEC),” siger Harr. “Cyberangreb er farligst, når de leveres hurtigt og hyppigt til specifikke mål i en organisation.”
Oprettelse af uendelige kodevariationer
ChatGPT gør det muligt for cyberkriminelle at lave uendelige kodevariationer for at være et skridt foran malwaredetekteringsmotorerne,” siger Harr. “BEC-angreb er målrettede forsøg på at manipulere et offer til at give værdifulde økonomiske oplysninger eller data. Disse angreb kræver personlige beskeder for at være vellykkede. ChatGPT kan nu oprette velskrevne, personlige e-mails i massevis med uendelige variationer. Hastigheden og hyppigheden af disse angreb vil stige og give en højere succesrate for brugerkompromiser og brud, og der har allerede været en betydelig stigning i antallet af rapporterede overtrædelser i første kvartal af 2023.
Derudover bemærkede Reiter, at chatbots evne til at efterligne mennesker er meget reel. Man bør forvente, at enheder som Internet Research Agency, der længe har været forbundet med russiske aktive foranstaltninger, specifikt misinformation og desinformation, arbejder overarbejde for at udvikle kapaciteter til at fange en bestemt persons tone, tenor og syntaks. Målgruppen ved måske, at dette er muligt, men når de konfronteres med indhold fra det virkelige individuelle og efterlignede indhold, hvem vil de tro på? Tillid står på spil.
Harr understregede, at det vil kræve sikkerhed drevet af lignende maskinlæring for at afbøde problemet: “Du er nødt til at bekæmpe AI med AI.”
Skal verden sætte udviklingen af AI-værktøjer på pause?
Advarsler fra sikkerhedsagenturer rundt om i verden ser ud til at stemme overens med et åbent brev underskrevet af mange, der har en hund i jagten, der opfordrer til en pause i udviklingen af AI-værktøjer. Men det ser ud til at være for sent til det, som det fremgår af en nylig høring i det amerikanske senats væbnede styrker om tilstanden af kunstig intelligens og maskinlæringsapplikationer til forbedring af forsvarsministeriets operationer, hvor konsensus var, at en pause fra USA ville være skadelig for landets nationale sikkerhed.
De, der vidnede, RANDs Matheny, Palantir CTO Mr. Shyam Sankar og Shift5 medstifter og administrerende direktør Josh Lospinoso, var enige om, at USA i øjeblikket har en fordel, og en sådan pause ville give fjendtlige nationer en mulighed for at indhente og skabe AI-modeller, som USA ville være hårdt presset til at forsvare sig mod. Når det er sagt, var der en universel opfordring til, at der blev foretaget kontrol med AI-teknologi fra dem, der vidnede, samt en topartsaftale i underudvalget.
Underudvalget opfordrede de tre til at samarbejde med andre efter eget valg og vende tilbage inden for 30 til 60 dage med anbefalinger om, hvordan regeringen skal se på regulering af AI inden for rammerne af beskyttelse af national sikkerhed. Man fornemmer fra samtalerne under høringen den 19. april, at man kan forvente, at AI-teknologier vil blive udpeget som teknologier med dobbelt anvendelse og falde ind under ITAR (International Traffic in Arms Regulations), som ikke forbyder internationalt samarbejde eller deling, men alligevel kræver, at regeringen har noget at skulle have sagt.
Kilde: CSO
Foto: Pexels