Hackere bruger ChatGPT til malware og falske pigeprofil bots der tikker penge
Kunstig intelligens giver akutte udfordringer for USA’s universiteter og skoler. Microsoft der ejer 49% af OpenAI har besluttet at indkluderer ChatGPT i Microsoft365, det vil sige f.eks. Word, Skype, Team Server og søgemaskinen BING. Fordi der er tale om en disruptiv teknologi, vil den vælte mange brancher f.eks. HR, Advokat, Revisor, Rådgivning, Parterapi og mange andre slags rådgivninger. inden længe kan man føre almindelige samtaler og skal ikke sidde og skrive.
ChatGPT og andre programmer er nemlig baseret på avanceret kunstig intelligens der har sat uddannelsessektoren i USA på den anden ende. Nogle steder modarbejder man de nye hjælpemidler, mens man andre steder priser man den nye teknologi. ChatGPT fungerer også på dansk. Nogenlunde sådan var det også da lommeregneren og computeren blev opfundet.
Ondsindet brug til Hacking, Snyd, Phishing og andet bedrageri
Hackere tester ChatGPT’s evne til at oprette kvindelige chatbots som en del af deres bestræbelser på at snyde mænd, der er tiltrukket af den digitale personlighed, der blot er et AI program. Det er blot en anvendelsesmulighed der kan betyde kriminalitet for milliarder af kroner.
Brugere på fora på Darknet og andre steder, begynder at dele malware kodet af OpenAI’s virale sensation, og dating-svindlere planlægger at skabe overbevisende falske pigeprofiler med værktøjet. Cyberprognosticatorer forudsiger, at mere ondsindet brug af ChatGPT vil komme. Allerede nu er facebook overvømmet med falske pigeprofiler. Nogle af dem bruger AI til at skrive med sine ofre.
Cyberkriminelle er begyndt at bruge OpenAI’s kunstigt intelligente chatbot ChatGPT til hurtigt at opbygge hackingsværktøjer, advarede cybersikkerhedsforskere fredag. Svindlere tester også ChatGPT’s evne til at opbygge andre chatbots designet til at efterligne unge kvinder for at fange mål, fortalte en ekspert, der overvåger kriminelle fora herunder darknet.
Mange tidlige ChatGPT-brugere havde slået alarm om, at appen, der blev viral i dagene efter lanceringen i december, kunne kode ondsindet software, der var i stand til at spionere på brugernes tastaturslag eller skabe ransomware. Det har vist sig at holde stik.
Det er blevet lettere at være hacker med ChatGPT
Darknet har endelig fået fat, ifølge en rapport fra det israelske sikkerhedsfirmaet Check Point. I et forumindlæg gennemgået af Check Point, en hacker, der tidligere havde delt Android malware fremvist kode skrevet af ChatGPT, der stjal filer af interesse, komprimerede dem og sendte dem over internettet. De viste et andet værktøj, der installerede en bagdør på en computer og kunne uploade yderligere malware til en inficeret pc.
I samme forum delte en anden bruger Python-kode, der kunne kryptere filer, og sagde, at OpenAI’s app hjalp dem med at bygge den. De hævdede, at det var det første manuskript, de nogensinde havde udviklet.
Som Check Point bemærkede i sin rapport, kan sådan kode bruges til helt godartede formål, men det kan også “let ændres til at kryptere en persons maskine helt uden brugerinteraktion”, svarende til den måde, hvorpå ransomware fungerer. Den samme forumbruger havde tidligere solgt adgang til hackede virksomhedsservere og stjålne data, bemærkede Check Point.
ChatGPT til bygning af APPS
En bruger diskuterede også emnet “misbrug ChatGPT” ved at få det til at hjælpe med at kode funktioner på et mørkt webmarked, der ligner narkotikabasarer som Silk Road eller Alphabay. Som et eksempel viste brugeren, hvordan chatbotten hurtigt kunne bygge en app, der overvågede kryptovaluta priser for et teoretisk betalingssystem.
Dating markedet med profilsvindel
Alex Holden, grundlægger af cyberintelligensfirmaet Hold Security, sagde, at han også havde set dating-svindlere begynde at bruge ChatGPT, da de forsøger at skabe overbevisende personaer. “De planlægger at oprette chatbots for at efterligne for det meste piger for at gå videre i chats med deres karakterer,” sagde han. “De forsøger at automatisere tomgangssnak.”
OpenAI havde ikke reageret på en anmodning om kommentar på tidspunktet for offentliggørelsen.
Mens de ChatGPT-kodede værktøjer så “temmelig grundlæggende ud”, sagde Check Point, at det kun var et spørgsmål om tid, før mere “sofistikerede” hackere fandt en måde at vende AI til deres fordel.
ChatGPT kan programmere Ransomware, Phishing og Malware
Rik Ferguson, vicepræsident for sikkerhedsefterretning hos det amerikanske cybersikkerhedsfirma Forescout, sagde, at det ikke så ud til, at ChatGPT endnu var i stand til at kode noget så komplekst som de store ransomware-stammer, der er set i betydelige hackinghændelser i de senere år, såsom Conti, berygtet for dets anvendelse i overtrædelsen af Irlands nationale sundhedssystem .
OpenAI’s værktøj vil dog sænke adgangsbarrieren for nybegyndere til at komme ind på det ulovlige marked ved at opbygge mere grundlæggende, men lignende effektiv malware, tilføjede Ferguson.
Han rejste en yderligere bekymring for, at ChatGPT i stedet for at opbygge kode, der stjæler ofrenes data, også kunne bruges til at hjælpe med at opbygge websteder og bots, der narrer brugere til at dele deres oplysninger.
Det kunne “industrialisere oprettelsen og personaliseringen af ondsindede websider, meget målrettede phishing-kampagner og social engineering-afhængige svindel,” tilføjede Ferguson.
Sergey Shykevich, der arbejder hos Check Point og som er trussel intelligens forsker, fortalte til Forbes at
ChatGPT vil være et “godt værktøj” for russiske hackere, der ikke er dygtige til engelsk til at lave legitime phishing-e-mails.
Hvad angår beskyttelse mod kriminel brug af ChatGPT, sagde Shykevich, at det i sidste ende og “desværre” skulle håndhæves med regulering. OpenAI har implementeret nogle kontroller, hvilket forhindrer åbenlyse anmodninger om ChatGPT til at opbygge spyware med advarsler om overtrædelse af politikker, selvom hackere og journalister har fundet metoder til, at omgå denne beskyttelse på. Shykevich sagde, at virksomheder som OpenAI muligvis skal være juridisk tvunget til at træne deres AI for at opdage sådant misbrug.
Læs også:
Kilde: Forbes
Fotokredit: Stock.adobe.com