Hackere sælger en tjeneste, der omgår ChatGPT-begrænsninger til at skrive malware

banner, header, robot-1345490.jpg

ChatGPT-begrænsninger for oprettelse af ulovligt indhold er tilsyneladende lette at omgå.

Hackere har udtænkt en måde at omgå ChatGPTs begrænsninger og bruger den til at sælge tjenester, der giver folk mulighed for at oprette malware og phishing-e-mails, sagde forskere onsdag.

ChatGPT er en chatbot, der bruger kunstig intelligens til at besvare spørgsmål og udføre opgaver på en måde, der efterligner menneskelig output. Folk kan bruge det til at oprette dokumenter, skrive grundlæggende computerkode og gøre andre ting. Tjenesten blokerer aktivt anmodninger om at generere potentielt ulovligt indhold. Bed tjenesten om at skrive kode til at stjæle data fra en hacket enhed eller lave en phishing-e-mail, og tjenesten vil nægte og i stedet svare, at sådant indhold er “ulovligt, uetisk og skadeligt.”

Åbning af Pandoras æske

Hackere har fundet en enkel måde at omgå disse begrænsninger og bruger den til at sælge ulovlige tjenester i et underjordisk kriminalitetsforum, rapporterede forskere fra sikkerhedsfirmaet Check Point Research. Teknikken fungerer ved at bruge ChatGPT-applikationsprogrammeringsgrænsefladen API versionen snarere end den webbaserede grænseflade. ChatGPT gør API’en tilgængelig for udviklere, så de kan integrere AI-botten i deres applikationer. Det viser sig, at API-versionen ikke håndhæver begrænsninger for ondsindet indhold.

“Den nuværende version af OpenAI’s API bruges af eksterne applikationer (for eksempel integrationen af OpenAI’s GPT-3-model til Telegram-kanaler) og har meget få, hvis nogen anti-misbrugsforanstaltninger på plads,” forskerne skrev. “Som et resultat tillader det oprettelse af ondsindet indhold, såsom phishing-e-mails og malware-kode, uden de begrænsninger eller barrierer, som ChatGPT har sat på deres brugergrænseflade.”

En bruger i et forum sælger nu en tjeneste, der kombinerer API’en og Telegram-messaging-appen. De første 20 forespørgsler er gratis. Fra da af opkræves brugerne $ 5.50 for hver 100 forespørgsler.

Check Point Forskning

Check Point-forskere testede bypass for at se, hvor godt det fungerede. Resultatet: en phishing-e-mail og et script, der stjæler PDF-dokumenter fra en inficeret computer og sender dem til en angriber via FTP. En af fiduserne er at benytte Phisingbots.

Andre forumdeltagere sender i mellemtiden kode, der genererer ondsindet indhold gratis. “Her er et lille bash-script, der hjælper dig med at omgå begrænsningerne i ChatGPT for at bruge det til hvad du vil, herunder malware-udvikling ;),” skrev en bruger.

I sidste måned dokumenterede Check Point-forskere, hvordan ChatGPT kunne bruges til at skrive malware og phishing-meddelelser. Vi linker ikke til programmer og hacks der kan skade andre.

“I løbet af december – januar var det stadig nemt at bruge ChatGPT-webbrugergrænsefladen til at generere malware og phishing-e-mails (for det meste var bare grundlæggende iteration nok), og baseret på cyberkriminelles snak antager vi, at de fleste af de eksempler, vi viste, blev oprettet ved hjælp af web-brugergrænsefladen,” skrev Check Point-forsker Sergey Shykevich i en e-mail. “På det seneste ser det ud til, at anti-misbrugsmekanismerne hos ChatGPT blev væsentligt forbedret, så nu skiftede cyberkriminelle til dens API, som har meget mindre begrænsninger.”

Genereringen af malware og phishing-e-mails er kun en måde, hvorpå ChatGPT åbner en Pandoras æske, der kan bombardere verden med skadeligt indhold. Andre eksempler på usikre eller uetiske anvendelser er krænkelsen af privatlivets fred og generering af misinformation eller skoleopgaver. Selvfølgelig kan den samme evne til at generere skadeligt, uetisk eller ulovligt indhold bruges af forsvarere til at udvikle måder at opdage og blokere det på, men det er uklart, om de godartede anvendelser vil være i stand til at holde trit med de ondsindede.

Kilde: Ars Technica
Fotokredit: Pexels