I Finland har ett tragiskt knivdåd på en skola lett till diskussioner om hur AI-teknologi, specifikt ChatGPT, kan användas i kriminella sammanhang. Det är inte första gången som ett brott påstås ha planerats med hjälp av denna typ av artificiell intelligens.
Skoldådet i Finland och ChatGPT:s roll
Ett skoldåd i Birkala, Finland, där tre flickor skadades, antas ha planerats av en 16-åring med hjälp av ChatGPT. Manifestet som polisen har tagit del av tyder på att pojken använt chattboten under en sexmånadersperiod för att planera sitt brott. Enligt rapporter från Dagens ETC är detta fall ett av flera exempel på hur AI-teknologi har potential att utnyttjas i negativa syften.
Historiska exempel på brott och AI
ChatGPT är inte det första AI-verktyg som använts för att förbereda grova brott. I januari användes information från ChatGPT av en gärningsman i Las Vegas som utförde en sprängning utanför ett Trump-hotell. Denna individ sökte specifik information om explosiva ämnen och lagar relaterade till fyrverkerier, vilket visar på de risker som finns med en ouppsedd tillgång till kraftfull AI.
Utmaningar med säkerhetssystem
OpenAI, företaget bakom ChatGPT, har implementerat säkerhetsspärrar för att stoppa chattboten från att ge information om olagliga handlingar. Trots dessa åtgärder har det visat sig att användare fortfarande kan kringgå dessa säkerhetssystem genom att ställa frågor i snarlika formuleringar, vilket utgör en betydande risk.
Bristande kontroll och medvetenhet
Chalmersprofessorn Olle Häggström betonar att tech-företag kämpar med att säkra sina modeller. Han medger att det kan verka som om dessa AI-modeller “odlas” snarare än “byggs”, vilket gör det svårt att förutsäga och kontrollera slutresultatet. Trots dessa svårigheter kommer både myndigheter och rättsväsendet att kunna använda AI-teknologi, vilket leder till en komplex balans mellan fördelar och faror.
Frågor och svar
Hur används ChatGPT i kriminella syften?
ChatGPT har använts av brottslingar för att skaffa sig information som behövs för att planera och genomföra brott.
Vilka säkerhetsåtgärder har OpenAI infört?
OpenAI har infört säkerhetsspärrar för att förhindra chattboten från att svara på frågor om olagliga aktiviteter.
Är chattbotar helt säkra att använda?
Nej, det finns risker med att använda chattbotar som ChatGPT, särskilt om teknologin kan utnyttjas av personer med illvilliga avsikter.
Vilka risker innebär AI-teknologin generellt sett?
AI-teknologi, när den används utan rätt kontroller, kan leda till allvarliga konsekvenser såsom spridning av felaktig information eller till och med hjälp i planeringen av brott.
För mer information om hur AI-teknologi påverkar samhället och säkerhetsarbetet, besök Ny Teknik.

Anna Pettersson skriver om ny teknik, innovationer och digitala trender. Hon förklarar tekniska nyheter på ett enkelt sätt för både nybörjare och teknikintresserade.