Identifying and Mitigating the Security Risks of Generative AI
Produktbeskrivelse
Hver større teknologisk oppfinnelse bringer med seg dilemmaet om dobbeltbruk – den nye teknologien har potensial til å bli brukt både til gode og skadelige formål. Generativ AI (GenAI) metoder, som store språkmodeller (LLM) og diffusjonsmodeller, har vist bemerkelsesverdige evner innen områder som kontekstuell læring, kodekomplettering og generering samt redigering av bilder fra tekst. Imidlertid kan GenAI også utnyttes av angripere for å utvikle nye typer angrep og for å øke tempoet og effektiviteten i eksisterende trusler. Denne monografien rapporterer om funnene fra en workshop arrangert hos Google, i samarbeid med Stanford University og University of Wisconsin-Madison, som tar for seg det doble bruksdilemmaet som GenAI medfører. Arbeidet er ikke ment å være uttømmende, men er snarere et forsøk på å sammenfatte noen av de interessante funnene fra workshoppen. Både kortsiktige og langsiktige mål for fagmiljøet i forhold til dette emnet blir diskutert. Dette arbeidet skal fungere som et utgangspunkt for videre samtaler om dette viktige temat.