tisdag 28 januari 2025

Risk för hallucinationer


Bild jag (?) skapat via Copilot.
Verksamheter som behandlar personuppgifter måste se till att uppgifterna är korrekta och om nödvändigt uppdaterade. Generativ AI skapar sina resultat baserat på statistiska sannolikheter, vilket innebär att den kan skapa innehåll som är faktamässigt felaktigt eller påhittat. Detta brukar kallas för hallucinationer. Det finns flera orsaker till varför ett AI-system kan hallucinera. Det kan exempelvis bero på hur grundmodellen har tränats, vilka parametrar som använts samt kvaliteten och mängden data som använts under träningen. 

Hallucinationer kan även uppstå på grund av hur frågor ställs till AI-systemet, då frågor avsiktligt eller oavsiktligt kan ställas på ett sätt som leder AI-systemet till att generera svar som innehåller hallucinationer. Den som använder ett generativt AI-system bör därför granska och kontrollera dess svar och inte utgå från att systemets utdata är korrekta och pålitliga.

(källa: IMY - Integritetsskyddsmyndigheten, f.d Datainspektionen)

Kritiskt tänkande och handlande är absolut avgörande i denna tid av tekniska innovationer, som uppstår som svampar ur jorden. 

Inga kommentarer:

Skicka en kommentar