AI ordbog: Forstå alle AI-begreberne på dansk
AI-verdenen er fyldt med engelske forkortelser og tekniske udtryk. Jeg har samlet over 40 af de vigtigste begreber og forklaret dem på helt almindeligt dansk - så du altid kan slå op, når du støder på et nyt ord.
Når man læser om kunstig intelligens, kan det føles som at lære et helt nyt sprog. Hvad er en LLM? Hvad mener folk med "hallucination"? Og hvad er forskellen på machine learning og deep learning?
Denne ordbog er min samling af de AI-begreber, du oftest vil støde på. Hvert begreb er forklaret kort og i et sprog, der ikke kræver en teknisk baggrund. Brug bogstav-navigationen herunder for at hoppe direkte til det ord, du leder efter.
A
AGI (Artificial General Intelligence)
En hypotetisk form for AI, der kan forstå og lære enhver opgave, ligesom et menneske kan. I dag findes AGI ikke - de AI-systemer vi har, er gode til specifikke ting (f.eks. tekst eller billeder), men kan ikke alt. Tænk på det som forskellen mellem en lommeregner (dagens AI) og et menneske, der kan både regne, male og føre en samtale.
Algoritme (Algorithm)
En opskrift af trin, som en computer følger for at løse en opgave. Ligesom en madopskrift fortæller dig, hvad du skal gøre i hvilken rækkefølge, fortæller en algoritme computeren, hvordan den skal behandle data. Alle AI-systemer bygger på algoritmer.
API (Application Programming Interface)
En slags "stikkontakt", der lader forskellige programmer tale sammen. Når en app bruger ChatGPT i baggrunden, sker det via en API. Du behøver ikke forstå den tekniske del - bare tænk på det som en forbindelse mellem to systemer.
Automation (Automatisering)
Når en computer udfører opgaver automatisk, uden at et menneske behøver at gøre det manuelt. AI-automation kan f.eks. sortere e-mails, besvare kundehenvendelser eller generere rapporter. Læs mere om AI på arbejdspladsen.
B
Benchmark
En standardtest, der bruges til at sammenligne, hvor god en AI-model er i forhold til andre. Tænk på det som en eksamen - alle modeller får de samme spørgsmål, og så kan man se, hvem der klarer sig bedst. Populære benchmarks tester f.eks. matematik, kodning eller almen viden.
Bias (Skævhed)
Når en AI-model systematisk favoriserer bestemte grupper eller synspunkter, fordi dens træningsdata var skæve. Hvis en AI f.eks. kun er trænet på engelsksprogede tekster, vil den have bias mod angelsaksisk kultur. Bias er et af de største etiske spørgsmål inden for AI.
Big Data
Enorme mængder data, der er for store til at håndtere med traditionelle metoder. AI-modeller trænes typisk på big data - f.eks. milliarder af websider, bøger og artikler. Jo mere data, jo bedre kan modellen generelt lære mønstre.
Bot
Et program, der automatisk udfører opgaver. En chatbot er en bot, der fører samtaler. Bots kan være simple (følger faste regler) eller avancerede (bruger AI til at forstå og svare frit). Se også Chatbot nedenfor.
C
Chatbot
ChatGPT
OpenAIs populære AI-chatbot, der blev lanceret i november 2022 og startede den brede AI-revolution. ChatGPT kan skrive tekst, besvare spørgsmål, lave kode og meget mere. Jeg har skrevet en komplet ChatGPT-guide til begyndere.
Claude
En AI-assistent lavet af firmaet Anthropic. Claude er kendt for at være god til længere, nuancerede samtaler og for at være mere forsigtig med at give forkerte svar. Læs min guide til Claude.
Computer Vision (Computersyn)
AI der kan "se" og forstå billeder og video. Det bruges f.eks. til ansigtsgenkendelse på din telefon, selvkørende biler der genkender fodgængere, og medicinsk scanning der finder sygdomme på røntgenbilleder.
Copilot
Microsofts AI-assistent, der er bygget ind i Windows, Office og andre Microsoft-produkter. Copilot hjælper med at skrive tekst, lave præsentationer og analysere data. Se min guide til Copilot.
D
Data
Information i digital form - tekst, tal, billeder, lyd osv. Data er brændstoffet for al AI. Uden data kan en AI-model ikke lære noget. Kvaliteten af dataen er mindst lige så vigtig som mængden - dårlige data giver dårlige resultater.
Deep Learning (Dyb læring)
En avanceret form for machine learning, der bruger mange lag af kunstige neuroner (se Neural Network). "Deep" refererer til de mange lag. Deep learning er det, der har gjort moderne AI mulig - det driver alt fra billedgenkendelse til sprogmodeller som ChatGPT.
Deepfake
Falske billeder, videoer eller lyd, der er skabt med AI, og som ser helt ægte ud. En deepfake kan f.eks. vise en politiker sige noget, vedkommende aldrig har sagt. Det rejser store etiske bekymringer.
Diffusion Model (Diffusionsmodel)
En type AI-model, der genererer billeder ved gradvist at fjerne "støj" fra et tilfældigt mønster, indtil et klart billede dukker op. Tænk på det som en skulptør, der langsomt hugger en form ud af en marmorblok. Midjourney og DALL-E bruger denne teknologi.
E
EEAT (Experience, Expertise, Authoritativeness, Trustworthiness)
Googles retningslinjer for, hvad der gør indhold troværdigt: Erfaring, Ekspertise, Autoritet og Tillid. Selvom EEAT primært handler om SEO, er det relevant for AI, fordi AI-genereret indhold ofte mangler den personlige erfaring, som Google værdsætter.
Embedding (Indlejring)
En måde at omdanne tekst, billeder eller andre data til tal, som en AI kan arbejde med. Forestil dig, at hvert ord får en position i et kæmpe rum - ord med lignende betydning ligger tæt på hinanden. "Hund" og "kat" er tæt på hinanden, mens "hund" og "regneark" er langt fra hinanden.
Emergent Behavior (Emergent adfærd)
Når en AI-model pludselig kan noget, den ikke specifikt er trænet til. F.eks. opdagede forskere, at store sprogmodeller kunne løse matematikopgaver, selvom de primært var trænet på tekst. Det er lidt ligesom når et barn, der lærer at læse, pludselig også kan skrive ord, det aldrig har set før.
Ethical AI (Etisk AI)
Princippet om, at AI skal udvikles og bruges ansvarligt - uden at diskriminere, manipulere eller skade mennesker. Det handler om at sikre, at AI er fair, gennemsigtig og respekterer privatlivet. Læs mere i min artikel om AI og etik.
F
Few-shot Learning
Når du giver en AI et par eksempler i din besked, så den forstår, hvad du vil have. F.eks.: "Oversæt til dansk: Dog = Hund, Cat = Kat, Bird = ?". Modellen har kun brug for få eksempler (shots) for at forstå mønstret. Se også Zero-shot Learning. Lær mere om teknikken i min prompt-guide.
Fine-tuning (Finjustering)
At tage en færdigtrænet AI-model og træne den lidt ekstra på specifikke data, så den bliver bedre til en bestemt opgave. Det er som at tage en uddannet kok og give vedkommende et specialkursus i japansk madlavning. Modellen beholder sin generelle viden men bliver skarpere på det nye område.
Foundation Model (Grundmodel)
En stor, generel AI-model der er trænet på enorme mængder data og kan bruges som udgangspunkt for mange forskellige opgaver. GPT-4, Claude og Gemini er alle foundation models. Tænk på det som et fundament, man kan bygge mange forskellige huse ovenpå.
G
Gemini
Googles AI-model og chatbot (tidligere kaldet Bard). Gemini er bygget ind i Google-produkter som Søgning, Gmail og Docs. Læs min guide til Gemini.
Generativ AI (Generative AI)
AI der kan skabe nyt indhold - tekst, billeder, musik, kode eller video. I modsætning til traditionel AI, der analyserer data, producerer generativ AI noget, der ikke fandtes før. ChatGPT genererer tekst, Midjourney genererer billeder, og Suno genererer musik. Se oversigt over AI-værktøjer.
GPT (Generative Pre-trained Transformer)
Forkortelsen bag OpenAIs sprogmodeller (GPT-3, GPT-4 osv.). "Generative" = skaber nyt indhold. "Pre-trained" = trænet på forhånd med enorme mængder data. "Transformer" = den tekniske arkitektur (se Transformer). GPT er i dag nærmest synonymt med AI-chatbots, selvom det er et specifikt produkt fra OpenAI.
GPU (Graphics Processing Unit)
En specialiseret chip, der oprindeligt blev lavet til computergrafik, men som viste sig at være perfekt til AI-træning. GPUer kan lave tusindvis af beregninger samtidigt, hvilket gør dem ideelle til de enorme datamængder, AI kræver. Nvidia er den største producent af AI-GPUer.
Grounding
At forbinde en AI-models svar til faktiske, verificerbare kilder. Grounding reducerer risikoen for hallucinationer (se Hallucination) ved at lade modellen slå op i dokumenter eller databaser i stedet for kun at stole på sin træning.
H
Hallucination (Hallucination)
Når en AI selvsikkert præsenterer information, der er forkert eller opdigtet. F.eks. kan en chatbot opfinde en bog, der ikke eksisterer, eller citere en lov, der aldrig er vedtaget - og gøre det overbevisende. Det er en af de største udfordringer med nutidens AI, og derfor bør man altid faktatjekke vigtige svar.
Hyperparameter
Indstillinger, der kontrollerer, hvordan en AI-model trænes - men som ikke er noget, modellen selv lærer. Tænk på det som ovntemperaturen i en opskrift: den påvirker resultatet, men er ikke en ingrediens. Eksempler er læringsrate (hvor hurtigt modellen lærer) og antal træningsrunder.
I
Image Generation (Billedgenerering)
AI der skaber billeder ud fra tekstbeskrivelser. Du skriver f.eks. "en kat der rider på en skateboard i solnedgangen", og AI-en genererer et billede af det. Populære værktøjer inkluderer Midjourney, DALL-E og Stable Diffusion.
Inference (Inferens)
Når en færdigtrænet AI-model faktisk bruges til at give svar eller lave forudsigelser. Træning er "skolen", inference er "jobbet bagefter". Hver gang du skriver til ChatGPT og får et svar, udføres inference. Det kræver færre ressourcer end træning, men stadig betydelig computerkraft.
J
Jailbreak
Et forsøg på at omgå en AI-models sikkerhedsregler ved at bruge kreative formuleringer i sine beskeder. F.eks. at bede ChatGPT om at "lade som om" den er en AI uden begrænsninger. AI-firmaer arbejder konstant på at lukke disse huller.
JSON (JavaScript Object Notation)
Et standardformat til at strukturere data, som bruges overalt i AI-verdenen. Når AI-systemer sender data til hinanden (via APIer), bruges ofte JSON. Du støder på det, hvis du arbejder med AI-APIer eller avanceret prompt engineering.
K
Knowledge Base (Videnbase)
En struktureret samling af information, som en AI kan søge i for at give bedre svar. I stedet for kun at stole på sin træning kan AI-en slå op i en videnbase med opdaterede fakta, dokumenter eller virksomhedsdata. Relateret til RAG.
Knowledge Cutoff (Vidensgrænse)
Den dato, hvor en AI-models træningsdata stopper. Alt der er sket efter denne dato, ved modellen ikke noget om (medmindre den kan søge på nettet). F.eks. kan en model med cutoff i april 2024 ikke svare på, hvad der skete i juni 2024 - ligesom en bog, der blev trykt for et år siden, ikke indeholder denne uges nyheder.
L
Large Language Model (LLM) (Stor sprogmodel)
En AI-model der er trænet på enorme mængder tekst og kan forstå og generere menneskeligt sprog. GPT-4, Claude og Gemini er alle LLMer. De er "store" fordi de har milliarder af parametre (se Parameter) og er trænet på en betydelig del af internettets tekst. LLMer er grundlaget for moderne AI-chatbots.
LoRA (Low-Rank Adaptation)
En effektiv metode til at finjustere (se Fine-tuning) en stor AI-model uden at skulle ændre hele modellen. I stedet for at træne alle milliarder parametre træner LoRA kun et lille "tillæg". Det er som at sætte en specialiseret tilbygning på et eksisterende hus i stedet for at bygge et helt nyt.
M
Machine Learning (Maskinlæring)
En gren af AI, hvor computere lærer af data i stedet for at følge faste regler. I stedet for at programmere "hvis e-mailen indeholder X, er det spam", viser man modellen tusindvis af spam-mails, og den lærer selv mønstrene. Machine learning er det bredere felt, som deep learning og LLMer hører under. Læs mere om hvad AI er.
Midjourney
Et populært AI-værktøj til at generere billeder ud fra tekstbeskrivelser. Midjourney er kendt for sin kunstneriske stil og bruges af alt fra hobbykunstnere til professionelle designere. Læs min Midjourney-guide.
Model
I AI-sammenhæng er en model det færdige produkt, der kommer ud af træningsprocessen. Det er den "hjerne", der kan tage input (f.eks. din besked) og producere output (f.eks. et svar). GPT-4, Claude og Gemini er alle eksempler på modeller. Forskellige modeller har forskellige styrker og svagheder.
Multimodal
En AI, der kan arbejde med flere typer data på én gang - f.eks. tekst, billeder, lyd og video. GPT-4 er multimodal, fordi den kan forstå både tekst og billeder. Det er som forskellen mellem en person, der kun kan læse, og en person der kan læse, se billeder og lytte til musik.
N
Natural Language Processing (NLP) (Naturlig sprogbehandling)
AI-teknologi der gør det muligt for computere at forstå og arbejde med menneskeligt sprog. Alt fra stavekontrol og oversættelse til ChatGPTs evne til at føre samtaler er NLP. Det er grunden til, at du kan skrive til en AI på almindeligt dansk og få et fornuftigt svar.
Neural Network (Neuralt netværk)
En AI-struktur der er løst inspireret af den menneskelige hjerne. Den består af lag af kunstige "neuroner", der sender signaler til hinanden. Information går ind i det ene lag, behandles gennem mellemliggende lag, og kommer ud som et resultat i det sidste lag. Det er grundstrukturen i al moderne AI.
O
OpenAI
Firmaet bag ChatGPT, GPT-4 og DALL-E. OpenAI blev grundlagt i 2015 og blev verdenskendt, da de lancerede ChatGPT i 2022. Virksomheden er en af de mest indflydelsesrige aktører inden for AI-udvikling.
Output
Det resultat, en AI-model producerer. Når du skriver en besked til ChatGPT, er din besked "input", og svaret er "output". Output kan være tekst, billeder, kode, musik eller video, afhængigt af modellen.
Overfitting (Overtilpasning)
Når en AI-model bliver for god til sine træningsdata, men dårlig til nye data. Forestil dig en elev, der har lært alle svarene i en opgavesamling udenad, men ikke forstår principperne bag - og derfor dumper den rigtige eksamen. Overfitting er en klassisk fælde i machine learning.
P
Parameter
De interne "hjerner" i en AI-model - talværdier som modellen justerer under træning for at blive bedre. Når man siger, at GPT-4 har "over en billion parametre", betyder det, at modellen har billioner af justerbare tal, der tilsammen bestemmer, hvordan den svarer. Flere parametre betyder generelt en mere nuanceret model, men også mere computerkraft.
Perplexity
Både en AI-søgemaskine og et teknisk mål for, hvor "overrasket" en sprogmodel er over ny tekst. Som søgemaskine kombinerer Perplexity AI med internettet for at give kildebaserede svar. Som teknisk begreb bruges det til at måle, hvor god en model er til at forudsige tekst.
Prompt
Den besked eller instruktion, du giver til en AI. Dit prompt er det vigtigste værktøj til at styre AI-ens svar. Et godt prompt giver et godt svar, og et vagt prompt giver et vagt svar. Lær at skrive bedre prompts i min guide til AI-prompts.
Prompt Engineering
Kunsten at formulere sine beskeder til AI på den mest effektive måde. Det handler om at give klar kontekst, tildele roller, give eksempler og strukturere sine spørgsmål, så AI-en forstår præcis, hvad man vil have. Det er den vigtigste AI-kompetence for alle, der bruger AI-værktøjer i hverdagen.
R
RAG (Retrieval-Augmented Generation)
En teknik, hvor en AI først søger i specifikke dokumenter eller databaser, og derefter genererer et svar baseret på det, den har fundet. I stedet for kun at stole på sin træning, "slår den op" som en studerende der bruger sine noter til eksamen. RAG reducerer hallucinationer og giver mere præcise, opdaterede svar.
S
Sentiment Analysis (Stemningsanalyse)
AI der kan afgøre, om en tekst er positiv, negativ eller neutral. Bruges f.eks. til at analysere kundeanmeldelser, sociale medier eller nyhedsartikler. En virksomhed kan bruge sentiment analysis til at opdage, om kunderne generelt er glade eller frustrerede.
Supervised Learning (Overvåget læring)
En form for machine learning, hvor AI-en trænes med data, der allerede har de rigtige svar. Man viser modellen f.eks. tusindvis af billeder, der er markeret med "hund" eller "kat", og den lærer at kende forskel. Det er som at have en lærer, der fortæller eleven, hvad der er rigtigt og forkert. Se også Unsupervised Learning.
T
Temperature (Temperatur)
En indstilling der styrer, hvor kreativ eller forudsigelig en AI-models svar er. Lav temperatur (f.eks. 0.1) giver præcise, ensartede svar. Høj temperatur (f.eks. 0.9) giver mere kreative og varierende svar, men med større risiko for fejl. Tænk på det som forskellen mellem en regnskabsassistent (lav temperatur) og en kreativ skribent (høj temperatur).
Token
Den grundlæggende enhed, som AI-modeller arbejder med. Et token er typisk et ord eller en del af et ord. "Cykelreparation" kan f.eks. blive delt i to tokens: "Cykel" og "reparation". Antallet af tokens bestemmer, hvor lang en samtale kan være og hvad det koster at bruge en AI-model. Et dansk ord er typisk 1-3 tokens.
Training (Træning)
Processen, hvor en AI-model lærer fra data. Under træning justerer modellen sine milliarder af parametre for at blive bedre til at forudsige det rigtige svar. Træning af store modeller som GPT-4 tager måneder og koster millioner af kroner i strøm og computerkraft. Når træningen er færdig, kan modellen bruges til inference.
Transformer
Den tekniske arkitektur, der driver næsten al moderne AI. Opfundet af Google i 2017 i en berømt forskningsartikel kaldet "Attention is All You Need". Transformerens nøgleinnovation er "attention" - evnen til at forstå, hvilke dele af en tekst der er vigtige i forhold til hinanden. "T" i GPT står for Transformer.
Turing Test (Turing-testen)
En test foreslået af Alan Turing i 1950: Hvis en person chatter med en AI og ikke kan afgøre, om det er et menneske eller en maskine, har AI-en bestået testen. Moderne chatbots kan ofte narre folk i korte samtaler, men debat om testens relevans fortsætter blandt forskere.
U
Unsupervised Learning (Uovervåget læring)
Machine learning, hvor AI-en finder mønstre i data uden at have de rigtige svar på forhånd. Modellen grupperer og organiserer data selv. Forestil dig at sortere en bunke bøger uden at vide, hvilke kategorier der findes - du ville selv opdage mønstre som "krimier", "kogebøger" og "børnebøger". Se også Supervised Learning.
V
Vector Database (Vektordatabase)
En specialiseret database, der gemmer data som tal-vektorer (se Embedding), så AI-en hurtigt kan finde relateret information. Når du søger efter "gode restauranter i København", kan en vektordatabase finde resultater om "spisesteder i hovedstaden", selvom ordene er forskellige. Det er en nøgleteknologi bag RAG.
Z
Zero-shot Learning
Når en AI kan løse en opgave, den aldrig har set eksempler på. Du giver bare instruktionen uden eksempler, og modellen forstår, hvad du mener. F.eks. "Klassificér denne tekst som positiv eller negativ" - uden at vise eksempler først. Det er et tegn på, hvor god moderne AI er til at forstå sprog og kontekst. Se også Few-shot Learning.
Mangler der et begreb?
AI-verdenen udvikler sig konstant, og nye begreber dukker op hele tiden. Jeg opdaterer løbende denne ordbog, så den altid er aktuel. Hvis du savner et bestemt begreb, er du velkommen til at kontakte mig.
Er du helt ny i AI-verdenen? Så vil jeg anbefale at starte med min guide til hvad AI er eller gå direkte til at prøve ChatGPT.
Relaterede artikler
Hvad er AI?
Den komplette guide til kunstig intelligens forklaret på dansk.
ChatGPT-guide
Kom i gang med ChatGPT - fra det basale til avancerede tips.
AI Prompt-guide
Lær at skrive bedre prompts og få mere ud af AI-værktøjer.
AI-værktøjer
Oversigt over de bedste AI-værktøjer til forskellige opgaver.
Claude-guide
Alt om Anthropics AI-assistent Claude og hvad den kan.
Gemini-guide
Googles AI-model og chatbot - sådan bruger du den.