Skip to main content
AIDA Spring 2026
Toggle Dark/Light/Auto mode Toggle Dark/Light/Auto mode Toggle Dark/Light/Auto mode Back to homepage

05-LLM-API

Praktisk

Gang: 5 (24/4)

Tema: LLM API-integration

Indhold: Hvordan integrerer man en LLM i sin egen applikation. Vi arbejder med API-kald, promptstruktur, struktureret output, asynkron programmering og problemstillinger i forbindelse med dataintegration.

Output / portfolio: Mini-app der kalder et LLM-API fra egen backend med tilknyttet frontend eller Rest API klient. Dokumentation af API-integration og refleksion over udfordringer og muligheder.

Introduktion

Dagens tema handler om at bygge AI-drevne applikationer, hvor en sprogmodel bruges som en ekstern service via et API. I stedet for kun at arbejde med AI i et chatvindue skal vi se på, hvordan man integrerer en LLM i sin egen software, så den bliver en del af et rigtigt system med backend, endpoints, dataflow og brugergrænseflade.

Vi arbejder med, hvordan man sender system-prompts og user-prompts til en model, hvordan man modtager og bruger svaret i sin egen applikation, og hvordan man designer løsninger, der kan håndtere fejl, timeouts og uforudsigelige svar. Målet er ikke bare at få modellen til at skrive tekst, men at bygge en applikation, hvor LLM’en indgår som en funktionel komponent i en samlet softwareløsning.

Dagens opgave

Byg en AI-drevet applikation, der vurderer en opgave ud fra en rubric ved hjælp af et LLM-API.

  • Tjekliste med praktiske ting, du bør huske, når du udvikler applikationer med et LLM-API
  • Ordliste med centrale begreber og fagudtryk inden for LLM-integration
  • Integration og automatisering – anbefalinger til dataintegration, deduplikering og undgåelse af unødvendige LLM-kald