Optimering af Context i Gemini CLI: Undgå Context Bloating
Når man arbejder med avancerede AI-agenter som Gemini CLI, er context vinduet din vigtigste, men også mest begrænsede ressource. Jo længere din session varer, og jo flere filer du indlæser, desto mere “fyldt” bliver agantens hukommelse (context bloating). Dette kan føre til højere omkostninger, langsommere svartider og i værste fald, at agenten begynder at miste overblikket.
Her er en guide til, hvordan du forstår, overvåger og strukturerer dit arbejde for at holde din session “lean”.
Forståelse af Context Vinduet
Hver gang du sender en besked til Gemini CLI, sendes hele din chathistorik, de indlæste filer og agentens systeminstruktioner med som “context”. Dette måles i tokens. Hvis du f.eks. læser en fil på 2000 linjer, bruger du mange tokens hver eneste gang, du efterfølgende stiller et spørgsmål, fordi filen nu er en del af sessionens faste hukommelse.
Sådan overvåger du dit forbrug
I Gemini CLI (REPL-tilstand) kan du bruge følgende kommandoer til at holde øje med, hvor tæt du er på grænsen:
/stats model: Viser det præcise antal tokens brugt i den nuværende session, herunder input, output og cached tokens./stats session: Giver dig metrics over sessionens varighed og antallet af værktøjskald (tool calls).- Token Caching: Gemini CLI bruger automatisk caching for at spare penge på gentagne data, men det fjerner ikke behovet for at styre den samlede mængde context.
Strategier til at undgå Context Bloating
For at undgå at din session bliver for tung, bør du anvende følgende strategier:
1. Brug af Sub-agents (Delegation)
Dette er den mest effektive metode til at holde din hovedsession ren. I stedet for at lade hovedagenten udføre alt det tunge arbejde, kan du delegere opgaver:
codebase_investigator: Brug denne til tung research og arkitektonisk forståelse. Resultatet leveres som et komprimeret resume til din hovedsession.generalist: Brug denne til batch-opgaver (f.eks. “opdater licens-headere i alle 50 filer”). Hele processen sker i en lukket context, og kun slutresultatet rapporteres tilbage.
2. Context Compression
Hvis din chathistorik er blevet meget lang, kan du bruge kommandoen:
/compress: Denne kommando opsummerer hele din hidtidige samtale til et kort resume og sletter den detaljerede historik. Det frigiver massive mængder tokens, mens agenten stadig ved, hvad I har gang i.
3. Sessions-isolering (Flere terminaler)
Hvis du arbejder på et stort projekt, er det en god idé at åbne flere terminaler på det samme repository:
- Terminal 1: Bruges til overordnet projektstyring og arkitektur.
- Terminal 2: Bruges til en specifik bugfix eller en isoleret komponent. Ved at isolere opgaverne i hver sin session undgår du, at context fra én opgave (f.eks. en stor logfil) “forurener” din anden opgave.
4. Kirurgiske ændringer (Surgical Edits)
Undgå at læse hele filer, hvis du kun skal bruge en lille del. Brug værktøjer som grep_search til at finde de relevante linjer, og læs kun de specifikke linjenumre med read_file. Jo mindre data du trækker ind i sessionen, desto længere kan den køre effektivt.
5. Brug af /rewind
Hvis du har haft en længere dialog, der endte i en blindgyde, så lad være med bare at fortsætte. Brug /rewind (eller tryk to gange på Esc) for at gå tilbage til et punkt, før fejlen skete. Det sletter de “ubrugelige” tokens fra din historik.
Best Practices Opsamling
- Research først: Brug
codebase_investigatortil at forstå koden, før du begynder at ændre den. - Hold pauser: Hvis en session føles tung, så gem den med
/resume save <navn>, og start en frisk session til den næste delopgave. - Vær specifik: Brug
@sti/til/filtil kun at inkludere de absolut nødvendige filer i dit prompt.
Ved at mestre disse teknikker sikrer du, at Gemini CLI forbliver hurtig, præcis og omkostningseffektiv, selv i store og komplekse codebases.
Denne artikel er skrevet med fokus på Gemini CLI version 1.x og nyere.
Kilder
- Google Gemini CLI GitHub Repository - Officiel open source kildekode og changelog for Gemini CLI-værktøjet.
- Google AI: Tokens and Context Window Documentation - Googles officielle forklaring af tokens, kontekstvinduer og bedste praksis for at holde forbruget effektivt.
- Anthropic: Long Context Best Practices - Sammenlignende perspektiv fra Anthropic om effektiv brug af store kontekstvinduer i LLM-agenter.
- Model Context Protocol (MCP): Specification - Den tekniske specifikation for MCP, det protokollag der muliggør Gemini CLI’s integration med eksterne værktøjer og reducerer kontekstsbelastning.
> Quiz: Test din viden
1. Hvad måles context-vinduet i Gemini CLI i?
2. Hvilken kommando komprimerer samtalen og frigiver tokens i Gemini CLI?
3. Hvad er fordelen ved at delegere arbejde til sub-agents?
4. Hvad sker med token-forbruget, når filer indlæses i context?