Fra 1. juni 2026 overgår AI-kodeassistenten til et forbrugsbaseret betalingssystem, hvor brugerne bliver opkrævet efter antal AI-tokens frem for faste abonnementer med næsten ubegrænset brug.
Det nye system introducerer såkaldte “GitHub AI Credits”, hvor input-, output- og cachede tokens bliver omregnet til kreditter afhængigt af den anvendte AI-model. GitHub oplyser, at én AI Credit svarer til 0,01 dollar.
Ændringen markerer et tydeligt opgør med den abonnementsmodel, som har domineret AI-værktøjer de seneste år. GitHub begrunder skiftet med stigende driftsomkostninger til moderne sprogmodeller og mere avancerede agent-baserede funktioner. Ifølge virksomheden er forskellen i ressourceforbrug mellem en simpel kodeforespørgsel og længere autonome AI-sessioner blevet for stor til, at den gamle model kan opretholdes.
For individuelle brugere vil Copilot-abonnementerne fortsat inkludere en månedlig mængde AI Credits, men når loftet er nået, skal der købes ekstra kapacitet. Tidligere kunne brugere ofte falde tilbage til billigere modeller efter at have ramt grænserne for avancerede forespørgsler. Den mulighed fjernes nu.
Virksomhedskunder får samtidig adgang til nye budget- og administrationsværktøjer, så organisationer kan overvåge og begrænse AI-forbrug på tværs af teams. GitHub forsøger dermed at gøre Copilot mere attraktivt for større virksomheder, hvor AI-omkostninger i stigende grad bliver et spørgsmål om økonomistyring og compliance.
Flere brancheanalytikere ser ændringen som et tegn på, at AI-industrien bevæger sig væk fra aggressive introduktionspriser og mod mere realistiske prismodeller. Tjenester som Cursor og Windsurf har allerede indført lignende tokenbaserede systemer, og GitHubs beslutning kan accelerere udviklingen i resten af markedet.
Reaktionerne blandt udviklere har været blandede. Nogle ser modellen som mere fair, fordi tunge brugere kommer til at betale mere end lejlighedsvise brugere. Andre frygter, at prissystemet vil gøre AI-værktøjer mindre forudsigelige og vanskeligere at budgettere med — især for freelancere og mindre udviklingsteams.
Samtidig understreger ændringen, hvor dyr generativ AI fortsat er at drive. Moderne kodeassistenter anvender store sprogmodeller med høje inferensomkostninger, særligt når værktøjerne arbejder autonomt på tværs af store kodebaser og flere filer samtidigt.
Kommentarer (0)
Vær den første til at skrive en kommentar!
Du skal være logget ind for at skrive en kommentar.
Log ind eller opret dig