Skip to content

AI Ordbog

Forstå de vigtigste AI-begreber. Fra strategi til teknologi.

Ingen begreber matcher din søgning.

En åben kommunikationsprotokol, der lader AI-agenter fra forskellige leverandører og frameworks samarbejde og udveksle information på tværs af platforme.

Læs mere →

Et netværk af mange uafhængige AI-agenter, der samarbejder decentralt om at løse komplekse, storskalerede opgaver.

Læs mere →

AI-systemer, der har en grad af handlekraft (agency) – de kan planlægge, træffe beslutninger og udføre handlinger autonomt for at nå et mål.

Læs mere →

En ny handelsform, hvor AI-agenter selvstændigt researscher, sammenligner og gennemfører køb på vegne af forbrugere eller virksomheder.

Læs mere →

Disciplinen og de processer, der sikrer kontrol, overvågning og ansvarlighed på tværs af en virksomheds fleet af autonome AI-agenter.

Læs mere →

Skaleringsmetode hvor AI-agenter interagerer med andre agenter og værktøjer for at løse komplekse opgaver – en ny fase ud over traditionel træning og inferens.

Læs mere →

Paraplybetegnelsen for maskiner og systemer, der kan udføre opgaver, som normalt kræver menneskelig intelligens (f.eks. problemløsning og mønstergenkendelse).

Læs mere →

Et autonomt AI-system, der ikke bare svarer på spørgsmål, men aktivt kan udføre handlinger i andre softwaresystemer.

Læs mere →

En platform eller markedsplads, hvor virksomheder kan finde, sammenligne og implementere specialiserede AI-agenter til specifikke forretningsopgaver.

Læs mere →

Fælles standarder og protokoller, der sikrer, at AI-agenter fra forskellige leverandører kan kommunikere sikkert og arbejde sammen.

Læs mere →

En sporbar log over beslutninger, modelversioner, træningsdata og ændringer, der gør det muligt at revidere et AI-system.

Læs mere →

En økonomisk begrundelse for et AI-projekt, der afvejer implementeringsomkostninger mod forventet ROI, tidsbesparelser og øget omsætning.

Læs mere →

Et tværfagligt team, der driver AI-strategi, standarder, governance og best practice på tværs af virksomheden.

Læs mere →

Den praktiske proces med at sikre, at en virksomheds brug af AI lever op til gældende love, regler og branchestandarder – herunder EU AI Act.

Læs mere →

Automatisering af indholdsproduktion (tekst, billeder, video) til SEO, sociale medier og e-mail marketing ved hjælp af generativ AI.

Læs mere →

En samlet infrastruktur, der automatiserer hele livscyklussen for AI-træningsdata – fra generering og augmentering til kvalitetskontrol og evaluering i stor skala.

Læs mere →

Et datacenter specifikt designet og optimeret til at træne og køre AI-modeller i stor skala – en fabrik, der producerer intelligens.

Læs mere →

Det interne regelsæt, framework og processer en virksomhed sætter op for at sikre, at AI udvikles og bruges etisk, sikkert og lovligt.

Læs mere →

Algoritmer der automatisk vurderer og rangerer indkomne leads, ofte integreret direkte i CRM-systemer som HubSpot.

Læs mere →

Det generelle vidensniveau i organisationen om, hvad AI kan og ikke kan, så ledere og medarbejdere kan træffe kvalificerede beslutninger.

Læs mere →

Brug af AI til at automatisere, optimere og tidsindstille marketingkampagner på tværs af kanaler.

Læs mere →

AI-systemers evne til at huske kontekst, præferencer og tidligere samtaler på tværs af sessioner – i modsætning til traditionelle stateless modeller.

Læs mere →

Den måde en virksomhed organiserer roller, ansvar, processer og teknologier omkring AI, så det bliver en integreret del af forretningen.

Læs mere →

Styring og koordinering af flere AI-komponenter og workflows (f.eks. RAG, agenter, API-kald) i én samlet løsning.

Læs mere →

En vurdering af, hvor klar en virksomhed er til at implementere AI – målt på data, infrastruktur, kultur og kompetencer.

Læs mere →

Et kontrolleret testmiljø oprettet af en national myndighed, hvor virksomheder kan udvikle og afprøve innovative AI-systemer under myndighedstilsyn – før de lanceres på markedet.

Læs mere →

Den systematiske proces med at identificere, vurdere og mitigere risici ved AI – fra datasikkerhed og bias til regulatoriske konsekvenser.

Læs mere →

En konkret plan, der beskriver virksomhedens AI-rejse over 12–36 måneder – fra pilotprojekter til fuld skalering.

Læs mere →

AI-værktøjer, der hjælper sælgere med at forberede møder, skrive mails, opsummere kundekald og foreslå næste skridt.

Læs mere →

Et lukket, sikkert testmiljø, hvor medarbejdere kan eksperimentere med AI-værktøjer uden risiko for at lække data til internettet.

Læs mere →

En samlet desktop- eller mobilapplikation, der kombinerer flere AI-værktøjer – chat, kodning, browsing og agenter – i én fælles grænseflade.

Læs mere →

Inddelingen af AI-systemer i risikoniveauer (uacceptabel, høj, begrænset, minimal risiko) ifølge EU AI Act.

Læs mere →

AI Tooling Layer

Det lag af specifikke værktøjer og plugins, som giver en AI-agent evnen til at udføre handlinger i eksterne systemer.

Uddyb begreb

Uden et tooling layer er en AI bare en avanceret samtalepartner i en kasse. Tooling-laget er der, hvor magien sker – det giver agenten 'arme og ben' i form af adgang til en web-browser, en lommeregner, adgang til at sende mails eller API-kald til at opdatere kundestatus i HubSpot.

Processen hvor en virksomhed integrerer AI i kerneprocesser for at ændre og optimere forretningsmodellen.

Læs mere →

Det systematiske arbejde med at måle, dokumentere og optimere den forretningsværdi, som AI-løsninger faktisk skaber efter go-live.

Læs mere →

Teknikker, der gør det muligt for AI-agenter automatisk at kontrollere rigtigheden af deres egne svar og handlinger.

Læs mere →

Princippet om at en organisation eller nation bevarer kontrol over sine AI-systemer, data og infrastruktur – uafhængigt af udenlandske leverandører og cloud-platforme.

Læs mere →

Indbyggede fordomme eller skævheder i en AI-model, oftest opstået fordi træningsdataen var mangelfuld eller forudindtaget.

Læs mere →

Praksissen med at designe og implementere AI med fokus på etik, gennemsigtighed og fairness.

Læs mere →

Koden der gør det muligt for to systemer (f.eks. HubSpot og en LLM) at tale sammen og udveksle data.

Læs mere →

Brug af AI til automatisk at transskribere salgskald eller kundeservice-samtaler og udtrække nøgleemner, sentiment og næste skridt.

Læs mere →

En prompting-teknik, der beder AI'en om at tænke højt og forklare sine mellemregninger trin-for-trin, før den giver det endelige svar.

Læs mere →

Organisatoriske tiltag, træning og kommunikation, der skal til for at medarbejdere accepterer og bruger nye AI-løsninger i praksis.

Læs mere →

Processen hvor lange dokumenter brydes ned i mindre, meningsfulde bidder (chunks), før de lægges ind i en AI's database.

Læs mere →

AI-modeller, der identificerer kunder, som er i høj risiko for at opsige deres abonnement eller forlade virksomheden, før det sker.

Læs mere →

AI-modeller, der forstår og kan arbejde på tværs af flere forskellige medietyper, såsom tekst, billeder, lyd og video på samme tid.

Læs mere →

AI-tjenester leveret via internettet fra store udbydere (som Google Cloud eller Azure), som kræver minimal lokal infrastruktur.

Læs mere →

En tilgang, der kombinerer flere AI-teknikker – fx machine learning, videngrafer, NLP og regelbaserede systemer – i én samlet løsning for at håndtere komplekse forretningsproblemer.

Læs mere →

En sikkerhedsteknologi, der beskytter data, mens den aktivt behandles af AI-modeller, ved at køre beregninger i krypterede hardware-enklaver.

Læs mere →

Den formelle proces hvor virksomheden får vurderet, om et højrisiko AI-system lever op til kravene i AI Act, før lancering.

Læs mere →

En tilgang til AI-sikkerhed, hvor modellen styres af et sæt nedskrevne principper ('en forfatning') og i høj grad evaluerer sig selv frem for udelukkende at afhænge af menneskelig feedback.

Læs mere →

Disciplinen at designe og styre den kontekst – data, instruktioner og hukommelse – som en AI-model modtager for at sikre præcise og relevante svar.

Læs mere →

Den maksimale mængde tekst (input + historik), en LLM kan 'have i hovedet' på én gang.

Læs mere →

Avancerede chatbots og stemmeassistenter, der kan føre naturlige, dynamiske samtaler med kunder i stedet for at følge fastlagte regelsæt.

Læs mere →

En AI-assistent, der arbejder side om side med en menneskelig bruger for at øge produktiviteten, men kræver brugerens konstante styring.

Læs mere →

En samlet, AI-beriget visning af kundens historik, adfærd og præferencer på tværs af systemer (CRM, support, marketing).

Læs mere →

Ændringer i inputdataenes fordeling over tid, som kan gøre eksisterende modeller mindre pålidelige.

Læs mere →

Krav til kvalitet, repræsentativitet og dokumentation af de datasæt, der bruges til at træne, validere og teste AI-modeller.

Læs mere →

De automatiserede flows, der indsamler, renser, transformerer og leverer data til AI-modeller.

Læs mere →

Når angribere bevidst forurener træningsdata eller RAG-dokumenter, så AI-modellen lærer forkerte mønstre.

Læs mere →

Beskyttelse af personoplysninger (GDPR) i forbindelse med indsamling af træningsdata og input/output i AI-modeller.

Læs mere →

En avanceret form for Machine Learning inspireret af den menneskelige hjerne (neurale netværk), som bruges til komplekse opgaver som billed- og talegenkendelse.

Læs mere →

Sikkerhedsstrategi hvor flere lag af beskyttelsesforanstaltninger kombineres for at reducere risikoen ved AI-systemer – frem for at stole på én enkelt sikkerhedsmekanisme.

Læs mere →

En virtuel kopi af et fysisk objekt, system eller proces, der opdateres med realtidsdata og bruges til simulering, overvågning og optimering.

Læs mere →

En nyere metode til at tilpasse AI-modellers adfærd efter menneskelige præferencer – enklere og mere stabil end den ældre RLHF-tilgang.

Læs mere →

Indhold på website eller e-mail, der ændres automatisk baseret på brugerens adfærd og profil, drevet af AI.

Læs mere →

AI-beregninger, der foregår direkte på den lokale enhed (f.eks. en smartphone, en maskine i produktionen eller en bil) frem for i skyen.

Læs mere →

Numeriske repræsentationer af tekst, billeder eller andre objekter i et flerdimensionelt rum.

Læs mere →

Betegnelsen for AI-løsninger, der er designet til hele organisationen – på tværs af afdelinger, systemer og processer – med fokus på skalerbarhed, governance og forretningsværdi.

Læs mere →

EUs lovgivning om kunstig intelligens (træder fuldt i kraft i 2026), som inddeler AI-systemer i risikoklasser og stiller strenge krav til transparens.

Læs mere →

Evaluation Harness / Eval Suite

Et automatiseret test-setup, der systematisk evaluerer kvaliteten, nøjagtigheden og sikkerheden af en AI-models output.

Uddyb begreb

Man lancerer ikke forretningskritisk software uden at teste det. En Eval Suite er et bibliotek af hundredevis af foruddefinerede spørgsmål, man kører sin AI-model igennem, hver gang man har opdateret dens system prompt. Det sikrer, at opdateringen ikke har gjort modellen dårligere til at besvare andre typer spørgsmål.

AI-systemer, der er designet således, at mennesker kan forstå, hvordan og hvorfor AI'en traf en bestemt beslutning.

Læs mere →

Et centralt bibliotek for de data-features, som bruges på tværs af AI-modeller, så de kan genbruges.

Læs mere →

En metode til at træne AI-modeller på distribuerede datasæt uden at samle rå data ét sted – modellen rejser til dataene i stedet for omvendt.

Læs mere →

En prompting-teknik, hvor man giver AI'en et par eksempler på den ønskede opgave og output-format, før den skal løse selve opgaven.

Læs mere →

Processen hvor man tager en eksisterende AI-model og videre-træner den på virksomhedsspecifikke data.

Læs mere →

Kæmpestore, generelle AI-modeller (som GPT-4 eller Claude 3), der er trænet på enorme mængder data og danner basis for mange specifikke applikationer.

Læs mere →

Betegnelsen for de mest avancerede og kapable AI-modeller, som typisk trænes af de største AI-laboratorier med enorme mængder data og beregningskraft.

Læs mere →

En type AI, der kan skabe nyt indhold – tekst, billeder, kode eller lyd – baseret på de data, den er trænet på.

Læs mere →

En avanceret videreudvikling af RAG, der kombinerer semantisk søgning med vidensgrafer for at forstå komplekse relationer i data.

Læs mere →

Teknikken til at forankre en AI's svar i specifikke, verificerbare kilder for at forhindre opdigtede informationer (hallucinationer).

Læs mere →

En træningsmetode til store sprogmodeller, der forbedrer deres ræsonneringsevne ved at lade modellen generere flere løsninger og forstærke de bedste – uden behov for en separat evalueringsmodel.

Læs mere →

Regler og filtre omkring en LLM, der forhindrer uønsket adfærd – f.eks. læk af persondata eller diskriminerende output.

Læs mere →

Når en AI-sprogmodel opfinder fakta eller genererer selvsikre, men fuldstændig forkerte svar.

Læs mere →

Krav og praksis for at sikre, at mennesker overvåger og kan overrule vigtige AI-beslutninger – især i højrisiko-scenarier.

Læs mere →

Et systemdesign, hvor menneskelig dømmekraft, godkendelse eller feedback er integreret direkte i AI'ens arbejdsproces.

Læs mere →

En arkitekturtilgang, der kombinerer forskellige AI-modeller eller -implementeringsformer – typisk lokal (edge) og cloud-baseret AI – for at opnå den bedste balance mellem hastighed, sikkerhed og kapacitet.

Læs mere →

Brug af AI til at skræddersy indhold, produktanbefalinger og budskaber til den enkelte bruger i realtid.

Læs mere →

AI-systemer, der kan påvirke menneskers sikkerhed eller grundlæggende rettigheder (f.eks. AI til rekruttering eller kreditvurdering).

Læs mere →

Selve kørselstidspunktet hvor en AI-model tager imod input og genererer et output.

Læs mere →

AI-funktionalitet, der er så dybt integreret i eksisterende produkter og tjenester, at brugeren ikke aktivt oplever at interagere med AI.

Læs mere →

Den internationale standard for et ledelsessystem til ansvarlig brug af kunstig intelligens – AI's svar på ISO 27001 for informationssikkerhed.

Læs mere →

Metoder hvor en bruger bevidst manipulerer en AI til at bryde sine egne etiske og sikkerhedsmæssige retningslinjer.

Læs mere →

Et centraliseret, struktureret arkiv af virksomhedens interne viden, dokumenter og data, som AI-systemer kan tilgå.

Læs mere →

En teknik, hvor viden fra en stor, kompleks AI-model overføres til en mindre og hurtigere model, der bevarer det meste af den oprindelige kvalitet.

Læs mere →

Den tid det tager fra en bruger sender en forespørgsel, til AI’en returnerer et svar.

Læs mere →

Modeller der beregner sandsynligheden for, at et lead konverterer til kunde, baseret på adfærd, demografi og historik.

Læs mere →

Store sprogmodeller, der er trænet på enorme mængder tekstdata for at kunne forstå og generere menneskelignende sprog.

Læs mere →

Løbende logning af input, output og modelversioner, så man efterfølgende kan undersøge en AI-beslutning.

Læs mere →

En underkategori af AI, hvor systemer lærer og forbedrer sig fra data uden at være eksplicit programmeret til hver enkelt opgave.

Læs mere →

Et forskningsfelt inden for AI-sikkerhed, der handler om at forstå præcis, hvordan en AI-models interne neuroner og kredsløb producerer bestemte svar.

Læs mere →

En AI-arkitektur, hvor flere specialiserede undermodeller ('eksperter') samarbejder, og kun de mest relevante aktiveres for hver opgave.

Læs mere →

Et sæt praksisser og værktøjer, der automatiserer og standardiserer hele livscyklussen for ML-modeller.

Læs mere →

Et standardiseret dokumentationsark, der beskriver en AI-models formål, træningsdata, begrænsninger og testresultater – nu et lovkrav under EU AI Act for udbydere af generelle AI-modeller.

Læs mere →

En åben standard der forbinder AI-modeller med eksterne værktøjer, databaser og forretningssystemer – tænk på det som en universel adapter mellem AI og virksomhedens data.

Læs mere →

Processen hvor en AI- eller ML-model flyttes fra udviklingsmiljø til drift.

Læs mere →

Når en AI-models præcision falder over tid, fordi verden og data ændrer sig i forhold til dens træningsdata.

Læs mere →

Løbende overvågning af en AI-models performance i produktion for at opdage fejl, datadrift eller bias.

Læs mere →

En optimeringsteknik, der reducerer en AI-models størrelse og beregningskrav ved at sænke præcisionen af dens interne talrepræsentation.

Læs mere →

Et katalog over alle AI-modeller i organisationen, med versioner, ejerskab, performance-metrics og godkendelsesstatus.

Læs mere →

Beskyttelse af AI-modeller mod cyberangreb som model-tyveri, prompt injection, data poisoning og adversarial attacks.

Læs mere →

Et systemdesign, hvor flere specialiserede AI-agenter opererer sammen, ofte med hver deres specifikke rolle og værktøjer.

Læs mere →

En arkitektur hvor flere specialiserede AI-agenter samarbejder om en opgave for at opnå bedre resultater.

Læs mere →

NemoClaw

NVIDIAs sikkerhedsplatform for AI-agenter, der tilføjer sandboxing, adgangskontrol og privatlivsbeskyttelse til autonome AI-systemer i virksomheder.

Uddyb begreb

NemoClaw blev annonceret på NVIDIAs GTC 2026 og adresserer et af de største bekymringspunkter ved agentic AI: sikkerhed. Platformen kører AI-agenter i isolerede miljøer med kernelbaseret sandboxing og en "privacy router", der overvåger al kommunikation. For virksomheder, der ønsker at implementere autonome AI-agenter, løser NemoClaw udfordringen med at give agenter adgang til følsomme systemer uden at kompromittere datasikkerheden.

Nemotron

NVIDIAs familie af open source-sprogmodeller, designet til enterprise-brug med høj ydeevne og lav ressourceforbrug via Mixture of Experts-arkitektur.

Uddyb begreb

Nemotron 3 Super, lanceret ved GTC 2026, har 120 milliarder parametre i alt, men bruger kun 12 milliarder pr. forespørgsel takket være Mixture of Experts-teknik. Det gør modellen velegnet til komplekse multi-agent-scenarier, hvor man har brug for stærk ræsonnering uden enorme infrastrukturomkostninger. For virksomheder er Nemotron interessant, fordi den er open source og kan køres on-premise – vigtigt for organisationer med strenge krav til datasikkerhed og suverænitet.

AI-drevet anbefaling af den mest relevante næste handling overfor en kunde – f.eks. hvilket tilbud eller indhold der bør komme nu.

Læs mere →

NVIDIAs platform af præoptimerede containers, der gør det enkelt at deploye og køre AI-modeller i produktion på NVIDIA-hardware.

Læs mere →

Evnen til at overvåge, måle og forstå de indre processer i et AI-system i realtid for at sikre kvalitet, performance og sikkerhed.

Læs mere →

AI-systemer der kan forstå og behandle hundredvis af sprog, herunder underrepræsenterede sprog, uden separate modeller for hvert sprog.

Læs mere →

AI-løsninger, der hostes lokalt på virksomhedens egne servere frem for i skyen.

Læs mere →

AI-modeller, hvor kildekoden er frit tilgængelig, hvilket giver virksomheder stor frihed til at tilpasse og hoste dem lokalt.

Læs mere →

Et open-source værktøj/framework designet til at lade AI-agenter interagere dybt med digitale miljøer og udtrække data effektivt.

Læs mere →

Den software-infrastruktur, der binder forskellige AI-modeller, databaser, API'er og brugergrænseflader sammen til én fungerende løsning.

Læs mere →

En AI-agent, der kører kontinuerligt i baggrunden frem for kun at reagere på enkeltstående forespørgsler – altid tændt, altid klar.

Læs mere →

AI-systemer designet til at forstå og interagere med den fysiske verden – fra robotter og autonome køretøjer til industriel automatisering.

Læs mere →

Automatiserede processer, der fjerner eller slører personhenførbare oplysninger (PII) fra data, inden det sendes til en AI-model.

Læs mere →

AI der analyserer historiske data for at forudsige fremtidige begivenheder – f.eks. hvilke leads der er tættest på at købe.

Læs mere →

Teknik hvor man kæder flere prompts sammen i en sekvens, så output fra ét trin bliver input til næste.

Læs mere →

Kunsten at formulere præcise og effektive instruktioner (prompts) til en AI-model for at få det bedst mulige output.

Læs mere →

Et sikkerhedsangreb, hvor ondsindede instruktioner skjules i input for at få en LLM til at ignorere regler og udføre uønskede handlinger.

Læs mere →

En genbrugelig prompt-struktur med pladsholdere, som kan udfyldes dynamisk i workflows og integrationer.

Læs mere →

Et lille, afgrænset AI-projekt, der testes i praksis for at bevise, at teknologien fungerer og skaber værdi, før fuld udrulning.

Læs mere →

En metode, hvor man kobler en sprogmodel op på virksomhedens egne, lukkede data for at undgå hallucinationer.

Læs mere →

En ny kategori af AI-modeller, der er designet til at "tænke trin-for-trin" gennem komplekse problemer, i stedet for at generere svar med det samme.

Læs mere →

Kontrollerede tests, hvor eksperter bevidst forsøger at få en AI til at opføre sig skadeligt for at lukke sikkerhedshuller.

Læs mere →

Processen og infrastrukturen, der fremsøger relevant information fra en virksomheds vidensbase for at forsyne en AI-model med kontekst.

Læs mere →

Krav i EU AI Act om, at højrisiko AI-systemer skal have et dokumenteret risikostyringssystem, der løbende opdateres.

Læs mere →

En søgeteknik, hvor AI forstår betydningen bag et spørgsmål og ikke kun matcher eksakte keywords.

Læs mere →

Brugen af AI-værktøjer blandt medarbejdere uden formel godkendelse eller overvågning fra it-afdelingen.

Læs mere →

Mindre og mere specialiserede sprogmodeller, der kræver langt mindre regnekraft og data end de massive LLM'er.

Læs mere →

Den kollektive adfærd og problemløsningsevne, der opstår, når mange simple AI-agenter interagerer med hinanden.

Læs mere →

Styringen og koordineringen af en gruppe AI-agenter (en sværm) for at sikre, at de arbejder mod et fælles mål uden at spænde ben for hinanden.

Læs mere →

Kunstigt genereret data, der statistisk set minder om ægte data, men ikke indeholder nogen rigtige personoplysninger.

Læs mere →

Den overordnede instruktion, som sætter rammerne for, hvordan en sprogmodel skal opføre sig, før brugeren stiller spørgsmål.

Læs mere →

Technical Documentation (AI Act)

Den dokumentation virksomheden skal fremvise for et AI-system – herunder formål, datasæt, modeller, test og kontrolmekanismer.

Uddyb begreb

Myndighederne kan banke på og kræve bevis for compliance. Man skal have en 'brugsanvisning' på systemet, der beskriver systemarkitektur, hvilke datasæt det er trænet på, og resultaterne af præstations- og bias-tests. Dette kræver stor stringens i udviklingsafdelingen.

En generativ AI-teknologi, der skaber videosekvenser direkte fra tekstbeskrivelser – fra enkle animationer til realistiske filmklip.

Læs mere →

En indstilling i sprogmodeller, der styrer graden af tilfældighed og 'kreativitet' i AI'ens svar.

Læs mere →

En teknik hvor AI-modellen bruger ekstra beregningstid på at "tænke længere" over svære spørgsmål, frem for blot at svare med det samme – det forbedrer præcisionen markant.

Læs mere →

Den mindste byggeklods af tekst (typisk et ord eller en stavelse), som en sprogmodel læser og genererer.

Læs mere →

Når en LLM automatisk kan kalde eksterne værktøjer eller API’er for at udføre handlinger og hente live-data.

Læs mere →

Metoden til at vælge og rangere AI-brugsscenarier baseret på potentiel forretningsværdi, teknisk kompleksitet og risiko.

Læs mere →

En specialiseret database til at gemme numeriske vektor-repræsentationer (embeddings) af data, som muliggør semantisk søgning.

Læs mere →

Vera Rubin (NVIDIA GPU-arkitektur)

NVIDIAs næste generation af GPU-arkitektur efter Blackwell, designet til at levere op til 10 gange bedre energieffektivitet pr. AI-beregning.

Uddyb begreb

Vera Rubin bruger en ny CG-HBM-teknologi, der stabler hukommelse direkte på chippen, hvilket giver 3-4 gange højere AI-beregningsdensitet end forgængeren. For virksomheder betyder det lavere driftsomkostninger og mulighed for at køre mere avancerede AI-modeller i egne datacentre. Arkitekturen blev præsenteret på NVIDIAs GTC 2026 og forventes at sætte standarden for næste bølge af enterprise AI-infrastruktur.

En AI-assisteret udviklingsmetode, hvor man beskriver ønsket funktionalitet i naturligt sprog og lader AI generere koden – fokus flyttes fra at skrive kode til at styre resultatet.

Læs mere →

En AI-model, der opbygger en intern repræsentation af den fysiske verden og kan forudsige, hvordan objekter og miljøer opfører sig over tid.

Læs mere →

En sikkerhedsramme, der udvider Zero Trust-princippet til AI-systemer – ingen AI-komponent stoler automatisk på andre, og al adgang verificeres løbende.

Læs mere →

En AI-models evne til at udføre en opgave, den aldrig er blevet eksplicit trænet til eller har set eksempler på før.

Læs mere →