Velkommen til Windows Edge AI Udvikling - din omfattende guide til at bygge intelligente applikationer, der udnytter kraften af AI direkte på enheden ved hjælp af Microsofts Windows AI Foundry-platform. Denne guide er specielt designet til Windows-udviklere, der ønsker at integrere avancerede Edge AI-funktioner i deres applikationer og samtidig drage fordel af Windows' hardwareacceleration.
Windows AI Foundry repræsenterer en samlet, pålidelig og sikker platform, der understøtter hele AI-udviklerens livscyklus - fra modelvalg og finjustering til optimering og implementering på tværs af CPU, GPU, NPU og hybrid cloud-arkitekturer. Platformen demokratiserer AI-udvikling ved at tilbyde:
- Hardwareabstraktion: Problemfri implementering på AMD-, Intel-, NVIDIA- og Qualcomm-chips
- Intelligens på enheden: AI, der bevarer privatliv og kører udelukkende på lokal hardware
- Optimeret ydeevne: Modeller, der er forudoptimeret til Windows-hardwarekonfigurationer
- Klar til erhvervslivet: Produktionsklar sikkerhed og overholdelsesfunktioner
Windows Machine Learning (ML) gør det muligt for udviklere, der bruger C#, C++ og Python, at køre ONNX AI-modeller lokalt på Windows-pc'er via ONNX Runtime med automatisk styring af eksekveringsudbydere for forskellig hardware (CPU'er, GPU'er, NPU'er). ONNX Runtime kan bruges med modeller fra PyTorch, Tensorflow/Keras, TFLite, scikit-learn og andre frameworks.
Windows ML tilbyder en delt Windows-bred kopi af ONNX Runtime samt muligheden for dynamisk at downloade eksekveringsudbydere (EP'er).
Universel hardwareunderstøttelse Windows ML tilbyder automatisk hardwareoptimering på tværs af hele Windows-økosystemet, hvilket sikrer, at dine AI-applikationer fungerer optimalt uanset den underliggende chiparkitektur.
Integreret AI-runtime Den indbyggede Windows ML-inferensmotor eliminerer komplekse opsætningskrav, så udviklere kan fokusere på applikationslogik frem for infrastrukturproblemer.
Copilot+ PC-optimering Specialdesignede API'er til næste generations Windows-enheder med dedikerede Neural Processing Units (NPU'er), der leverer enestående ydeevne pr. watt.
Udviklerøkosystem Omfattende værktøjer, herunder Visual Studio-integration, detaljeret dokumentation og eksempler, der fremskynder udviklingsprocessen.
Ved at gennemføre denne Windows Edge AI-udviklingsguide vil du mestre de essentielle færdigheder til at bygge produktionsklare AI-applikationer på Windows-platformen.
Windows AI Foundry Ekspertise
- Forstå arkitekturen og komponenterne i Windows AI Foundry-platformen
- Naviger gennem hele AI-udviklingslivscyklussen inden for Windows-økosystemet
- Implementer sikkerhedsbedste praksis for AI-applikationer på enheden
- Optimer applikationer til forskellige Windows-hardwarekonfigurationer
API-integration
- Mestre Windows AI API'er til tekst-, vision- og multimodale applikationer
- Implementere Phi Silica sprogmodelintegration til tekstgenerering og ræsonnement
- Udrulle computer vision-funktioner ved hjælp af indbyggede billedbehandlings-API'er
- Tilpasse fortrænede modeller ved hjælp af LoRA (Low-Rank Adaptation)-teknikker
Foundry Local Implementering
- Gennemse, evaluere og implementere open source-sprogmodeller ved hjælp af Foundry Local CLI
- Forstå modeloptimering og kvantisering til lokal implementering
- Implementere offline AI-funktioner, der fungerer uden internetforbindelse
- Administrere modellivscyklusser og opdateringer i produktionsmiljøer
Windows ML Implementering
- Integrere brugerdefinerede ONNX-modeller i Windows-applikationer ved hjælp af Windows ML
- Udnytte automatisk hardwareacceleration på tværs af CPU-, GPU- og NPU-arkitekturer
- Implementere realtidsinferens med optimal ressourceudnyttelse
- Designe skalerbare AI-applikationer til forskellige Windows-enhedskategorier
Cross-Platform Windows Udvikling
- Bygge AI-drevne applikationer ved hjælp af .NET MAUI til universel Windows-implementering
- Integrere AI-funktioner i Win32-, UWP- og Progressive Web Applications
- Implementere responsive UI-designs, der tilpasser sig AI-behandlingsstatus
- Håndtere asynkrone AI-operationer med passende brugeroplevelsesmønstre
Ydeevneoptimering
- Profilere og optimere AI-inferensydelse på tværs af forskellige hardwarekonfigurationer
- Implementere effektiv hukommelsesstyring for store sprogmodeller
- Designe applikationer, der nedskalerer yndefuldt baseret på tilgængelige hardwarekapaciteter
- Anvende caching-strategier for ofte brugte AI-operationer
Produktionsklarhed
- Implementere omfattende fejlhåndtering og fallback-mekanismer
- Designe telemetri og overvågning for AI-applikationers ydeevne
- Anvende sikkerhedsbedste praksis for lokal AI-modelopbevaring og eksekvering
- Planlægge implementeringsstrategier for erhvervs- og forbrugerapplikationer
AI Applikationsarkitektur
- Designe hybride arkitekturer, der optimerer mellem lokal og cloud AI-behandling
- Evaluere afvejninger mellem modelstørrelse, nøjagtighed og inferenshastighed
- Planlægge dataflowarkitekturer, der bevarer privatliv og samtidig muliggør intelligens
- Implementere omkostningseffektive AI-løsninger, der skalerer med brugerbehov
Markedspositionering
- Forstå konkurrencefordele ved Windows-native AI-applikationer
- Identificere brugsscenarier, hvor AI på enheden giver overlegne brugeroplevelser
- Udvikle go-to-market-strategier for AI-forbedrede Windows-applikationer
- Positionere applikationer til at udnytte Windows-økosystemets fordele
Windows App SDK tilbyder omfattende eksempler, der demonstrerer AI-integration på tværs af flere frameworks og implementeringsscenarier. Disse eksempler er essentielle referencer til forståelse af Windows AI-udviklingsmønstre.
| Eksempel | Framework | Fokusområde | Nøglefunktioner |
|---|---|---|---|
| cs-winui | C# WinUI 3 | Windows AI API'er Integration | Komplet WinUI-app, der demonstrerer Windows AI API'er, ARM64-optimering, pakket implementering |
Nøgleteknologier:
- Windows AI API'er
- WinUI 3 framework
- ARM64 platformoptimering
- Copilot+ PC-kompatibilitet
- Pakket app-implementering
Forudsætninger:
- Windows 11 med anbefalet Copilot+ PC
- Visual Studio 2022
- ARM64 build-konfiguration
- Windows App SDK 1.8.1+
| Eksempel | Type | Fokusområde | Nøglefunktioner |
|---|---|---|---|
| CppConsoleDesktop | Console App | Grundlæggende Windows ML | EP-opdagelse, kommandolinjemuligheder, modelkompilering |
| CppConsoleDesktop.FrameworkDependent | Console App | Framework Implementering | Delt runtime, mindre implementeringsfodaftryk |
| CppConsoleDesktop.SelfContained | Console App | Selvstændig Implementering | Standalone implementering, ingen runtime-afhængigheder |
| CppConsoleDll | DLL | Biblioteksbrug | WindowsML i delt bibliotek, hukommelsesstyring |
| CppResnetBuildDemo | Demo | ResNet Tutorial | Modelkonvertering, EP-kompilering, Build 2025 tutorial |
Console Applikationer
| Eksempel | Type | Fokusområde | Nøglefunktioner |
|---|---|---|---|
| CSharpConsoleDesktop | Console App | Grundlæggende C# Integration | Delt hjælperbrug, kommandolinjegrænseflade |
| ResnetBuildDemoCS | Demo | ResNet Tutorial | Modelkonvertering, EP-kompilering, Build 2025 tutorial |
GUI Applikationer
| Eksempel | Framework | Fokusområde | Nøglefunktioner |
|---|---|---|---|
| cs-wpf | WPF | Desktop GUI | Billedklassifikation med WPF-grænseflade |
| cs-winforms | Windows Forms | Traditionel GUI | Billedklassifikation med Windows Forms |
| cs-winui | WinUI 3 | Moderne GUI | Billedklassifikation med WinUI 3-grænseflade |
| Eksempel | Sprog | Fokusområde | Nøglefunktioner |
|---|---|---|---|
| SqueezeNetPython | Python | Billedklassifikation | WinML Python bindings, batch-billedbehandling |
Systemkrav:
- Windows 11 PC med version 24H2 (build 26100) eller nyere
- Visual Studio 2022 med C++ og .NET workloads
- Windows App SDK 1.8.1 eller senere
- Python 3.10-3.13 til Python-eksempler på x64 og ARM64-enheder
Windows AI Foundry Specifikke Krav:
- Copilot+ PC anbefales for optimal ydeevne
- ARM64 build-konfiguration til Windows AI-eksempler
- Pakkeidentitet krævet (upakkede apps understøttes ikke længere)
De fleste Windows ML-eksempler følger denne standardproces:
- Initialiser Miljø - Opret ONNX Runtime-miljø
- Registrer Eksekveringsudbydere - Opdag og registrer tilgængelige hardwareacceleratorer (CPU, GPU, NPU)
- Indlæs Model - Indlæs ONNX-model, eventuelt kompileret til målhardware
- Forbehandl Input - Konverter billeder/data til modelinputformat
- Kør Inferens - Udfør model og få forudsigelser
- Behandl Resultater - Anvend softmax og vis de bedste forudsigelser
| Model | Formål | Inkluderet | Noter |
|---|---|---|---|
| SqueezeNet | Letvægts billedklassifikation | ✅ Inkluderet | Fortrænet, klar til brug |
| ResNet-50 | Højpræcision billedklassifikation | ❌ Kræver konvertering | Brug AI Toolkit til konvertering |
Alle eksempler opdager og udnytter automatisk tilgængelig hardware:
- CPU - Universel understøttelse på alle Windows-enheder
- GPU - Automatisk opdagelse og optimering for tilgængelig grafikhardware
- NPU - Udnytter Neural Processing Units på understøttede enheder (Copilot+ PC'er)
Windows AI API'er tilbyder klar-til-brug AI-funktioner drevet af modeller på enheden, optimeret for effektivitet og ydeevne på Copilot+ PC-enheder med minimal opsætning.
Phi Silica Sprogmodel
- Lille, men kraftfuld sprogmodel til tekstgenerering og ræsonnement
- Optimeret til realtidsinferens med minimalt strømforbrug
- Understøttelse af brugerdefineret finjustering ved hjælp af LoRA-teknikker
- Integration med Windows semantisk søgning og vidensindhentning
Computer Vision API'er
- Tekstgenkendelse (OCR): Uddrag tekst fra billeder med høj nøjagtighed
- Billedsuperopløsning: Opskalere billeder ved hjælp af lokale AI-modeller
- Billedsegmentering: Identificer og isoler specifikke objekter i billeder
- Billedbeskrivelse: Generer detaljerede tekstbeskrivelser for visuelt indhold
- Objektfjernelse: Fjern uønskede objekter fra billeder med AI-drevet inpainting
Multimodale Funktioner
- Vision-Sprog Integration: Kombiner tekst- og billedforståelse
- Semantisk Søgning: Muliggør naturlige sprogforespørgsler på tværs af multimedieindhold
- Vidensindhentning: Byg intelligente søgeoplevelser med lokale data
Foundry Local giver udviklere hurtig adgang til klar-til-brug open source-sprogmodeller på Windows Silicon, med mulighed for at gennemse, teste, interagere og implementere modeller i lokale applikationer.
Foundry Local repository tilbyder omfattende eksempler på tværs af flere programmeringssprog og frameworks, der demonstrerer forskellige integrationsmønstre og brugsscenarier.
| Eksempel | Sprog/Framework | Fokusområde | Nøglefunktioner |
|---|---|---|---|
| dotNET/rag | C# / .NET | RAG Implementering | Semantisk Kernel integration, Qdrant vektorlagring, JINA embeddings, dokumentindtagelse, streaming chat |
| electron/foundry-chat | JavaScript / Electron | Desktop Chat App | Cross-platform chat, lokal/cloud modelskift, OpenAI SDK integration, realtidsstreaming |
| js/hello-foundry-local | JavaScript / Node.js | Grundlæggende Integration | Enkel SDK-brug, modelinitialisering, grundlæggende chatfunktionalitet |
| python/hello-foundry-local | Python | Grundlæggende Integration | Python SDK-brug, streaming-svar, OpenAI-kompatibel API |
| rust/hello-foundry-local | Rust | Systemintegration | Lav-niveau SDK-brug, asynkrone operationer, reqwest HTTP-klient |
RAG (Retrieval-Augmented Generation)
- dotNET/rag: Komplet RAG-implementering med Semantic Kernel, Qdrant vektordatabase og JINA embeddings
- Arkitektur: Dokumentindtagelse → Tekstopdeling → Vektorembeddings → Lighedssøgning → Kontekstbevidste svar
- Teknologier: Microsoft.SemanticKernel, Qdrant.Client, BERT ONNX embeddings, streaming chat-komplettering
Desktop-applikationer
- electron/foundry-chat: Produktionsklar chatapplikation med lokal/cloud-modelskift
- Funktioner: Modelvælger, streaming-svar, fejlhåndtering, cross-platform udrulning
- Arkitektur: Electron hovedproces, IPC-kommunikation, sikre preload-scripts
SDK-integrations-eksempler
- JavaScript (Node.js): Grundlæggende modelinteraktion og streaming-svar
- Python: OpenAI-kompatibel API-brug med asynkron streaming
- Rust: Lav-niveau integration med reqwest og tokio til asynkrone operationer
Systemkrav:
- Windows 11 med Foundry Local installeret
- Node.js v16+ til JavaScript/Electron-eksempler
- .NET 8.0+ til C#-eksempler
- Python 3.10+ til Python-eksempler
- Rust 1.70+ til Rust-eksempler
Installation:
# Install Foundry Local
winget install Microsoft.FoundryLocal
# Verify installation
foundry --version
foundry model listdotNET RAG-eksempel:
# Install required packages via NuGet
# Microsoft.SemanticKernel.Connectors.Onnx
# Microsoft.SemanticKernel.Connectors.Qdrant
# Qdrant.Client
# Start Qdrant vector database
docker run -p 6333:6333 qdrant/qdrant
# Run Jupyter notebook
jupyter notebook rag_foundrylocal_demo.ipynbElectron Chat-eksempel:
# Set environment variables for cloud fallback
$env:YOUR_API_KEY="your-cloud-api-key"
$env:YOUR_ENDPOINT="your-cloud-endpoint"
$env:YOUR_MODEL_NAME="your-cloud-model"
# Install dependencies and run
npm install
npm startJavaScript/Python/Rust-eksempler:
# Download model (example with phi-3.5-mini)
foundry model run phi-3.5-mini
# Run respective sample
node src/app.js # JavaScript
python src/app.py # Python
cargo run # RustModelkatalog
- Omfattende samling af foroptimerede open source-modeller
- Modeller optimeret til CPU'er, GPU'er og NPU'er for øjeblikkelig udrulning
- Understøttelse af populære modelfamilier som Llama, Mistral, Phi og specialiserede domænemodeller
CLI-integration
- Kommandolinjegrænseflade til modelstyring og udrulning
- Automatiserede optimerings- og kvantiseringsarbejdsgange
- Integration med populære udviklingsmiljøer og CI/CD-pipelines
Lokal udrulning
- Fuld offline drift uden cloud-afhængigheder
- Understøttelse af brugerdefinerede modelformater og konfigurationer
- Effektiv modelservering med automatisk hardwareoptimering
Windows ML fungerer som den centrale AI-platform og integrerede inferens-runtime på Windows, hvilket gør det muligt for udviklere at udrulle brugerdefinerede modeller effektivt på tværs af det brede Windows-hardwareøkosystem.
Universel hardwareunderstøttelse
- Automatisk optimering til AMD-, Intel-, NVIDIA- og Qualcomm-silicium
- Understøttelse af CPU-, GPU- og NPU-eksekvering med transparent skift
- Hardwareabstraktion, der eliminerer platformspecifik optimeringsarbejde
Modelfleksibilitet
- Understøttelse af ONNX-modelformat med automatisk konvertering fra populære frameworks
- Brugerdefineret modeludrulning med produktionsklar ydeevne
- Integration med eksisterende Windows-applikationsarkitekturer
Enterprise-integration
- Kompatibel med Windows sikkerheds- og overholdelsesrammer
- Understøttelse af enterprise-udrulnings- og styringsværktøjer
- Integration med Windows enhedsstyring og overvågningssystemer
Forberedelse af udviklingsmiljø
- Installer Visual Studio 2022 med C++- og .NET-arbejdsbelastninger
- Installer Windows App SDK 1.8.1 eller nyere
- Konfigurer Windows AI Foundry CLI-værktøjer
- Opsæt AI Toolkit-udvidelsen til Visual Studio Code
- Etabler værktøjer til performanceprofilering og overvågning
- Sørg for ARM64-build-konfiguration til Copilot+ PC-optimering
Opsætning af eksempelrepository
- Klon Windows App SDK Samples repository
- Naviger til
Samples/WindowsAIFoundry/cs-winuifor Windows AI API-eksempler - Naviger til
Samples/WindowsMLfor omfattende Windows ML-eksempler - Gennemgå build-krav for dine målplatforme
Udforskning af AI Dev Gallery
- Udforsk eksempelapplikationer og referenceimplementeringer
- Test Windows AI API'er med interaktive demonstrationer
- Gennemgå kildekode for bedste praksis og mønstre
- Identificer relevante eksempler til dit specifikke anvendelsestilfælde
Kravsanalyse
- Definer funktionelle krav til AI-funktioner
- Etabler performancebegrænsninger og optimeringsmål
- Evaluer privatlivs- og sikkerhedskrav
- Planlæg udrulningsarkitektur og skaleringsstrategier
Modelevaluering
- Brug Foundry Local til at teste open source-modeller til dit anvendelsestilfælde
- Benchmark Windows AI API'er mod brugerdefinerede modelkrav
- Evaluer afvejninger mellem modelstørrelse, nøjagtighed og inferenshastighed
- Prototype integrationsmetoder med udvalgte modeller
Kerneintegration
- Implementer Windows AI API-integration med korrekt fejlhåndtering
- Design brugergrænseflader, der understøtter AI-behandlingsarbejdsgange
- Implementer caching og optimeringsstrategier for modelinferens
- Tilføj telemetri og overvågning for AI-driftens ydeevne
Test og validering
- Test applikationer på tværs af forskellige Windows-hardwarekonfigurationer
- Valider performance-metrics under forskellige belastningsforhold
- Implementer automatiseret test for AI-funktionalitets pålidelighed
- Udfør brugeroplevelsestest med AI-forbedrede funktioner
Performanceoptimering
- Profilér applikationsydelse på tværs af målhardwarekonfigurationer
- Optimer hukommelsesbrug og modelladningsstrategier
- Implementer adaptiv adfærd baseret på tilgængelige hardwarekapaciteter
- Finjuster brugeroplevelsen for forskellige performance-scenarier
Produktionsudrulning
- Pak applikationer med korrekte AI-modelafhængigheder
- Implementer opdateringsmekanismer for modeller og applikationslogik
- Konfigurer overvågning og analyse for produktionsmiljøer
- Planlæg udrulningsstrategier for enterprise- og forbrugerudrulninger
Byg en Windows-applikation, der behandler dokumenter ved hjælp af flere AI-funktioner:
Anvendte teknologier:
- Phi Silica til dokumentopsummering og spørgsmål/svar
- OCR API'er til tekstudtrækning fra scannede dokumenter
- Image Description API'er til analyse af diagrammer og grafer
- Brugerdefinerede ONNX-modeller til dokumentklassificering
Implementeringsmetode:
- Design modulær arkitektur med udskiftelige AI-komponenter
- Implementer asynkron behandling for store dokumentbatcher
- Tilføj statusindikatorer og annulleringssupport for langvarige operationer
- Inkluder offline kapacitet til følsom dokumentbehandling
Skab et AI-drevet lagerstyringssystem til detailapplikationer:
Anvendte teknologier:
- Billedsegmentering til produktidentifikation
- Brugerdefinerede visionsmodeller til mærke- og kategoriklassificering
- Foundry Local-udrulning af specialiserede detailhandels sprogmodeller
- Integration med eksisterende POS- og lagerstyringssystemer
Implementeringsmetode:
- Byg kameraintegration til realtidsproduktscanning
- Implementer stregkode- og visuel produktgenkendelse
- Tilføj naturlige sprogforespørgsler til lagerstyring ved hjælp af lokale sprogmodeller
- Design skalerbar arkitektur til udrulning på tværs af flere butikker
Udvikl et privatlivsbevarende værktøj til sundhedsdokumentation:
Anvendte teknologier:
- Phi Silica til generering af medicinske noter og klinisk beslutningsstøtte
- OCR til digitalisering af håndskrevne medicinske journaler
- Brugerdefinerede medicinske sprogmodeller udrullet via Windows ML
- Lokal vektorlagring til medicinsk videnssøgning
Implementeringsmetode:
- Sørg for fuld offline drift for patientprivatliv
- Implementer validering og forslag til medicinsk terminologi
- Tilføj revisionslogning for overholdelse af lovgivning
- Design integration med eksisterende elektroniske patientjournal-systemer
NPU-optimering
- Design applikationer til at udnytte NPU-kapaciteter på Copilot+ PC'er
- Implementer elegant fallback til GPU/CPU på enheder uden NPU
- Optimer modelformater til NPU-specifik acceleration
- Overvåg NPU-udnyttelse og termiske egenskaber
Hukommelsesstyring
- Implementer effektive modelladnings- og cachingstrategier
- Brug hukommelseskortlægning til store modeller for at reducere opstartstid
- Design hukommelsesbevidste applikationer til ressourcebegrænsede enheder
- Implementer modelkvantisering for hukommelsesoptimering
Batterieffektivitet
- Optimer AI-operationer for minimal strømforbrug
- Implementer adaptiv behandling baseret på batteristatus
- Design effektiv baggrundsbehandling til kontinuerlige AI-operationer
- Brug værktøjer til strømprofilering for at optimere energiforbrug
Multitrådning
- Design trådsikre AI-operationer til samtidig behandling
- Implementer effektiv arbejdsfordeling på tværs af tilgængelige kerner
- Brug async/await-mønstre til ikke-blokerende AI-operationer
- Planlæg optimering af trådpool til forskellige hardwarekonfigurationer
Cachingstrategier
- Implementer intelligent caching til ofte brugte AI-operationer
- Design cache-invalideringsstrategier til modelopdateringer
- Brug vedvarende caching til dyre forbehandlingsoperationer
- Implementer distribueret caching til scenarier med flere brugere
Lokal behandling
- Sørg for, at følsomme data aldrig forlader den lokale enhed
- Implementer sikker lagring til AI-modeller og midlertidige data
- Brug Windows sikkerhedsfunktioner til applikationssandboxing
- Anvend kryptering til lagrede modeller og mellemresultater
Modelsikkerhed
- Valider modelintegritet før indlæsning og eksekvering
- Implementer sikre modelopdateringsmekanismer
- Brug signerede modeller for at forhindre manipulation
- Anvend adgangskontrol til modelfiler og konfiguration
Regulatorisk tilpasning
- Design applikationer til at opfylde GDPR-, HIPAA- og andre lovgivningsmæssige krav
- Implementer revisionslogning for AI-beslutningsprocesser
- Tilbyd gennemsigtighedsfunktioner for AI-genererede resultater
- Giv brugeren kontrol over AI-databehandling
Enterprise-sikkerhed
- Integrer med Windows enterprise-sikkerhedspolitikker
- Understøt administreret udrulning via enterprise-styringsværktøjer
- Implementer rollebaseret adgangskontrol til AI-funktioner
- Giv administrative kontroller for AI-funktionalitet
Build-konfigurationsproblemer
- Sørg for ARM64-platformskonfiguration til Windows AI API-eksempler
- Verificer kompatibilitet med Windows App SDK-version (1.8.1+ påkrævet)
- Kontroller, at pakkeidentitet er korrekt konfigureret (påkrævet for Windows AI API'er)
- Valider, at build-værktøjer understøtter målframework-versionen
Modelindlæsningsproblemer
- Valider ONNX-modelkompatibilitet med Windows ML
- Kontroller modelfilens integritet og formatkrav
- Verificer hardwarekapacitetskrav til specifikke modeller
- Debug hukommelsestildelingsproblemer under modelindlæsning
- Sørg for registrering af eksekveringsudbyder til hardwareacceleration
Udrulningstilstandsovervejelser
- Self-Contained Mode: Fuldt understøttet med større udrulningsstørrelse
- Framework-Dependent Mode: Mindre footprint, men kræver delt runtime
- Unpackaged Applications: Ikke længere understøttet for Windows AI API'er
- Brug
dotnet run -p:Platform=ARM64 -p:SelfContained=truetil selvstændig ARM64-udrulning
Performanceproblemer
- Profilér applikationsydelse på tværs af forskellige hardwarekonfigurationer
- Identificer flaskehalse i AI-behandlingspipelines
- Optimer dataforbehandling og efterbehandlingsoperationer
- Implementer performanceovervågning og alarmering
Integrationsvanskeligheder
- Debug API-integrationsproblemer med korrekt fejlhåndtering
- Valider inputdataformater og forbehandlingskrav
- Test edge cases og fejlbetingelser grundigt
- Implementer omfattende logning til debugging af produktionsproblemer
Visual Studio-integration
- Brug AI Toolkit-debugger til analyse af modeludførelse
- Implementer performanceprofilering for AI-operationer
- Debug asynkrone AI-operationer med korrekt undtagelseshåndtering
- Brug hukommelsesprofilering til optimering
Windows AI Foundry-værktøjer
- Udnyt Foundry Local CLI til modeltest og validering
- Brug Windows AI API-testværktøjer til integrationsverifikation
- Implementer brugerdefineret logning til overvågning af AI-operationer
- Opret automatiseret test for AI-funktionalitets pålidelighed
Næste generations hardware
- Design applikationer til at udnytte fremtidige NPU-kapaciteter
- Planlæg for øgede modelstørrelser og kompleksitet
- Implementer adaptive arkitekturer til udviklende hardware
- Overvej kvanteklare algoritmer for fremtidig kompatibilitet
Avancerede AI-funktioner
- Forbered dig på multimodal AI-integration på tværs af flere datatyper
- Planlæg for realtids samarbejdende AI mellem flere enheder
- Design til federerede læringskapaciteter
- Overvej edge-cloud hybrid intelligensarkitekturer
Modelopdateringer
- Implementer problemfri modelopdateringsmekanismer
- Design applikationer til at tilpasse sig forbedrede modelkapaciteter
- Planlæg for bagudkompatibilitet med eksisterende modeller
- Implementer A/B-test for modelperformanceevaluering
Funktionsudvikling
- Design modulære arkitekturer, der kan rumme nye AI-funktioner
- Planlæg for integration af fremspirende Windows AI API'er
- Implementer funktionsflag til gradvis kapacitetsudrulning
- Design brugergrænseflader, der tilpasser sig forbedrede AI-funktioner
Windows Edge AI-udvikling repræsenterer konvergensen af kraftfulde AI-funktioner med den robuste, sikre og skalerbare Windows-platform. Ved at mestre Windows AI Foundry-økosystemet kan udviklere skabe intelligente applikationer, der leverer enestående brugeroplevelser, samtidig med at de opretholder de højeste standarder for privatliv, sikkerhed og ydeevne.
Kombinationen af Windows AI API'er, Foundry Local og Windows ML giver et enestående fundament for at bygge næste generations intelligente Windows-applikationer. Efterhånden som AI fortsætter med at udvikle sig, sikrer Windows-platformen, at dine applikationer vil skalere med fremspirende teknologier, samtidig med at de opretholder kompatibilitet og ydeevne på tværs af det mangfoldige Windows
- Windows App SDK Eksempler - Windows AI Foundry
- Windows App SDK Eksempler - Windows ML
- ONNX Runtime Inference Eksempler
- Windows App SDK Eksempeldepot
- AI Toolkit til Visual Studio Code
- AI Dev Gallery
- Windows AI Eksempler
- Værktøjer til modelkonvertering
- Windows ML Dokumentation
- ONNX Runtime Dokumentation
- Windows App SDK Dokumentation
- Rapportér problemer - Windows App SDK Eksempler
Denne guide er designet til at udvikle sig i takt med det hurtigt fremskridende Windows AI-økosystem. Regelmæssige opdateringer sikrer tilpasning til de nyeste platformfunktioner og bedste udviklingspraksis.
08. Praktisk erfaring med Microsoft Foundry Local - Komplet udviklerværktøjssæt
Ansvarsfraskrivelse:
Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten Co-op Translator. Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.
