Skip to content

Latest commit

 

History

History
655 lines (493 loc) · 32.4 KB

File metadata and controls

655 lines (493 loc) · 32.4 KB

Windows Edge AI Udviklingsguide

Introduktion

Velkommen til Windows Edge AI Udvikling - din omfattende guide til at bygge intelligente applikationer, der udnytter kraften af AI direkte på enheden ved hjælp af Microsofts Windows AI Foundry-platform. Denne guide er specielt designet til Windows-udviklere, der ønsker at integrere avancerede Edge AI-funktioner i deres applikationer og samtidig drage fordel af Windows' hardwareacceleration.

Fordelene ved Windows AI

Windows AI Foundry repræsenterer en samlet, pålidelig og sikker platform, der understøtter hele AI-udviklerens livscyklus - fra modelvalg og finjustering til optimering og implementering på tværs af CPU, GPU, NPU og hybrid cloud-arkitekturer. Platformen demokratiserer AI-udvikling ved at tilbyde:

  • Hardwareabstraktion: Problemfri implementering på AMD-, Intel-, NVIDIA- og Qualcomm-chips
  • Intelligens på enheden: AI, der bevarer privatliv og kører udelukkende på lokal hardware
  • Optimeret ydeevne: Modeller, der er forudoptimeret til Windows-hardwarekonfigurationer
  • Klar til erhvervslivet: Produktionsklar sikkerhed og overholdelsesfunktioner

Windows ML

Windows Machine Learning (ML) gør det muligt for udviklere, der bruger C#, C++ og Python, at køre ONNX AI-modeller lokalt på Windows-pc'er via ONNX Runtime med automatisk styring af eksekveringsudbydere for forskellig hardware (CPU'er, GPU'er, NPU'er). ONNX Runtime kan bruges med modeller fra PyTorch, Tensorflow/Keras, TFLite, scikit-learn og andre frameworks.

WindowsML Et diagram, der illustrerer en ONNX-model, der går gennem Windows ML for derefter at nå NPU'er, GPU'er og CPU'er.

Windows ML tilbyder en delt Windows-bred kopi af ONNX Runtime samt muligheden for dynamisk at downloade eksekveringsudbydere (EP'er).

Hvorfor vælge Windows til Edge AI?

Universel hardwareunderstøttelse Windows ML tilbyder automatisk hardwareoptimering på tværs af hele Windows-økosystemet, hvilket sikrer, at dine AI-applikationer fungerer optimalt uanset den underliggende chiparkitektur.

Integreret AI-runtime Den indbyggede Windows ML-inferensmotor eliminerer komplekse opsætningskrav, så udviklere kan fokusere på applikationslogik frem for infrastrukturproblemer.

Copilot+ PC-optimering Specialdesignede API'er til næste generations Windows-enheder med dedikerede Neural Processing Units (NPU'er), der leverer enestående ydeevne pr. watt.

Udviklerøkosystem Omfattende værktøjer, herunder Visual Studio-integration, detaljeret dokumentation og eksempler, der fremskynder udviklingsprocessen.

Læringsmål

Ved at gennemføre denne Windows Edge AI-udviklingsguide vil du mestre de essentielle færdigheder til at bygge produktionsklare AI-applikationer på Windows-platformen.

Kernekompetencer

Windows AI Foundry Ekspertise

  • Forstå arkitekturen og komponenterne i Windows AI Foundry-platformen
  • Naviger gennem hele AI-udviklingslivscyklussen inden for Windows-økosystemet
  • Implementer sikkerhedsbedste praksis for AI-applikationer på enheden
  • Optimer applikationer til forskellige Windows-hardwarekonfigurationer

API-integration

  • Mestre Windows AI API'er til tekst-, vision- og multimodale applikationer
  • Implementere Phi Silica sprogmodelintegration til tekstgenerering og ræsonnement
  • Udrulle computer vision-funktioner ved hjælp af indbyggede billedbehandlings-API'er
  • Tilpasse fortrænede modeller ved hjælp af LoRA (Low-Rank Adaptation)-teknikker

Foundry Local Implementering

  • Gennemse, evaluere og implementere open source-sprogmodeller ved hjælp af Foundry Local CLI
  • Forstå modeloptimering og kvantisering til lokal implementering
  • Implementere offline AI-funktioner, der fungerer uden internetforbindelse
  • Administrere modellivscyklusser og opdateringer i produktionsmiljøer

Windows ML Implementering

  • Integrere brugerdefinerede ONNX-modeller i Windows-applikationer ved hjælp af Windows ML
  • Udnytte automatisk hardwareacceleration på tværs af CPU-, GPU- og NPU-arkitekturer
  • Implementere realtidsinferens med optimal ressourceudnyttelse
  • Designe skalerbare AI-applikationer til forskellige Windows-enhedskategorier

Applikationsudviklingsfærdigheder

Cross-Platform Windows Udvikling

  • Bygge AI-drevne applikationer ved hjælp af .NET MAUI til universel Windows-implementering
  • Integrere AI-funktioner i Win32-, UWP- og Progressive Web Applications
  • Implementere responsive UI-designs, der tilpasser sig AI-behandlingsstatus
  • Håndtere asynkrone AI-operationer med passende brugeroplevelsesmønstre

Ydeevneoptimering

  • Profilere og optimere AI-inferensydelse på tværs af forskellige hardwarekonfigurationer
  • Implementere effektiv hukommelsesstyring for store sprogmodeller
  • Designe applikationer, der nedskalerer yndefuldt baseret på tilgængelige hardwarekapaciteter
  • Anvende caching-strategier for ofte brugte AI-operationer

Produktionsklarhed

  • Implementere omfattende fejlhåndtering og fallback-mekanismer
  • Designe telemetri og overvågning for AI-applikationers ydeevne
  • Anvende sikkerhedsbedste praksis for lokal AI-modelopbevaring og eksekvering
  • Planlægge implementeringsstrategier for erhvervs- og forbrugerapplikationer

Forretnings- og strategisk forståelse

AI Applikationsarkitektur

  • Designe hybride arkitekturer, der optimerer mellem lokal og cloud AI-behandling
  • Evaluere afvejninger mellem modelstørrelse, nøjagtighed og inferenshastighed
  • Planlægge dataflowarkitekturer, der bevarer privatliv og samtidig muliggør intelligens
  • Implementere omkostningseffektive AI-løsninger, der skalerer med brugerbehov

Markedspositionering

  • Forstå konkurrencefordele ved Windows-native AI-applikationer
  • Identificere brugsscenarier, hvor AI på enheden giver overlegne brugeroplevelser
  • Udvikle go-to-market-strategier for AI-forbedrede Windows-applikationer
  • Positionere applikationer til at udnytte Windows-økosystemets fordele

Windows App SDK AI Eksempler

Windows App SDK tilbyder omfattende eksempler, der demonstrerer AI-integration på tværs af flere frameworks og implementeringsscenarier. Disse eksempler er essentielle referencer til forståelse af Windows AI-udviklingsmønstre.

Windows AI Foundry Eksempler

Eksempel Framework Fokusområde Nøglefunktioner
cs-winui C# WinUI 3 Windows AI API'er Integration Komplet WinUI-app, der demonstrerer Windows AI API'er, ARM64-optimering, pakket implementering

Nøgleteknologier:

  • Windows AI API'er
  • WinUI 3 framework
  • ARM64 platformoptimering
  • Copilot+ PC-kompatibilitet
  • Pakket app-implementering

Forudsætninger:

  • Windows 11 med anbefalet Copilot+ PC
  • Visual Studio 2022
  • ARM64 build-konfiguration
  • Windows App SDK 1.8.1+

Windows ML Eksempler

C++ Eksempler

Eksempel Type Fokusområde Nøglefunktioner
CppConsoleDesktop Console App Grundlæggende Windows ML EP-opdagelse, kommandolinjemuligheder, modelkompilering
CppConsoleDesktop.FrameworkDependent Console App Framework Implementering Delt runtime, mindre implementeringsfodaftryk
CppConsoleDesktop.SelfContained Console App Selvstændig Implementering Standalone implementering, ingen runtime-afhængigheder
CppConsoleDll DLL Biblioteksbrug WindowsML i delt bibliotek, hukommelsesstyring
CppResnetBuildDemo Demo ResNet Tutorial Modelkonvertering, EP-kompilering, Build 2025 tutorial

C# Eksempler

Console Applikationer

Eksempel Type Fokusområde Nøglefunktioner
CSharpConsoleDesktop Console App Grundlæggende C# Integration Delt hjælperbrug, kommandolinjegrænseflade
ResnetBuildDemoCS Demo ResNet Tutorial Modelkonvertering, EP-kompilering, Build 2025 tutorial

GUI Applikationer

Eksempel Framework Fokusområde Nøglefunktioner
cs-wpf WPF Desktop GUI Billedklassifikation med WPF-grænseflade
cs-winforms Windows Forms Traditionel GUI Billedklassifikation med Windows Forms
cs-winui WinUI 3 Moderne GUI Billedklassifikation med WinUI 3-grænseflade

Python Eksempler

Eksempel Sprog Fokusområde Nøglefunktioner
SqueezeNetPython Python Billedklassifikation WinML Python bindings, batch-billedbehandling

Eksempel Forudsætninger

Systemkrav:

  • Windows 11 PC med version 24H2 (build 26100) eller nyere
  • Visual Studio 2022 med C++ og .NET workloads
  • Windows App SDK 1.8.1 eller senere
  • Python 3.10-3.13 til Python-eksempler på x64 og ARM64-enheder

Windows AI Foundry Specifikke Krav:

  • Copilot+ PC anbefales for optimal ydeevne
  • ARM64 build-konfiguration til Windows AI-eksempler
  • Pakkeidentitet krævet (upakkede apps understøttes ikke længere)

Almindelig Eksempelarbejdsgang

De fleste Windows ML-eksempler følger denne standardproces:

  1. Initialiser Miljø - Opret ONNX Runtime-miljø
  2. Registrer Eksekveringsudbydere - Opdag og registrer tilgængelige hardwareacceleratorer (CPU, GPU, NPU)
  3. Indlæs Model - Indlæs ONNX-model, eventuelt kompileret til målhardware
  4. Forbehandl Input - Konverter billeder/data til modelinputformat
  5. Kør Inferens - Udfør model og få forudsigelser
  6. Behandl Resultater - Anvend softmax og vis de bedste forudsigelser

Brugte Modelfiler

Model Formål Inkluderet Noter
SqueezeNet Letvægts billedklassifikation ✅ Inkluderet Fortrænet, klar til brug
ResNet-50 Højpræcision billedklassifikation ❌ Kræver konvertering Brug AI Toolkit til konvertering

Hardwareunderstøttelse

Alle eksempler opdager og udnytter automatisk tilgængelig hardware:

  • CPU - Universel understøttelse på alle Windows-enheder
  • GPU - Automatisk opdagelse og optimering for tilgængelig grafikhardware
  • NPU - Udnytter Neural Processing Units på understøttede enheder (Copilot+ PC'er)

Windows AI Foundry Platformkomponenter

1. Windows AI API'er

Windows AI API'er tilbyder klar-til-brug AI-funktioner drevet af modeller på enheden, optimeret for effektivitet og ydeevne på Copilot+ PC-enheder med minimal opsætning.

Kerne API-kategorier

Phi Silica Sprogmodel

  • Lille, men kraftfuld sprogmodel til tekstgenerering og ræsonnement
  • Optimeret til realtidsinferens med minimalt strømforbrug
  • Understøttelse af brugerdefineret finjustering ved hjælp af LoRA-teknikker
  • Integration med Windows semantisk søgning og vidensindhentning

Computer Vision API'er

  • Tekstgenkendelse (OCR): Uddrag tekst fra billeder med høj nøjagtighed
  • Billedsuperopløsning: Opskalere billeder ved hjælp af lokale AI-modeller
  • Billedsegmentering: Identificer og isoler specifikke objekter i billeder
  • Billedbeskrivelse: Generer detaljerede tekstbeskrivelser for visuelt indhold
  • Objektfjernelse: Fjern uønskede objekter fra billeder med AI-drevet inpainting

Multimodale Funktioner

  • Vision-Sprog Integration: Kombiner tekst- og billedforståelse
  • Semantisk Søgning: Muliggør naturlige sprogforespørgsler på tværs af multimedieindhold
  • Vidensindhentning: Byg intelligente søgeoplevelser med lokale data

2. Foundry Local

Foundry Local giver udviklere hurtig adgang til klar-til-brug open source-sprogmodeller på Windows Silicon, med mulighed for at gennemse, teste, interagere og implementere modeller i lokale applikationer.

Foundry Local Eksempelapplikationer

Foundry Local repository tilbyder omfattende eksempler på tværs af flere programmeringssprog og frameworks, der demonstrerer forskellige integrationsmønstre og brugsscenarier.

Eksempel Sprog/Framework Fokusområde Nøglefunktioner
dotNET/rag C# / .NET RAG Implementering Semantisk Kernel integration, Qdrant vektorlagring, JINA embeddings, dokumentindtagelse, streaming chat
electron/foundry-chat JavaScript / Electron Desktop Chat App Cross-platform chat, lokal/cloud modelskift, OpenAI SDK integration, realtidsstreaming
js/hello-foundry-local JavaScript / Node.js Grundlæggende Integration Enkel SDK-brug, modelinitialisering, grundlæggende chatfunktionalitet
python/hello-foundry-local Python Grundlæggende Integration Python SDK-brug, streaming-svar, OpenAI-kompatibel API
rust/hello-foundry-local Rust Systemintegration Lav-niveau SDK-brug, asynkrone operationer, reqwest HTTP-klient

Eksempelkategorier efter anvendelsestilfælde

RAG (Retrieval-Augmented Generation)

  • dotNET/rag: Komplet RAG-implementering med Semantic Kernel, Qdrant vektordatabase og JINA embeddings
  • Arkitektur: Dokumentindtagelse → Tekstopdeling → Vektorembeddings → Lighedssøgning → Kontekstbevidste svar
  • Teknologier: Microsoft.SemanticKernel, Qdrant.Client, BERT ONNX embeddings, streaming chat-komplettering

Desktop-applikationer

  • electron/foundry-chat: Produktionsklar chatapplikation med lokal/cloud-modelskift
  • Funktioner: Modelvælger, streaming-svar, fejlhåndtering, cross-platform udrulning
  • Arkitektur: Electron hovedproces, IPC-kommunikation, sikre preload-scripts

SDK-integrations-eksempler

  • JavaScript (Node.js): Grundlæggende modelinteraktion og streaming-svar
  • Python: OpenAI-kompatibel API-brug med asynkron streaming
  • Rust: Lav-niveau integration med reqwest og tokio til asynkrone operationer

Forudsætninger for Foundry Local-eksempler

Systemkrav:

  • Windows 11 med Foundry Local installeret
  • Node.js v16+ til JavaScript/Electron-eksempler
  • .NET 8.0+ til C#-eksempler
  • Python 3.10+ til Python-eksempler
  • Rust 1.70+ til Rust-eksempler

Installation:

# Install Foundry Local
winget install Microsoft.FoundryLocal

# Verify installation
foundry --version
foundry model list

Eksempelspecifik opsætning

dotNET RAG-eksempel:

# Install required packages via NuGet
# Microsoft.SemanticKernel.Connectors.Onnx
# Microsoft.SemanticKernel.Connectors.Qdrant
# Qdrant.Client

# Start Qdrant vector database
docker run -p 6333:6333 qdrant/qdrant

# Run Jupyter notebook
jupyter notebook rag_foundrylocal_demo.ipynb

Electron Chat-eksempel:

# Set environment variables for cloud fallback
$env:YOUR_API_KEY="your-cloud-api-key"
$env:YOUR_ENDPOINT="your-cloud-endpoint"
$env:YOUR_MODEL_NAME="your-cloud-model"

# Install dependencies and run
npm install
npm start

JavaScript/Python/Rust-eksempler:

# Download model (example with phi-3.5-mini)
foundry model run phi-3.5-mini

# Run respective sample
node src/app.js          # JavaScript
python src/app.py        # Python
cargo run               # Rust

Nøglefunktioner

Modelkatalog

  • Omfattende samling af foroptimerede open source-modeller
  • Modeller optimeret til CPU'er, GPU'er og NPU'er for øjeblikkelig udrulning
  • Understøttelse af populære modelfamilier som Llama, Mistral, Phi og specialiserede domænemodeller

CLI-integration

  • Kommandolinjegrænseflade til modelstyring og udrulning
  • Automatiserede optimerings- og kvantiseringsarbejdsgange
  • Integration med populære udviklingsmiljøer og CI/CD-pipelines

Lokal udrulning

  • Fuld offline drift uden cloud-afhængigheder
  • Understøttelse af brugerdefinerede modelformater og konfigurationer
  • Effektiv modelservering med automatisk hardwareoptimering

3. Windows ML

Windows ML fungerer som den centrale AI-platform og integrerede inferens-runtime på Windows, hvilket gør det muligt for udviklere at udrulle brugerdefinerede modeller effektivt på tværs af det brede Windows-hardwareøkosystem.

Arkitekturmæssige fordele

Universel hardwareunderstøttelse

  • Automatisk optimering til AMD-, Intel-, NVIDIA- og Qualcomm-silicium
  • Understøttelse af CPU-, GPU- og NPU-eksekvering med transparent skift
  • Hardwareabstraktion, der eliminerer platformspecifik optimeringsarbejde

Modelfleksibilitet

  • Understøttelse af ONNX-modelformat med automatisk konvertering fra populære frameworks
  • Brugerdefineret modeludrulning med produktionsklar ydeevne
  • Integration med eksisterende Windows-applikationsarkitekturer

Enterprise-integration

  • Kompatibel med Windows sikkerheds- og overholdelsesrammer
  • Understøttelse af enterprise-udrulnings- og styringsværktøjer
  • Integration med Windows enhedsstyring og overvågningssystemer

Udviklingsarbejdsgang

Fase 1: Miljøopsætning og værktøjskonfiguration

Forberedelse af udviklingsmiljø

  1. Installer Visual Studio 2022 med C++- og .NET-arbejdsbelastninger
  2. Installer Windows App SDK 1.8.1 eller nyere
  3. Konfigurer Windows AI Foundry CLI-værktøjer
  4. Opsæt AI Toolkit-udvidelsen til Visual Studio Code
  5. Etabler værktøjer til performanceprofilering og overvågning
  6. Sørg for ARM64-build-konfiguration til Copilot+ PC-optimering

Opsætning af eksempelrepository

  1. Klon Windows App SDK Samples repository
  2. Naviger til Samples/WindowsAIFoundry/cs-winui for Windows AI API-eksempler
  3. Naviger til Samples/WindowsML for omfattende Windows ML-eksempler
  4. Gennemgå build-krav for dine målplatforme

Udforskning af AI Dev Gallery

  • Udforsk eksempelapplikationer og referenceimplementeringer
  • Test Windows AI API'er med interaktive demonstrationer
  • Gennemgå kildekode for bedste praksis og mønstre
  • Identificer relevante eksempler til dit specifikke anvendelsestilfælde

Fase 2: Modelvalg og integration

Kravsanalyse

  • Definer funktionelle krav til AI-funktioner
  • Etabler performancebegrænsninger og optimeringsmål
  • Evaluer privatlivs- og sikkerhedskrav
  • Planlæg udrulningsarkitektur og skaleringsstrategier

Modelevaluering

  • Brug Foundry Local til at teste open source-modeller til dit anvendelsestilfælde
  • Benchmark Windows AI API'er mod brugerdefinerede modelkrav
  • Evaluer afvejninger mellem modelstørrelse, nøjagtighed og inferenshastighed
  • Prototype integrationsmetoder med udvalgte modeller

Fase 3: Applikationsudvikling

Kerneintegration

  • Implementer Windows AI API-integration med korrekt fejlhåndtering
  • Design brugergrænseflader, der understøtter AI-behandlingsarbejdsgange
  • Implementer caching og optimeringsstrategier for modelinferens
  • Tilføj telemetri og overvågning for AI-driftens ydeevne

Test og validering

  • Test applikationer på tværs af forskellige Windows-hardwarekonfigurationer
  • Valider performance-metrics under forskellige belastningsforhold
  • Implementer automatiseret test for AI-funktionalitets pålidelighed
  • Udfør brugeroplevelsestest med AI-forbedrede funktioner

Fase 4: Optimering og udrulning

Performanceoptimering

  • Profilér applikationsydelse på tværs af målhardwarekonfigurationer
  • Optimer hukommelsesbrug og modelladningsstrategier
  • Implementer adaptiv adfærd baseret på tilgængelige hardwarekapaciteter
  • Finjuster brugeroplevelsen for forskellige performance-scenarier

Produktionsudrulning

  • Pak applikationer med korrekte AI-modelafhængigheder
  • Implementer opdateringsmekanismer for modeller og applikationslogik
  • Konfigurer overvågning og analyse for produktionsmiljøer
  • Planlæg udrulningsstrategier for enterprise- og forbrugerudrulninger

Praktiske implementeringseksempler

Eksempel 1: Intelligent dokumentbehandlingsapplikation

Byg en Windows-applikation, der behandler dokumenter ved hjælp af flere AI-funktioner:

Anvendte teknologier:

  • Phi Silica til dokumentopsummering og spørgsmål/svar
  • OCR API'er til tekstudtrækning fra scannede dokumenter
  • Image Description API'er til analyse af diagrammer og grafer
  • Brugerdefinerede ONNX-modeller til dokumentklassificering

Implementeringsmetode:

  • Design modulær arkitektur med udskiftelige AI-komponenter
  • Implementer asynkron behandling for store dokumentbatcher
  • Tilføj statusindikatorer og annulleringssupport for langvarige operationer
  • Inkluder offline kapacitet til følsom dokumentbehandling

Eksempel 2: Detailhandels lagerstyringssystem

Skab et AI-drevet lagerstyringssystem til detailapplikationer:

Anvendte teknologier:

  • Billedsegmentering til produktidentifikation
  • Brugerdefinerede visionsmodeller til mærke- og kategoriklassificering
  • Foundry Local-udrulning af specialiserede detailhandels sprogmodeller
  • Integration med eksisterende POS- og lagerstyringssystemer

Implementeringsmetode:

  • Byg kameraintegration til realtidsproduktscanning
  • Implementer stregkode- og visuel produktgenkendelse
  • Tilføj naturlige sprogforespørgsler til lagerstyring ved hjælp af lokale sprogmodeller
  • Design skalerbar arkitektur til udrulning på tværs af flere butikker

Eksempel 3: Sundhedsdokumentationsassistent

Udvikl et privatlivsbevarende værktøj til sundhedsdokumentation:

Anvendte teknologier:

  • Phi Silica til generering af medicinske noter og klinisk beslutningsstøtte
  • OCR til digitalisering af håndskrevne medicinske journaler
  • Brugerdefinerede medicinske sprogmodeller udrullet via Windows ML
  • Lokal vektorlagring til medicinsk videnssøgning

Implementeringsmetode:

  • Sørg for fuld offline drift for patientprivatliv
  • Implementer validering og forslag til medicinsk terminologi
  • Tilføj revisionslogning for overholdelse af lovgivning
  • Design integration med eksisterende elektroniske patientjournal-systemer

Performanceoptimeringsstrategier

Hardwarebevidst udvikling

NPU-optimering

  • Design applikationer til at udnytte NPU-kapaciteter på Copilot+ PC'er
  • Implementer elegant fallback til GPU/CPU på enheder uden NPU
  • Optimer modelformater til NPU-specifik acceleration
  • Overvåg NPU-udnyttelse og termiske egenskaber

Hukommelsesstyring

  • Implementer effektive modelladnings- og cachingstrategier
  • Brug hukommelseskortlægning til store modeller for at reducere opstartstid
  • Design hukommelsesbevidste applikationer til ressourcebegrænsede enheder
  • Implementer modelkvantisering for hukommelsesoptimering

Batterieffektivitet

  • Optimer AI-operationer for minimal strømforbrug
  • Implementer adaptiv behandling baseret på batteristatus
  • Design effektiv baggrundsbehandling til kontinuerlige AI-operationer
  • Brug værktøjer til strømprofilering for at optimere energiforbrug

Skalerbarhedsovervejelser

Multitrådning

  • Design trådsikre AI-operationer til samtidig behandling
  • Implementer effektiv arbejdsfordeling på tværs af tilgængelige kerner
  • Brug async/await-mønstre til ikke-blokerende AI-operationer
  • Planlæg optimering af trådpool til forskellige hardwarekonfigurationer

Cachingstrategier

  • Implementer intelligent caching til ofte brugte AI-operationer
  • Design cache-invalideringsstrategier til modelopdateringer
  • Brug vedvarende caching til dyre forbehandlingsoperationer
  • Implementer distribueret caching til scenarier med flere brugere

Sikkerheds- og privatlivsbedste praksis

Databeskyttelse

Lokal behandling

  • Sørg for, at følsomme data aldrig forlader den lokale enhed
  • Implementer sikker lagring til AI-modeller og midlertidige data
  • Brug Windows sikkerhedsfunktioner til applikationssandboxing
  • Anvend kryptering til lagrede modeller og mellemresultater

Modelsikkerhed

  • Valider modelintegritet før indlæsning og eksekvering
  • Implementer sikre modelopdateringsmekanismer
  • Brug signerede modeller for at forhindre manipulation
  • Anvend adgangskontrol til modelfiler og konfiguration

Overholdelsesovervejelser

Regulatorisk tilpasning

  • Design applikationer til at opfylde GDPR-, HIPAA- og andre lovgivningsmæssige krav
  • Implementer revisionslogning for AI-beslutningsprocesser
  • Tilbyd gennemsigtighedsfunktioner for AI-genererede resultater
  • Giv brugeren kontrol over AI-databehandling

Enterprise-sikkerhed

  • Integrer med Windows enterprise-sikkerhedspolitikker
  • Understøt administreret udrulning via enterprise-styringsværktøjer
  • Implementer rollebaseret adgangskontrol til AI-funktioner
  • Giv administrative kontroller for AI-funktionalitet

Fejlfinding og debugging

Almindelige udviklingsudfordringer

Build-konfigurationsproblemer

  • Sørg for ARM64-platformskonfiguration til Windows AI API-eksempler
  • Verificer kompatibilitet med Windows App SDK-version (1.8.1+ påkrævet)
  • Kontroller, at pakkeidentitet er korrekt konfigureret (påkrævet for Windows AI API'er)
  • Valider, at build-værktøjer understøtter målframework-versionen

Modelindlæsningsproblemer

  • Valider ONNX-modelkompatibilitet med Windows ML
  • Kontroller modelfilens integritet og formatkrav
  • Verificer hardwarekapacitetskrav til specifikke modeller
  • Debug hukommelsestildelingsproblemer under modelindlæsning
  • Sørg for registrering af eksekveringsudbyder til hardwareacceleration

Udrulningstilstandsovervejelser

  • Self-Contained Mode: Fuldt understøttet med større udrulningsstørrelse
  • Framework-Dependent Mode: Mindre footprint, men kræver delt runtime
  • Unpackaged Applications: Ikke længere understøttet for Windows AI API'er
  • Brug dotnet run -p:Platform=ARM64 -p:SelfContained=true til selvstændig ARM64-udrulning

Performanceproblemer

  • Profilér applikationsydelse på tværs af forskellige hardwarekonfigurationer
  • Identificer flaskehalse i AI-behandlingspipelines
  • Optimer dataforbehandling og efterbehandlingsoperationer
  • Implementer performanceovervågning og alarmering

Integrationsvanskeligheder

  • Debug API-integrationsproblemer med korrekt fejlhåndtering
  • Valider inputdataformater og forbehandlingskrav
  • Test edge cases og fejlbetingelser grundigt
  • Implementer omfattende logning til debugging af produktionsproblemer

Debugging-værktøjer og teknikker

Visual Studio-integration

  • Brug AI Toolkit-debugger til analyse af modeludførelse
  • Implementer performanceprofilering for AI-operationer
  • Debug asynkrone AI-operationer med korrekt undtagelseshåndtering
  • Brug hukommelsesprofilering til optimering

Windows AI Foundry-værktøjer

  • Udnyt Foundry Local CLI til modeltest og validering
  • Brug Windows AI API-testværktøjer til integrationsverifikation
  • Implementer brugerdefineret logning til overvågning af AI-operationer
  • Opret automatiseret test for AI-funktionalitets pålidelighed

Fremtidssikring af dine applikationer

Fremspirende teknologier

Næste generations hardware

  • Design applikationer til at udnytte fremtidige NPU-kapaciteter
  • Planlæg for øgede modelstørrelser og kompleksitet
  • Implementer adaptive arkitekturer til udviklende hardware
  • Overvej kvanteklare algoritmer for fremtidig kompatibilitet

Avancerede AI-funktioner

  • Forbered dig på multimodal AI-integration på tværs af flere datatyper
  • Planlæg for realtids samarbejdende AI mellem flere enheder
  • Design til federerede læringskapaciteter
  • Overvej edge-cloud hybrid intelligensarkitekturer

Kontinuerlig læring og tilpasning

Modelopdateringer

  • Implementer problemfri modelopdateringsmekanismer
  • Design applikationer til at tilpasse sig forbedrede modelkapaciteter
  • Planlæg for bagudkompatibilitet med eksisterende modeller
  • Implementer A/B-test for modelperformanceevaluering

Funktionsudvikling

  • Design modulære arkitekturer, der kan rumme nye AI-funktioner
  • Planlæg for integration af fremspirende Windows AI API'er
  • Implementer funktionsflag til gradvis kapacitetsudrulning
  • Design brugergrænseflader, der tilpasser sig forbedrede AI-funktioner

Konklusion

Windows Edge AI-udvikling repræsenterer konvergensen af kraftfulde AI-funktioner med den robuste, sikre og skalerbare Windows-platform. Ved at mestre Windows AI Foundry-økosystemet kan udviklere skabe intelligente applikationer, der leverer enestående brugeroplevelser, samtidig med at de opretholder de højeste standarder for privatliv, sikkerhed og ydeevne.

Kombinationen af Windows AI API'er, Foundry Local og Windows ML giver et enestående fundament for at bygge næste generations intelligente Windows-applikationer. Efterhånden som AI fortsætter med at udvikle sig, sikrer Windows-platformen, at dine applikationer vil skalere med fremspirende teknologier, samtidig med at de opretholder kompatibilitet og ydeevne på tværs af det mangfoldige Windows

Eksempeldepoter og kode

Udviklingsværktøjer

Teknisk support

Fællesskab og support


Denne guide er designet til at udvikle sig i takt med det hurtigt fremskridende Windows AI-økosystem. Regelmæssige opdateringer sikrer tilpasning til de nyeste platformfunktioner og bedste udviklingspraksis.

08. Praktisk erfaring med Microsoft Foundry Local - Komplet udviklerværktøjssæt


Ansvarsfraskrivelse:
Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten Co-op Translator. Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.