Denne session fokuserer på praktisk opdagelse og administration af modeller med Foundry Local. Du vil lære at liste tilgængelige modeller, teste forskellige muligheder og forstå grundlæggende præstationskarakteristika. Tilgangen lægger vægt på praktisk udforskning med foundry CLI for at hjælpe dig med at vælge de rette modeller til dine anvendelser.
- Mestre foundry CLI-kommandoer til opdagelse og administration af modeller
- Forstå modelcache og lokale lagringsmønstre
- Lære at teste og sammenligne forskellige modeller hurtigt
- Etablere praktiske arbejdsgange til modelvalg og benchmarking
- Udforske det voksende økosystem af modeller tilgængelige via Foundry Local
- Gennemført Session 1: Kom godt i gang med Foundry Local
- Foundry Local CLI installeret og tilgængelig
- Tilstrækkelig lagerplads til modeldownloads (modeller kan variere fra 1GB til 20GB+)
- Grundlæggende forståelse af modeltyper og anvendelser
Opret dit eget script til modelvurdering baseret på Sample 03:
REM create_model_test.cmd
@echo off
echo Model Discovery and Testing Script
echo =====================================
echo.
echo Step 1: List available models
foundry model list
echo.
echo Step 2: Check what's cached
foundry cache list
echo.
echo Step 3: Start phi-4-mini for testing
foundry model run phi-4-mini --verbose
echo.
echo Step 4: Test with a simple prompt
curl -X POST http://localhost:8000/v1/chat/completions ^
-H "Content-Type: application/json" ^
-d "{\"model\":\"phi-4-mini\",\"messages\":[{\"role\":\"user\",\"content\":\"Hello, please introduce yourself.\"}],\"max_tokens\":100}"
echo.
echo Model test complete!- Kør Sample 03-scriptet:
samples\03\list_and_bench.cmd - Prøv forskellige modeller: Test mindst 3 forskellige modeller
- Sammenlign præstation: Notér forskelle i hastighed og svarkvalitet
- Dokumentér resultater: Opret et simpelt sammenligningsdiagram
Model Comparison Results:
========================
phi-4-mini: Fast (~2s), good for general chat
qwen2.5-7b: Slower (~5s), better reasoning
deepseek-r1: Medium (~3s), excellent for code
Recommendation: Start with phi-4-mini for development,
switch to qwen2.5-7b for production reasoning tasks.
Model Starter Ikke:
REM Check service status
foundry service status
REM Restart service if needed
foundry service stop
foundry service start
REM Try with verbose output
foundry model run phi-4-mini --verboseUtilstrækkelig Hukommelse:
- Start med mindre modeller (
phi-4-mini) - Luk andre applikationer
- Opgrader RAM, hvis du ofte rammer grænser
Langsom Præstation:
- Sørg for, at modellen er fuldt indlæst (tjek detaljeret output)
- Luk unødvendige baggrundsapplikationer
- Overvej hurtigere lager (SSD)
- Start Småt: Begynd med
phi-4-minifor at validere opsætningen - En Model ad Gangen: Stop tidligere modeller, før du starter nye
- Overvåg Ressourcer: Hold øje med hukommelsesforbrug
- Test Konsistent: Brug de samme prompts for retfærdige sammenligninger
- Dokumentér Resultater: Notér modelpræstation for dine anvendelser
- Fokus for Session 4: Optimeringsværktøjer og -teknikker
- Forudsætninger: Komfortabel med modelskift og grundlæggende præstationstest
- Anbefalet: Identificér 2-3 favoritmodeller fra denne session
- Foundry Local Dokumentation: Officiel dokumentation
- CLI Reference: Komplet kommandooversigt
- Model Mondays: Ugentlige modelfremhævelser
- Foundry Local GitHub: Fællesskab og problemer
- Sample 03: Model Discovery: Praktisk eksempelscript
✅ Modelopdagelse: Brug foundry model list til at udforske tilgængelige modeller
✅ Hurtig Testning: Brug mønsteret list_and_bench.cmd til hurtig evaluering
✅ Præstationsovervågning: Grundlæggende ressourceforbrug og responstid
✅ Modelvalg: Praktiske retningslinjer for valg af modeller efter anvendelse
✅ Cacheadministration: Forståelse af lagring og oprydningsprocedurer
Du har nu de praktiske færdigheder til at opdage, teste og vælge passende modeller til dine AI-applikationer ved hjælp af Foundry Locals enkle CLI-tilgang.
- Opdag og vurder open-source modeller til lokal inferens
- Kompiler og kør udvalgte Hugging Face-modeller inden for Foundry Local
- Anvend strategier for modelvalg baseret på nøjagtighed, latenstid og ressourcebehov
- Administrér modeller lokalt med cache og versionering
Foundry CLI tilbyder enkle kommandoer til opdagelse og administration af modeller:
REM List all available models in the catalog
foundry model list
REM List cached (downloaded) models
foundry cache list
REM Check cache directory location
foundry cache lsStart med populære, veltestede modeller for at forstå præstationskarakteristika:
REM Run Phi-4-Mini (lightweight, fast)
foundry model run phi-4-mini --verbose
REM Run Qwen 2.5 7B (larger, more capable)
foundry model run qwen2.5-7b --verbose
REM Run DeepSeek (specialized for coding)
foundry model run deepseek-r1-7b --verboseBemærk: Flaget --verbose giver detaljeret opstartsinformation, herunder:
- Modeldownloadstatus (ved første kørsel)
- Hukommelsesallokeringsdetaljer
- Servicebindingsinformation
- Præstationsinitialiseringsmålinger
Små Sproglige Modeller (SLMs):
phi-4-mini: Hurtig, effektiv, god til generel chatphi-4: Mere kapabel version med bedre ræsonnement
Mellemstore Modeller:
qwen2.5-7b: Fremragende ræsonnement og længere kontekstdeepseek-r1-7b: Optimeret til kodegenerering
Større Modeller:
llama-3.2: Metas nyeste open-source modelqwen2.5-14b: Enterprise-grade ræsonnement
Baseret på vores Sample 03-mønster er her den minimale arbejdsgang:
@echo off
REM Sample 03 - List and bench pattern
echo Listing available models...
foundry model list
echo.
echo Checking cached models...
foundry cache list
echo.
echo Starting phi-4-mini with verbose output...
foundry model run phi-4-mini --verboseNår en model kører, test den med konsistente prompts:
REM Test via curl (Windows Command Prompt)
curl -X POST http://localhost:8000/v1/chat/completions ^
-H "Content-Type: application/json" ^
-d "{\"model\":\"phi-4-mini\",\"messages\":[{\"role\":\"user\",\"content\":\"Explain edge AI in one sentence.\"}],\"max_tokens\":50}"# PowerShell approach for testing
$body = @{
model = "phi-4-mini"
messages = @(
@{
role = "user"
content = "Explain edge AI in one sentence."
}
)
max_tokens = 50
} | ConvertTo-Json -Depth 3
Invoke-RestMethod -Uri "http://localhost:8000/v1/chat/completions" -Method Post -Body $body -ContentType "application/json"Foundry Local administrerer automatisk modeldownloads og caching:
REM Check cache directory and contents
foundry cache ls
REM View cache location
foundry cache cd
REM Clean up unused models (if needed)
foundry cache cleanTypiske Modelstørrelser:
phi-4-mini: ~2.5 GBqwen2.5-7b: ~4.1 GBdeepseek-r1-7b: ~4.3 GBllama-3.2: ~4.9 GBqwen2.5-14b: ~8.2 GB
Bedste Lagringspraksis:
- Hold 2-3 modeller cachet for hurtig skift
- Fjern ubrugte modeller for at frigøre plads:
foundry cache clean - Overvåg diskforbrug, især på mindre SSD'er
- Overvej kompromis mellem modelstørrelse og kapabilitet
Mens modeller kører, overvåg systemressourcer:
Windows Task Manager:
- Hold øje med hukommelsesforbrug (modeller forbliver indlæst i RAM)
- Overvåg CPU-udnyttelse under inferens
- Tjek disk I/O under initial modelindlæsning
Kommandolinjeovervågning:
REM Check memory usage (PowerShell)
Get-Process | Where-Object {$_.ProcessName -like "*foundry*"} | Select-Object ProcessName, WorkingSet64
REM Monitor running models
foundry service psTil Generel Chat og Q&A:
- Start med:
phi-4-mini(hurtig, effektiv) - Opgrader til:
phi-4(bedre ræsonnement) - Avanceret:
qwen2.5-7b(længere kontekst)
Til Kodegenerering:
- Anbefalet:
deepseek-r1-7b - Alternativ:
qwen2.5-7b(også god til kode)
Til Kompleks Ræsonnement:
- Bedst:
qwen2.5-7bellerqwen2.5-14b - Budgetmulighed:
phi-4
Minimum Systemkrav:
phi-4-mini: 8GB RAM, entry-level CPU
phi-4: 12GB RAM, mid-range CPU
qwen2.5-7b: 16GB RAM, mid-range CPU
deepseek-r1: 16GB RAM, mid-range CPU
qwen2.5-14b: 24GB RAM, high-end CPU
Anbefalet for Bedste Præstation:
- 32GB+ RAM for komfortabelt multi-model skift
- SSD-lagring for hurtigere modelindlæsning
- Moderne CPU med god single-thread præstation
- NPU-understøttelse (Windows 11 Copilot+ PC'er) for acceleration
REM Stop current model (if needed)
foundry service stop
REM Start different model
foundry model run qwen2.5-7b
REM Verify model is running
foundry service statusHer er en ligetil tilgang til at sammenligne modelpræstation:
# simple_bench.py - Based on Sample 03 patterns
import time
import requests
import json
def test_model_response(model_name, prompt="Explain edge AI in one sentence."):
"""Test a single model with a prompt and measure response time."""
start_time = time.time()
try:
response = requests.post(
"http://localhost:8000/v1/chat/completions",
headers={"Content-Type": "application/json"},
json={
"model": model_name,
"messages": [{"role": "user", "content": prompt}],
"max_tokens": 64
},
timeout=30
)
elapsed = time.time() - start_time
if response.status_code == 200:
result = response.json()
return {
"model": model_name,
"latency_sec": round(elapsed, 3),
"response": result["choices"][0]["message"]["content"],
"status": "success"
}
else:
return {
"model": model_name,
"status": "error",
"error": f"HTTP {response.status_code}"
}
except Exception as e:
return {
"model": model_name,
"status": "error",
"error": str(e)
}
# Test the currently running model
if __name__ == "__main__":
# Test with different models (start each model first)
test_models = ["phi-4-mini", "qwen2.5-7b", "deepseek-r1-7b"]
print("Model Performance Test")
print("=" * 50)
for model in test_models:
print(f"\nTesting {model}...")
print("Note: Make sure this model is running first with 'foundry model run {model}'")
result = test_model_response(model)
if result["status"] == "success":
print(f"✅ {model}: {result['latency_sec']}s")
print(f" Response: {result['response'][:100]}...")
else:
print(f"❌ {model}: {result['error']}")For hver model, test med konsistente prompts og vurder manuelt:
Testprompts:
- "Forklar kvantecomputing på en enkel måde."
- "Skriv en Python-funktion til at sortere en liste."
- "Hvad er fordele og ulemper ved fjernarbejde?"
- "Opsummer fordelene ved edge AI."
Vurderingskriterier:
- Nøjagtighed: Er informationen korrekt?
- Klarhed: Er forklaringen let at forstå?
- Fuldstændighed: Besvarer den hele spørgsmålet?
- Hastighed: Hvor hurtigt svarer den?
REM Monitor while testing different models
REM Start model
foundry model run phi-4-mini
REM In another terminal, monitor resources
foundry service status
foundry service ps
REM Check system resources (PowerShell)
Get-Process | Where-Object ProcessName -Like "*foundry*" | Format-Table ProcessName, WorkingSet64, CPU- Abonner på Model Mondays for nye modeller og tips: https://aka.ms/model-mondays
- Bidrag med resultater til dit teams
models.json - Forbered dig til Session 4: sammenligning af LLMs vs SLMs, lokal vs cloud inferens og praktiske demoer
Ansvarsfraskrivelse:
Dette dokument er blevet oversat ved hjælp af AI-oversættelsestjenesten Co-op Translator. Selvom vi bestræber os på nøjagtighed, skal det bemærkes, at automatiserede oversættelser kan indeholde fejl eller unøjagtigheder. Det originale dokument på dets oprindelige sprog bør betragtes som den autoritative kilde. For kritisk information anbefales professionel menneskelig oversættelse. Vi påtager os ikke ansvar for misforståelser eller fejltolkninger, der måtte opstå som følge af brugen af denne oversættelse.