Exámenes vigentes · 2026 · Fundamentals · Associate · Expert · Specialty

Azure Certification
Path 2026

Matrices de competencia por certificación. 19 exámenes activos distribuidos en 4 niveles oficiales de Microsoft. Cada fila detalla dominios de examen, temas clave, proyectos de validación y criterios de éxito.

Python Los proyectos de validación usan azure-sdk-for-python, Azure CLI y Bicep/Terraform donde aplica.
01
DominioCertificaciónObjetivoDif.RecursosProyecto Python / ValidaciónCriterio de Éxito
Cloud Core
Microsoft Certified: Azure Fundamentals — AZ-900
Conceptos cloud (IaaS / PaaS / SaaS · CapEx vs OpEx · shared responsibility model) · Servicios core de Azure (Regiones, AZs, Resource Groups, ARM) · Compute (VMs, App Service, Azure Functions, Container Instances, AKS básico) · Storage (Blob, File, Queue, Table, Disk) · Redes (VNet, VPN Gateway, ExpressRoute, Load Balancer, CDN, DNS) · Bases de datos (SQL Database, Cosmos DB, Azure Database for PostgreSQL/MySQL) · Identidad (Azure AD/Entra ID: usuarios, grupos, RBAC, MFA, SSO) · Gestión y gobierno (Azure Policy, Management Groups, Cost Management, Azure Advisor, Blueprints, Tags) · Monitoreo (Azure Monitor, Log Analytics, Service Health) · SLA y ciclo de vida de servicios
40–60 preguntas · 45 min · Passing: 700/1000 · Vigencia: sin caducidad · Coste: $99 USD
Demostrar comprensión fundacional de la nube Azure: su modelo económico, servicios core, identidad, seguridad compartida y governance — base conceptual obligatoria antes de cualquier certificación técnica de nivel Associate o Expert. Fácil Script Python con azure-mgmt-resource y azure-identity que enumera todos los recursos activos de una suscripción (VMs, Storage Accounts, SQL Databases, Function Apps) por Resource Group y los exporta en JSON con su tipo, región, estado y SKU. Incluye cálculo de costos del mes con azure-mgmt-consumption. PythonScript autentica con DefaultAzureCredential sin hardcodear secretos; enumera recursos en todas las regiones de la suscripción; JSON de salida incluye tipo, región, estado y grupo de recursos; informe de costos por servicio con top-5 más costosos.
AI Fundamentals
Microsoft Certified: Azure AI Fundamentals — AI-900
Conceptos de IA/ML (aprendizaje supervisado, no supervisado, reinforcement learning · regresión, clasificación, clustering) · Responsible AI (fairness, reliability, privacy, inclusivity, transparency, accountability) · Computer Vision en Azure (Azure AI Vision: análisis de imágenes, OCR, Face API, Video Indexer) · NLP (Azure AI Language: análisis de sentimiento, extracción de entidades, traducción, QA) · Generative AI (Azure OpenAI Service: GPT, DALL-E, Copilot) · Azure Machine Learning (autoML, designer, fundamentos sin código) · Azure AI Search (cognitive search, índices, knowledge mining)
AZ-900 (recomendado, no obligatorio)
40–60 preguntas · 45 min · Passing: 700/1000 · Vigencia: sin caducidad · Coste: $99 USD
Comprender el panorama de IA/ML en Azure — qué servicio usar para visión, NLP, speech, decisión y IA generativa — incluyendo los principios de IA responsable que rigen el desarrollo ético de soluciones inteligentes en Microsoft. Fácil Aplicación de análisis de documentos en Python: sube imágenes/PDFs al pipeline, extrae texto con azure-ai-formrecognizer (Document Intelligence), analiza sentimiento con azure-ai-textanalytics, detecta idioma y entidades, y genera un resumen usando Azure OpenAI (openai SDK con endpoint de Azure). PythonOCR correcto en documentos con tablas; análisis de sentimiento retorna confianza >0.9 en textos claros; resumen generado por GPT-4o en <5s; cada llamada maneja errores HTTP con retry; pipeline procesa batch de 10 docs sin superar Free Tier de las APIs.
Data Fundamentals
Microsoft Certified: Azure Data Fundamentals — DP-900
Conceptos de datos (datos relacionales vs no relacionales vs analíticos · OLTP vs OLAP · batch vs streaming) · Bases de datos relacionales en Azure (Azure SQL Database, Azure Database for PostgreSQL/MySQL: conceptos de tablas, claves, joins, índices) · Datos no relacionales (Azure Cosmos DB: modelos API JSON, Table, Cassandra; Azure Blob Storage: jerarquía de contenedores) · Analytics en Azure (Azure Synapse Analytics: fundamentos de Data Warehouse, Spark pools; HDInsight; Azure Databricks básico; Azure Data Factory: pipelines, linked services) · Visualización (Power BI: datasets, informes, dashboards, publicación) · Real-time analytics (Azure Stream Analytics, Event Hubs, Azure Data Explorer básico)
AZ-900 (recomendado, no obligatorio)
40–60 preguntas · 45 min · Passing: 700/1000 · Vigencia: sin caducidad · Coste: $99 USD
Comprender los fundamentos del ecosistema de datos Azure — tipos de datos, servicios relacionales y NoSQL, analytics a escala y visualización — base obligatoria antes de DP-203 (Data Engineer) o DP-100 (Data Scientist). Fácil Pipeline Python multi-destino: lee un CSV de ventas (500k filas) y lo carga en paralelo a Azure SQL Database (con pyodbc), Azure Blob Storage (con azure-storage-blob) como Parquet, y Azure Cosmos DB (con azure-cosmos) como documentos JSON. Cada destino se consulta al final para verificar integridad. PythonCarga a 3 destinos completa sin errores; row count idéntico en SQL, Parquet y Cosmos DB; script usa DefaultAzureCredential para todos los servicios; tiempo total de carga <5 min para 500k filas; manejo de errores de red con retry exponential backoff.
Security Core
Microsoft Certified: Security, Compliance & Identity Fundamentals — SC-900
Conceptos de seguridad (Zero Trust model, defense in depth, CIA triad, shared responsibility) · Microsoft Entra ID / Azure AD (identidades, RBAC, PIM, Conditional Access, MFA, SSPR, B2B/B2C, Managed Identities) · Autenticación y autorización (OAuth 2.0, OIDC, SAML 2.0 básico) · Microsoft Defender (Defender for Cloud: secure score, recommendations; Defender XDR: endpoints, identidad, email) · Microsoft Sentinel (SIEM/SOAR: workbooks, analytics rules, incidents) · Azure compliance (Azure Policy, Blueprints, Microsoft Purview: compliance portal, sensitivity labels, DLP, eDiscovery) · Privacy (GDPR, ISO 27001, SOC: Azure Trust Center, Privacy Statement)
AZ-900 + AI-900 (recomendados, no obligatorios)
40–60 preguntas · 45 min · Passing: 700/1000 · Vigencia: sin caducidad · Coste: $99 USD
Comprender el ecosistema de seguridad, identidad y cumplimiento de Microsoft — Entra ID, Defender, Sentinel y Purview — base conceptual para AZ-500 (Security Engineer) y SC-200/SC-300 en nivel Associate. Fácil Auditoría de seguridad de suscripción Azure con Python: consulta Microsoft Defender for Cloud Secure Score y lista de recomendaciones activas via azure-mgmt-security, genera reporte de identidades sin MFA habilitado consultando Entra ID via msgraph-sdk-python, y exporta resumen de compliance en JSON con severidad por hallazgo. PythonScript obtiene Secure Score numérico y lista las top-10 recomendaciones ordenadas por impacto; query MS Graph retorna usuarios sin MFA en <30s; reporte JSON clasifica hallazgos como High/Medium/Low; autenticación con Service Principal y permisos de solo lectura.
02
DominioCertificaciónObjetivoDif.RecursosProyecto Python / ValidaciónCriterio de Éxito
Administration
Microsoft Certified: Azure Administrator Associate — AZ-104
Identidad y gobierno (Entra ID: usuarios, grupos, RBAC, Management Groups, Azure Policy, resource locks, Cost Management, Blueprints, Tags) · Storage (Storage Accounts: tipos, replicación GRS/LRS/ZRS, lifecycle management, Azure File Sync, SAS tokens, acceso con Managed Identity) · Compute (VMs: sizing, availability sets/zones, extensions, Azure VM Scale Sets; Azure App Service Plans; Azure Container Instances; AKS conceptos) · Networking (VNets, subnets, NSGs, ASGs, UDRs, VNet Peering, VPN Gateway P2S/S2S, ExpressRoute básico, Azure Load Balancer, Application Gateway, Azure DNS, Private DNS Zones, Network Watcher) · Monitoreo y backup (Azure Monitor: métricas, alertas, Log Analytics workspace, diagnostic settings; Azure Backup: Recovery Services Vault, políticas de backup; Azure Site Recovery básico)
AZ-900 + 6 meses de experiencia práctica con Azure Portal, CLI o PowerShell
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año (renovación gratis online) · Prerrequisito para AZ-305
Implementar, gestionar y monitorizar infraestructura Azure en entornos empresariales — la certificación más solicitada en ofertas de trabajo cloud y prerrequisito obligatorio para la más valiosa, AZ-305 Solutions Architect Expert. Medio Infraestructura de 3 capas con Python + Bicep: VNet con subnets pública/privada + NSG restrictivo → VM Scale Set (2–5 instancias) con Application Gateway → Azure Database for PostgreSQL Flexible Server en subnet privada. Script Python con azure-mgmt-compute que verifica el estado del VMSS, fuerza un scale-out y comprueba que la nueva instancia pasa el health probe en <5 min. PythonVM Scale Set despliega en 2 availability zones; NSG bloquea tráfico directo a subnet privada verificado con Network Watcher; scale-out funciona con script Python en <5 min; backups de PostgreSQL configurados con política de 7 días; alertas en Azure Monitor disparadas en prueba de CPU alta.
Development
Microsoft Certified: Azure Developer Associate — AZ-204
Compute (Azure Functions: triggers HTTP/Timer/Queue/Blob/Service Bus, bindings, Durable Functions: orchestrators, activities; App Service: deployment slots, autoscale, WebJobs; Container Apps: KEDA, scaling rules; Container Registry: ACR Tasks) · Storage y datos (Blob Storage: tiers, lifecycle, client-side encryption; Cosmos DB SDK: CRUD, consistency levels, change feed; Azure Cache for Redis: estrategias de caché, TTL; Azure Table Storage) · Integración (Service Bus: queues vs topics/subscriptions, sessions, DLQ; Event Grid: topics, subscriptions, event filtering; Event Hubs: particiones, consumer groups, Capture) · Seguridad (Key Vault: secrets, keys, certificates; Managed Identity en código; App registrations: OAuth2 flows; MSAL para Python) · Monitoreo (Application Insights: SDK, custom telemetry, distributed tracing, availability tests; Azure Monitor: structured logs con OpenTelemetry) · API Management (products, policies, subscriptions, rate limiting, backend mTLS)
AZ-900 + 1–2 años de experiencia en desarrollo de software y Azure básico
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Prerrequisito alternativo para AZ-400
Diseñar, construir y mantener aplicaciones cloud-native en Azure con patrones serverless, mensajería asíncrona y seguridad integrada — la certificación esencial para cualquier backend developer que construya sobre Azure a diario. Medio Sistema de procesamiento de pedidos event-driven en Python: HTTP Function recibe orden → publica a Service Bus Topic → Function suscriptora guarda en Cosmos DB + invalida caché Redis → Event Grid notifica a cliente. Key Vault para todos los secrets. Application Insights con custom telemetry (duración, success rate por endpoint, trace de Cosmos DB call). PythonNingún secret en código ni variables de entorno sin Key Vault; Durable Function orchestrator procesa flujo de compensación (saga pattern) ante fallo de pago; Application Insights muestra end-to-end trace con correlationId; DLQ poblada en prueba de error downstream; latencia p99 <300ms para endpoint HTTP.
Security
Microsoft Certified: Azure Security Engineer Associate — AZ-500
Identidad y acceso (Entra ID avanzado: Conditional Access policies, PIM con just-in-time access, access reviews, Managed Identities, App registrations + permisos de API, B2B/B2C, Entra ID Protection: sign-in risk, user risk) · Plataforma segura (Azure Policy: remediation, compliance, exclusions; Management Group SCPs; Resource Locks; Defender for Cloud: security policies, compliance dashboard, workflow automation; Microsoft Sentinel: analytics rules KQL, workbooks, playbooks SOAR, data connectors) · Compute seguro (NSG + ASG + Azure Firewall: DNAT rules, network rules, app rules; Azure DDoS Protection: Basic vs Standard; Azure Bastion: host seguro sin RDP/SSH expuestos; Just-in-Time VM access) · Storage seguro (SAS tokens: service SAS, account SAS, user delegation SAS; Private Endpoints para Storage; Customer-Managed Keys con Key Vault; Azure AD auth para blobs) · Aplicaciones seguras (Key Vault: access policies vs RBAC; certificados TLS; secretos rotación automática; App Gateway WAF: OWASP Core Rule Set, custom rules, exclusions)
AZ-900 + SC-900 + 1 año de experiencia en seguridad cloud
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD
Implementar una postura de seguridad cloud completa en Azure con defensa en profundidad: gestión de identidades privilegiadas, protección de red, cifrado de datos, detección de amenazas con Sentinel y respuesta automatizada a incidentes. Difícil Sistema de auto-remediación de seguridad: Sentinel analytics rule (KQL) detecta sign-in de usuario desde país bloqueado → Logic App playbook Python bloquea cuenta en Entra ID + crea incident → Defender for Cloud custom workflow automation activa Azure Policy remediation al detectar Storage Account público → script Python genera reporte diario de Secure Score con delta respecto al día anterior. PythonPlaybook bloquea cuenta en <2 min desde alerta Sentinel; Storage Account público bloqueado en <3 min por remediation task; Secure Score no baja de 80%; script KQL detecta el evento de prueba correctamente; todos los playbooks usan Managed Identity, no credenciales hardcodeadas.
Networking
Microsoft Certified: Azure Network Engineer Associate — AZ-700
Diseño de VNets (CIDR planning, subnets, IPv4/IPv6 dual-stack, VNet Peering global, Service Endpoints vs Private Endpoints) · Hybrid networking (VPN Gateway: Active-Active, zone-redundant SKUs, BGP; ExpressRoute: circuits, peering types private/Microsoft/public, FastPath, Global Reach, coexistencia VPN+ER) · Azure Virtual WAN (arquitectura hub-and-spoke a escala, routing policies, secured hubs con Azure Firewall) · Routing (UDRs, BGP, Route Server, Next Hop) · Load balancing (Azure Load Balancer: Standard SKU, health probes, HA ports; Application Gateway v2: WAF, autoscaling, routing rules, URL-based, multi-site; Azure Front Door: global load balancing, WAF global, origin groups, health probes; Traffic Manager: routing methods) · Firewall y seguridad (Azure Firewall Premium: TLS inspection, IDPS, URL filtering, Firewall Policy; Azure DDoS Protection Standard) · DNS avanzado (Private DNS Zones, DNS Private Resolver: inbound/outbound endpoints, ruleset)
AZ-104 + experiencia sólida en networking (TCP/IP, BGP, DNS, firewalls)
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD
Diseñar, implementar y mantener soluciones de red empresariales en Azure: conectividad híbrida resiliente, segmentación de red entre VNets a escala, load balancing multi-región e inspección de tráfico con Azure Firewall — la especialización más técnica del track de infraestructura. Difícil Hub-and-spoke con Azure Virtual WAN y Python: script Bicep + Python (azure-mgmt-network) despliega hub con Azure Firewall Premium + 3 spoke VNets (workload-A, workload-B, shared-services) + Private DNS Resolver con reglas de forwarding. Script Python de validación verifica conectividad spoke-to-spoke y genera diagrama de topología con networkx + graphviz. PythonTráfico entre spokes atraviesa Firewall (verificado con Flow Logs); DNS Resolver resuelve nombres on-premises simulados; diagrama de topología generado automáticamente con CIDRs y rutas efectivas; stack destruible y reconstruible con un comando; NSG flow logs analizados por script Python para validar allow/deny rules.
AI Engineering
Microsoft Certified: Azure AI Engineer Associate — AI-102
Azure OpenAI Service (despliegue de modelos GPT-4o/GPT-4/DALL-E/Whisper, completion vs chat completion, system prompts, function calling, RAG con On Your Data, fine-tuning, content filtering) · Azure AI Services (multi-service vs single-service resources, keys + Entra auth) · Azure AI Vision (Image Analysis 4.0: object detection, captioning, OCR, smart crop; Custom Vision: classification + detection) · Azure AI Language (CLU: conversational language understanding, orchestration workflow; Question Answering: knowledge bases, active learning; Sentiment + Opinions + Key Phrase; Text Classification custom) · Azure AI Speech (STT, TTS, speaker recognition, custom speech models, speech translation) · Azure AI Translator (neural MT, custom translators, document translation) · Azure AI Search (indexers, skillsets cognitivos, vectorización, hybrid search, semantic ranker) · Responsible AI (content safety API, fairness, reliability, transparency, privacy) · Azure AI Foundry (ex Azure ML Studio): deployment de modelos, model catalog, prompt flows
AI-900 + AZ-900 + experiencia en Python y APIs REST
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD
Construir soluciones de IA production-ready usando Azure AI Services y Azure OpenAI: desde bots conversacionales con intenciones entrenadas hasta sistemas RAG sobre documentación interna, con content safety, monitoring y responsible AI integrados. Difícil RAG enterprise en Python: documenta carga PDFs a Azure AI Search (indexer + embedded con Azure OpenAI text-embedding-3-large) → Prompt Flow orquesta retrieval + augmentation + GPT-4o generation → Content Safety API filtra respuestas → Application Insights loguea latencia, token usage y satisfacción. Incluye función de cita de fuentes exactas. PythonHybrid search (keyword + vector) retorna documentos relevantes con score >0.85; respuestas incluyen cita de fragmento y página del documento fuente; Content Safety bloquea 100% de prompts de prueba dañinos; latencia p95 <4s end-to-end; token usage por query loguado y alertado si supera umbral de costo.
Data Engineering
Microsoft Certified: Azure Data Engineer Associate — DP-203
Azure Data Factory (pipelines: activities, linked services, datasets, triggers, integration runtime; Mapping Data Flows: transformaciones visuales, debug, particionamiento; Control Flow: ForEach, IfCondition, Until, Error Handling) · Azure Synapse Analytics (dedicated SQL pools: distribution hash/round-robin/replicate, statistics, indexes; serverless SQL pool: OPENROWSET, views sobre data lake; Spark pools: notebooks PySpark, Spark SQL; pipelines integradas) · Azure Data Lake Storage Gen2 (hierarchical namespace, ACLs, ABAC, lifecycle management, Azure Hierarchical Namespace) · Azure Databricks (clusters, notebooks Python/Scala, Delta Lake: ACID, time travel, merge; Unity Catalog: governance a nivel de tabla/columna) · Azure Stream Analytics (jobs: input IoT Hub/Event Hubs, queries SQL-like, output sinks, windowing functions: tumbling/hopping/session; checkpointing) · Azure Event Hubs (namespaces, particiones, consumer groups, Capture a ADLS, Schema Registry) · DP-203 enfatiza: diseño de esquemas optimizados para Synapse, pipeline de datos a escala, seguridad con Private Endpoints y Managed VNet, coste-eficiencia
DP-900 + AZ-900 + Python/SQL + 1 año de experiencia en datos
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD
Diseñar e implementar pipelines de datos modernos en Azure: desde la ingesta en batch y real-time hasta la transformación, catalogación y análisis a escala empresarial usando Synapse, Databricks, Data Factory y Data Lake Gen2. Difícil Pipeline medallion en Azure: Event Hubs recibe eventos de IoT (simulado con Python producer) → Stream Analytics job filtra y agrega ventanas de 5 min → ADLS Gen2 Bronze layer (raw JSON) → ADF pipeline nocturno → Databricks PySpark transforma a Silver (Parquet Delta) y Gold (Synapse dedicated pool con hash distribution) → Data Quality checks Python con Great Expectations. PythonDelta Lake merge-on-read correcto (sin duplicados tras reinicio del productor); Synapse SQL query sobre Gold corre en <10s para 12 meses de datos; Data Quality report muestra >99% completeness; ADF pipeline reiniciable idempotente tras fallo; ADLS con Managed VNet: sin acceso desde internet verificado.
Data Science ML
Microsoft Certified: Azure Data Scientist Associate — DP-100
Azure Machine Learning workspace (compute: clusters, compute instances, serverless; environments: Docker base images, conda specs; datastores y data assets; MLflow tracking integrado) · Preparación de datos ML (feature engineering en Python con pandas/scikit-learn; data labeling; Azure ML Datasets) · Entrenamiento de modelos (jobs: command jobs, sweep jobs hyperparameter tuning; training en local vs cluster; frameworks: scikit-learn, PyTorch, TensorFlow) · MLflow en Azure ML (autologging, custom logging, model registry, model signatures) · Optimización de hiperparámetros (Bayesian, Grid, Random; early termination: bandit, median stopping) · Responsible AI dashboard (fairness: disparate impact; interpretabilidad: SHAP; counterfactuals; error analysis) · Despliegue (online endpoints: managed vs Kubernetes, blue/green deployment; batch endpoints: scoring script, parallelization) · Pipelines de ML (Azure ML Pipelines: steps, inputs/outputs, caching; Designer: drag-and-drop) · AutoML (classification, regression, forecasting; featurization, primary metric, guardrails)
DP-900 + AI-900 + Python + scikit-learn/PyTorch/TensorFlow básico
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD
Implementar pipelines de machine learning completos en Azure ML: desde la preparación de datos hasta el entrenamiento distribuido, optimización de hiperparámetros, evaluación de Responsible AI y despliegue en endpoints de producción monitorizados. Difícil Pipeline MLOps end-to-end con Azure ML Python SDK v2: preprocessing command job (pandas) → sweep job XGBoost (50 trials Bayesian sobre n_estimators, max_depth, learning_rate) → Responsible AI dashboard (SHAP + fairness analysis) → registro en MLflow Model Registry → despliegue blue/green en managed online endpoint → monitoreo de data drift con dataset monitor semanal. PythonSweep job mejora baseline F1 en >5%; SHAP values identifican top-3 features más influyentes; Responsible AI dashboard sin disparate impact >0.2 entre grupos demográficos; online endpoint con p99 <200ms; dataset monitor dispara alerta SNS cuando drift score >0.3; todo ejecutable con SDK sin tocar la UI.
Database Admin
Microsoft Certified: Azure Database Administrator Associate — DP-300
Azure SQL Database (tiers: General Purpose vs Business Critical vs Hyperscale; vCores vs DTU; elastic pools; serverless tier: auto-pause, autopause delay; geo-replication vs failover groups; backup y PITR) · Azure SQL Managed Instance (full SQL Server compatibility, native VNet injection, Business Critical failover, link feature para migración) · Azure Database for PostgreSQL Flexible Server (high availability: zone-redundant + same-zone; read replicas; autoscale IOPS; Pgbouncer connection pooling; Azure extensions) · Azure Database for MySQL Flexible Server (idem PostgreSQL: HA, replicas, connection pooling) · Performance tuning (Query Store, Query Performance Insight; Index recommendations; Automatic Tuning: auto index, auto plan correction; Intelligent Query Processing) · Seguridad en BD (Microsoft Defender for SQL: ATP alerts, vulnerability assessment; Azure AD auth; Always Encrypted; TDE; Dynamic Data Masking; Row-Level Security; Advanced Threat Protection) · Monitoreo (Azure Monitor Metrics, Diagnostic Logs, Log Analytics, Database Watcher) · Migración (Azure Database Migration Service: offline vs online migration; Data Migration Assistant)
DP-900 + AZ-900 + experiencia en SQL Server / PostgreSQL / MySQL
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD
Administrar, optimizar y securizar bases de datos relacionales en Azure: SQL Database, Managed Instance, PostgreSQL y MySQL en producción — con alta disponibilidad, performance tuning, seguridad avanzada y estrategias de migración probadas. Difícil Suite de automatización de DBA con Python: script que consulta Query Store de Azure SQL vía pyodbc e identifica top-10 queries por CPU acumulado + sugiere índices faltantes → segundo script activa failover group hacia la réplica secundaria y mide RTO efectivo → script de auditoría de seguridad: verifica Dynamic Data Masking, TDE habilitado y Defender for SQL activo por base de datos. PythonQuery de mayor CPU identificada con execution_count, avg_cpu_time y plan XML; failover group promueve secondary en <30s; RTO documentado en reporte; auditoría detecta correctamente las BDs sin TDE (verificado creando una sin cifrar); script genera HTML report con RAG status por control de seguridad.
Fabric Data Eng
Microsoft Certified: Fabric Data Engineer Associate — DP-700
Microsoft Fabric arquitectura (OneLake: almacenamiento unificado; Fabric capacities; lakehouses: Delta tables, shortcuts a ADLS Gen2/S3; warehouses: T-SQL sobre Fabric; Real-Time Intelligence: Eventhouse, KQL Database, eventstreams) · Ingesta y orquestación (Fabric Data Factory: pipelines, dataflows Gen2; Copy activity; Fabric notebooks con PySpark: Spark 3.x, Delta Lake — merge, upsert, time travel; Fabric job scheduler) · Transformaciones con PySpark (DataFrames, schema enforcement, partitioning strategies, Z-ordering en Delta tables; incremental processing con watermarks; broadcast joins) · Medallion architecture en Fabric (Bronze/Silver/Gold en Lakehouse; VACUUM y OPTIMIZE; incremental loads) · DirectLake mode (conceptos para data engineers: cómo estructurar Delta tables para óptimo rendimiento en DirectLake; parquet columnar alignment; partitioning guidelines) · Seguridad Fabric (workspace roles; item permissions; row-level security en Lakehouse; column-level security; sensitivity labels de Purview para datasets) · Monitoreo (Fabric Capacity Metrics app; Spark monitoring; pipeline run history; alerts en Fabric)
DP-900 + DP-203 (recomendado) + Python/PySpark + SQL + experiencia con Delta Lake
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD · Lanzada 2024 · Rol: Fabric Data Engineer / Modern Data Platform Engineer
Diseñar e implementar soluciones de ingeniería de datos enterprise sobre Microsoft Fabric usando PySpark, Delta Lake y Fabric Pipelines — la certificación que representa el futuro del track de datos en Azure con OneLake como capa de almacenamiento unificada para todos los workloads analíticos. Difícil Pipeline medallion completo en Fabric con Python: Fabric Notebook PySpark ingesta CSV desde ADLS Gen2 shortcut a Bronze Lakehouse (Delta raw) → Silver (limpieza, tipado, deduplicación con Delta merge on primary key) → Gold (tabla agregada con Z-ORDER por fecha+región). Fabric Pipeline orquesta las 3 fases con dependencias y retry. Script Python con semantic-link valida row counts y métricas de calidad entre capas. PythonDelta merge correcto sin duplicados tras 3 reruns (idempotente); Z-ORDER reduce scan bytes >40% en query temporal verificado en Spark monitoring; Pipeline falla en Silver si Bronze tiene nulls en PK y reintenta hasta 3 veces; VACUUM no elimina datos referenciados por time travel en ventana de 7 días; quality checks en Python reportan >99.9% completeness.
Fabric Analytics
Microsoft Certified: Fabric Analytics Engineer Associate — DP-600
Microsoft Fabric para analytics (lakehouses, warehouses, Fabric capacities, OneLake consolidation; Fabric trial vs paid capacity; workspace governance) · Semantic models avanzados (Power BI en Fabric: star schema design, composite models; DAX avanzado: CALCULATE, FILTER, variables, time intelligence — YTD, SAMEPERIODLASTYEAR, PREVIOUSYEAR, DATEADD; row-level security estática y dinámica; field parameters; calculation groups) · Dataflows Gen2 (conectores Power Query M, transformaciones, incremental refresh, output destinations: Lakehouse o Warehouse; staged vs non-staged) · DirectLake mode (cuándo usar DirectLake vs DirectQuery vs Import; fallback a DirectQuery; partitioning guidelines para DirectLake; framing) · Power BI en Fabric (deployment pipelines dev/test/prod; large dataset format; incremental refresh; aggregations; composite models; paginated reports; scorecards) · Data Activator (Reflex objects: triggers, conditions, actions desde Power BI visuals y Eventhouse; alerting patterns) · Governance con Purview (sensitivity labels en semantic models; endorsement: promoted vs certified; lineage view; impact analysis) · Semantic Link (python-semantic-link: leer semantic models desde notebooks, ejecutar DAX desde Python, escribir datos de vuelta al Lakehouse)
DP-900 + PL-300 (muy recomendado) + DAX + Power Query M + experiencia en BI / análisis de datos
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD · Lanzada abril 2024 · Rol: Analytics Engineer / Senior BI Developer / Fabric Analyst
Diseñar e implementar soluciones analíticas enterprise en Microsoft Fabric: semantic models escalables con DAX avanzado, DirectLake sobre Lakehouse, dataflows Gen2, governance con Purview y automatización con Semantic Link — el nuevo estándar para analytics engineers que construyen sobre datos modernos en OneLake. Difícil Solución analítica end-to-end: Dataflow Gen2 ingesta desde SharePoint → Lakehouse Gold. Semantic model DirectLake con DAX measures (YTD ventas, MoM%, rolling 12M, margen bruto). Suite de tests Python con import sempy.fabric as fabric que evalúa 20 DAX measures contra valores esperados — detecta regression si alguna varía >2% tras cambio del modelo. Data Activator Reflex dispara alerta cuando margen bruto cae <20% en 3 días consecutivos. PythonSemantic Link test suite pasa 20/20 assertions en <90s; DirectLake sin fallback a DirectQuery verificado en Fabric monitoring (0 DirectQuery events); Dataflow Gen2 incremental refresh solo procesa filas nuevas del día (verificado con row count por partición); Data Activator alerta en <5 min tras condición de prueba; deployment pipeline promueve dev→prod sin cambios manuales en modelo.
03
DominioCertificaciónObjetivoDif.RecursosProyecto Python / ValidaciónCriterio de Éxito
Architecture
Microsoft Certified: Azure Solutions Architect Expert — AZ-305 Prerreq: AZ-104
Identidad y gobierno (Entra ID: diseño de tenant multi-forest, External Identities B2B/B2C; RBAC custom roles; Management Groups + Policy inheritance; Azure Blueprints vs Bicep; CAF: landing zones, governance; Well-Architected Framework: reliability, security, performance, cost, operational excellence) · Diseño de compute (AKS: node pools, autoscaler, ingress, GitOps; Service Fabric; Azure Batch para HPC; trade-offs App Service vs Container Apps vs AKS) · Diseño de almacenamiento (Storage Account performance tiers; Azure NetApp Files; Elastic SAN; trade-offs NoSQL vs relacional vs analítico para un caso de uso dado) · Diseño de redes (topology hub-and-spoke vs Virtual WAN; routing entre zonas; Azure Front Door + Application Gateway combinados; cross-region replication) · Diseño de continuidad (Availability Zones vs Sets; Azure Site Recovery: RTO/RPO targets; multi-region active-passive vs active-active; Chaos Studio) · Diseño de migración (Azure Migrate: discovery, assessment, server migration; App Service Migration Assistant; Database Migration Service; Cloud Adoption Framework R-strategies: Rehost, Replatform, Refactor, Rearchitect, Rebuild, Replace) · Diseño de integración (API Management: tiers, policies, self-hosted gateway; Event Grid vs Service Bus vs Event Hubs: decision framework; Logic Apps vs Azure Functions vs Durable Functions)
AZ-104 (obligatorio) + 5+ años de experiencia en IT + 1–2 años diseñando en Azure
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · La certificación Azure con mayor ROI según salary surveys
Diseñar arquitecturas Azure de nivel empresarial con trade-offs documentados: compute, storage, networking, continuidad, migración e integración de sistemas — traduciendo requisitos de negocio en decisiones técnicas que optimizan fiabilidad, seguridad y costo simultáneamente. Experto Landing Zone multi-región con Bicep + Python: Management Group hierarchy (Root → Platform → Workloads) + 4 suscripciones (Identity, Connectivity, Management, Workload-Prod) + Azure Firewall Premium en hub + Azure Policy initiative para governance. Script Python con azure-mgmt-resource despliega la estructura completa y valida compliance: policy assignments, security posture y connectivity entre spokes. PythonToda la landing zone desplegada desde cero con un script en <45 min; Azure Policy initiative reporta 100% de compliance en suscripciones nuevas; tráfico inter-spoke atraviesa Firewall Premium verificado; Chaos Studio experiment de VM failure no degrada la aplicación más allá del RTO objetivo; ADR por cada decisión de diseño con trade-offs.
DevOps & Platform
Microsoft Certified: DevOps Engineer Expert — AZ-400 Prerreq: AZ-104 o AZ-204
Source control (Azure Repos: branching strategies — trunk-based vs GitFlow vs GitHub Flow; pull request policies; branch protection; CODEOWNERS; Git large file storage; migración desde SVN/TFS) · CI/CD (Azure Pipelines: YAML multi-stage pipelines, templates reusables, library groups, variable groups, environments con approvals/gates; GitHub Actions: workflows, secrets, composite actions, reusable workflows; comparativa AzDO vs GitHub) · Dependency management (Azure Artifacts: feeds npm/NuGet/PyPI/Maven, upstream sources, retention policies; Dependabot integration) · IaC (Bicep: modules, scopes, conditions; Terraform en Azure: remote state en Azure Storage, Workspaces; ARM templates vs Bicep decision; Azure Developer CLI: azd init/up/down) · Testing estratégico (shift-left: tests unitarios en pipeline, SAST con GitHub Advanced Security + Defender for DevOps, DAST, chaos testing) · Observabilidad DevOps (Application Insights SDK: custom events, distributed tracing, sampling; Azure Monitor Workbooks; SLO/SLI/Error Budget; deployment frequency DORA) · Seguridad DevOps (SAST: CodeQL; SCA: Dependabot alerts; container scanning: Defender for Containers; secret scanning: GitHub Advanced Security; SBOM generation) · Feature management (Azure App Configuration: feature flags, key-value settings, geo-replication; progressive delivery)
AZ-104 o AZ-204 (uno de los dos, obligatorio) + experiencia real en CI/CD y operaciones cloud
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD
Diseñar e implementar pipelines de entrega continua enterprise, infraestructura como código a escala, observabilidad de plataforma y DevSecOps integrado en el ciclo de desarrollo — el estándar de las plataformas de ingeniería maduras en Azure. Experto Pipeline multi-stage con Azure Pipelines YAML + Python CDK: stages Build (pytest + mypy + ruff) → SAST (CodeQL + Defender for DevOps) → Deploy-Dev → Integration Tests → Deploy-Staging (canary 20% tráfico via Azure Front Door origin weights) → Approval Gate → Deploy-Prod. Feature flags con Azure App Configuration SDK en Python. DORA metrics dashboard con Application Insights custom events. PythonPipeline completo en <20 min desde commit; rollback automático si error rate canary >2% (medido con App Insights query en gate); CodeQL detecta al menos 1 issue de prueba introducido intencionalmente; DORA metrics (deploy frequency, lead time, MTTR) visibles en Workbook; feature flag togglable en producción sin redeploy.
04
DominioCertificaciónObjetivoDif.RecursosProyecto Python / ValidaciónCriterio de Éxito
Virtual Desktop
Microsoft Certified: Azure Virtual Desktop Specialty — AZ-140
Planificación AVD (host pools: pooled vs personal; workspace design; application groups: remote desktop vs RemoteApp; sizing de session hosts: GPU vs general purpose; FSLogix profile containers: Azure Files vs Azure NetApp Files) · Implementación (deployment vía ARM/Bicep; Windows 10/11 multisession; session host image management: Azure Compute Gallery, Shared Image Gallery; auto-scaling plan: schedule-based + load-based; Azure AD join vs hybrid AD join) · Redes AVD (RDP Shortpath: managed network + public network; Private Link para AVD; QoS políticas de red; Azure Firewall AVD traffic; Teams optimización para AVD; latency troubleshooting) · Identidad y acceso (Entra ID Conditional Access para AVD; RBAC roles: Desktop Virtualization Contributor, User, etc.; MFA enforcement; Intune integration para compliance) · Monitoreo y operaciones (Azure Monitor for AVD: diagnostics, Log Analytics workspace, workbook; Session diagnostics; Connection Quality metrics; AVD Insights dashboard; Windows Event Logs) · Optimización (RDS Sizing guidelines; MSIX App Attach vs AppX; OneDrive KFM; Start VM on Connect; drain mode maintenance; session host autoscale) · Licencias (Windows 10/11 Enterprise multisession eligibility; M365 licensing requirements; cost management AVD)
AZ-104 + experiencia en Windows Server, Active Directory y virtualización de escritorios
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD · Rol: VDI Architect / Azure Infrastructure Specialist
Planificar, implementar y gestionar entornos Azure Virtual Desktop completos a escala empresarial: desde el sizing de host pools y gestión de imágenes hasta FSLogix profiles, autoscaling, monitoring y optimización de costos para infraestructura VDI en la nube. Experto Automatización de AVD con Python: script azure-mgmt-desktopvirtualization que monitoriza el host pool cada 5 minutos — si el número de sesiones activas supera el 80% de la capacidad, activa nuevos session hosts vía Start VM; si está por debajo del 20% durante 30 min, los drena y desactiva. Genera reporte de utilización diario y costo estimado por usuario activo. PythonAutoscaler Python funcional con prueba de carga simulada (script de sesiones concurrent); session hosts activados en <8 min desde umbral; drain mode correcto sin desconexiones activas; reporte diario con utilización por hora, peak concurrent users y costo/usuario; alertas de Log Analytics cuando connection quality degradada >10% de sesiones.
SAP on Azure
Microsoft Certified: Azure for SAP Workloads Specialty — AZ-120
Arquitectura SAP en Azure (instancias certificadas SAP HANA: M-series, Mv2-series; SAP HANA Large Instances; SAP NetWeaver en Azure VMs: ABAP stack vs Java stack; SAP S/4HANA, SAP BW/4HANA en Azure) · Alta disponibilidad SAP (HANA System Replication: sync/sync mem/async; Linux HA: Pacemaker + STONITH; Windows Server Failover Clustering para SAP ASCS/ERS; Azure Load Balancer Standard para SAP cluster; Azure Site Recovery para SAP DR) · Networking SAP (Proximity Placement Groups para baja latencia HANA; Accelerated Networking obligatorio en HANA hosts; ExpressRoute para conectividad on-premises; VNet design para SAP tiers: app + DB + management) · Storage SAP (Azure Premium SSD v2 y Ultra Disk para HANA data + log volumes; NFS via Azure NetApp Files para /sapmnt y /hana/shared; Azure Files para transport directory) · Backup SAP (Azure Backup for SAP HANA: Backint agent; HANA backup catalog; snapshot-based via Azure Backup) · Migración SAP a Azure (Homogeneous vs Heterogeneous System Copy; SWPM; SAP R3load; Azure Migrate para SAP; deployment con SAP Deployment Automation Framework — SDAF) · SAP RISE on Azure: integración con servicios nativos, networking con RISE VNet, acceso compartido a ADLS
AZ-104 + AZ-305 (recomendado) + experiencia certificada SAP BASIS o arquitectura SAP empresarial
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD · Rol: SAP Architect / SAP Basis Engineer Azure
Arquitecturar, migrar y operar cargas SAP mission-critical en Azure con alta disponibilidad certificada por SAP, backup robusto, latencia de red optimizada y estrategias de migración probadas — la certificación más especializada del portfolio Azure con alta demanda en grandes enterprises SAP. Experto Script Python de validación de arquitectura SAP: consulta via azure-mgmt-compute que todos los hosts SAP HANA tienen Accelerated Networking habilitado + están en el mismo Proximity Placement Group + Ultra Disk o Premium SSD v2 en los LUNs de data/log. Segundo script simula failover HANA SR: detiene la VM primaria y mide tiempo hasta que la secundaria asume como primaria, comparando contra RTO objetivo (<30 min). PythonValidation script detecta correctamente configuración incorrecta (sin Accelerated Networking) y la reporta; failover medido en <30 min end-to-end documentado con timestamps; reporte de arquitectura incluye diagrama con tiers (app/DB/management), CIDRs y latencia de red esperada; runbook de failover y fallback documentado paso a paso.
Cosmos DB Dev
Microsoft Certified: Azure Cosmos DB Developer Specialty — DP-420
Azure Cosmos DB Core (API para NoSQL: containers, items, partitioning — logical vs physical partitions, partition key selection para evitar hot partitions; RU/s: provisioned vs autoscale, serverless; consistency levels: Strong, Bounded Staleness, Session, Consistent Prefix, Eventual — trade-offs de latencia/throughput/consistency) · SDK Python (azure-cosmos: CRUD operations, point reads vs queries, continuation tokens para paginación, bulk executor; CosmosClient, DatabaseProxy, ContainerProxy; UpsertItem vs CreateItem) · Indexing (default indexing policy: all paths; composite indexes; spatial indexes; range vs hash; index exclusions para reducir RU/s; TTL por container y por item) · Change Feed (change feed processor: lease container, delegate function; change feed pull model; order of delivery; use cases: event sourcing, cache invalidation, data migration) · Multi-region y HA (multi-region writes: conflict resolution — last-writer-wins, merge procedures; read regions; automatic failover; SLA 99.999%; geo-redundancy) · APIs alternativas (API para MongoDB: wire compatibility, index creation; API para Apache Cassandra: keyspaces, tables; API para Gremlin: graph traversal; API para Table: compatible con Azure Table Storage) · Seguridad (RBAC para datos: built-in roles — Cosmos DB Built-in Data Reader/Contributor; Managed Identity para acceso sin connection strings; firewall de IP; Private Endpoint; CMK con Key Vault) · Performance (request units optimization; caching con Redis; query optimization — prefer point reads; cross-partition queries cost; analytical store: HTAP con Azure Synapse Link)
AZ-204 + DP-900 + Python + experiencia construyendo aplicaciones con bases de datos NoSQL
40–60 preguntas · 100 min · Passing: 700/1000 · Vigencia: 1 año · Coste: $165 USD · Rol: NoSQL Developer / Cosmos DB Architect / Backend Engineer
Diseñar y construir aplicaciones de escala global con Azure Cosmos DB — seleccionando la partition key correcta, optimizando RU/s, eligiendo el nivel de consistencia apropiado para cada caso de uso y aprovechando el change feed para arquitecturas event-driven de baja latencia a nivel planetario. Experto Sistema de e-commerce de escala global con Python y azure-cosmos: diseño de partition key compuesta (tenantId_productId) que distribuye uniformemente 10M de items; SDK con bulk operations para carga masiva (5k items/s); change feed processor en Azure Functions que invalida Redis cache en tiempo real cuando un precio cambia; Synapse Link habilitado para análisis histórico sin afectar RU/s operacionales. Benchmark compara latencia p99 en Session vs Eventual consistency. PythonPartition key design sin hot partition verificado con métricas de distribución en Azure Portal (ninguna partición >10% del total); bulk insert de 100k items completa en <30s; change feed processor invoca Redis invalidation en <1s desde escritura; query sin cross-partition en access pattern principal (verificado con explain plan); Synapse Link query sobre datos históricos sin incrementar RU/s operacionales.