01
| Dominio | Certificación | Objetivo | Dif. | Recursos | Proyecto Python / Validación | Criterio de Éxito |
|---|---|---|---|---|---|---|
| Cloud Core |
Microsoft Certified: Azure Fundamentals — AZ-900
Conceptos cloud (IaaS / PaaS / SaaS · CapEx vs OpEx · shared responsibility model) · Servicios core de Azure (Regiones, AZs, Resource Groups, ARM) · Compute (VMs, App Service, Azure Functions, Container Instances, AKS básico) · Storage (Blob, File, Queue, Table, Disk) · Redes (VNet, VPN Gateway, ExpressRoute, Load Balancer, CDN, DNS) · Bases de datos (SQL Database, Cosmos DB, Azure Database for PostgreSQL/MySQL) · Identidad (Azure AD/Entra ID: usuarios, grupos, RBAC, MFA, SSO) · Gestión y gobierno (Azure Policy, Management Groups, Cost Management, Azure Advisor, Blueprints, Tags) · Monitoreo (Azure Monitor, Log Analytics, Service Health) · SLA y ciclo de vida de servicios
|
Demostrar comprensión fundacional de la nube Azure: su modelo económico, servicios core, identidad, seguridad compartida y governance — base conceptual obligatoria antes de cualquier certificación técnica de nivel Associate o Expert. | Fácil | Script Python con azure-mgmt-resource y azure-identity que enumera todos los recursos activos de una suscripción (VMs, Storage Accounts, SQL Databases, Function Apps) por Resource Group y los exporta en JSON con su tipo, región, estado y SKU. Incluye cálculo de costos del mes con azure-mgmt-consumption. |
PythonScript autentica con DefaultAzureCredential sin hardcodear secretos; enumera recursos en todas las regiones de la suscripción; JSON de salida incluye tipo, región, estado y grupo de recursos; informe de costos por servicio con top-5 más costosos. |
|
| AI Fundamentals |
Microsoft Certified: Azure AI Fundamentals — AI-900
Conceptos de IA/ML (aprendizaje supervisado, no supervisado, reinforcement learning · regresión, clasificación, clustering) · Responsible AI (fairness, reliability, privacy, inclusivity, transparency, accountability) · Computer Vision en Azure (Azure AI Vision: análisis de imágenes, OCR, Face API, Video Indexer) · NLP (Azure AI Language: análisis de sentimiento, extracción de entidades, traducción, QA) · Generative AI (Azure OpenAI Service: GPT, DALL-E, Copilot) · Azure Machine Learning (autoML, designer, fundamentos sin código) · Azure AI Search (cognitive search, índices, knowledge mining)
AZ-900 (recomendado, no obligatorio)
|
Comprender el panorama de IA/ML en Azure — qué servicio usar para visión, NLP, speech, decisión y IA generativa — incluyendo los principios de IA responsable que rigen el desarrollo ético de soluciones inteligentes en Microsoft. | Fácil | Aplicación de análisis de documentos en Python: sube imágenes/PDFs al pipeline, extrae texto con azure-ai-formrecognizer (Document Intelligence), analiza sentimiento con azure-ai-textanalytics, detecta idioma y entidades, y genera un resumen usando Azure OpenAI (openai SDK con endpoint de Azure). |
PythonOCR correcto en documentos con tablas; análisis de sentimiento retorna confianza >0.9 en textos claros; resumen generado por GPT-4o en <5s; cada llamada maneja errores HTTP con retry; pipeline procesa batch de 10 docs sin superar Free Tier de las APIs. | |
| Data Fundamentals |
Microsoft Certified: Azure Data Fundamentals — DP-900
Conceptos de datos (datos relacionales vs no relacionales vs analíticos · OLTP vs OLAP · batch vs streaming) · Bases de datos relacionales en Azure (Azure SQL Database, Azure Database for PostgreSQL/MySQL: conceptos de tablas, claves, joins, índices) · Datos no relacionales (Azure Cosmos DB: modelos API JSON, Table, Cassandra; Azure Blob Storage: jerarquía de contenedores) · Analytics en Azure (Azure Synapse Analytics: fundamentos de Data Warehouse, Spark pools; HDInsight; Azure Databricks básico; Azure Data Factory: pipelines, linked services) · Visualización (Power BI: datasets, informes, dashboards, publicación) · Real-time analytics (Azure Stream Analytics, Event Hubs, Azure Data Explorer básico)
AZ-900 (recomendado, no obligatorio)
|
Comprender los fundamentos del ecosistema de datos Azure — tipos de datos, servicios relacionales y NoSQL, analytics a escala y visualización — base obligatoria antes de DP-203 (Data Engineer) o DP-100 (Data Scientist). | Fácil | Pipeline Python multi-destino: lee un CSV de ventas (500k filas) y lo carga en paralelo a Azure SQL Database (con pyodbc), Azure Blob Storage (con azure-storage-blob) como Parquet, y Azure Cosmos DB (con azure-cosmos) como documentos JSON. Cada destino se consulta al final para verificar integridad. |
PythonCarga a 3 destinos completa sin errores; row count idéntico en SQL, Parquet y Cosmos DB; script usa DefaultAzureCredential para todos los servicios; tiempo total de carga <5 min para 500k filas; manejo de errores de red con retry exponential backoff. |
|
| Security Core |
Microsoft Certified: Security, Compliance & Identity Fundamentals — SC-900
Conceptos de seguridad (Zero Trust model, defense in depth, CIA triad, shared responsibility) · Microsoft Entra ID / Azure AD (identidades, RBAC, PIM, Conditional Access, MFA, SSPR, B2B/B2C, Managed Identities) · Autenticación y autorización (OAuth 2.0, OIDC, SAML 2.0 básico) · Microsoft Defender (Defender for Cloud: secure score, recommendations; Defender XDR: endpoints, identidad, email) · Microsoft Sentinel (SIEM/SOAR: workbooks, analytics rules, incidents) · Azure compliance (Azure Policy, Blueprints, Microsoft Purview: compliance portal, sensitivity labels, DLP, eDiscovery) · Privacy (GDPR, ISO 27001, SOC: Azure Trust Center, Privacy Statement)
AZ-900 + AI-900 (recomendados, no obligatorios)
|
Comprender el ecosistema de seguridad, identidad y cumplimiento de Microsoft — Entra ID, Defender, Sentinel y Purview — base conceptual para AZ-500 (Security Engineer) y SC-200/SC-300 en nivel Associate. | Fácil | Auditoría de seguridad de suscripción Azure con Python: consulta Microsoft Defender for Cloud Secure Score y lista de recomendaciones activas via azure-mgmt-security, genera reporte de identidades sin MFA habilitado consultando Entra ID via msgraph-sdk-python, y exporta resumen de compliance en JSON con severidad por hallazgo. |
PythonScript obtiene Secure Score numérico y lista las top-10 recomendaciones ordenadas por impacto; query MS Graph retorna usuarios sin MFA en <30s; reporte JSON clasifica hallazgos como High/Medium/Low; autenticación con Service Principal y permisos de solo lectura. |
02
| Dominio | Certificación | Objetivo | Dif. | Recursos | Proyecto Python / Validación | Criterio de Éxito |
|---|---|---|---|---|---|---|
| Administration |
Microsoft Certified: Azure Administrator Associate — AZ-104
Identidad y gobierno (Entra ID: usuarios, grupos, RBAC, Management Groups, Azure Policy, resource locks, Cost Management, Blueprints, Tags) · Storage (Storage Accounts: tipos, replicación GRS/LRS/ZRS, lifecycle management, Azure File Sync, SAS tokens, acceso con Managed Identity) · Compute (VMs: sizing, availability sets/zones, extensions, Azure VM Scale Sets; Azure App Service Plans; Azure Container Instances; AKS conceptos) · Networking (VNets, subnets, NSGs, ASGs, UDRs, VNet Peering, VPN Gateway P2S/S2S, ExpressRoute básico, Azure Load Balancer, Application Gateway, Azure DNS, Private DNS Zones, Network Watcher) · Monitoreo y backup (Azure Monitor: métricas, alertas, Log Analytics workspace, diagnostic settings; Azure Backup: Recovery Services Vault, políticas de backup; Azure Site Recovery básico)
AZ-900 + 6 meses de experiencia práctica con Azure Portal, CLI o PowerShell
|
Implementar, gestionar y monitorizar infraestructura Azure en entornos empresariales — la certificación más solicitada en ofertas de trabajo cloud y prerrequisito obligatorio para la más valiosa, AZ-305 Solutions Architect Expert. | Medio | Infraestructura de 3 capas con Python + Bicep: VNet con subnets pública/privada + NSG restrictivo → VM Scale Set (2–5 instancias) con Application Gateway → Azure Database for PostgreSQL Flexible Server en subnet privada. Script Python con azure-mgmt-compute que verifica el estado del VMSS, fuerza un scale-out y comprueba que la nueva instancia pasa el health probe en <5 min. |
PythonVM Scale Set despliega en 2 availability zones; NSG bloquea tráfico directo a subnet privada verificado con Network Watcher; scale-out funciona con script Python en <5 min; backups de PostgreSQL configurados con política de 7 días; alertas en Azure Monitor disparadas en prueba de CPU alta. | |
| Development |
Microsoft Certified: Azure Developer Associate — AZ-204
Compute (Azure Functions: triggers HTTP/Timer/Queue/Blob/Service Bus, bindings, Durable Functions: orchestrators, activities; App Service: deployment slots, autoscale, WebJobs; Container Apps: KEDA, scaling rules; Container Registry: ACR Tasks) · Storage y datos (Blob Storage: tiers, lifecycle, client-side encryption; Cosmos DB SDK: CRUD, consistency levels, change feed; Azure Cache for Redis: estrategias de caché, TTL; Azure Table Storage) · Integración (Service Bus: queues vs topics/subscriptions, sessions, DLQ; Event Grid: topics, subscriptions, event filtering; Event Hubs: particiones, consumer groups, Capture) · Seguridad (Key Vault: secrets, keys, certificates; Managed Identity en código; App registrations: OAuth2 flows; MSAL para Python) · Monitoreo (Application Insights: SDK, custom telemetry, distributed tracing, availability tests; Azure Monitor: structured logs con OpenTelemetry) · API Management (products, policies, subscriptions, rate limiting, backend mTLS)
AZ-900 + 1–2 años de experiencia en desarrollo de software y Azure básico
|
Diseñar, construir y mantener aplicaciones cloud-native en Azure con patrones serverless, mensajería asíncrona y seguridad integrada — la certificación esencial para cualquier backend developer que construya sobre Azure a diario. | Medio | Sistema de procesamiento de pedidos event-driven en Python: HTTP Function recibe orden → publica a Service Bus Topic → Function suscriptora guarda en Cosmos DB + invalida caché Redis → Event Grid notifica a cliente. Key Vault para todos los secrets. Application Insights con custom telemetry (duración, success rate por endpoint, trace de Cosmos DB call). | PythonNingún secret en código ni variables de entorno sin Key Vault; Durable Function orchestrator procesa flujo de compensación (saga pattern) ante fallo de pago; Application Insights muestra end-to-end trace con correlationId; DLQ poblada en prueba de error downstream; latencia p99 <300ms para endpoint HTTP. | |
| Security |
Microsoft Certified: Azure Security Engineer Associate — AZ-500
Identidad y acceso (Entra ID avanzado: Conditional Access policies, PIM con just-in-time access, access reviews, Managed Identities, App registrations + permisos de API, B2B/B2C, Entra ID Protection: sign-in risk, user risk) · Plataforma segura (Azure Policy: remediation, compliance, exclusions; Management Group SCPs; Resource Locks; Defender for Cloud: security policies, compliance dashboard, workflow automation; Microsoft Sentinel: analytics rules KQL, workbooks, playbooks SOAR, data connectors) · Compute seguro (NSG + ASG + Azure Firewall: DNAT rules, network rules, app rules; Azure DDoS Protection: Basic vs Standard; Azure Bastion: host seguro sin RDP/SSH expuestos; Just-in-Time VM access) · Storage seguro (SAS tokens: service SAS, account SAS, user delegation SAS; Private Endpoints para Storage; Customer-Managed Keys con Key Vault; Azure AD auth para blobs) · Aplicaciones seguras (Key Vault: access policies vs RBAC; certificados TLS; secretos rotación automática; App Gateway WAF: OWASP Core Rule Set, custom rules, exclusions)
AZ-900 + SC-900 + 1 año de experiencia en seguridad cloud
|
Implementar una postura de seguridad cloud completa en Azure con defensa en profundidad: gestión de identidades privilegiadas, protección de red, cifrado de datos, detección de amenazas con Sentinel y respuesta automatizada a incidentes. | Difícil | Sistema de auto-remediación de seguridad: Sentinel analytics rule (KQL) detecta sign-in de usuario desde país bloqueado → Logic App playbook Python bloquea cuenta en Entra ID + crea incident → Defender for Cloud custom workflow automation activa Azure Policy remediation al detectar Storage Account público → script Python genera reporte diario de Secure Score con delta respecto al día anterior. | PythonPlaybook bloquea cuenta en <2 min desde alerta Sentinel; Storage Account público bloqueado en <3 min por remediation task; Secure Score no baja de 80%; script KQL detecta el evento de prueba correctamente; todos los playbooks usan Managed Identity, no credenciales hardcodeadas. | |
| Networking |
Microsoft Certified: Azure Network Engineer Associate — AZ-700
Diseño de VNets (CIDR planning, subnets, IPv4/IPv6 dual-stack, VNet Peering global, Service Endpoints vs Private Endpoints) · Hybrid networking (VPN Gateway: Active-Active, zone-redundant SKUs, BGP; ExpressRoute: circuits, peering types private/Microsoft/public, FastPath, Global Reach, coexistencia VPN+ER) · Azure Virtual WAN (arquitectura hub-and-spoke a escala, routing policies, secured hubs con Azure Firewall) · Routing (UDRs, BGP, Route Server, Next Hop) · Load balancing (Azure Load Balancer: Standard SKU, health probes, HA ports; Application Gateway v2: WAF, autoscaling, routing rules, URL-based, multi-site; Azure Front Door: global load balancing, WAF global, origin groups, health probes; Traffic Manager: routing methods) · Firewall y seguridad (Azure Firewall Premium: TLS inspection, IDPS, URL filtering, Firewall Policy; Azure DDoS Protection Standard) · DNS avanzado (Private DNS Zones, DNS Private Resolver: inbound/outbound endpoints, ruleset)
AZ-104 + experiencia sólida en networking (TCP/IP, BGP, DNS, firewalls)
|
Diseñar, implementar y mantener soluciones de red empresariales en Azure: conectividad híbrida resiliente, segmentación de red entre VNets a escala, load balancing multi-región e inspección de tráfico con Azure Firewall — la especialización más técnica del track de infraestructura. | Difícil | Hub-and-spoke con Azure Virtual WAN y Python: script Bicep + Python (azure-mgmt-network) despliega hub con Azure Firewall Premium + 3 spoke VNets (workload-A, workload-B, shared-services) + Private DNS Resolver con reglas de forwarding. Script Python de validación verifica conectividad spoke-to-spoke y genera diagrama de topología con networkx + graphviz. |
PythonTráfico entre spokes atraviesa Firewall (verificado con Flow Logs); DNS Resolver resuelve nombres on-premises simulados; diagrama de topología generado automáticamente con CIDRs y rutas efectivas; stack destruible y reconstruible con un comando; NSG flow logs analizados por script Python para validar allow/deny rules. | |
| AI Engineering |
Microsoft Certified: Azure AI Engineer Associate — AI-102
Azure OpenAI Service (despliegue de modelos GPT-4o/GPT-4/DALL-E/Whisper, completion vs chat completion, system prompts, function calling, RAG con On Your Data, fine-tuning, content filtering) · Azure AI Services (multi-service vs single-service resources, keys + Entra auth) · Azure AI Vision (Image Analysis 4.0: object detection, captioning, OCR, smart crop; Custom Vision: classification + detection) · Azure AI Language (CLU: conversational language understanding, orchestration workflow; Question Answering: knowledge bases, active learning; Sentiment + Opinions + Key Phrase; Text Classification custom) · Azure AI Speech (STT, TTS, speaker recognition, custom speech models, speech translation) · Azure AI Translator (neural MT, custom translators, document translation) · Azure AI Search (indexers, skillsets cognitivos, vectorización, hybrid search, semantic ranker) · Responsible AI (content safety API, fairness, reliability, transparency, privacy) · Azure AI Foundry (ex Azure ML Studio): deployment de modelos, model catalog, prompt flows
AI-900 + AZ-900 + experiencia en Python y APIs REST
|
Construir soluciones de IA production-ready usando Azure AI Services y Azure OpenAI: desde bots conversacionales con intenciones entrenadas hasta sistemas RAG sobre documentación interna, con content safety, monitoring y responsible AI integrados. | Difícil | RAG enterprise en Python: documenta carga PDFs a Azure AI Search (indexer + embedded con Azure OpenAI text-embedding-3-large) → Prompt Flow orquesta retrieval + augmentation + GPT-4o generation → Content Safety API filtra respuestas → Application Insights loguea latencia, token usage y satisfacción. Incluye función de cita de fuentes exactas. |
PythonHybrid search (keyword + vector) retorna documentos relevantes con score >0.85; respuestas incluyen cita de fragmento y página del documento fuente; Content Safety bloquea 100% de prompts de prueba dañinos; latencia p95 <4s end-to-end; token usage por query loguado y alertado si supera umbral de costo. | |
| Data Engineering |
Microsoft Certified: Azure Data Engineer Associate — DP-203
Azure Data Factory (pipelines: activities, linked services, datasets, triggers, integration runtime; Mapping Data Flows: transformaciones visuales, debug, particionamiento; Control Flow: ForEach, IfCondition, Until, Error Handling) · Azure Synapse Analytics (dedicated SQL pools: distribution hash/round-robin/replicate, statistics, indexes; serverless SQL pool: OPENROWSET, views sobre data lake; Spark pools: notebooks PySpark, Spark SQL; pipelines integradas) · Azure Data Lake Storage Gen2 (hierarchical namespace, ACLs, ABAC, lifecycle management, Azure Hierarchical Namespace) · Azure Databricks (clusters, notebooks Python/Scala, Delta Lake: ACID, time travel, merge; Unity Catalog: governance a nivel de tabla/columna) · Azure Stream Analytics (jobs: input IoT Hub/Event Hubs, queries SQL-like, output sinks, windowing functions: tumbling/hopping/session; checkpointing) · Azure Event Hubs (namespaces, particiones, consumer groups, Capture a ADLS, Schema Registry) · DP-203 enfatiza: diseño de esquemas optimizados para Synapse, pipeline de datos a escala, seguridad con Private Endpoints y Managed VNet, coste-eficiencia
DP-900 + AZ-900 + Python/SQL + 1 año de experiencia en datos
|
Diseñar e implementar pipelines de datos modernos en Azure: desde la ingesta en batch y real-time hasta la transformación, catalogación y análisis a escala empresarial usando Synapse, Databricks, Data Factory y Data Lake Gen2. | Difícil | Pipeline medallion en Azure: Event Hubs recibe eventos de IoT (simulado con Python producer) → Stream Analytics job filtra y agrega ventanas de 5 min → ADLS Gen2 Bronze layer (raw JSON) → ADF pipeline nocturno → Databricks PySpark transforma a Silver (Parquet Delta) y Gold (Synapse dedicated pool con hash distribution) → Data Quality checks Python con Great Expectations. | PythonDelta Lake merge-on-read correcto (sin duplicados tras reinicio del productor); Synapse SQL query sobre Gold corre en <10s para 12 meses de datos; Data Quality report muestra >99% completeness; ADF pipeline reiniciable idempotente tras fallo; ADLS con Managed VNet: sin acceso desde internet verificado. | |
| Data Science ML |
Microsoft Certified: Azure Data Scientist Associate — DP-100
Azure Machine Learning workspace (compute: clusters, compute instances, serverless; environments: Docker base images, conda specs; datastores y data assets; MLflow tracking integrado) · Preparación de datos ML (feature engineering en Python con pandas/scikit-learn; data labeling; Azure ML Datasets) · Entrenamiento de modelos (jobs: command jobs, sweep jobs hyperparameter tuning; training en local vs cluster; frameworks: scikit-learn, PyTorch, TensorFlow) · MLflow en Azure ML (autologging, custom logging, model registry, model signatures) · Optimización de hiperparámetros (Bayesian, Grid, Random; early termination: bandit, median stopping) · Responsible AI dashboard (fairness: disparate impact; interpretabilidad: SHAP; counterfactuals; error analysis) · Despliegue (online endpoints: managed vs Kubernetes, blue/green deployment; batch endpoints: scoring script, parallelization) · Pipelines de ML (Azure ML Pipelines: steps, inputs/outputs, caching; Designer: drag-and-drop) · AutoML (classification, regression, forecasting; featurization, primary metric, guardrails)
DP-900 + AI-900 + Python + scikit-learn/PyTorch/TensorFlow básico
|
Implementar pipelines de machine learning completos en Azure ML: desde la preparación de datos hasta el entrenamiento distribuido, optimización de hiperparámetros, evaluación de Responsible AI y despliegue en endpoints de producción monitorizados. | Difícil | Pipeline MLOps end-to-end con Azure ML Python SDK v2: preprocessing command job (pandas) → sweep job XGBoost (50 trials Bayesian sobre n_estimators, max_depth, learning_rate) → Responsible AI dashboard (SHAP + fairness analysis) → registro en MLflow Model Registry → despliegue blue/green en managed online endpoint → monitoreo de data drift con dataset monitor semanal. | PythonSweep job mejora baseline F1 en >5%; SHAP values identifican top-3 features más influyentes; Responsible AI dashboard sin disparate impact >0.2 entre grupos demográficos; online endpoint con p99 <200ms; dataset monitor dispara alerta SNS cuando drift score >0.3; todo ejecutable con SDK sin tocar la UI. | |
| Database Admin |
Microsoft Certified: Azure Database Administrator Associate — DP-300
Azure SQL Database (tiers: General Purpose vs Business Critical vs Hyperscale; vCores vs DTU; elastic pools; serverless tier: auto-pause, autopause delay; geo-replication vs failover groups; backup y PITR) · Azure SQL Managed Instance (full SQL Server compatibility, native VNet injection, Business Critical failover, link feature para migración) · Azure Database for PostgreSQL Flexible Server (high availability: zone-redundant + same-zone; read replicas; autoscale IOPS; Pgbouncer connection pooling; Azure extensions) · Azure Database for MySQL Flexible Server (idem PostgreSQL: HA, replicas, connection pooling) · Performance tuning (Query Store, Query Performance Insight; Index recommendations; Automatic Tuning: auto index, auto plan correction; Intelligent Query Processing) · Seguridad en BD (Microsoft Defender for SQL: ATP alerts, vulnerability assessment; Azure AD auth; Always Encrypted; TDE; Dynamic Data Masking; Row-Level Security; Advanced Threat Protection) · Monitoreo (Azure Monitor Metrics, Diagnostic Logs, Log Analytics, Database Watcher) · Migración (Azure Database Migration Service: offline vs online migration; Data Migration Assistant)
DP-900 + AZ-900 + experiencia en SQL Server / PostgreSQL / MySQL
|
Administrar, optimizar y securizar bases de datos relacionales en Azure: SQL Database, Managed Instance, PostgreSQL y MySQL en producción — con alta disponibilidad, performance tuning, seguridad avanzada y estrategias de migración probadas. | Difícil | Suite de automatización de DBA con Python: script que consulta Query Store de Azure SQL vía pyodbc e identifica top-10 queries por CPU acumulado + sugiere índices faltantes → segundo script activa failover group hacia la réplica secundaria y mide RTO efectivo → script de auditoría de seguridad: verifica Dynamic Data Masking, TDE habilitado y Defender for SQL activo por base de datos. |
PythonQuery de mayor CPU identificada con execution_count, avg_cpu_time y plan XML; failover group promueve secondary en <30s; RTO documentado en reporte; auditoría detecta correctamente las BDs sin TDE (verificado creando una sin cifrar); script genera HTML report con RAG status por control de seguridad. | |
| Fabric Data Eng |
Microsoft Certified: Fabric Data Engineer Associate — DP-700
Microsoft Fabric arquitectura (OneLake: almacenamiento unificado; Fabric capacities; lakehouses: Delta tables, shortcuts a ADLS Gen2/S3; warehouses: T-SQL sobre Fabric; Real-Time Intelligence: Eventhouse, KQL Database, eventstreams) · Ingesta y orquestación (Fabric Data Factory: pipelines, dataflows Gen2; Copy activity; Fabric notebooks con PySpark: Spark 3.x, Delta Lake — merge, upsert, time travel; Fabric job scheduler) · Transformaciones con PySpark (DataFrames, schema enforcement, partitioning strategies, Z-ordering en Delta tables; incremental processing con watermarks; broadcast joins) · Medallion architecture en Fabric (Bronze/Silver/Gold en Lakehouse; VACUUM y OPTIMIZE; incremental loads) · DirectLake mode (conceptos para data engineers: cómo estructurar Delta tables para óptimo rendimiento en DirectLake; parquet columnar alignment; partitioning guidelines) · Seguridad Fabric (workspace roles; item permissions; row-level security en Lakehouse; column-level security; sensitivity labels de Purview para datasets) · Monitoreo (Fabric Capacity Metrics app; Spark monitoring; pipeline run history; alerts en Fabric)
DP-900 + DP-203 (recomendado) + Python/PySpark + SQL + experiencia con Delta Lake
|
Diseñar e implementar soluciones de ingeniería de datos enterprise sobre Microsoft Fabric usando PySpark, Delta Lake y Fabric Pipelines — la certificación que representa el futuro del track de datos en Azure con OneLake como capa de almacenamiento unificada para todos los workloads analíticos. | Difícil | Pipeline medallion completo en Fabric con Python: Fabric Notebook PySpark ingesta CSV desde ADLS Gen2 shortcut a Bronze Lakehouse (Delta raw) → Silver (limpieza, tipado, deduplicación con Delta merge on primary key) → Gold (tabla agregada con Z-ORDER por fecha+región). Fabric Pipeline orquesta las 3 fases con dependencias y retry. Script Python con semantic-link valida row counts y métricas de calidad entre capas. |
PythonDelta merge correcto sin duplicados tras 3 reruns (idempotente); Z-ORDER reduce scan bytes >40% en query temporal verificado en Spark monitoring; Pipeline falla en Silver si Bronze tiene nulls en PK y reintenta hasta 3 veces; VACUUM no elimina datos referenciados por time travel en ventana de 7 días; quality checks en Python reportan >99.9% completeness. | |
| Fabric Analytics |
Microsoft Certified: Fabric Analytics Engineer Associate — DP-600
Microsoft Fabric para analytics (lakehouses, warehouses, Fabric capacities, OneLake consolidation; Fabric trial vs paid capacity; workspace governance) · Semantic models avanzados (Power BI en Fabric: star schema design, composite models; DAX avanzado: CALCULATE, FILTER, variables, time intelligence — YTD, SAMEPERIODLASTYEAR, PREVIOUSYEAR, DATEADD; row-level security estática y dinámica; field parameters; calculation groups) · Dataflows Gen2 (conectores Power Query M, transformaciones, incremental refresh, output destinations: Lakehouse o Warehouse; staged vs non-staged) · DirectLake mode (cuándo usar DirectLake vs DirectQuery vs Import; fallback a DirectQuery; partitioning guidelines para DirectLake; framing) · Power BI en Fabric (deployment pipelines dev/test/prod; large dataset format; incremental refresh; aggregations; composite models; paginated reports; scorecards) · Data Activator (Reflex objects: triggers, conditions, actions desde Power BI visuals y Eventhouse; alerting patterns) · Governance con Purview (sensitivity labels en semantic models; endorsement: promoted vs certified; lineage view; impact analysis) · Semantic Link (
python-semantic-link: leer semantic models desde notebooks, ejecutar DAX desde Python, escribir datos de vuelta al Lakehouse)DP-900 + PL-300 (muy recomendado) + DAX + Power Query M + experiencia en BI / análisis de datos
|
Diseñar e implementar soluciones analíticas enterprise en Microsoft Fabric: semantic models escalables con DAX avanzado, DirectLake sobre Lakehouse, dataflows Gen2, governance con Purview y automatización con Semantic Link — el nuevo estándar para analytics engineers que construyen sobre datos modernos en OneLake. | Difícil | Solución analítica end-to-end: Dataflow Gen2 ingesta desde SharePoint → Lakehouse Gold. Semantic model DirectLake con DAX measures (YTD ventas, MoM%, rolling 12M, margen bruto). Suite de tests Python con import sempy.fabric as fabric que evalúa 20 DAX measures contra valores esperados — detecta regression si alguna varía >2% tras cambio del modelo. Data Activator Reflex dispara alerta cuando margen bruto cae <20% en 3 días consecutivos. |
PythonSemantic Link test suite pasa 20/20 assertions en <90s; DirectLake sin fallback a DirectQuery verificado en Fabric monitoring (0 DirectQuery events); Dataflow Gen2 incremental refresh solo procesa filas nuevas del día (verificado con row count por partición); Data Activator alerta en <5 min tras condición de prueba; deployment pipeline promueve dev→prod sin cambios manuales en modelo. |
03
| Dominio | Certificación | Objetivo | Dif. | Recursos | Proyecto Python / Validación | Criterio de Éxito |
|---|---|---|---|---|---|---|
| Architecture |
Microsoft Certified: Azure Solutions Architect Expert — AZ-305 Prerreq: AZ-104
Identidad y gobierno (Entra ID: diseño de tenant multi-forest, External Identities B2B/B2C; RBAC custom roles; Management Groups + Policy inheritance; Azure Blueprints vs Bicep; CAF: landing zones, governance; Well-Architected Framework: reliability, security, performance, cost, operational excellence) · Diseño de compute (AKS: node pools, autoscaler, ingress, GitOps; Service Fabric; Azure Batch para HPC; trade-offs App Service vs Container Apps vs AKS) · Diseño de almacenamiento (Storage Account performance tiers; Azure NetApp Files; Elastic SAN; trade-offs NoSQL vs relacional vs analítico para un caso de uso dado) · Diseño de redes (topology hub-and-spoke vs Virtual WAN; routing entre zonas; Azure Front Door + Application Gateway combinados; cross-region replication) · Diseño de continuidad (Availability Zones vs Sets; Azure Site Recovery: RTO/RPO targets; multi-region active-passive vs active-active; Chaos Studio) · Diseño de migración (Azure Migrate: discovery, assessment, server migration; App Service Migration Assistant; Database Migration Service; Cloud Adoption Framework R-strategies: Rehost, Replatform, Refactor, Rearchitect, Rebuild, Replace) · Diseño de integración (API Management: tiers, policies, self-hosted gateway; Event Grid vs Service Bus vs Event Hubs: decision framework; Logic Apps vs Azure Functions vs Durable Functions)
AZ-104 (obligatorio) + 5+ años de experiencia en IT + 1–2 años diseñando en Azure
|
Diseñar arquitecturas Azure de nivel empresarial con trade-offs documentados: compute, storage, networking, continuidad, migración e integración de sistemas — traduciendo requisitos de negocio en decisiones técnicas que optimizan fiabilidad, seguridad y costo simultáneamente. | Experto | Landing Zone multi-región con Bicep + Python: Management Group hierarchy (Root → Platform → Workloads) + 4 suscripciones (Identity, Connectivity, Management, Workload-Prod) + Azure Firewall Premium en hub + Azure Policy initiative para governance. Script Python con azure-mgmt-resource despliega la estructura completa y valida compliance: policy assignments, security posture y connectivity entre spokes. |
PythonToda la landing zone desplegada desde cero con un script en <45 min; Azure Policy initiative reporta 100% de compliance en suscripciones nuevas; tráfico inter-spoke atraviesa Firewall Premium verificado; Chaos Studio experiment de VM failure no degrada la aplicación más allá del RTO objetivo; ADR por cada decisión de diseño con trade-offs. | |
| DevOps & Platform |
Microsoft Certified: DevOps Engineer Expert — AZ-400 Prerreq: AZ-104 o AZ-204
Source control (Azure Repos: branching strategies — trunk-based vs GitFlow vs GitHub Flow; pull request policies; branch protection; CODEOWNERS; Git large file storage; migración desde SVN/TFS) · CI/CD (Azure Pipelines: YAML multi-stage pipelines, templates reusables, library groups, variable groups, environments con approvals/gates; GitHub Actions: workflows, secrets, composite actions, reusable workflows; comparativa AzDO vs GitHub) · Dependency management (Azure Artifacts: feeds npm/NuGet/PyPI/Maven, upstream sources, retention policies; Dependabot integration) · IaC (Bicep: modules, scopes, conditions; Terraform en Azure: remote state en Azure Storage, Workspaces; ARM templates vs Bicep decision; Azure Developer CLI: azd init/up/down) · Testing estratégico (shift-left: tests unitarios en pipeline, SAST con GitHub Advanced Security + Defender for DevOps, DAST, chaos testing) · Observabilidad DevOps (Application Insights SDK: custom events, distributed tracing, sampling; Azure Monitor Workbooks; SLO/SLI/Error Budget; deployment frequency DORA) · Seguridad DevOps (SAST: CodeQL; SCA: Dependabot alerts; container scanning: Defender for Containers; secret scanning: GitHub Advanced Security; SBOM generation) · Feature management (Azure App Configuration: feature flags, key-value settings, geo-replication; progressive delivery)
AZ-104 o AZ-204 (uno de los dos, obligatorio) + experiencia real en CI/CD y operaciones cloud
|
Diseñar e implementar pipelines de entrega continua enterprise, infraestructura como código a escala, observabilidad de plataforma y DevSecOps integrado en el ciclo de desarrollo — el estándar de las plataformas de ingeniería maduras en Azure. | Experto | Pipeline multi-stage con Azure Pipelines YAML + Python CDK: stages Build (pytest + mypy + ruff) → SAST (CodeQL + Defender for DevOps) → Deploy-Dev → Integration Tests → Deploy-Staging (canary 20% tráfico via Azure Front Door origin weights) → Approval Gate → Deploy-Prod. Feature flags con Azure App Configuration SDK en Python. DORA metrics dashboard con Application Insights custom events. | PythonPipeline completo en <20 min desde commit; rollback automático si error rate canary >2% (medido con App Insights query en gate); CodeQL detecta al menos 1 issue de prueba introducido intencionalmente; DORA metrics (deploy frequency, lead time, MTTR) visibles en Workbook; feature flag togglable en producción sin redeploy. |
04
| Dominio | Certificación | Objetivo | Dif. | Recursos | Proyecto Python / Validación | Criterio de Éxito |
|---|---|---|---|---|---|---|
| Virtual Desktop |
Microsoft Certified: Azure Virtual Desktop Specialty — AZ-140
Planificación AVD (host pools: pooled vs personal; workspace design; application groups: remote desktop vs RemoteApp; sizing de session hosts: GPU vs general purpose; FSLogix profile containers: Azure Files vs Azure NetApp Files) · Implementación (deployment vía ARM/Bicep; Windows 10/11 multisession; session host image management: Azure Compute Gallery, Shared Image Gallery; auto-scaling plan: schedule-based + load-based; Azure AD join vs hybrid AD join) · Redes AVD (RDP Shortpath: managed network + public network; Private Link para AVD; QoS políticas de red; Azure Firewall AVD traffic; Teams optimización para AVD; latency troubleshooting) · Identidad y acceso (Entra ID Conditional Access para AVD; RBAC roles: Desktop Virtualization Contributor, User, etc.; MFA enforcement; Intune integration para compliance) · Monitoreo y operaciones (Azure Monitor for AVD: diagnostics, Log Analytics workspace, workbook; Session diagnostics; Connection Quality metrics; AVD Insights dashboard; Windows Event Logs) · Optimización (RDS Sizing guidelines; MSIX App Attach vs AppX; OneDrive KFM; Start VM on Connect; drain mode maintenance; session host autoscale) · Licencias (Windows 10/11 Enterprise multisession eligibility; M365 licensing requirements; cost management AVD)
AZ-104 + experiencia en Windows Server, Active Directory y virtualización de escritorios
|
Planificar, implementar y gestionar entornos Azure Virtual Desktop completos a escala empresarial: desde el sizing de host pools y gestión de imágenes hasta FSLogix profiles, autoscaling, monitoring y optimización de costos para infraestructura VDI en la nube. | Experto | Automatización de AVD con Python: script azure-mgmt-desktopvirtualization que monitoriza el host pool cada 5 minutos — si el número de sesiones activas supera el 80% de la capacidad, activa nuevos session hosts vía Start VM; si está por debajo del 20% durante 30 min, los drena y desactiva. Genera reporte de utilización diario y costo estimado por usuario activo. |
PythonAutoscaler Python funcional con prueba de carga simulada (script de sesiones concurrent); session hosts activados en <8 min desde umbral; drain mode correcto sin desconexiones activas; reporte diario con utilización por hora, peak concurrent users y costo/usuario; alertas de Log Analytics cuando connection quality degradada >10% de sesiones. | |
| SAP on Azure |
Microsoft Certified: Azure for SAP Workloads Specialty — AZ-120
Arquitectura SAP en Azure (instancias certificadas SAP HANA: M-series, Mv2-series; SAP HANA Large Instances; SAP NetWeaver en Azure VMs: ABAP stack vs Java stack; SAP S/4HANA, SAP BW/4HANA en Azure) · Alta disponibilidad SAP (HANA System Replication: sync/sync mem/async; Linux HA: Pacemaker + STONITH; Windows Server Failover Clustering para SAP ASCS/ERS; Azure Load Balancer Standard para SAP cluster; Azure Site Recovery para SAP DR) · Networking SAP (Proximity Placement Groups para baja latencia HANA; Accelerated Networking obligatorio en HANA hosts; ExpressRoute para conectividad on-premises; VNet design para SAP tiers: app + DB + management) · Storage SAP (Azure Premium SSD v2 y Ultra Disk para HANA data + log volumes; NFS via Azure NetApp Files para /sapmnt y /hana/shared; Azure Files para transport directory) · Backup SAP (Azure Backup for SAP HANA: Backint agent; HANA backup catalog; snapshot-based via Azure Backup) · Migración SAP a Azure (Homogeneous vs Heterogeneous System Copy; SWPM; SAP R3load; Azure Migrate para SAP; deployment con SAP Deployment Automation Framework — SDAF) · SAP RISE on Azure: integración con servicios nativos, networking con RISE VNet, acceso compartido a ADLS
AZ-104 + AZ-305 (recomendado) + experiencia certificada SAP BASIS o arquitectura SAP empresarial
|
Arquitecturar, migrar y operar cargas SAP mission-critical en Azure con alta disponibilidad certificada por SAP, backup robusto, latencia de red optimizada y estrategias de migración probadas — la certificación más especializada del portfolio Azure con alta demanda en grandes enterprises SAP. | Experto | Script Python de validación de arquitectura SAP: consulta via azure-mgmt-compute que todos los hosts SAP HANA tienen Accelerated Networking habilitado + están en el mismo Proximity Placement Group + Ultra Disk o Premium SSD v2 en los LUNs de data/log. Segundo script simula failover HANA SR: detiene la VM primaria y mide tiempo hasta que la secundaria asume como primaria, comparando contra RTO objetivo (<30 min). |
PythonValidation script detecta correctamente configuración incorrecta (sin Accelerated Networking) y la reporta; failover medido en <30 min end-to-end documentado con timestamps; reporte de arquitectura incluye diagrama con tiers (app/DB/management), CIDRs y latencia de red esperada; runbook de failover y fallback documentado paso a paso. | |
| Cosmos DB Dev |
Microsoft Certified: Azure Cosmos DB Developer Specialty — DP-420
Azure Cosmos DB Core (API para NoSQL: containers, items, partitioning — logical vs physical partitions, partition key selection para evitar hot partitions; RU/s: provisioned vs autoscale, serverless; consistency levels: Strong, Bounded Staleness, Session, Consistent Prefix, Eventual — trade-offs de latencia/throughput/consistency) · SDK Python (
azure-cosmos: CRUD operations, point reads vs queries, continuation tokens para paginación, bulk executor; CosmosClient, DatabaseProxy, ContainerProxy; UpsertItem vs CreateItem) · Indexing (default indexing policy: all paths; composite indexes; spatial indexes; range vs hash; index exclusions para reducir RU/s; TTL por container y por item) · Change Feed (change feed processor: lease container, delegate function; change feed pull model; order of delivery; use cases: event sourcing, cache invalidation, data migration) · Multi-region y HA (multi-region writes: conflict resolution — last-writer-wins, merge procedures; read regions; automatic failover; SLA 99.999%; geo-redundancy) · APIs alternativas (API para MongoDB: wire compatibility, index creation; API para Apache Cassandra: keyspaces, tables; API para Gremlin: graph traversal; API para Table: compatible con Azure Table Storage) · Seguridad (RBAC para datos: built-in roles — Cosmos DB Built-in Data Reader/Contributor; Managed Identity para acceso sin connection strings; firewall de IP; Private Endpoint; CMK con Key Vault) · Performance (request units optimization; caching con Redis; query optimization — prefer point reads; cross-partition queries cost; analytical store: HTAP con Azure Synapse Link)AZ-204 + DP-900 + Python + experiencia construyendo aplicaciones con bases de datos NoSQL
|
Diseñar y construir aplicaciones de escala global con Azure Cosmos DB — seleccionando la partition key correcta, optimizando RU/s, eligiendo el nivel de consistencia apropiado para cada caso de uso y aprovechando el change feed para arquitecturas event-driven de baja latencia a nivel planetario. | Experto | Sistema de e-commerce de escala global con Python y azure-cosmos: diseño de partition key compuesta (tenantId_productId) que distribuye uniformemente 10M de items; SDK con bulk operations para carga masiva (5k items/s); change feed processor en Azure Functions que invalida Redis cache en tiempo real cuando un precio cambia; Synapse Link habilitado para análisis histórico sin afectar RU/s operacionales. Benchmark compara latencia p99 en Session vs Eventual consistency. |
PythonPartition key design sin hot partition verificado con métricas de distribución en Azure Portal (ninguna partición >10% del total); bulk insert de 100k items completa en <30s; change feed processor invoca Redis invalidation en <1s desde escritura; query sin cross-partition en access pattern principal (verificado con explain plan); Synapse Link query sobre datos históricos sin incrementar RU/s operacionales. |