Exámenes vigentes · 2026 · Foundational · Associate · Professional · Specialty

AWS Certification
Path 2026

Matrices de competencia por certificación. 13 exámenes activos distribuidos en 4 categorías oficiales de AWS. Cada fila detalla dominios, temas de examen, proyectos de validación y criterios de éxito.

Python Los proyectos de validación utilizan boto3, AWS SDK y AWS CDK donde aplica.
01
Dominio Certificación Objetivo Dif. Recursos Proyecto Python / Validación Criterio de Éxito
Cloud Fundamentals
AWS Certified Cloud Practitioner — CLF-C02
Conceptos de nube (IaaS/PaaS/SaaS) · Infraestructura global AWS (Regiones, AZs, Edge Locations) · IAM (usuarios, grupos, políticas, MFA) · Compute (EC2, Lambda) · Storage (S3, EBS, EFS) · Bases de datos (RDS, DynamoDB) · Redes (VPC básico, CloudFront, Route 53) · Precios y facturación (Free Tier, Cost Explorer, Budgets) · Shared Responsibility Model · Well-Architected Framework (6 pilares) · AWS Support Plans
65 preguntas · 90 min · Passing: 700/1000 · Vigencia: 3 años
Demostrar comprensión conceptual de AWS Cloud: sus modelos de servicio, beneficios frente a on-premises, facturación, seguridad compartida y los servicios core — base obligatoria antes de cualquier certificación técnica. Fácil Script boto3 que enumera todos los recursos activos de una cuenta AWS (EC2, S3 buckets, RDS instances, Lambda functions) en múltiples regiones y exporta un inventario en JSON. Incluye costos estimados del mes usando CostExplorer API. PythonScript corre sin hardcodear credenciales (usa roles IAM o ~/.aws/credentials); enumera recursos en al menos 3 regiones; reporte JSON válido con tipo, región, estado y costo estimado por servicio.
AI Fundamentals
AWS Certified AI Practitioner — AIF-C01
Conceptos de IA/ML/DL (supervisado, no supervisado, reinforcement learning) · Generative AI (LLMs, foundation models, RAG, prompt engineering) · Amazon Bedrock (modelos fundacionales, guardrails, knowledge bases, agents) · AWS AI/ML services: Rekognition · Comprehend · Transcribe · Polly · Translate · Textract · Forecast · Personalize · Kendra · SageMaker Canvas · Responsible AI (sesgo, explicabilidad, fairness, privacidad) · Seguridad en IA (toxicidad, alucinaciones, PII)
Cloud Practitioner (conceptos base de AWS)
85 preguntas · 120 min · Passing: 700/1000 · Vigencia: 3 años
Comprender el panorama completo de IA/ML en AWS — qué servicio usar para cada caso de uso (visión, NLP, generative AI), los principios de IA responsable y cómo Amazon Bedrock transforma el desarrollo de aplicaciones inteligentes. Fácil Chatbot multi-turno en Python usando boto3 y Amazon Bedrock (modelo Claude o Llama vía API bedrock-runtime). Incluye guardrails configurados, historial de conversación con converse API y módulo de análisis de sentimiento con Amazon Comprehend. PythonChatbot usa bedrock-runtime con al menos 2 modelos intercambiables; guardrails bloquean contenido dañino demostrado con prueba; módulo Comprehend detecta sentimiento y entidades en respuestas del usuario.
02
Dominio Certificación Objetivo Dif. Recursos Proyecto Python / Validación Criterio de Éxito
Architecture
AWS Certified Solutions Architect — Associate (SAA-C03)
Well-Architected Framework (Operational Excellence, Security, Reliability, Performance, Cost Optimization, Sustainability) · VPC (subnets públicas/privadas, NACLs, Security Groups, NAT Gateway, VPC Endpoints) · EC2 (tipos, AMIs, Auto Scaling Groups, Placement Groups) · S3 (storage classes, lifecycle policies, versioning, replication, presigned URLs) · RDS / Aurora (Multi-AZ, Read Replicas, backups) · DynamoDB (GSI/LSI, streams, DAX) · Lambda + API Gateway (serverless patterns) · ELB (ALB, NLB, GLB) · CloudFront + Route 53 (routing policies) · IAM (políticas de mínimo privilegio, roles, STS) · CloudWatch + CloudTrail · Patrones de alta disponibilidad y DR (RPO/RTO)
Cloud Practitioner (o experiencia práctica equivalente)
65 preguntas · 130 min · Passing: 720/1000 · Vigencia: 3 años · La más solicitada en job postings
Diseñar arquitecturas escalables, resilientes, seguras y costo-eficientes usando los servicios core de AWS — la certificación con mayor ROI del ecosistema AWS y la más demandada por empleadores en roles de cloud y backend. Medio Infraestructura 3 capas (frontend en CloudFront/S3, backend EC2 con ALB + Auto Scaling, base de datos RDS Multi-AZ) desplegada con AWS CDK en Python. Incluye VPC con subnets públicas/privadas, security groups restrictivos, backup automatizado y alarmas CloudWatch para CPU y latencia. PythonCDK stack despliega en 2 AZs como mínimo; RDS en subnet privada sin acceso directo desde internet; Auto Scaling Policy basada en CPU >70%; alarmas CloudWatch con SNS configurado; todo destruible con cdk destroy.
Development
AWS Certified Developer — Associate (DVA-C02)
Lambda avanzado (execution context, layers, versiones/aliases, cold start, concurrencia, SnapStart) · API Gateway (REST vs HTTP vs WebSocket APIs, Lambda Proxy integration, authorizers) · DynamoDB desde código (SDK, operaciones CRUD, expresiones, optimistic locking) · SQS (standard vs FIFO, visibility timeout, DLQ, long polling) · SNS (fan-out pattern, message filtering) · Kinesis Data Streams (shards, partition keys, KCL, checkpointing) · Elastic Beanstalk (deployment policies) · ECS (task definitions, services, ECR) · CodeCommit · CodeBuild · CodeDeploy (deployment strategies: blue/green, canary, linear) · CodePipeline · CloudFormation (intrinsic functions, change sets, cfn-init) · X-Ray (tracing, sampling rules, segments/subsegments) · AWS SDK: paginators, waiters, retry con exponential backoff · Cognito (User Pools, Identity Pools, JWT)
Cloud Practitioner + experiencia en desarrollo de aplicaciones
65 preguntas · 130 min · Passing: 720/1000 · Vigencia: 3 años
Construir, depurar y desplegar aplicaciones nativas en la nube con patrones serverless y contenerización — la certificación esencial para cualquier desarrollador backend que trabaje con AWS a diario. Medio API serverless de gestión de pedidos: Lambda (Python) + API Gateway HTTP API + DynamoDB (CRUD) + SQS para procesamiento asíncrono + SNS para notificaciones + X-Ray habilitado. CI/CD completo con CodePipeline → CodeBuild → CodeDeploy con estrategia canary. PythonLambda con cold start <1s (sin imports innecesarios); DLQ configurada en SQS; X-Ray muestra trazas con subsegmentos para DynamoDB y SNS; pipeline detecta fallos y hace rollback automático; tests de integración en CodeBuild con coverage >80%.
Cloud Operations
AWS Certified CloudOps Engineer — Associate (SOA-C03)
CloudWatch (métricas custom, dashboards, Logs Insights, alarmas compuestas, Synthetics) · AWS Systems Manager (Session Manager, Parameter Store, Patch Manager, Automation runbooks, OpsCenter) · AWS Config (rules, conformance packs, remediation automática) · CloudTrail (trails multi-región, integración con EventBridge) · VPC Flow Logs + análisis · Auto Scaling avanzado (target tracking, step scaling, scheduled) · Backup (planes, vault lock) · Cost Explorer + Budgets + Cost Anomaly Detection · Trusted Advisor · AWS Organizations (SCPs básicos) · EventBridge (event bus, rules, targets) · Incident Manager · Estrategias de patch management y compliance
Solutions Architect Associate (comprensión de infraestructura AWS)
65 preguntas · 180 min · Passing: 720/1000 · Vigencia: 3 años · Antes: SysOps Administrator
Operar, monitorizar y asegurar cargas de trabajo en producción con AWS — automatizar remediación de incidentes, gestionar compliance continuamente y mantener visibilidad de costos y salud del sistema. Medio Sistema de auto-remediación: EventBridge detecta alarma CloudWatch (CPU >90% por 5 min) → Lambda Python invoca SSM Automation runbook para reemplazar instancia EC2. Config rule verifica que S3 buckets no sean públicos; Lambda de remediación los bloquea automáticamente si viola la regla. PythonRemediación funciona end-to-end en prueba simulada (<3 min desde alarma hasta instancia nueva); Config rule reporta NON_COMPLIANT y remediación automática actúa en <2 min; todos los eventos quedan en CloudTrail; Lambda con manejo de errores y logging a CloudWatch Logs.
Data Engineering
AWS Certified Data Engineer — Associate (DEA-C01)
S3 (data lake patterns, particionamiento, storage classes para datos fríos) · AWS Glue (catalogación, ETL jobs PySpark/Python, Glue Studio, Data Quality, triggers) · Athena (SQL sobre S3, Workgroups, partitioned tables, output formats: Parquet/ORC) · Amazon Redshift (distribución de tablas, sort keys, carga masiva COPY, Spectrum, clustering) · Kinesis Data Streams + Kinesis Firehose (procesamiento en tiempo real, transformación Lambda) · Amazon EMR (Spark, Hadoop en clúster managed, cost optimization con Spot) · AWS DMS (migración de bases de datos, CDC) · Lake Formation (permisos a nivel de columna, row-level security, tags) · Step Functions (orquestación de pipelines) · QuickSight (visualización básica) · EventBridge Pipes · Principios de modelado dimensional (star schema, snowflake)
Solutions Architect Associate + fundamentos de SQL y Python
65 preguntas · 130 min · Passing: 720/1000 · Vigencia: 3 años · Lanzada 2024
Diseñar e implementar pipelines de datos modernos en AWS — desde la ingesta en tiempo real hasta la transformación, catalogación y análisis ad-hoc — con foco en costo-eficiencia, escalabilidad y calidad del dato. Medio Pipeline completo de datos de e-commerce: Kinesis Firehose recibe eventos de compra → Glue ETL en Python limpia y particiona por fecha → S3 data lake en formato Parquet → Athena para consultas ad-hoc → Glue Data Catalog con clasificación automática. Step Functions orquesta el proceso nocturno de carga a Redshift. PythonGlue job procesa 1M+ registros sin OOM; Parquet particionado por year/month/day; consulta Athena sobre 12 meses de datos ejecuta en <10s; Step Functions registra éxito/fallo con reintentos; Data Quality Rules validan que el pipeline no publique datos corruptos.
ML Engineering
AWS Certified Machine Learning Engineer — Associate (MLA-C01)
SageMaker core (Training Jobs, Processing Jobs, Feature Store, Model Registry, Endpoints — real-time vs async vs batch) · SageMaker Pipelines (MLOps, pasos de pipeline: procesamiento, entrenamiento, evaluación, registro, despliegue) · Estrategias de despliegue ML (A/B testing, shadow mode, canary, blue/green en SageMaker) · Model Monitor (data drift, model quality, bias drift, explicabilidad con Clarify) · Bedrock Fine-Tuning y Continued Pre-training · Feature engineering a escala (SageMaker Data Wrangler, Glue) · Evaluación de modelos (confusion matrix, AUC-ROC, RMSE, selección de métricas) · Optimización de entrenamiento (hiperparámetros, AMT, SageMaker Experiments) · Seguridad en ML (VPC isolation, KMS, IAM roles por step) · Inferencia eficiente (Inference Recommender, quantización, model serving)
AI Practitioner + Data Engineer Associate + experiencia en Python/scikit-learn/PyTorch/TensorFlow
65 preguntas · 130 min · Passing: 720/1000 · Vigencia: 3 años · Lanzada 2024
Implementar pipelines de MLOps completos en AWS: desde la preparación de datos hasta el despliegue, monitoreo continuo y reentrenamiento automático de modelos en producción usando SageMaker como plataforma central. Difícil Pipeline MLOps end-to-end con SageMaker Pipelines en Python: procesamiento de datos (Processing Job) → entrenamiento XGBoost (Training Job con AMT) → evaluación → registro en Model Registry → despliegue automático en endpoint si AUC-ROC > 0.85 → Model Monitor detectando data drift diariamente. PythonPipeline completo ejecutable desde un único script Python usando SageMaker SDK; AMT mejora baseline en >5%; endpoint activo con latencia p99 <200ms; Model Monitor genera reporte diario; alerta SNS disparada automáticamente cuando drift supera umbral.
03
Dominio Certificación Objetivo Dif. Recursos Proyecto Python / Validación Criterio de Éxito
Advanced Architecture
AWS Certified Solutions Architect — Professional (SAP-C02)
AWS Organizations (multi-account, SCPs, OU design, Control Tower, Account Factory) · Hybrid networking (Direct Connect: VIF types, LAG, resiliency; Site-to-Site VPN, AWS VPN CloudHub) · Advanced networking (Transit Gateway: peering, multicast, route domains; AWS PrivateLink; VPC Sharing) · Disaster Recovery (Backup & Restore, Pilot Light, Warm Standby, Multi-Site Active/Active; RTO/RPO analysis) · Migration strategies (6 Rs: Rehost, Replatform, Repurchase, Refactor, Retire, Retain; Migration Hub; DMS; Application Discovery Service) · Cost optimization avanzado (Savings Plans, Reserved Instances vs On-Demand vs Spot, Compute Optimizer) · Event-driven architecture (EventBridge, Step Functions Express/Standard, SQS + SNS fanout) · Security avanzado (AWS SSO/IAM Identity Center, permission boundaries, SCPs, detective controls con Security Hub + GuardDuty) · Arquitecturas de datos a escala (Lake Formation, Redshift + Spectrum, OpenSearch)
Solutions Architect Associate + al menos 2 años de experiencia diseñando en AWS
75 preguntas · 180 min · Passing: 750/1000 · Vigencia: 3 años · Rol: Cloud Architect Senior
Diseñar arquitecturas empresariales de nivel Production en AWS: multi-cuenta, multi-región, con estrategias de DR documentadas, costos optimizados y gobierno centralizado — lo que diferencia a un arquitecto senior de un juniors que conoce servicios aislados. Difícil Landing Zone con AWS CDK Python: cuenta de Management + cuentas de Workloads (Dev, Staging, Prod) + Log Archive + Security. SCPs que bloquean creación de recursos en regiones no aprobadas. Módulo de DR con backup cross-region vía AWS Backup y documentación de RTO/RPO por carga de trabajo. PythonCDK deploya estructura multi-cuenta desde cero; SCP bloquea región EU verificado con prueba de creación fallida; AWS Backup copia snapshots RDS a región secundaria diariamente; documento Architecture Decision Record (ADR) por cada decisión de diseño con trade-offs explicitados.
DevOps & Automation
AWS Certified DevOps Engineer — Professional (DOP-C02)
SDLC automatizado (CodeCommit, CodeArtifact, CodeBuild: buildspec.yml, CodeDeploy: AppSpec, deployment hooks, CodePipeline: stages, actions, approvals, manual gates) · IaC avanzado (CloudFormation: nested stacks, macros, custom resources con Lambda, cfn-guard; CDK: constructs L1/L2/L3, aspects, testing) · ECS/EKS deployment strategies (rolling, blue/green via CodeDeploy, canary) · Monitoring y observabilidad (CloudWatch Container Insights, Contributor Insights, Logs Insights ML anomaly detection, Evidently para feature flags) · AWS Config Rules avanzado (remediation automática, conformance packs, multi-account aggregation) · Security Hub (findings, custom insights, auto-remediation) · Systems Manager avanzado (State Manager, Maintenance Windows, Inventory, Documents) · Incident Manager (response plans, escalation, runbooks) · Event-driven automation con EventBridge + Lambda · Chaos Engineering en AWS (Fault Injection Simulator)
Developer Associate + Solutions Architect Associate + experiencia real en CI/CD y operaciones
75 preguntas · 180 min · Passing: 750/1000 · Vigencia: 3 años · Rol: DevOps / Platform Engineer Senior
Diseñar e implementar pipelines de entrega continua de nivel empresarial, gestión de configuración como código a escala y operaciones automatizadas que mantienen sistemas en el estado deseado — el estándar de plataformas de ingeniería maduras. Difícil Pipeline CI/CD completo con CDK Python: CodePipeline multi-stage → CodeBuild (tests unitarios + análisis SAST) → CodeDeploy Blue/Green en ECS → CloudWatch Canary Analysis (error rate) con rollback automático → Security Hub centraliza findings de CodeBuild y Config → Fault Injection Simulator valida resiliencia del deployment. PythonPipeline despliega desde git push en <15 min; rollback automático se dispara cuando error rate >2% en canary; Config Rule bloquea merge a main si detecta recurso no compliant; FIS experiment inyecta latencia sin causar downtime; CDK con pruebas de snapshot y cfn-guard.
Generative AI Dev
AWS Certified Generative AI Developer — Professional
Amazon Bedrock avanzado (Model APIs, Converse API, Streaming, Extended Thinking) · Bedrock Agents (action groups, orchestration, code interpreter, memory) · Bedrock Knowledge Bases (vector store con OpenSearch Serverless o Pinecone, chunking strategies, hybrid search, reranking) · Bedrock Guardrails (toxicity, hallucination grounding, PII redaction, topic denial) · RAG arquitectura (indexación, embedding models, retrieval strategies, re-ranking) · Bedrock Model Evaluation (benchmark datasets, custom metrics) · Fine-tuning y Continued Pre-training en SageMaker · Prompt Engineering avanzado (chain-of-thought, few-shot, tool use, structured output) · Seguridad y governance de GenAI (prompt injection, jailbreak prevention, data privacy) · LLM Observabilidad (tracing con X-Ray, logging de prompts, cost monitoring por token)
AI Practitioner + Developer Associate + experiencia con LLMs y APIs de modelos fundacionales
75 preguntas · 180 min · Passing: 750/1000 · Vigencia: 3 años
Construir aplicaciones de IA generativa production-ready en AWS Bedrock — con agentes autónomos, bases de conocimiento vectoriales, guardrails robustos y observabilidad completa del comportamiento del modelo en producción. Difícil Asistente empresarial RAG en Python: Bedrock Agent con 2 action groups (consulta base de datos via Lambda + búsqueda web via tool) + Knowledge Base con documentos PDF indexados en OpenSearch Serverless + Guardrails bloqueando PII y temas off-topic + X-Ray tracing por token + dashboard de costos por usuario. PythonAgent responde preguntas sobre documentos con citas exactas de fuente; Guardrail bloquea 100% de prompts con PII en test; latencia p95 <3s para consultas RAG; X-Ray muestra trace completo (retrieve → augment → generate); costo por consulta registrado y <$0.05 promedio.
04
Dominio Certificación Objetivo Dif. Recursos Proyecto Python / Validación Criterio de Éxito
Security
AWS Certified Security — Specialty (SCS-C02)
IAM avanzado (SCPs, permission boundaries, ABAC con tags, session policies, SAML 2.0 federation, Web Identity federation, cross-account assume role) · KMS (CMKs, key policies, grants, envelope encryption, multi-Region keys, CloudHSM) · Secrets Manager vs Parameter Store (rotación automática, VPC endpoint) · WAF (rule groups, managed rules OWASP, rate limiting, geo-blocking) · Shield Advanced (DDoS protection, proactive engagement) · GuardDuty (findings types, threat intelligence, suppression rules, multi-account) · Inspector v2 (EC2, ECR, Lambda scanning) · Security Hub (standards: FSBP, CIS, PCI-DSS, custom insights, findings workflow) · CloudTrail avanzado (Insights, Lake, multi-región, S3 event logging) · VPC Security (NACL vs SG, VPC Flow Logs, Traffic Mirroring, Private DNS) · Macie (PII detection in S3) · Detective (security investigation) · Incident Response en AWS (forensics: snapshot, isolate, investigate; IR playbooks) · Compliance (AWS Artifact, config conformance packs)
Solutions Architect Associate + experiencia práctica en seguridad cloud
65 preguntas · 170 min · Passing: 750/1000 · Vigencia: 3 años · Examen actualizado 2025
Diseñar e implementar una postura de seguridad cloud completa con defensa en profundidad — desde la gestión de identidades y el cifrado de datos hasta la detección de amenazas, respuesta a incidentes y compliance continuo. Experto Sistema de seguridad automatizado: GuardDuty finding de alto riesgo → EventBridge → Lambda Python ejecuta playbook de IR (aísla instancia EC2: modifica Security Group a deny-all, toma snapshot EBS, revoca credenciales IAM, notifica via SNS). Config Rule detecta S3 público → Macie escanea → Lambda bloquea y alerta con hallazgos PII. PythonPlaybook IR ejecuta en <90 segundos desde finding; instancia aislada no tiene conectividad saliente verificado; snapshot EBS creado y tagueado para forensics; Macie finding con PII provoca bloqueo automático de acceso público en <2 min; todo auditado en CloudTrail con log integridad habilitada.
Networking
AWS Certified Advanced Networking — Specialty (ANS-C01)
VPC avanzado (CIDR design, sharing, inter-VPC connectivity, IPAM) · Transit Gateway (route tables, peering inter-región, multicast, Network Manager) · AWS PrivateLink (endpoint services, NLB, Interface Endpoints) · Direct Connect (Virtual Interfaces: public/private/transit, LAG, MACsec, resiliencia: single/dual location, AWS Direct Connect Gateway) · AWS VPN (Site-to-Site, Client VPN, VPN CloudHub, aceleración con Global Accelerator) · Route 53 avanzado (DNSSEC, Resolver endpoints, Resolver rules, split-view DNS, latency/geo/weighted routing) · ELB profundo (ALB: path/host/header routing, target group weighting, sticky sessions; NLB: cross-AZ, TLS passthrough, UDP; GWLB: inline inspection) · Network performance (Placement Groups, EFA, SR-IOV, jumbo frames, MTU 9001) · IPv6 en AWS (dual-stack, Egress-Only IGW) · Network security (Network Firewall: stateful rules, Suricata IDS; Gateway Load Balancer para inspection appliances)
Solutions Architect Professional + experiencia práctica en networking empresarial
65 preguntas · 170 min · Passing: 750/1000 · Vigencia: 3 años · Rol: Network Architect / Senior Network Engineer
Diseñar topologías de red empresariales complejas en AWS: conectividad híbrida resiliente, segmentación de red entre cuentas/VPCs a escala, inspección de tráfico inline y optimización de latencia global — la especialidad más técnica del portfolio AWS. Experto Hub-and-Spoke networking con CDK Python: Transit Gateway central con 4 VPC attachments (shared-services, prod, dev, inspection) + rutas que fuerzan tráfico este-oeste por Network Firewall (Suricata rules) + Route 53 Resolver con reglas para resolución DNS on-premises simulada. Script Python verifica conectividad y produce topology diagram con boto3 + graphviz. PythonTráfico entre VPCs atraviesa Network Firewall verificado con VPC Flow Logs; DNS resolution correcta desde todas las VPCs; script genera diagrama de topología automáticamente; todo el stack destruible/reconstruible con un comando CDK; documentación del design con diagrama CIDR allocation.
Machine Learning
AWS Certified Machine Learning — Specialty (MLS-C01)
Preparación de datos ML (feature engineering, imputación, normalización, one-hot encoding, PCA, label encoding; SageMaker Data Wrangler; Glue DataBrew) · Algoritmos ML core (XGBoost, Linear/Logistic Regression, KNN, Random Forest, k-means, LDA, PCA; cuándo usar cada uno) · Redes neuronales profundas (CNN para visión, RNN/LSTM para secuencias, Transfer Learning) · SageMaker Training avanzado (Distributed Training: data parallel + model parallel, Spot Training con checkpoints, SageMaker Debugger, Profiler) · Hyperparameter Optimization (Bayesian, Random, Grid search con AMT) · SageMaker Deployment (real-time, async, serverless, batch transform, multi-model endpoints, shadow testing, A/B) · Model Monitor (data drift, model quality, bias Clarify, explainability SHAP) · SageMaker Pipelines (MLOps completo) · Rekognition · Comprehend · Forecast · Personalize · Transcribe/Polly/Translate (cuándo usar managed services vs custom) · Seguridad en ML (VPC mode, KMS, IAM por step)
ML Engineer Associate + experiencia práctica con PyTorch/TensorFlow/scikit-learn
65 preguntas · 180 min · Passing: 750/1000 · Vigencia: 3 años · Rol: ML Engineer / Data Scientist Senior
Dominar el ciclo de vida completo de ML en AWS a nivel especialista: desde la selección de algoritmos óptimos hasta pipelines de MLOps automatizados con detección de drift y reentrenamiento — la certificación que distingue a un ML Engineer que opera en producción. Experto Sistema de recomendaciones end-to-end: SageMaker Pipelines Python (Feature Store → entrenamiento distribuido multi-GPU con data parallelism → evaluación → registro en Model Registry) + A/B test entre modelo baseline y nuevo con Amazon Experiment → Model Monitor detecta data drift semanalmente → reentrenamiento automático vía EventBridge cuando F1-score cae >5%. PythonEntrenamiento distribuido en 2+ instancias con training time reducido >40% vs single-node; A/B test con significancia estadística documentada; Model Monitor genera reporte con SHAP values por feature; trigger de reentrenamiento funcional en prueba simulada de drift; pipeline completo ejecutable desde SDK sin consola.