01
| Dominio | Certificación | Objetivo | Dif. | Recursos | Proyecto Python / Validación | Criterio de Éxito |
|---|---|---|---|---|---|---|
| Cloud Business |
Google Cloud Digital Leader — CDL
Transformación digital con GCP (beneficios de la nube vs on-premises · CapEx/OpEx · economías de escala · elasticidad) · Productos y servicios GCP por categoría (Compute: Compute Engine, GKE, Cloud Run, App Engine · Storage: Cloud Storage, Persistent Disk, Filestore · Databases: Cloud SQL, Cloud Spanner, Firestore, BigQuery · Networking: Cloud VPC, Cloud CDN, Cloud Load Balancing · AI/ML: Vertex AI, Document AI, Vision API, Natural Language API) · Infraestructura global GCP (Regiones, Zonas, Edge Locations, Premium vs Standard Networking) · Seguridad y compliance (Shared Responsibility Model, IAM conceptos, Cloud Armor, Cloud KMS conceptos, compliance: ISO 27001, SOC 2, GDPR readiness) · Datos y transformación analítica (BigQuery conceptos, Looker, Data Studio, pipeline de datos básico) · Aspectos financieros (Google Cloud Pricing Calculator, Cost Management, committed use discounts, sustained use discounts) · Cultura y modernización (DevOps, SRE, microservicios, cloud-native conceptos)
|
Vincular capacidades de Google Cloud con resultados de negocio — la certificación role-agnostic para cualquier profesional que tome decisiones sobre cloud o trabaje en equipos que usan GCP, sin necesidad de habilidades técnicas de implementación. | Fácil | Dashboard ejecutivo en Python: consulta la API de Billing con google-cloud-billing para obtener costos del mes por servicio y proyecto, calcula el costo total con comparación mes anterior, y genera un reporte HTML con gráfica de barras (usando matplotlib) de top-10 servicios más costosos. Se autentica con Application Default Credentials. |
PythonScript lista todos los proyectos de la organización y su costo mensual; identifica top-10 servicios con mayor gasto; calcula variación % respecto al mes anterior; reporte HTML navegable generado en <30s; autenticación con ADC sin hardcodear credenciales. | |
| Generative AI |
Google Cloud Generative AI Leader — GAIL NEW
Fundamentos de IA generativa (LLMs: arquitectura transformer a alto nivel · Foundation Models: Gemini, PaLM, Imagen · diferencia LLM vs tradicional ML · casos de uso empresariales: summarization, Q&A, code generation, image generation) · Google AI Portfolio de negocio (Vertex AI Agent Builder · Gemini para Google Workspace: Docs, Sheets, Meet, Gmail copilot · Google Agentspace: agentes enterprise · NotebookLM · Gemini API en Google Cloud) · Prompt Engineering conceptual (zero-shot, few-shot, chain-of-thought a nivel ejecutivo) · Responsible AI y governance (hallucinations y mitigación · bias en modelos · safety filters · Google AI Principles · responsible deployment) · Arquitectura RAG conceptual (retrieval-augmented generation: problema, solución, beneficios para enterprise) · AI Strategy (build vs buy vs fine-tune decision framework · TCO de IA generativa · casos de uso de mayor ROI por industria) · Seguridad en GenAI (prompt injection awareness · data privacy en LLMs · modelo de datos de Vertex AI)
CDL (recomendado, no obligatorio)
|
Articular el valor estratégico y casos de uso de IA generativa en el negocio usando el portfolio de Google Cloud — para líderes, product managers y directivos que guían iniciativas de GenAI sin necesidad de habilidades de ingeniería de modelos. | Fácil | Asistente de análisis de negocio con Gemini API en Python: acepta reportes financieros en PDF o texto plano, los procesa con google-generativeai (Gemini 1.5 Pro) generando resumen ejecutivo + extracción de KPIs + identificación de riesgos + 3 recomendaciones accionables. Incluye evaluación de calidad de respuesta con otro prompt de auto-evaluación. |
PythonGemini extrae correctamente KPIs numéricos de un P&L de prueba; resumen <200 palabras cubre los 3 puntos más críticos del documento; prompt de auto-evaluación confirma que las recomendaciones son concretas y no genéricas; latencia total <10s para documentos de 5 páginas; sin API key hardcodeada (usa env var o Secret Manager). |
02
| Dominio | Certificación | Objetivo | Dif. | Recursos | Proyecto Python / Validación | Criterio de Éxito |
|---|---|---|---|---|---|---|
| Cloud Engineering |
Associate Cloud Engineer — ACE
Configuración del entorno GCP (proyectos, facturación, cuotas, gcloud CLI, Cloud Shell, SDK) · Planificación y configuración de soluciones cloud (Compute Engine: machine types, persistent disks, snapshots, preemptible/spot VMs, managed instance groups, autoscaling; GKE: clusters, node pools, workloads, deployments, services; Cloud Run: services, jobs, revision traffic; App Engine: standard vs flexible) · Despliegue e implementación (Cloud Build: triggers, YAML; Cloud Deploy; Artifact Registry; Terraform en GCP básico; deployment manager) · Networking GCP (VPC: subnets, firewall rules, routes; VPC peering; Cloud NAT; Cloud DNS; Cloud Load Balancing: HTTP(S) LB, TCP/UDP LB, Internal LB; Cloud CDN) · Almacenamiento y bases de datos (Cloud Storage: clases, lifecycle, IAM vs ACLs, signed URLs; Cloud SQL: instancias, backups, alta disponibilidad; Firestore; Cloud Spanner básico; Memorystore; BigQuery conceptos de carga) · IAM y seguridad (service accounts, roles primitivos vs predefinidos vs custom; policy bindings; Organization Policy; Secret Manager; Cloud Armor básico) · Operaciones y monitoreo (Cloud Monitoring: métricas, alertas, uptime checks; Cloud Logging: log sinks, filtros, exclusions; Cloud Trace básico; Error Reporting)
CDL (recomendado) + 6+ meses experiencia práctica con GCP
|
Desplegar, gestionar y operar soluciones en Google Cloud usando la consola, gcloud CLI y IaC básico — la certificación de referencia para cloud engineers, sysadmins y DevOps que operan infraestructura GCP en el día a día. | Medio | Infraestructura 3 capas con Terraform + Python: VPC con subnets públicas/privadas + Cloud NAT → Managed Instance Group con autoscaling (CPU 70%) + HTTP(S) Load Balancer con health checks → Cloud SQL PostgreSQL en private IP. Script Python con google-cloud-compute verifica el estado del MIG, fuerza un scale-out y mide el tiempo hasta que la nueva instancia pasa el health check. |
PythonTerraform aplica sin errores y Terraform destroy limpia todo sin recursos huérfanos; MIG escala de 2 a 4 instancias en <5 min por CPU alta simulada; Cloud SQL sin IP pública verificado con network policy; firewall rules permiten solo tráfico necesario (principio de menor privilegio); script Python autentica con Application Default Credentials. | |
| Workspace Admin |
Google Workspace Administrator — GWAA
Administración de usuarios y grupos (Google Admin Console: creación de usuarios, grupos, unidades organizativas; aprovisionamiento automático con SCIM/LDAP; Google Cloud Directory Sync; 2SV obligatorio por OU; SSO con SAML 2.0) · Gmail y Meet (routing de correo: rutas de entrega, listas de spam permitidas, políticas de correo entrante/saliente; DLP en Gmail: reglas de contenido, plantillas predefinidas; S/MIME para cifrado de correo; Meet: grabaciones, grabación en Drive, settings de acceso externo) · Drive y dispositivos (Drive: uso compartido por dominio vs externo, etiquetas, VPC Service Controls para Drive; Vault: asuntos, retención, exportación para eDiscovery; Endpoint Management: MDM básico/avanzado, compliance de dispositivos, borrado remoto) · Seguridad Workspace (Security Center: alertas, auditoría, investigación; acceso a aplicaciones OAuth de terceros; Context-Aware Access básico; BeyondCorp para Workspace; políticas de contraseña avanzadas) · Migración y reporting (Data Migration Service: migración desde Exchange/Outlook; Takeout; Vault para retención legal; Reports API: uso por aplicación, actividades) · Google Apps Script y automatización básica
Familiaridad con Google Workspace (Gmail, Drive, Meet) + conceptos básicos de administración de directorios
|
Administrar, asegurar y optimizar entornos Google Workspace empresariales — gestión de identidades, políticas de seguridad, cumplimiento normativo (eDiscovery), dispositivos y flujos de colaboración para organizaciones con cientos o miles de usuarios. | Medio | Suite de auditoría de seguridad Workspace con Python y google-api-python-client: script que consulta la Reports API para listar usuarios sin 2SV activado, aplicaciones OAuth de terceros con acceso a datos sensibles (Drive/Gmail), y archivos en Drive con link público activo. Genera reporte HTML con severidad por hallazgo y envía alerta por email via Gmail API si hay hallazgos críticos. |
PythonScript identifica correctamente los usuarios sin 2SV (verificado creando un usuario de prueba sin activarlo); lista de OAuth apps incluye nombre, scopes y último acceso; archivos con link público filtrados por tipo (excluye plantillas compartidas intencionalmente); reporte HTML con RAG status; email de alerta enviado solo cuando hay High findings. | |
| Data Practice |
Associate Data Practitioner — ADP NEW
Preparación e ingesta de datos (Cloud Storage: cargar datos estructurados/semi-estructurados; Cloud Pub/Sub: topics, subscriptions, pull vs push; Dataflow para ingesta batch y streaming a BigQuery; Transfer Service: carga desde S3/Azure Blob/on-premises) · BigQuery core (crear datasets y tablas; carga de datos: bq load, LOAD DATA, Data Transfer Service; consultas SQL: SELECT, JOIN, WHERE, GROUP BY, funciones de ventana; particionamiento por fecha y clustering; export: CSV/Parquet/JSON a Cloud Storage; uso de la consola vs bq CLI vs Python SDK) · Transformación y calidad de datos (Dataprep (Trifacta): recetas visuales de limpieza; Dataplex: catalogación, calidad de datos, lineage conceptual; Cloud Data Fusion: pipelines ETL visuales; dbt en BigQuery básico) · Visualización y presentación (Looker Studio: crear informes, conectar a BigQuery, filtros, gráficas; Looker básico: explores, modelos LookML conceptual) · Orquestación de pipelines (Cloud Composer / Apache Airflow: DAGs, tasks, scheduling, retries) · Gestión de datos (Data Catalog: tags, búsqueda; BigQuery column-level security; Row Access Policies; Information Schema de BigQuery)
DP-900 o CDL (recomendado) + SQL básico + Python básico
|
Ingerir, transformar, analizar y visualizar datos en Google Cloud usando BigQuery, Dataflow, Looker Studio y Cloud Composer — la certificación de entrada para roles de datos que operan pipelines y generan insights con servicios GCP a nivel práctico. | Medio | Pipeline de datos de ventas end-to-end con Python: Pub/Sub producer publica eventos de compra (JSON) → Dataflow job (apache-beam) transforma y limpia en streaming → BigQuery tabla particionada por fecha con clustering por país. Cloud Composer DAG diario valida quality checks (nulls, duplicados, rangos) y envía alerta Pub/Sub si falla. Consultas SQL de análisis en BigQuery exportadas como CSV para Looker Studio. |
PythonDataflow job procesa 100k eventos en <10 min sin errores; BigQuery tabla con row count correcto y sin duplicados (verificado con query de deduplicación); DAG Airflow falla correctamente cuando se inyectan datos con nulls en campo requerido; consultas SQL de análisis ejecutan en <5s sobre 12 meses de datos; pipeline idempotente tras reruns. |
03
| Dominio | Certificación | Objetivo | Dif. | Recursos | Proyecto Python / Validación | Criterio de Éxito |
|---|---|---|---|---|---|---|
| Architecture |
Professional Cloud Architect — PCA
Diseño de soluciones cloud (requesitos de negocio y técnicos → arquitectura; case studies oficiales: EHR Healthcare, Helicopter Racing League, Mountkirk Games, TerramEarth) · Alta disponibilidad y DR (RTO/RPO targets; arquitecturas multi-región; Cloud Spanner como DB global; geo-redundant Load Balancing; Backup and DR service) · Seguridad y compliance (VPC Service Controls: perímetros de servicio; BeyondCorp Enterprise: Zero Trust access; Cloud Armor: WAF; CMEK con Cloud KMS; Confidential Computing; Binary Authorization; Artifact Analysis) · Networking avanzado (Shared VPC: host vs service projects; VPC peering vs Shared VPC trade-offs; Cloud Interconnect: Dedicated vs Partner; Hybrid Connectivity: Cloud VPN HA; Private Service Connect) · Diseño de compute (GKE Enterprise: Autopilot vs Standard, node auto-provisioning, Workload Identity, Binary Authorization en GKE; Cloud Run jobs; Batch para HPC) · Optimización de costos (Committed Use Discounts vs Sustained Use Discounts; rightsizing con Recommender API; Spot VMs; carbon footprint; Active Assist) · Migración (Migrate to VMs; Migrate to Containers; Database Migration Service; Storage Transfer Service; Velostrata; 5Rs framework GCP)
ACE + 1+ año diseñando arquitecturas GCP en producción
|
Diseñar, planificar y gestionar arquitecturas cloud en Google Cloud que satisfacen objetivos de negocio — analizando trade-offs entre confiabilidad, seguridad, escalabilidad y costo en escenarios empresariales complejos basados en los case studies oficiales. | Difícil | Landing Zone multi-proyecto con Terraform + Python: Organization → 3 folders (Production, Staging, Shared) → proyectos con Shared VPC + VPC Service Controls perimeter que protege BigQuery y Cloud Storage. Script Python con google-cloud-resource-manager valida estructura de IAM, verifica que ningún proyecto tiene roles primitivos asignados a usuarios directamente, y genera reporte de compliance con los 5 pilares del Well-Architected Framework de GCP. |
PythonTerraform aplica la organización completa desde cero; VPC Service Controls bloquea acceso a BigQuery fuera del perimeter (verificado con prueba de denegación); ningún usuario con roles primitivos (Owner/Editor/Viewer) directo verificado por script; ADR documentado por cada decisión de arquitectura con trade-offs; Recommender API lista al menos 1 rightsizing recommendation. | |
| Development |
Professional Cloud Developer — PCD
Diseño de aplicaciones cloud-native (microservicios en GKE: Istio service mesh, circuit breaker, retries, traffic management; Cloud Run: request concurrency, min-instances, CPU boost; 12-factor app; API design: REST + gRPC + protobuf) · Desarrollo de datos y almacenamiento (Firestore: data modeling para escala, transacciones, queries compuestos; Cloud Spanner: interleaved tables, secondary indexes, commit timestamps; Datastore mode; Cloud SQL connection pooling con Cloud SQL Auth Proxy; BigTable: row key design para hot spots) · Integración y mensajería (Pub/Sub: exactly-once delivery, message ordering, dead-letter topics, push subscriptions con Cloud Run; Eventarc: triggers desde Pub/Sub/Cloud Storage/Audit Logs; Cloud Tasks: deduplication, rate limiting) · Gestión de APIs (Apigee API Management: products, apps, proxies, policies, analytics; Cloud Endpoints: OpenAPI/gRPC; API Gateway) · Seguridad en aplicaciones (Secret Manager: versioning, rotación automática; Identity Platform: OIDC providers; CSRF, XSS protections; Workload Identity para GKE y Cloud Run; IAM conditions) · Observabilidad (Cloud Trace: custom spans con OpenTelemetry; Cloud Profiler; Error Reporting; Structured Logging con severity; SLO/SLI con Cloud Monitoring; Prometheus en GKE) · Testing y CI/CD (Cloud Build: steps, artifacts, triggers; Cloud Deploy: pipelines, releases, rollouts; Skaffold; Kustomize; canary deployments en Cloud Run)
ACE + 1 año de experiencia desarrollando aplicaciones en GCP
|
Construir y desplegar aplicaciones escalables, seguras y observables en Google Cloud usando Cloud Run, GKE, servicios de mensajería y APIs gestionadas — el estándar para backend developers y platform engineers que trabajan en GCP a nivel avanzado. | Difícil | Sistema de e-commerce event-driven en Python: Cloud Run service (FastAPI) recibe órdenes → publica a Pub/Sub con ordering key por user_id → Cloud Run suscriptor procesa y escribe en Firestore (single-table design) + Cloud Spanner (inventario con transacciones) → Eventarc trigger notifica cliente. Cloud Deploy pipeline con canary 20% → análisis automático de error rate → promote o rollback. OpenTelemetry traces en Cloud Trace. | PythonPub/Sub con message ordering garantiza FIFO por usuario; transacción Spanner actualiza inventario sin race condition bajo carga concurrente de prueba; canary deployment hace rollback automático cuando error rate >1% medido por Cloud Monitoring; Cloud Trace muestra spans de Firestore, Spanner y Pub/Sub en cada request; zero secrets en código o variables de entorno directas. | |
| Data Engineering |
Professional Data Engineer — PDE
BigQuery avanzado (particionamiento: por ingestion time, fecha, integer range; clustering: elección de columnas; materialized views; BI Engine; reservations y slots; authorized views para seguridad de columnas; BigQuery Omni para análisis multi-cloud; INFORMATION_SCHEMA para metadata; BigQuery ML: CREATE MODEL, ML.EVALUATE, ML.PREDICT) · Pipelines de datos (Cloud Dataflow: Apache Beam Python SDK — PCollections, transforms, windowing: tumbling/sliding/session, watermarks, triggers; Pub/Sub + Dataflow para streaming end-to-end; Dataflow Flex Templates; Dataflow autoscaling) · Procesamiento distribuido (Dataproc: clusters Spark en GCP, job optimization, Dataproc Metastore; Dataproc Serverless; diferencia Dataflow vs Dataproc según caso de uso) · Almacenamiento analítico (Bigtable: row key design anti-hotspot, column families, compaction; Cloud Spanner: configuración global, read/write ratios, hotspot detection) · Orquestación y governance (Cloud Composer 2: DAGs Python Airflow, XComs, sensors, task groups, dynamic task mapping; Dataplex: data lakes, zones, assets, lineage, Data Quality tasks; Data Catalog: custom entry groups, tags, policy tags para column-level security) · Machine Learning en datos (Vertex AI Feature Store: feature ingestion, serving online/batch; Vertex AI Pipelines: Kubeflow Pipelines; TFX components) · Seguridad de datos (VPC Service Controls para BigQuery; CMEK en BigQuery/GCS; Row Access Policies; column-level encryption)
ACE + ADP + Python (pandas, Apache Beam) + SQL avanzado + 1 año en ingeniería de datos
|
Diseñar e implementar pipelines de datos de nivel production en Google Cloud: desde la ingesta en tiempo real con Dataflow hasta el modelado analítico en BigQuery, la gobernanza con Dataplex y la operación con Cloud Composer — el rol más demandado en el ecosistema de datos GCP. | Difícil | Pipeline medallion completo con Apache Beam + Python: Pub/Sub source → Dataflow job con ventanas de 5 min (event time), transformaciones de limpieza y enriquecimiento, watermark de 2 min → BigQuery streaming insert tabla particionada (Bronze) → Cloud Composer DAG diario ejecuta Dataflow batch job que transforma Bronze → Silver (Parquet en GCS) → Gold (BigQuery tabla con clustering). Dataplex Quality task valida Silver antes de promover a Gold. | PythonDataflow streaming procesa 50k msgs/min sin lag acumulado; watermark correcto (late data <2min procesado, >2min descartado al DLQ) verificado con datos de prueba retrasados; BigQuery tabla Gold sin duplicados tras 3 reruns del DAG; Dataplex Quality falla correctamente cuando se inyectan nulls en campo requerido; Cloud Lineage muestra grafo completo del pipeline. | |
| Cloud DevOps |
Professional Cloud DevOps Engineer — PCDOE
Bootstrapping de Google Cloud (recursos: proyectos, facturación, IAM; Terraform para IaC en GCP: providers, modules, remote state en GCS; Config Connector para gestionar recursos GCP desde K8s; Policy Controller: constraints, bundles) · Construcción y gestión de CI/CD (Cloud Build: YAML steps, substitution variables, build pools privados; Cloud Deploy: entrega continua a GKE/Cloud Run/GCE, releases, rollouts, estrategias canary/blue-green/custom; Skaffold integration; Cloud Source Repositories; GitHub/GitLab triggers) · SRE y operaciones (SLOs, SLIs, Error Budgets: creación en Cloud Monitoring; alertas basadas en burn rate; postmortem blameless; toil reduction; Incident Response con PagerDuty/OpsGenie integration) · Observabilidad avanzada (Cloud Monitoring: uptime checks, synthetic monitors, custom dashboards, alerting policies con múltiples condiciones; Cloud Logging: log-based metrics, BigQuery log sink, log buckets y retención; Cloud Trace: sampling rules, latency distribution; OpenTelemetry Collector en GKE) · GKE operations (cluster upgrade strategies: blue/green, in-place; node auto-upgrade; Workload Identity; GKE Sandbox; Config Sync con GitOps; Fleet management: multi-cluster) · Gestión de incidentes (Cloud Error Reporting; Debugger (deprecated) → Cloud Workstations debugging; postmortem templates; runbooks en Cloud Operations Suite)
ACE + PCD (recomendado) + experiencia en SRE o DevOps en producción
|
Implementar pipelines de entrega continua enterprise en GCP, establecer SLOs con error budgets, construir observabilidad completa y aplicar principios SRE para operar servicios cloud con alta confiabilidad y mínimo toil. | Difícil | Pipeline GitOps con Cloud Deploy + Python: Cloud Build construye imagen → Push a Artifact Registry → Cloud Deploy release a staging (canary 20%) → Cloud Monitoring verifica SLO de latencia p99 <200ms durante 10 min → promote automático a prod (100%). SLO definido en Cloud Monitoring con error budget y alertas de burn rate. Script Python genera dashboard DORA (deployment frequency, lead time, MTTR, change failure rate) consultando Cloud Build y Cloud Monitoring APIs. | PythonPipeline completo en <15 min desde git push; canary rollback automático cuando latencia supera SLO durante el bake period; error budget visible en dashboard de Cloud Monitoring; DORA metrics calculados correctamente para los últimos 30 días; Config Sync sincroniza manifests de GKE desde repositorio sin drift verificado; Terraform state en GCS con locking. | |
| Security |
Professional Cloud Security Engineer — PCSE
Configuración de un entorno seguro (Organization Policy Service: constraints disponibles — restrict-public-ip, allowed-locations, etc.; Resource Manager: proyectos, folders, org; IAM avanzado: workload identity federation, impersonation de service accounts, IAM Conditions, IAM Recommender; Binary Authorization: policy attestors, attestations, SLSA) · Seguridad de red (Firewall Rules: priority, logging; Hierarchical Firewall Policies; Cloud Armor: custom rules, ratelimit, adaptive protection, WAF managed rules OWASP; VPC Service Controls: dry-run mode, access levels CIDR/device; Private Google Access; Private Service Connect; Cloud NAT logging) · Seguridad de datos (Cloud KMS: key rings, CMEK por recurso, automatización de rotación; Cloud HSM: módulos de seguridad hardware; Secret Manager: secretos con versionado, expiración y rotación automática con Cloud Run/Cloud Functions; DLP API: inspección y transformación — deidentification, reidentification; VPC Service Controls para BigQuery/Cloud Storage/Container Registry) · Gestión de operaciones de seguridad (Security Command Center (SCC): tiers Standard vs Premium, findings, assets, sources; Event Threat Detection: categories de amenazas; Security Health Analytics; Vulnerability scanning; Web Security Scanner; Chronicle SIEM basics: UDM, rules YARA-L) · Compliance (Cloud Audit Logs: tipos — Admin Activity, Data Access, System Event, Policy Denied; log sinks a BigQuery/GCS para retención long-term; Access Transparency; Assured Workloads)
ACE + SC-900 o experiencia en seguridad cloud + 1 año en security engineering
|
Diseñar e implementar una postura de seguridad cloud completa en GCP con defensa en profundidad: identidad y acceso con principio de menor privilegio, protección de red con VPC Service Controls, cifrado gestionado por cliente y detección de amenazas con SCC y Chronicle. | Experto | Sistema de auto-remediación de seguridad: SCC High finding → Pub/Sub notification → Cloud Run Python handler ejecuta playbook (basado en finding category: bloquea IP en Cloud Armor si es DDoS, revoca SA key si es credential leak, elimina regla de firewall permisiva si es exposed-service). DLP scan diario sobre Cloud Storage bucket con PII detection y cuarentena automática de archivos con datos sensibles. Reporte semanal de IAM Recommender aceptando recomendaciones de exceso de privilegios. | PythonPlaybook ejecuta remediación correcta para cada tipo de finding en <90s (verificado con SCC test findings); DLP detecta tarjetas de crédito y SSNs en archivos de prueba y los mueve a cuarentena; IAM Recommender report identifica service accounts con roles no usados en 90 días; VPC Service Controls dry-run mode muestra accesos que serían bloqueados sin interrumpir producción; todos los eventos auditados en Cloud Audit Logs. | |
| Networking |
Professional Cloud Network Engineer — PCNE
Diseño de VPC (Custom Mode vs Auto Mode; subnets con rangos secundarios para GKE pods/services; VPC peering: límites y alternativas; Shared VPC: host/service projects, IAM para subnet sharing; IPv6 en GCP) · Conectividad híbrida (Cloud VPN: HA VPN con BGP — ASNs, route advertisements, failover; Cloud Interconnect: Dedicated 10/100G, Partner — L2/L3; VLAN Attachments; Cloud Router: BGP sessions, route policies, custom learned routes; HA patterns: 99.9% vs 99.99% SLA) · Network Services (Cloud Load Balancing completo: Global HTTP(S) LB v2 — URL maps, backend services, health checks, SSL policies; Internal HTTP(S) LB; TCP/UDP LB; Network LB; cross-region LB; Traffic Director: xDS API para service mesh; NEGs: Internet, Serverless, Hybrid; Cloud CDN: cache modes, invalidation, signed URLs; Cloud DNS: peering zones, forwarding zones, response policies; Cloud Armor: security policies avanzadas) · Diseño y arquitecturas de red (Network topology: hub-and-spoke con NVAs; Network Connectivity Center: spokes, hub; Private Service Connect: published services y endpoints; Cloud NAT: allocations, port reservations, logging) · Monitoreo de redes (Network Intelligence Center: topology, connectivity tests, performance dashboard, firewall insights; VPC Flow Logs: sampling, log fields, análisis en BigQuery; Packet Mirroring: filtros, collector instances)
ACE + PCA (recomendado) + experiencia sólida en networking (BGP, TCP/IP, firewall, DNS)
|
Diseñar, implementar y gestionar topologías de red enterprise en Google Cloud: conectividad híbrida resiliente con Cloud Interconnect y HA VPN, segmentación multi-proyecto con Shared VPC, load balancing global y monitoreo completo con Network Intelligence Center. | Experto | Hub-and-spoke con Network Connectivity Center + Terraform + Python: NCC hub central + 3 VPC spokes (prod, dev, shared-services) con Shared VPC para shared-services → HA VPN a red on-premises simulada con Cloud Router BGP → Global HTTP(S) LB con Cloud Armor policy. Script Python con google-cloud-network-management ejecuta Connectivity Tests entre todos los pares de instancias y genera reporte de reachability como matriz de acceso. |
PythonConnectivity Tests confirman que prod no puede alcanzar dev directamente (solo via shared-services); BGP session activa y rutas on-premises propagadas verificadas en Cloud Router; Cloud Armor bloquea IP de prueba; VPC Flow Logs en BigQuery para consulta ad-hoc; matrix de reachability generada en <2 min; todo el stack Terraform reproducible en región diferente. | |
| Machine Learning |
Professional Machine Learning Engineer — PMLE
Diseño de soluciones ML (selección de algoritmos según tipo de datos y problema; trade-offs: precisión vs latencia vs costo; cuándo usar AutoML vs custom model vs pre-trained API; framing ML problems; data augmentation; class imbalance techniques) · Vertex AI completo (Vertex AI Workbench: managed notebooks; Training: custom jobs con containers Docker, hyperparameter tuning con Vizier; Vertex AI Pipelines: Kubeflow Pipelines SDK — components, pipeline specs, artifact lineage; Feature Store: features, entity types, online serving; Experiments: tracking de runs con MLflow compatible) · Preparación de datos (BigQuery ML: CREATE MODEL, TRANSFORM, EVALUATE, PREDICT; Dataflow para feature engineering a escala; TFX: ExampleGen, StatisticsGen, SchemaGen, ExampleValidator, Transform, Trainer, Evaluator, Pusher) · Deployment y MLOps (Vertex AI Endpoints: online prediction, dedicated machine types, autoscaling, traffic splitting para A/B test; Batch Prediction jobs; Model Monitoring: skew detection, drift detection, feature attribution drift; Model Registry: versiones, aliases; CI/CD para ML con Cloud Build + Cloud Deploy) · ML Responsable (Vertex AI Explainability: SHAP, IG; Vertex AI Model Evaluation: métricas por slice; fairness indicators; What-If Tool; Responsible AI Toolkit) · Frameworks y optimización (TensorFlow en GCP: tf.data, TFX, multi-worker training; PyTorch en Vertex; scikit-learn en Vertex; ONNX para portabilidad; quantización, pruning; TensorRT para inferencia GPU)
ACE + ADP/PDE + Python ML (scikit-learn, PyTorch o TensorFlow) + 1+ año en ML engineering
|
Diseñar, construir y productivizar soluciones de ML en Google Cloud usando Vertex AI como plataforma central: desde la preparación de datos y el entrenamiento distribuido hasta el despliegue con monitoreo de drift y reentrenamiento automático con Vertex AI Pipelines. | Experto | Pipeline MLOps end-to-end con Vertex AI Pipelines (KFP SDK Python): componentes de ingesta BigQuery → preprocesamiento (StandardScaler, one-hot encoding) → entrenamiento XGBoost con HyperParameter Tuning (Vizier, 30 trials) → evaluación con Vertex Explainability (SHAP) → registro en Model Registry → despliegue A/B test 10/90 en endpoint → Model Monitoring con skew detection activado. Cloud Build trigger reejecuta pipeline cuando nuevos datos superan umbral de drift. | PythonPipeline completo ejecutable desde un script Python sin tocar la UI; HPT mejora AUC-ROC baseline en >3%; SHAP values identifican top-5 features y se muestran en Explainability dashboard; Model Monitor dispara alerta cuando drift score >0.3 (verificado inyectando datos out-of-distribution); A/B test puede ser promovido a 100% con un comando; artifact lineage completo en Vertex Metadata. | |
| Database Eng |
Professional Cloud Database Engineer — PCDE
Cloud SQL avanzado (High Availability: failover replica; Read Replicas: cross-region; Cloud SQL Auth Proxy: autenticación IAM; Maintenance windows; Point-in-time recovery; Flags de configuración performance; Database Migration Service desde MySQL/PostgreSQL on-premises; pglogical para replicación lógica) · Cloud Spanner (distribución global: multi-region configs; interleaved tables: parent-child; secondary indexes: storing columns; Transaction types: read-write, read-only, partitioned DML; hotspot detection y row key design; external consistency; Spanner Autoscaler; Change Streams) · Firestore y Datastore (Firestore: collections, documents, subcollections; queries con índices compuestos; transactions; real-time listeners; Firestore en modo Datastore: kinds, ancestors, consistency) · Bigtable (row key design: reverse timestamps, salting, hashing para evitar hotspots; column families; filters en lecturas; application profiles: single-cluster vs multi-cluster routing; replication; compaction; performance benchmarking con cbt) · AlloyDB para PostgreSQL (AlloyDB columnar engine; read pool nodes; zero-downtime maintenance; AlloyDB Omni on-premises; migración desde PostgreSQL; AlloyDB AI: embeddings integrados) · Database migrations (Database Migration Service: continuous migration CDC; Striim para homogeneous; Datastream: CDC desde Oracle/MySQL/PostgreSQL a BigQuery/GCS) · Memorystore (Redis: Standard tier con HA, RDB/AOF persistence, Eviction policies, cluster mode; Memcached vs Redis trade-offs)
ACE + experiencia con múltiples motores de base de datos (SQL + NoSQL) + Python/SQL avanzado
|
Seleccionar, diseñar y operar el motor de base de datos correcto para cada patrón de acceso en GCP: Cloud SQL para OLTP relacional, Cloud Spanner para escala global, Firestore para documentos, Bigtable para analítica wide-column y AlloyDB para workloads PostgreSQL de alto rendimiento. | Experto | Capa de datos multi-motor con Python: librería que abstrae Cloud SQL (vía cloud-sql-python-connector), Cloud Spanner (google-cloud-spanner) y Bigtable (google-cloud-bigtable) con una interfaz común. Bigtable diseñado con row key compuesto para 3 access patterns sin hotspot. Benchmark Python mide latencia p50/p95/p99 y throughput por motor. Datastream job replicando Cloud SQL → BigQuery con CDC para analytics en tiempo real. |
PythonBigtable sin hotspot verificado con Key Visualizer tras carga de prueba de 1M filas; Spanner external consistency verificada con test de lectura concurrente en 2 regiones; benchmark documenta que Bigtable supera Cloud SQL 10x en lecturas de series temporales; Datastream replica rows en <30s lag desde Cloud SQL a BigQuery; migración DMS completa sin pérdida de datos (row count match + checksum). | |
| Security Ops |
Professional Security Operations Engineer — PSOE NEW
Google SecOps (Chronicle SIEM: ingesta de logs vía parsers, Unified Data Model (UDM), búsqueda por entity/IoC/asset; Chronicle SOAR: playbooks de automatización de respuesta, integrations, casos; reglas de detección YARA-L 2.0: sintaxis, meta, events, condition, outcome; Retrohunts para búsqueda histórica) · Threat Intelligence (MITRE ATT&CK framework en Chronicle; IoC matching; Google Threat Intelligence feed; Applied Threat Intelligence; Mandiant Breach Analytics) · Operaciones en Google Cloud Security (Security Command Center Premium: Event Threat Detection, Virtual Machine Threat Detection, Container Threat Detection, Web Security Scanner, Security Health Analytics; SCC findings workflow: mark as resolved, snooze, mute) · Respuesta a incidentes (Incident management lifecycle en Chronicle SOAR; escalation paths; forensics en GCP: snapshot de disco, preservar logs; chain of custody; Gemini in Security para análisis asistido por IA) · Arquitectura SecOps (log ingestion: Ops Agent, Bindplane, Cloud Pub/Sub feed; SIEM sizing y partición de datos; data retention policies; integration con ticketing systems: ServiceNow, Jira; SOAR playbook design patterns: enrichment, containment, eradication) · Compliance y reporting (custom dashboards en Chronicle; métricas MTTD/MTTR; regulaciones: PCI-DSS logging requirements, HIPAA log retention, ISO 27001 A.16 incident management)
ACE + PCSE + experiencia en SOC / operaciones de seguridad + conocimiento de SIEM/SOAR
|
Operar centros de operaciones de seguridad (SOC) modernos usando Google SecOps (Chronicle SIEM + SOAR): detectar amenazas con reglas YARA-L, automatizar respuesta con playbooks, gestionar incidentes y medir la efectividad del SOC con métricas MTTD/MTTR. | Experto | Sistema de detección y respuesta automatizada: regla YARA-L en Chronicle que detecta acceso a Cloud Storage en horario inusual + volumen anómalo (anomaly detection rule) → Chronicle SOAR playbook enriquece el alert con contexto del usuario (últimas 30 actividades en Chronicle), determina riesgo y si es High: bloquea service account via Cloud Run Python handler + crea caso en Chronicle. Script Python genera reporte semanal MTTD/MTTR consultando Chronicle API. | PythonRegla YARA-L detecta acceso anómalo en <5 min desde evento simulado; playbook enriquece alert con historial correcto del usuario; SA bloqueada en <3 min cuando risk score >80; reporte MTTD/MTTR calculado para los últimos 30 días de incidentes; falsos positivos documentados y mitigados con tuning de la regla; todo auditado en Cloud Audit Logs con cadena de custodia. |