Cloud Data Migration Specialist
Experto en Migraciones de Procesos Batch a Tecnología en la Nube (Control‑M + Pentaho)
Resumen del Rol
Experto en Migraciones de Procesos Batch hacia entornos Cloud, con sólida experiencia en Control‑M y Pentaho Data Integration (PDI), para liderar la modernización, transformación y optimización de flujos batch críticos en un entorno bancario. Este rol implica traducir procesos batch tradicionales a arquitecturas cloud escalables, seguras y altamente disponibles, asegurando el cumplimiento normativo y los altos estándares operacionales del sector financiero.
Responsabilidades Principales
Analizar, rediseñar y migrar procesos batch desde entornos on‑premise hacia plataformas en la nube (AWS, Azure o GCP).
Diseñar y optimizar flujos de trabajo en Control‑M, incluyendo dependencias, calendarios, SLA, alertas y monitoreo.
Modernizar y migrar procesos ETL creados en Pentaho PDI (Kettle) hacia servicios cloud equivalentes.
Implementar pipelines de datos eficientes, seguros y resilientes para grandes volúmenes de información.
Participar en la definición de arquitectura técnica para los nuevos procesos cloud.
Identificar cuellos de botella y proponer mejoras de rendimiento en procesos batch y ETL.
Integrarse con equipos de Arquitectura, DevOps, Seguridad, Operaciones y Datos para asegurar una migración exitosa.
Documentar procesos, flujos, dependencias y decisiones de diseño.
Asegurar el cumplimiento de estándares de seguridad, auditoría y normativas bancarias.
Dar soporte experto en la resolución de incidencias complejas relacionadas con procesos batch o pipelines cloud.
Requisitos Técnicos (Hard Skills)
1. Batch y Orquestación
Dominio avanzado de Control‑M (creación, gestión y optimización de flujos).
Configuración de dependencias, calendarios, SLA y monitoreo avanzado.
Experiencia en migración de Control‑M on‑premise a cloud (deseable).
2. ETL y Procesamiento de Datos
Experiencia sólida con Pentaho Data Integration (PDI).
Migración o modernización de ETLs hacia arquitecturas cloud.
Optimización de transformaciones y manejo de grandes volúmenes de datos.
3. Tecnologías Cloud (AWS / Azure / GCP)
Conocimiento en alguno de estos servicios:
AWS:
AWS Batch, Lambda, Step Functions, Glue, S3, EMR, Athena
Azure:
Data Factory, Synapse Pipelines, Azure Batch, Functions, Storage, Key Vault
GCP:
Cloud Composer, Dataflow, Cloud Functions, BigQuery
4. DevOps y Automatización
CI/CD: Jenkins, Azure DevOps o GitLab CI.
Versionamiento con Git.
Docker (obligatorio), Kubernetes (deseable).
Infraestructura como código (Terraform, ARM, CloudFormation — plus).
5. Bases de Datos
SQL avanzado: Oracle, PostgreSQL, SQL Server.
Manejo de modelos de datos y optimización de consultas.
Conocimiento de NoSQL (deseable).
6. Seguridad y Cumplimiento Bancario
Buenas prácticas OWASP.
Manejo seguro de secretos y credenciales (IAM, Key Vault, Secrets Manager).
Cumplimiento de auditoría, trazabilidad y segregación de ambientes.
Conocimiento de normativas como PCI‑DSS, SOX, GDPR, entre otros.
Formación y Experiencia
Título en Ingeniería Informática, Computación, Sistemas o carrera afín.
5+ años de experiencia en procesos batch, ETL o data integration.
2+ años de experiencia en migraciones a la nube (deseable).
Experiencia en banca, fintech o industrias de alta criticidad (deseable).
Certificaciones cloud (AWS, Azure o GCP) serán un plus importante.
- Core Banking : Migration & Optimization