UbicaciónHíbrida; Victoria, GBA (Gran Buenos Aires), Argentina
Área de trabajoInformática
Tipo de cargoEspecialista
JornadaCompleta
ContratoIndeterminado
Requisitos
Experiencia:Senior (de 5 a 10 años de experiencia)
Carrera(s):Ingeniería en Inteligencia Artificial
Posgrados:Maestría en Inteligencia Artificial
Descripción del puesto
En PECOM los datos mueven operaciones críticas de energía. Buscamos un/a Data Engineer que diseñe y sostenga la infraestructura de datos que alimenta analítica, reportería e IA en un entorno multi-cloud real.
Si te apasiona construir pipelines que funcionen en producción —no solo en papel— y trabajar codo a codo con analistas, ingenieros de IA y áreas de negocio, este rol es para vos.
Lo que vas a hacer:\n\n
- Diseñar y operar pipelines ETL/ELT en producción: integrar fuentes heterogéneas (sistemas operacionales, APIs, archivos, bases relacionales y no relacionales) hacia capas de consumo analítico, con monitoreo y gestión de incidentes reales.
- Construir y mantener arquitecturas cloud de datos: trabajar sobre AWS (S3, Glue, Redshift, Athena) y Azure (Data Factory, Synapse, ADLS) para sostener arquitecturas medallion o Data Lakehouse con calidad, trazabilidad y gobernanza.
- Aplicar DataOps de verdad: versionado de código, CI/CD de pipelines, validaciones automáticas de calidad y alertas. Git no es opcional y los despliegues manuales no son una opción.
- Colaborar con analistas, BI e IA: traducir requerimientos de consumo en soluciones de ingeniería concretas, y documentar arquitecturas y decisiones técnicas para garantizar mantenibilidad del equipo.
Requisitos
- Título universitario en Sistemas de Información, Ciencias de la Computación, Ingeniería en Software o afines.
- Experiencia previa en roles de Data Engineering con participación en proyectos productivos.
- Dominio sólido de SQL avanzado y Python (pandas, PySpark, SQLAlchemy o similares).\n- Experiencia práctica en servicios de datos en AWS y/o Azure.
- Manejo de herramientas de orquestación como Apache Airflow, Azure Data Factory o AWS Step Functions.
- Conocimiento de prácticas CI/CD con Git y pipelines de despliegue automatizado.\n- Experiencia con modelos de datos dimensionales, Data Lakehouse o arquitecturas medallion.
Beneficios
- Modalidad de trabajo híbrida (3 días oficina + 2 de home office) con base en las oficinas de Victoria, Tigre.
- Bono: 2 salarios
- Comedor en el lugar de trabajo
- Oportunidad de liderar la transformación digital en una empresa líder del sector energético.
Postular
Ingrese o cree su cuenta en Conectar UdeSA para postular