Meikit

Consultoría Ciudad Autónoma de Buenos Aires, Ciudad Autónoma de Buenos Aires, Argentina

Data Engineer

Publicado el 28 de Abr, 2026

Detalles

Tipo de oferta Oportunidad Laboral
Ubicación Híbrida; Victoria, GBA (Gran Buenos Aires), Argentina
Área de trabajo Informática
Tipo de cargo Especialista
Jornada Completa
Contrato Indeterminado

Requisitos

Experiencia: Senior (de 5 a 10 años de experiencia)
Carrera(s): Ingeniería en Inteligencia Artificial
Posgrados: Maestría en Inteligencia Artificial

Descripción del puesto

En PECOM los datos mueven operaciones críticas de energía. Buscamos un/a Data Engineer que diseñe y sostenga la infraestructura de datos que alimenta analítica, reportería e IA en un entorno multi-cloud real.

Si te apasiona construir pipelines que funcionen en producción —no solo en papel— y trabajar codo a codo con analistas, ingenieros de IA y áreas de negocio, este rol es para vos.

Lo que vas a hacer:\n\n

- Diseñar y operar pipelines ETL/ELT en producción: integrar fuentes heterogéneas (sistemas operacionales, APIs, archivos, bases relacionales y no relacionales) hacia capas de consumo analítico, con monitoreo y gestión de incidentes reales.
- Construir y mantener arquitecturas cloud de datos: trabajar sobre AWS (S3, Glue, Redshift, Athena) y Azure (Data Factory, Synapse, ADLS) para sostener arquitecturas medallion o Data Lakehouse con calidad, trazabilidad y gobernanza.
- Aplicar DataOps de verdad: versionado de código, CI/CD de pipelines, validaciones automáticas de calidad y alertas. Git no es opcional y los despliegues manuales no son una opción.
- Colaborar con analistas, BI e IA: traducir requerimientos de consumo en soluciones de ingeniería concretas, y documentar arquitecturas y decisiones técnicas para garantizar mantenibilidad del equipo.

Requisitos

- Título universitario en Sistemas de Información, Ciencias de la Computación, Ingeniería en Software o afines.
- Experiencia previa en roles de Data Engineering con participación en proyectos productivos.
- Dominio sólido de SQL avanzado y Python (pandas, PySpark, SQLAlchemy o similares).\n- Experiencia práctica en servicios de datos en AWS y/o Azure.
- Manejo de herramientas de orquestación como Apache Airflow, Azure Data Factory o AWS Step Functions.
- Conocimiento de prácticas CI/CD con Git y pipelines de despliegue automatizado.\n- Experiencia con modelos de datos dimensionales, Data Lakehouse o arquitecturas medallion.

Beneficios
- Modalidad de trabajo híbrida (3 días oficina + 2 de home office) con base en las oficinas de Victoria, Tigre.
- Bono: 2 salarios
- Comedor en el lugar de trabajo
- Oportunidad de liderar la transformación digital en una empresa líder del sector energético.

Postular

Ingrese o cree su cuenta en Conectar UdeSA para postular

Iniciar sesión
Contáctanos