Uma carreira na IBM Consulting está enraizada em relacionamentos de longo prazo e estreita colaboração com clientes em todo o mundo. Nesta função você trabalhará para o IBM BPO parte da Consulting que acelera a transformação digital usando metodologias ágeis mineração de processos e fluxos de trabalho alimentados por IA.
Você trabalhará com visionários de vários setores para melhorar a nuvem híbrida e a jornada de IA para as empresas mais inovadoras e valiosas do mundo. Sua capacidade de acelerar o impacto e fazer mudanças significativas para seus clientes é possibilitada por nosso ecossistema de parceiros estratégicos e nossas robustas plataformas de tecnologia em todo o portfólio da IBM incluindo Software e Red Hat.
A curiosidade e a busca constante por conhecimento são a base do sucesso na IBM Consulting. Em sua função você será incentivado a desafiar a norma investigar idéias fora de sua função e apresentar soluções criativas que resultem em um impacto inovador para uma ampla rede de clientes. Nossa cultura de evolução e empatia está centrada no crescimento da carreira a longo prazo e nas oportunidades de desenvolvimento em um ambiente que abraça suas habilidades e experiências exclusivas.
In this role you'll work in one of our IBM Consulting Client Innovation Centers (Delivery Centers) where we deliver deep technical and industry expertise to a wide range of public and private sector clients around the world. Our delivery centers offer our clients locally based skills and technical expertise to drive innovation and adoption of new technology.
Será responsável pelo desenvolvimento manutenção e otimização de pipelines de dados garantindo qualidade disponibilidade e eficiência no fluxo de informações entre diferentes sistemas e áreas da empresa. Atuará em conjunto com times de engenharia análise e produto contribuindo para a evolução das soluções de dados e boas práticas de engenharia.
-
Desenvolver manter e otimizar pipelines de ETL garantindo confiabilidade escalabilidade e aderência aos requisitos de negócio.
-
Manipular transformar e analisar dados usando Python PySpark e Pandas aplicando boas práticas de performance e organização de código.
-
Criar e consultar bases de dados com SQL implementando queries eficientes e seguras.
-
Participar da modelagem de dados transacional e multidimensional contribuindo para a estruturação de data lakes data warehouses e sistemas analíticos.
-
Auxiliar na integração ingestão e organização de dados estruturados e não estruturados colaborando para a criação de soluções robustas e flexíveis.
-
Apoiar a definição e implementação de boas práticas de arquitetura de software relacionadas a pipelines e sistemas de dados.
-
Utilizar GitHub para versionamento de código acompanhamento de branches pull requests e documentação técnica.
-
Colaborar no desenvolvimento e planejamento de testes para validação de pipelines e qualidade dos dados.
-
Monitorar pipelines e ambientes de dados contribuindo para a prevenção e resolução de incidentes.
-
Trabalhar de forma colaborativa com analistas engenheiros e stakeholders para garantir o uso eficiente e seguro dos dados.
Conhecimentos sólidos em: Python PySpark Pandas SQL;
Modelagem de dados transacional e multidimensional;
Experiência com desenvolvimento de ETL;
Conhecimento em arquitetura de software GitHub Desenvolvimento e planejamento de Testes Bancos de dados não estruturados