Immobiliare.it

Gratis per Android

Icona Tecnologia

Immobiliare.it - Python Data Engineer

Roma - Tecnologia

About Us

 

Immobiliare.it è la Digital Tech Company leader in Italia negli annunci immobiliari on-line. I nostri prodotti web e mobile sono sviluppati in house ed ogni giorno lavoriamo per raggiungere un unico obiettivo: offrire la migliore piattaforma per la pubblicazione e la ricerca di annunci immobiliari. L’innovazione, l’eccellenza tecnologica, l’attenzione e il rispetto verso gli utenti sono i nostri valori fondanti che ci hanno permesso di raggiungere i nostri obiettivi e ci consentono di poter crescere ancora in dimensione e professionalità.

 

Immobiliare Labs è il dipartimento tecnologico di immobiliare.it, composto da oltre 100 persone, dove vengono sviluppate tutte le soluzioni tecniche dei siti e delle app, dal design alla creazione dei software, 100% Open Source. Negli ultimi quindici anni abbiamo guidato la rivoluzione digitale nel modo di cercare casa e vogliamo impegnarci a essere pionieri anche dei cambiamenti che devono ancora avvenire.

 

Team

Artificial Intelligence and Data Engineering (AIDE) È il team di ricerca e sviluppo del gruppo Core che si occupa di definire e applicare le principali metodologie di raccolta ed elaborazione dati attraverso infrastrutture di data streaming e big data, e di analizzare i dati creando a partire da questi modelli e prodotti innovativi di AI in ambito real estate da distribuire tramite microservizi o workflow.

 

Ruolo

Python Data Engineer 

 

Mansioni

Le principali mansioni di cui ti occuperai riguarderanno la definizione e la manutenzione di workflow e pipeline ETL basate su Python per la gestione ed elaborazione di dati interni o provenienti da fonti terze. In particolare, svolgerai attività quali:

  • analizzare e progettare soluzioni software innovative, scalabili, resilienti e fault tolerant in ambito data streaming e big data, orientate all’analisi dei dati e a prodotti di intelligenza artificiale;
  • realizzare e mantenere architetture e pipeline ETL di dati in batch e real-time, gestendo il flusso, l’integrità e la disponibilità di questi ultimi;
  • impiegare la metodologia DevOps per la creazione di prototipi architetturali in ambienti di laboratorio basati su OpenStack tramite Terraform e Ansible;
  • collaborare con i data engineer del gruppo per analizzare il dominio dei dati, definire come modellarli e come elaborarli tramite i workflow e pipeline di ingestion dei dati;
  • collaborare con i data scientist e ML engineer del team per comprenderne le esigenze e determinare insieme i dati da elaborare per le attività in essere.

 

Requisiti

  • Esperienza di 2-3 anni maturata nel ruolo;
  • Buona conoscenza del linguaggio Python;
  • Conoscenza dei principali design pattern e pattern architetturali;
  • Comprovata capacità nel realizzare pipeline ETL e workflow performanti e scalabili;
  • Buona conoscenza dell’ecosistema Apache Airflow e delle relative best practice;
  • Conoscenza di database relazionali e NoSQL, quali MySQL e MongoDB;
  • Conoscenza di SQL e query ottimizzate sui dati;
  • Conoscenza di GIT.

Requisiti preferenziali 

  • Conoscenza dell’ecosistema Kafka;
  • Conoscenza di framework classici di Big Data, come Apache Spark, Apache Hadoop, HDFS;
  • Conoscenza dei prodotti Elastic, come Elasticsearch e Logstash;
  • Strumenti di devops come Ansible e Docker;
  • Conoscenza del linguaggio Java;
  • Conoscenza di Linux e Bash.

 

Luogo di lavoro

Roma, Termini/Full remote

 

Tipo di lavoro

Full time

 

Cosa Offriamo 

  • Team di lavoro in continua espansione 
  • Ambiente stimolante e meritocratico
  • Sviluppo tecnologico allo stato dell'arte
  • Opportunità di apprendimento

Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

Invia i tuoi contatti e il CV

chiudi
Provenienza
Curriculum