Immobiliare.it

Gratis per Android

Icona Tecnologia

Immobiliare.it - Data Engineer

Roma/Remote - Tecnologia

Immobiliare.it è la Digital Tech Company leader in Italia negli annunci immobiliari on-line. I nostri prodotti web e mobile sono sviluppati in house ed ogni giorno lavoriamo per raggiungere un unico obiettivo: offrire la migliore piattaforma per la pubblicazione e la ricerca di annunci immobiliari. L’innovazione, l’eccellenza tecnologica, l’attenzione e il rispetto verso gli utenti sono i nostri valori fondanti che ci hanno permesso di raggiungere i nostri obiettivi e ci consentono di poter crescere ancora in dimensione e professionalità.

 

Immobiliare Labs è il dipartimento tecnologico di immobiliare.it, composto da oltre 150 persone, dove vengono sviluppate tutte le soluzioni tecniche dei siti e delle app, dal design alla creazione dei software, per la maggior parte Open Source. Negli ultimi quindici anni abbiamo guidato la rivoluzione digitale nel modo di cercare casa e vogliamo impegnarci a essere pionieri anche dei cambiamenti che devono ancora avvenire.

 

Team

Artificial Intelligence and Data Engineering (AIDE) è il team di che si occupa di definire e applicare le principali metodologie di raccolta ed elaborazione dati attraverso infrastrutture di data streaming e big data, e di analizzare i dati creando a partire da questi modelli e prodotti innovativi di AI in ambito real estate da distribuire tramite microservizi o workflow di analisi e classificazione.

 

Ruolo

Data Engineer

 

Mansioni

 

Le principali mansioni di cui ti occuperai riguarderanno la definizione e la manutenzione di architetture di data streaming e pipeline ETL per la gestione di dati interni o provenienti da fonti terze. In particolare, svolgerai attività quali:

  • analizzare e progettare soluzioni software scalabili, resilienti e fault tolerant, operanti su dati provenienti da sorgenti eterogenee ed orientate all’analisi dei dati e a prodotti di intelligenza artificiale;
  • realizzare e mantenere architetture, stream e pipeline ETL, per l’elaborazione dati implementando la comunicazione tra servizi differenti e garantendo l’integrità dei flussi di orchestrazione;
  • collaborare con i data scientist del team per determinare insieme i dati e la relativa elaborazione e disponibilità.

 

Requisiti:

  • conoscenza di Python e/o Java/Spring;
  • conoscenza di database relazionali (es. MySQL) e query sui dati;
  • conoscenza di database documentali (es. MongoDB);
  • conoscenza di GIT.

 

Requisiti preferenziali:

  • conoscenza dei principali progetti open source per operare sui dati: Kafka, RabbitMQ, Airflow, Flink;
  • conoscenza Ansible, Docker, Terraform;
  • conoscenza di Linux e Bash;
  • familiarità con gli strumenti cloud (aws, google cloud) per l’Artificial Intelligence e la gestione dei dati;
  • conoscenza base di Snowflake.

 

Luogo di lavoro

Roma, Termini/Full remote

 

Orario di lavoro

Full time

 

Tipo e durata del contratto e Retribuzione

Commisurati all'esperienza pregressa

 

Cosa Offriamo

 

  • Team di lavoro in continua espansione
  • Ambiente stimolante e meritocratico
  • Sviluppo tecnologico allo stato dell'arte
  • Opportunità di apprendimento

 

Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

Invia i tuoi contatti e il CV

chiudi
Provenienza
Curriculum