Immobiliare.it

Gratis per Android

Icona Tecnologia

Immobiliare.it - Data Engineer

Roma - Tecnologia

Immobiliare.it è la Digital Tech Company leader in Italia negli annunci immobiliari on-line. I nostri prodotti web e mobile sono sviluppati in house ed ogni giorno lavoriamo per raggiungere un unico obiettivo: offrire la migliore piattaforma per la pubblicazione e la ricerca di annunci immobiliari. L’innovazione, l’eccellenza tecnologica, l’attenzione e il rispetto verso gli utenti sono i nostri valori fondanti che ci hanno permesso di raggiungere i nostri obiettivi e ci consentono di poter crescere ancora in dimensione e professionalità.

 

Immobiliare Labs è il dipartimento tecnologico di immobiliare.it, composto da oltre 100 persone, dove vengono sviluppate tutte le soluzioni tecniche dei siti e delle app, dal design alla creazione dei software, 100% Open Source. Negli ultimi quindici anni abbiamo guidato la rivoluzione digitale nel modo di cercare casa e vogliamo impegnarci a essere pionieri anche dei cambiamenti che devono ancora avvenire.

 

Team

Core Software Development È il team di ricerca che sviluppa le tecnologie alla base dei prodotti: gestione dei flussi di informazioni da e verso i sistemi, Big Data, machine learning e mappe con uso avanzato del GIS. Utilizziamo vari linguaggi, tra cui Java, Kotlin, Python, Go e PHP. Grande importanza rivestono le basi di dati, dai RDBS ai Document o Column Store, fino ai Key/Value e Time Series. Tutti i software sviluppati dal team sono accessibili tramite APIs.

 

Ruolo

Data Engineer

 

 

Mansioni

Le principali mansioni di cui ti occuperai riguarderanno la definizione e la manutenzione di architetture di data streaming e pipeline ETL innovative per la gestione di dati interni o provenienti da fonti terze. In particolare, svolgerai attività quali:

  • analizzare e progettare soluzioni software innovative, scalabili, resilienti e fault tolerant in ambito data streaming e big data, orientate all’analisi dei dati e a prodotti di intelligenza artificiale;
  • realizzare e mantenere architetture e pipeline ETL di dati in real-time, gestendo il flusso, l’integrità e la disponibilità di questi ultimi;
  • impiegare la metodologia DevOps per la creazione di prototipi architetturali in ambienti di laboratorio basati su OpenStack tramite ansible e/o Kubernetes tramite la definizione di immagini Docker;
  • collaborare con i data scientist del team per determinare insieme i dati e la relativa elaborazione e disponibilità.

Requisiti

  • Esperienza di 1-3 anni maturata nel ruolo;
  • Capacità di creare architetture di data streaming e di definire pipeline ETL, applicando i relativi pattern architetturali;
  • Buona conoscenza del linguaggio Java e del framework Spring;
  • Buona conoscenza dell’ecosistema Kafka;
  • Conoscenza di SQL e query ottimizzate sui dati;
  • Conoscenza di GIT.

 

Requisiti preferenziali

  • Conoscenza del linguaggio Python;
  • Conoscenza di database relazionali e non, come MySQL e MongoDB;
  • Conoscenza dei prodotti Elastic, come Elasticsearch e Logstash;
  • Conoscenza di framework classici di Big Data, come Apache Spark, Apache Hadoop, HDFS;
  • Strumenti di devops, come Ansible, Docker e Kubernetes;
  • Conoscenza di Linux e Bash;
  • Conoscenza di Google Cloud Platform per l’Artificial Intelligence.

Luogo di lavoro

Roma, Termini

 

Orario di lavoro:

Full time

 

Tipo e durata del contratto e Retribuzione:

 Commisurati all'esperienza pregressa

 

Cosa Offriamo

  • Team di lavoro in continua espansione
  • Ambiente stimolante e meritocratico
  • Sviluppo tecnologico allo stato dell'arte
  • Opportunità di apprendimento

Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91, e a persone di tutte le età e tutte le nazionalità, ai sensi dei decreti legislativi 215/03 e 216/03.

 

Invia i tuoi contatti e il CV

chiudi
Provenienza
Curriculum