Logo
Immobiliare.it

Immobiliare.it - Python Developer

Immobiliare.it, Tulsa, Oklahoma, United States, 74145


Immobiliare.it

è la Digital Tech Company leader in Italia negli annunci immobiliari on-line. I nostri prodotti web e mobile sono sviluppati in house ed ogni giorno lavoriamo per raggiungere un unico obiettivo: offrire la migliore piattaforma per la pubblicazione e la ricerca di annunci immobiliari. L’innovazione, l’eccellenza tecnologica, l’attenzione e il rispetto verso gli utenti sono i nostri valori fondanti che ci hanno permesso di raggiungere i nostri obiettivi e ci consentono di poter crescere ancora in dimensione e professionalità.Immobiliare Labs è il dipartimento tecnologico di immobiliare.it, composto da oltre 150 persone, dove vengono sviluppate tutte le soluzioni tecniche dei siti e delle app, dal design alla creazione dei software, per la maggior parte Open Source. Negli ultimi quindici anni abbiamo guidato la rivoluzione digitale nel modo di cercare casa e vogliamo impegnarci a essere pionieri anche dei cambiamenti che devono ancora avvenire.Artificial Intelligence and Data Engineering (AIDE)

è il team che si occupa di definire e applicare le principali metodologie di raccolta ed elaborazione dati attraverso infrastrutture di data streaming e big data, e di analizzare i dati creando a partire da questi modelli e prodotti innovativi di AI in ambito real estate da distribuire tramite microservizi o workflow di analisi e classificazione.MansioniLe principali mansioni di cui ti occuperai riguarderanno la definizione e la manutenzione di architetture di data streaming e pipeline ETL per la gestione di dati interni o provenienti da fonti terze.In particolare, svolgerai attività quali:analizzare e progettare soluzioni software scalabili, resilienti e fault tolerant, operanti su dati provenienti da sorgenti eterogenee ed orientate all’analisi dei dati e a prodotti di intelligenza artificiale;realizzare e mantenere API, architetture, stream e pipeline ETL, per l’elaborazione dati implementando la comunicazione tra servizi differenti e garantendo l’integrità dei flussi di orchestrazione;collaborare con i data scientist del team per determinare insieme i dati e la relativa elaborazione e disponibilità;conoscenza di Python;conoscenza di database relazionali (es. MySQL) e query sui dati;conoscenza di database documentali (es. MongoDB);conoscenza di GIT.Requisiti preferenziali:conoscenza della metodologia e best practices per la scrittura e il consumo di una API REST (FastAPI);conoscenza dei principali progetti open source per operare sui dati: Kafka, RabbitMQ, Spark, Airflow, Flink;conoscenza di Ansible, Docker, Terraform;conoscenza di Linux e Bash;familiarità con gli ambienti public/private cloud (aws, gcp, openstack) relativamente agli strumenti per operare su IA e pipeline dati;conoscenza base di Snowflake.Luogo di lavoro:Orario di lavoro:Tipo e durata del contratto e Retribuzione:Commisurati all'esperienza pregressateam di lavoro in continua espansione;ambiente stimolante e meritocratico;sviluppo tecnologico allo stato dell'arte;opportunità di apprendimento.

#J-18808-Ljbffr