Tech · Architettura · N°13

Data Analyst

I dati esistono già. Manca il lavoro di tradurli in decisioni. Quello è il mio mestiere, qui.

Richiedi informazioni → Scopri come lavoro

Che cos’è

Il data analyst costruisce il ponte fra i dati grezzi — sparsi fra ERP, CRM, e-commerce, log, file Excel — e le decisioni operative. Non è data science (che produce modelli predittivi complessi) né business intelligence da vendor (che produce dashboard standardizzati): è l’artigianato di fare domande giuste ai dati e ottenere risposte difendibili.

Il valore sta in tre punti:

  • Raccogliere e pulire i dati da sorgenti eterogenee.
  • Modellare — trasformare tabelle grezze in schemi pensati per la domanda di business.
  • Rendere visibile — dashboard operative che il management usa, non che guarda una volta e dimentica.

Cosa ottieni

  • Data audit iniziale — quali dati esistono, dove, in che qualità. Spesso è il lavoro più sottovalutato ed è quello che cambia tutto.
  • Pipeline ETL/ELT — estrazione, pulizia, trasformazione, caricamento in un data warehouse o lakehouse (PostgreSQL, BigQuery, Snowflake, DuckDB a seconda del budget).
  • Modello dati dimensionale (fact + dimension) seguendo il metodo Kimball dove ha senso.
  • Dashboard operativa in Power BI, Tableau, Metabase o Superset — con KPI che contano, non vanity metrics.
  • Documentazione dei datidata catalog minimo con definizione di ogni metrica, sorgente, frequenza di aggiornamento.
  • Handover al team interno — i report che non sopravvivono all’uscita del consulente non valgono niente. Lascio strumenti replicabili.
  • Data quality monitoring — alert su anomalie che indicano rotture a monte.

A chi si rivolge

  • PMI che hanno gestionali pieni di dati ma decidono “a sensazione”.
  • Aziende in crescita che stanno perdendo visibilità sui numeri operativi (vendite, stock, margine, churn).
  • Team di sicurezza che vogliono dashboard su log, incidenti, KPI di patching — cosa che si sovrappone piacevolmente al mio core business.
  • CFO e controller che passano troppo tempo in Excel a riconciliare sorgenti.
  • Enti pubblici che devono rispondere a obblighi di trasparenza e open data.

Metodologia

  1. Discovery con gli stakeholder — quali decisioni devono migliorare? Da qui scaturiscono le metriche.
  2. Mappatura delle sorgenti — ERP, CRM, file, API, export manuali.
  3. Data quality assessment — duplicati, mancanti, inconsistenze, obsolescenza.
  4. Architettura dati leggera — spesso un PostgreSQL ben fatto basta, senza spingere a Snowflake se non serve.
  5. Costruzione pipeline — SQL, Python (pandas/SQLAlchemy), dbt dove ha senso.
  6. Design delle dashboard — pochi grafici, ben pensati, con filtri coerenti.
  7. Training su chi dovrà usare e mantenere il sistema.

Mantengo un forte bias verso la semplicità: ogni strato di astrazione in più è un potenziale punto di rottura.

Perché con me

Ho progettato e mantenuto database relazionali (SQL Server, MySQL, PostgreSQL) per oltre vent’anni — il data analyst nasce, nel mio caso, da una base di DBA. Ho lavorato su progetti di reporting per clienti pubblici (Esercito Italiano, AGCM, Confartigianato, Confindustria) e per gruppi privati multi-sede. L’analisi dei dati, per me, non è una nuova moda: è una vecchia arte che ora ha strumenti migliori.

Letture correlate

Dall'archivio — tech · architettura.

Vedi la categoria

Interessa questo servizio? Apriamo un canale.

Risposta entro 48h lavorative · Primo incontro conoscitivo gratuito · profilo completo