Che cos’è
Il data analyst costruisce il ponte fra i dati grezzi — sparsi fra ERP, CRM, e-commerce, log, file Excel — e le decisioni operative. Non è data science (che produce modelli predittivi complessi) né business intelligence da vendor (che produce dashboard standardizzati): è l’artigianato di fare domande giuste ai dati e ottenere risposte difendibili.
Il valore sta in tre punti:
- Raccogliere e pulire i dati da sorgenti eterogenee.
- Modellare — trasformare tabelle grezze in schemi pensati per la domanda di business.
- Rendere visibile — dashboard operative che il management usa, non che guarda una volta e dimentica.
Cosa ottieni
- Data audit iniziale — quali dati esistono, dove, in che qualità. Spesso è il lavoro più sottovalutato ed è quello che cambia tutto.
- Pipeline ETL/ELT — estrazione, pulizia, trasformazione, caricamento in un data warehouse o lakehouse (PostgreSQL, BigQuery, Snowflake, DuckDB a seconda del budget).
- Modello dati dimensionale (fact + dimension) seguendo il metodo Kimball dove ha senso.
- Dashboard operativa in Power BI, Tableau, Metabase o Superset — con KPI che contano, non vanity metrics.
- Documentazione dei dati — data catalog minimo con definizione di ogni metrica, sorgente, frequenza di aggiornamento.
- Handover al team interno — i report che non sopravvivono all’uscita del consulente non valgono niente. Lascio strumenti replicabili.
- Data quality monitoring — alert su anomalie che indicano rotture a monte.
A chi si rivolge
- PMI che hanno gestionali pieni di dati ma decidono “a sensazione”.
- Aziende in crescita che stanno perdendo visibilità sui numeri operativi (vendite, stock, margine, churn).
- Team di sicurezza che vogliono dashboard su log, incidenti, KPI di patching — cosa che si sovrappone piacevolmente al mio core business.
- CFO e controller che passano troppo tempo in Excel a riconciliare sorgenti.
- Enti pubblici che devono rispondere a obblighi di trasparenza e open data.
Metodologia
- Discovery con gli stakeholder — quali decisioni devono migliorare? Da qui scaturiscono le metriche.
- Mappatura delle sorgenti — ERP, CRM, file, API, export manuali.
- Data quality assessment — duplicati, mancanti, inconsistenze, obsolescenza.
- Architettura dati leggera — spesso un PostgreSQL ben fatto basta, senza spingere a Snowflake se non serve.
- Costruzione pipeline — SQL, Python (pandas/SQLAlchemy), dbt dove ha senso.
- Design delle dashboard — pochi grafici, ben pensati, con filtri coerenti.
- Training su chi dovrà usare e mantenere il sistema.
Mantengo un forte bias verso la semplicità: ogni strato di astrazione in più è un potenziale punto di rottura.
Perché con me
Ho progettato e mantenuto database relazionali (SQL Server, MySQL, PostgreSQL) per oltre vent’anni — il data analyst nasce, nel mio caso, da una base di DBA. Ho lavorato su progetti di reporting per clienti pubblici (Esercito Italiano, AGCM, Confartigianato, Confindustria) e per gruppi privati multi-sede. L’analisi dei dati, per me, non è una nuova moda: è una vecchia arte che ora ha strumenti migliori.