In recent years, the use of Data Warehouse infrastructures has increased significantly, primarily due to the need to collect, manage, and analyze large amounts of data from heterogeneous sources. With the rapid digitalization, companies are increasingly relying on their available data to gain timely and accurate insights, which are crucial for making strategic decisions. The ETL (Extract, Transform, Load) process plays a key role in data management within a Data Warehouse; it involves extracting data from different sources, transforming it into a format that meets business needs, and then loading it into the Data Warehouse, where it is ready for analysis and processing. This process is important to ensure data quality, timeliness, and usability. This is the reference context of this thesis, which aim to improve an ETL flow that, having become outdated, was affecting and slowing down the overall system’s performance.

Negli ultimi anni, l’utilizzo di infrastrutture basate sul Data Warehouse è aumentato notevolmente, soprattutto a causa della necessità di raccogliere, gestire e analizzare enormi quantità di dati provenienti da fonti eterogenee. Con l’accelerazione della digitalizzazione, le aziende sono chiamate a sfruttare al meglio i dati a loro disposizione per ottenere insight tempestivi e precisi, fondamentali per prendere decisioni strategiche. Il processo di ETL (Extract, Transform, Load) rappresenta una componente fondamentale nella gestione dei dati all’interno di un Data Warehouse; esso consiste nell’estrazione dei dati da diverse fonti, nella loro trasformazione in un formato coerente con le esigenze aziendali e, infine, nel loro caricamento all’interno del Data Warehouse, dove vengono resi pronti per l’analisi e l’elaborazione. Tale processo è cruciale per garantire la qualità, la tempestività e la fruibilità dei dati. È proprio in tale contesto che si colloca la presente tesi, che ha come obiettivo quello di efficientare un flusso ETL che, diventato obsoleto, comprometteva ed appesantiva l’efficienza complessiva del sistema.

Analisi e riprogettazione di un Data Warehouse per una società di apparecchi acustici: i task di Extraction, Transformation and Loading

PASQUINI, GIOELE
2023/2024

Abstract

In recent years, the use of Data Warehouse infrastructures has increased significantly, primarily due to the need to collect, manage, and analyze large amounts of data from heterogeneous sources. With the rapid digitalization, companies are increasingly relying on their available data to gain timely and accurate insights, which are crucial for making strategic decisions. The ETL (Extract, Transform, Load) process plays a key role in data management within a Data Warehouse; it involves extracting data from different sources, transforming it into a format that meets business needs, and then loading it into the Data Warehouse, where it is ready for analysis and processing. This process is important to ensure data quality, timeliness, and usability. This is the reference context of this thesis, which aim to improve an ETL flow that, having become outdated, was affecting and slowing down the overall system’s performance.
2023
2025-02-14
Analysis and redesign of a Data Warehouse for a hearing aid company: the Extraction, Transformation and Loading tasks
Negli ultimi anni, l’utilizzo di infrastrutture basate sul Data Warehouse è aumentato notevolmente, soprattutto a causa della necessità di raccogliere, gestire e analizzare enormi quantità di dati provenienti da fonti eterogenee. Con l’accelerazione della digitalizzazione, le aziende sono chiamate a sfruttare al meglio i dati a loro disposizione per ottenere insight tempestivi e precisi, fondamentali per prendere decisioni strategiche. Il processo di ETL (Extract, Transform, Load) rappresenta una componente fondamentale nella gestione dei dati all’interno di un Data Warehouse; esso consiste nell’estrazione dei dati da diverse fonti, nella loro trasformazione in un formato coerente con le esigenze aziendali e, infine, nel loro caricamento all’interno del Data Warehouse, dove vengono resi pronti per l’analisi e l’elaborazione. Tale processo è cruciale per garantire la qualità, la tempestività e la fruibilità dei dati. È proprio in tale contesto che si colloca la presente tesi, che ha come obiettivo quello di efficientare un flusso ETL che, diventato obsoleto, comprometteva ed appesantiva l’efficienza complessiva del sistema.
File in questo prodotto:
File Dimensione Formato  
tesi_pasquini_pdfA.pdf

non disponibili

Dimensione 1.58 MB
Formato Adobe PDF
1.58 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12075/20925