Predictive Process Monitoring (PPM) has experienced significant growth thanks to the adoption of Graph Neural Networks (GNNs), which naturally capture the structural and relational complexity of business processes. However, this predictive accuracy comes with a critical decisional opacity: GNNs remain uninterpretable black boxes, limiting their use in high-impact decision contexts. This thesis addresses the issue of explainability for GNNs in the PPM domain, developing a rigorous theoretical analysis of two post-hoc instance-level methods (GNNExplainer and SubgraphX), as well as a comprehensive framework for aggregating local explanations to obtain global explanatory motifs. The main contributions are threefold: (1) a formalization of baseline-shifted normalization of the Shapley Value, essential for ensuring instance-level comparability; (2) a comparative analysis revealing critical trade-offs between structural fidelity and computational scalability of the two methods; (3) an approach for the extraction and aggregation of recurring motifs through isomorphism search and quantitative evaluation via normalized Shapley Values. The framework was empirically validated on a real-world business process dataset in the context of Next Activity Prediction. The results demonstrate the system’s ability to identify recurring structural motifs and quantify their decision relevance.

Il Predictive Process Monitoring (PPM) ha conosciuto una crescita significativa grazie all’adozione di Graph Neural Networks (GNNs), le quali catturano natural- mente la complessità strutturale e relazionale dei processi aziendali. Tuttavia, questa accuratezza predittiva è accompagnata da un’opacità decisionale critica: le GNN rimangono delle black-box non interpretabili, limitando il loro impiego in contesti ad alto impatto decisionale. La presente tesi affronta il problema della spiegabilità delle GNN nel dominio del PPM, sviluppando un’analisi teorica rigorosa di due metodi post-hoc instance-level (GNNExplainer e SubgraphX) e un framework completo per l’aggregazione di spie- gazioni locali al fine di ottenere motivi esplicativi globali. I contributi principali sono tre: (1) una formalizzazione della normalizzazione baseline-shifted degli Shapley Value, essenziale per garantire confrontabilità inter-istanza; (2) un’analisi comparata che rivela trade-off fondamentali tra fedeltà strutturale e scalabilità computazionale dei due metodi; (3) un approccio per l’estrazione e aggregazione di motivi ricorrenti mediante ricerca di isomorfismi e valutazione quantitativa via Shapley Value norma- lizzato. Il framework è stato validato empiricamente su un dataset reale di processi aziendali nell’ambito del Next Activity Prediction. I risultati dimostrano la capacità del sistema di identificare motivi strutturali ricorrenti e quantificare la loro rilevanza decisionale.

Explainability delle Graph Neural Networks per il Predictive Process Monitoring

DE GRAZIA, DAVIDE
2024/2025

Abstract

Predictive Process Monitoring (PPM) has experienced significant growth thanks to the adoption of Graph Neural Networks (GNNs), which naturally capture the structural and relational complexity of business processes. However, this predictive accuracy comes with a critical decisional opacity: GNNs remain uninterpretable black boxes, limiting their use in high-impact decision contexts. This thesis addresses the issue of explainability for GNNs in the PPM domain, developing a rigorous theoretical analysis of two post-hoc instance-level methods (GNNExplainer and SubgraphX), as well as a comprehensive framework for aggregating local explanations to obtain global explanatory motifs. The main contributions are threefold: (1) a formalization of baseline-shifted normalization of the Shapley Value, essential for ensuring instance-level comparability; (2) a comparative analysis revealing critical trade-offs between structural fidelity and computational scalability of the two methods; (3) an approach for the extraction and aggregation of recurring motifs through isomorphism search and quantitative evaluation via normalized Shapley Values. The framework was empirically validated on a real-world business process dataset in the context of Next Activity Prediction. The results demonstrate the system’s ability to identify recurring structural motifs and quantify their decision relevance.
2024
2025-12-05
Explainability of Graph Neural Networks for Predictive Process Monitoring
Il Predictive Process Monitoring (PPM) ha conosciuto una crescita significativa grazie all’adozione di Graph Neural Networks (GNNs), le quali catturano natural- mente la complessità strutturale e relazionale dei processi aziendali. Tuttavia, questa accuratezza predittiva è accompagnata da un’opacità decisionale critica: le GNN rimangono delle black-box non interpretabili, limitando il loro impiego in contesti ad alto impatto decisionale. La presente tesi affronta il problema della spiegabilità delle GNN nel dominio del PPM, sviluppando un’analisi teorica rigorosa di due metodi post-hoc instance-level (GNNExplainer e SubgraphX) e un framework completo per l’aggregazione di spie- gazioni locali al fine di ottenere motivi esplicativi globali. I contributi principali sono tre: (1) una formalizzazione della normalizzazione baseline-shifted degli Shapley Value, essenziale per garantire confrontabilità inter-istanza; (2) un’analisi comparata che rivela trade-off fondamentali tra fedeltà strutturale e scalabilità computazionale dei due metodi; (3) un approccio per l’estrazione e aggregazione di motivi ricorrenti mediante ricerca di isomorfismi e valutazione quantitativa via Shapley Value norma- lizzato. Il framework è stato validato empiricamente su un dataset reale di processi aziendali nell’ambito del Next Activity Prediction. I risultati dimostrano la capacità del sistema di identificare motivi strutturali ricorrenti e quantificare la loro rilevanza decisionale.
File in questo prodotto:
File Dimensione Formato  
tesi-DEFINITIVA-DavideDeGrazia-pdf_a.pdf

embargo fino al 08/06/2027

Dimensione 3.53 MB
Formato Adobe PDF
3.53 MB Adobe PDF

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12075/24532