This thesis presents a synthetic facial-expression dataset for emotion recognition. Using Blender + MB-Lab and Python (bpy), we control Action Units (AUs) at 10 levels and 55 hemispherical camera views to systematically generate basic emotions. Each setup yields automatic annotations: AU intensities (0–1), head pose (yaw/pitch/roll), camera parameters, and 75 2D landmarks stored in CSV. The approach addresses real-data issues (label noise, imbalance, privacy) and improves reproducibility. With a single identity, the full grid exceeds 61M rows (~80 GB), demonstrating scalability. We provide quality checks and simple baselines to enable immediate use, including automotive scenarios

La tesi descrive la creazione di un dataset sintetico di espressioni facciali per il riconoscimento delle emozioni. Con Blender + MB-Lab e script Python (bpy) controllo le Action Units (AU) a 10 livelli e 55 posizioni camera su semisfera, generando combinazioni sistematiche per le emozioni di base. Ogni configurazione produce annotazioni automatiche: intensità AU (0–1), head pose (yaw/pitch/roll), parametri di camera e 75 landmark 2D salvati in CSV. L’approccio supera limiti tipici dei dataset reali (rumore di etichetta, sbilanciamento, privacy) e facilita la replicabilità. Con una sola identità si ottengono oltre 61M di righe (≈80 GB), mostrando la scalabilità del metodo. Sono inclusi controlli qualità e ricette di baseline per un uso immediato, anche in contesti automotive.

Studio e sviluppo di un training set sintetico 3d delle espressioni facciali per il riconoscimento delle emozioni umane

GHISELLI, MARCO
2024/2025

Abstract

This thesis presents a synthetic facial-expression dataset for emotion recognition. Using Blender + MB-Lab and Python (bpy), we control Action Units (AUs) at 10 levels and 55 hemispherical camera views to systematically generate basic emotions. Each setup yields automatic annotations: AU intensities (0–1), head pose (yaw/pitch/roll), camera parameters, and 75 2D landmarks stored in CSV. The approach addresses real-data issues (label noise, imbalance, privacy) and improves reproducibility. With a single identity, the full grid exceeds 61M rows (~80 GB), demonstrating scalability. We provide quality checks and simple baselines to enable immediate use, including automotive scenarios
2024
2025-10-23
Study and development of a 3d synthetic training set of facial expressions for the recognition of human emotions
La tesi descrive la creazione di un dataset sintetico di espressioni facciali per il riconoscimento delle emozioni. Con Blender + MB-Lab e script Python (bpy) controllo le Action Units (AU) a 10 livelli e 55 posizioni camera su semisfera, generando combinazioni sistematiche per le emozioni di base. Ogni configurazione produce annotazioni automatiche: intensità AU (0–1), head pose (yaw/pitch/roll), parametri di camera e 75 landmark 2D salvati in CSV. L’approccio supera limiti tipici dei dataset reali (rumore di etichetta, sbilanciamento, privacy) e facilita la replicabilità. Con una sola identità si ottengono oltre 61M di righe (≈80 GB), mostrando la scalabilità del metodo. Sono inclusi controlli qualità e ricette di baseline per un uso immediato, anche in contesti automotive.
File in questo prodotto:
Non ci sono file associati a questo prodotto.

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12075/23688