Falls, although common, are often underestimated as a significant source of injuries. Statistical data highlights that about 1 in 3 adults over 65 years old and half of those over 80 years old experience at least one fall per year. While many falls may not result in serious injuries, the potential consequences are significant. There is an inherent risk that a fall may lead to fractures, resulting in a decrease in individual confidence. Such incidents can contribute to social withdrawal and generate a sense of loss of independence. In recent times, deep learning has been utilized to enhance fall detection, overcoming the limitations of wearable device-based systems, often forgotten or avoided by the elderly, and aiming to improve accuracy while reducing false alarms. This approach involves training deep learning models on fall-related datasets to identify patterns and features associated with such incidents. The following thesis proposes a low-cost fall detection system that utilizes a convolutional neural network (YOLO), with the intention of contributing to elderly healthcare through a reliable and accessible solution.
Le cadute, sebbene comuni, vengono spesso sottovalutate come fonte significativa di lesioni. I dati statistici evidenziano che circa 1 adulto su 3 oltre i 65 anni e la metà di coloro che hanno superato gli 80 anni sperimentano almeno una caduta all’anno. Nonostante molte cadute possano non risultare in lesioni gravi, le possibili conseguenze sono significative. Esiste un rischio intrinseco che una caduta possa determinare fratture, comportando una diminuzione della fiducia individuale. Tali incidenti possono contribuire al ritiro sociale e generare una sensazione di perdita di indipendenza. Negli ultimi tempi, il deep learning è stato sfruttato per perfezionare il rilevamento delle cadute, superando le limitazioni dei sistemi basati su dispositivi indossabili, spesso dimenticati o evitati dagli anziani, e mirando a migliorare l’accuratezza e a ridurre i falsi allarmi. Questo approccio implica l’addestramento di modelli di deep learning su insiemi di dati relativi alle cadute, al fine di identificare schemi e caratteristiche correlate a tali incidenti. La seguente tesi propone un sistema di rilevamento delle cadute a basso costo che sfrutta una rete neurale convoluzionale (YOLO), con l’intento di contribuire all’assistenza sanitaria degli anziani attraverso una soluzione affidabile e accessibile.
Deep Learning nel rilevamento delle cadute mediante telecamere RGB: addestramento e testing in tempo reale di rete YOLO su Raspberry PI 3
PROIETTI, MELISSA
2022/2023
Abstract
Falls, although common, are often underestimated as a significant source of injuries. Statistical data highlights that about 1 in 3 adults over 65 years old and half of those over 80 years old experience at least one fall per year. While many falls may not result in serious injuries, the potential consequences are significant. There is an inherent risk that a fall may lead to fractures, resulting in a decrease in individual confidence. Such incidents can contribute to social withdrawal and generate a sense of loss of independence. In recent times, deep learning has been utilized to enhance fall detection, overcoming the limitations of wearable device-based systems, often forgotten or avoided by the elderly, and aiming to improve accuracy while reducing false alarms. This approach involves training deep learning models on fall-related datasets to identify patterns and features associated with such incidents. The following thesis proposes a low-cost fall detection system that utilizes a convolutional neural network (YOLO), with the intention of contributing to elderly healthcare through a reliable and accessible solution.File | Dimensione | Formato | |
---|---|---|---|
Tesi Melissa Proietti.pdf
embargo fino al 15/02/2026
Descrizione: Tesi Proietti Melissa
Dimensione
2.78 MB
Formato
Adobe PDF
|
2.78 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.12075/16583