In questo elaborato si descrive lo sviluppo di un sistema integrato per la calibrazione robot–camera, realizzato durante un tirocinio nel laboratorio MIRLAB di robotica dell’Università Politecnica delle Marche. Il progetto unisce tecniche di visione artificiale e controllo robotico, con l’obiettivo di stimare in modo accurato la trasformazione rigida tra il sistema di riferimento di un braccio robotico UR5e e quello di una telecamera Orbbec Gemini 335L. La parte di visione artificiale, sviluppata in linguaggio C++ all’interno del framework ROS 2, è basata su un algoritmo di riconoscimento che individua una sfera colorata nello spazio tridimensionale, calcolandone in tempo reale la posizione e il raggio a partire dalle immagini RGB e dalle mappe di profondità fornite dalla camera. Queste informazioni vengono poi combinate con le pose del robot per determinare la relazione geometrica tra i due sistemi di coordinate, attraverso una procedura di calibrazione automatizzata. Le prove sperimentali hanno evidenziato una buona stabilità ed accuratezza nella stima delle coordinate, sia con sfere di dimensioni differenti sia a varie distanze dalla camera. La calibrazione finale ha mostrato una coerenza tra i dati della telecamera e quelli del robot, confermando l’efficacia del metodo sviluppato. Il lavoro rappresenta un primo passo verso la realizzazione di un sistema di calibrazione robot–camera completamente automatizzato, in cui i diversi componenti software collaborano tramite nodi ROS 2 indipendenti e facilmente estendibili. I risultati ottenuti costituiscono una base solida per futuri sviluppi, come l’integrazione di sensori multipli, la correzione della distorsione ottica e l’utilizzo di algoritmi di riconoscimento più avanzati basati su reti neurali convolutive.
RICONOSCIMENTO E LOCALIZZAZIONE 3D DI TARGET SFERICI PER LA CALIBRAZIONE ROBOT-CAMERA RGB-D SU PIATTAFORMA ROS 2
MOUL EL KSOUR, KHALIL
2024/2025
Abstract
In questo elaborato si descrive lo sviluppo di un sistema integrato per la calibrazione robot–camera, realizzato durante un tirocinio nel laboratorio MIRLAB di robotica dell’Università Politecnica delle Marche. Il progetto unisce tecniche di visione artificiale e controllo robotico, con l’obiettivo di stimare in modo accurato la trasformazione rigida tra il sistema di riferimento di un braccio robotico UR5e e quello di una telecamera Orbbec Gemini 335L. La parte di visione artificiale, sviluppata in linguaggio C++ all’interno del framework ROS 2, è basata su un algoritmo di riconoscimento che individua una sfera colorata nello spazio tridimensionale, calcolandone in tempo reale la posizione e il raggio a partire dalle immagini RGB e dalle mappe di profondità fornite dalla camera. Queste informazioni vengono poi combinate con le pose del robot per determinare la relazione geometrica tra i due sistemi di coordinate, attraverso una procedura di calibrazione automatizzata. Le prove sperimentali hanno evidenziato una buona stabilità ed accuratezza nella stima delle coordinate, sia con sfere di dimensioni differenti sia a varie distanze dalla camera. La calibrazione finale ha mostrato una coerenza tra i dati della telecamera e quelli del robot, confermando l’efficacia del metodo sviluppato. Il lavoro rappresenta un primo passo verso la realizzazione di un sistema di calibrazione robot–camera completamente automatizzato, in cui i diversi componenti software collaborano tramite nodi ROS 2 indipendenti e facilmente estendibili. I risultati ottenuti costituiscono una base solida per futuri sviluppi, come l’integrazione di sensori multipli, la correzione della distorsione ottica e l’utilizzo di algoritmi di riconoscimento più avanzati basati su reti neurali convolutive.| File | Dimensione | Formato | |
|---|---|---|---|
|
RICONOSCIMENTO E LOCALIZZAZIONE 3D DI TARGET SFERICI PER LA CALIBRAZIONE ROBOT CAMERA RGB-D SU PIATTAFORMA ROS 2.pdf
accesso aperto
Dimensione
11.47 MB
Formato
Adobe PDF
|
11.47 MB | Adobe PDF | Visualizza/Apri |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.12075/24714