Directly to content
  1. Publishing |
  2. Search |
  3. Browse |
  4. Recent items rss |
  5. Open Access |
  6. Jur. Issues |
  7. DeutschClear Cookie - decide language by browser settings

Data Fusion of Surface Meshes and Volumetric Representations

Beyer, Andreas

[img]
Preview
PDF, English
Download (55MB) | Terms of use

Citation of documents: Please do not cite the URL that is displayed in your browser location input, instead use the DOI, URN or the persistent URL below, as we can guarantee their long-time accessibility.

Abstract

The term Data Fusion refers to integrating knowledge from at least two independent sources of information such that the result is more than merely the sum of all inputs. In our project, the knowledge about a given specimen comprises its acquisitions from optical 3D scans and Computed Tomography with a special focus on limited-angle artifacts. In industrial quality inspection those imaging techniques are commonly used for non-destructive testing. Additional sources of information are digital descriptions for manufacturing, or tactile measurements of the specimen. Hence, we have several representations comprising the object as a whole, each with certain shortcomings and unique insights. We strive for combining all their strengths and compensating their weaknesses in order to create an enhanced representation of the acquired object. To achieve this, the identification of correspondences in the representations is the first task. We extract a subset with prominent exterior features from each input because all acquisitions include these features. To this end, regional queries from random seeds on an enclosing hull are employed. Subsequently, the relative orientation of the original data sets is calculated based on their subsets, as those comprise the - potentially defective - areas of overlap. We consider global features such as principal components and barycenters for the alignment, since in this specific case classical point-to-point comparisons are prone to error. Our alignment scheme outperforms traditional approaches and can even be enhanced by considering limited-angle artifacts in the reconstruction process of Computed Tomography. An analysis of local gradients in the resulting volumetric representation allows to distinguish between reliable observations and defects. Lastly, tactile measurements are extremely accurate but lack a suitable 3D representation. Thus, we also present an approach for converting them in a 3D surface suiting our work flow. As a result, the respective inputs are now aligned with each other, indicate the quality of the included information, and are in compatible format to be combined in a subsequent step. The data fusion result permits more accurate metrological tasks and increases the precision of detecting flaws in production or indications of wear-out. The final step of combining the data sets is briefly presented here along with the resulting augmented representation, but in its entirety and details subject to another PhD thesis within our joint project.

Translation of abstract (German)

Der Begriff Data Fusion bezeichnet die Zusammenführung von Daten aus zwei oder mehr unabhäangigen Quellen. In ihrer Verbindung ergänzen sich die Daten statt sich zu überlagern. In unserem Projekt werden hierbei die Aufnahmen eines Werkstücks behandelt, wie sie ein optischer 3D-Scanner und ein Computertomograph generieren; besonderes Augenmerk liegt bei letzterem auf limited-angle Artefakten. In der industriellen Qualitätskontrolle kommen beide bildgebende Verfahren im Rahmen der zerstörungsfreien Werkstoffprüfung zum Einsatz. Zusätzlich existieren meist Konstruktionsbeschreibungen wie z.B. CAD-Daten, oder es liegen taktile Messungen vor. Somit stehen mehrere Beschreibungen des kompletten Objekts zur Verfügung, wobei darin jeweils unterschiedliche Aspekte hervorgehoben oder vernachlässigt werden. Unser Ziel besteht darin, den Mehrwert der einzelnen Eingaben zu bündeln und eine detailreichere Gesamtrepräsentation des Werkstücks zu erstellen. Hierzu müssen lokale Übereinstimmungen in den Datensätzen identifiziert werden. Da markante äußere Merkmale in allen Darstellungen gleichermaßen präsent sind, bietet sich deren Extraktion an. Es eignen sich Distanzanfragen an das Objekt, von Zufallspunkten, die auf einer das Objekt umgebenden Hülle verteilt sind. Im Folgenden muss die räumliche Lage der Objektrepräsenationen zueinander geklärt werden, dies erfolgt auf Basis der - eventuell fehlerbehafteten - Extraktionen. Eine Lagebestimmung mittels Hauptachsenanalyse und Schwerpunkt liefert in unserem Ansatz deutlich bessere Ergnbinsse fehleranfällige punktbasierter Verfahren. Zur Fehlerbestimmung computertomographisch erstellter Volumendaten wird deren Gradientenfeld untersucht, um hiervon Aussagen über die lokale Verlässlichkeit der Repräsentation abzuleiten. Ein Konvertierungsprozess der es ermöglicht hochgenaue taktile Messungen in eine 3D-Repräsentation zu überführt und dadurch für Data Fusion nutzbar macht, wird ebenfalls im Rahmen dieser Arbeit beschrieben. Folglich liegen nun alle Datensätze in einheitlicher Form mit bekannter Orientierung und Fehleranalyse vor. Sie können somit zusammengeführt werden, um präzisere Messungen und Verschleißprüfungen zu ermöglichen. Die resultierende, detailiertere Darstellung des Werkstücks wird vorgestellt, sowie die zur Zusammenführung entwickelte Methode. Letztere ist jedoch Gegenstand einer anderen Doktorarbeit im Rahmen unseres Projekts.

Item Type: Dissertation
Supervisor: Bock, Prof. Dr. Dr. h. c. mult. Hans Georg
Place of Publication: Heidelberg
Date of thesis defense: 27 July 2016
Date Deposited: 24 Aug 2016 12:57
Date: 2016
Faculties / Institutes: The Faculty of Mathematics and Computer Science > Department of Computer Science
Subjects: 004 Data processing Computer science
510 Mathematics
Controlled Keywords: datenfusion, computertomographie, ausrichtung, artefakt, Stereoskopische Projektion
About | FAQ | Contact | Imprint |
OA-LogoDINI certificate 2013Logo der Open-Archives-Initiative