@mastersthesis { Bau2017, author = { Joshua Bauch }, title = { Single-Shot Lernverfahren zur echtzeitf{"a}higen Erstellung ansichtenbasierter Objektrepr{"a}sentationen }, month = { January }, year = { 2017 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Im Rahmen dieser Arbeit soll ein Verfahren entwickelt und evaluiert werden, das die Anzahl der ben{"o}tigten Trainingsbilder f{"u}r eine Objektklassifizierung im Vergleich zu einem konventionellen Training stark reduziert. Im Rahmen eines konventionellen Trainings eines Objektklassifizierers werden sehr viele Beispielbilder ben{"o}tigt, damit ein Klassifizierer zuverl{"a}ssige Ergebnisse liefert. Oftmals ist die Beschaffung solcher Beispielbilder aber mit hohem Aufwand verbunden, da diese manuell vorgegeben werden m{"u}ssen. Dies soll im Rahmen dieser Arbeit dadurch umgangen werden, dass auf einem einzelnen oder mehreren Trainingsbildern geometrische Bildtransformationen ausgef{"u}hrt werden. Durch die transformierten Bilder wird eine gr{"o}{\ss}ere Menge an k{"u}nstlichen Trainingsbildern generiert. Mithilfe der Transformationen sollen Erscheinungs{"a}nderungen eines Objekts von Interesse robust beschrieben werden, die etwa durch {"A}nderungen der Objekt- oder Kameraposition entstehen. Des Weiteren soll das Verfahren lernf{"a}hig sein, so dass bereits klassifizierte Bilder zu den Trainingsdaten hinzugef{"u}gt werden k{"o}nnen und dadurch die Zuverl{"a}ssigkeit des Klassifizierers erh{"o}hen. } } @proceedings { HEAd17, author = { Josep Domenech and M. Cinta Vincent-Vela and Elena de la Poza and Desamparados Blazquez }, title = { 3rd International Conference on Higher Education Advances }, month = { July }, year = { 2017 } } @mastersthesis { ENNS17, author = { Dieter Enns }, title = { Object Extraction Using the Motion Feature Saliency and Depth in GNG-based Attention System }, month = { January }, year = { 2017 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { Artificial visual attention systems mimic the abilities of biological systems in selecting relevant among irrelevant information to enhance technical cognitive systems. The “Growing Neural Gas” (GNG), a self-organizing image representation, proved to be a versatile attention framework for models that considers features such as color, size, orientation, symmetry, and eccentricity. These features enable the detection of salient image elements in static scenes. However, they do not allow the estimation of saliency (a measure of bottom-up conspicuity) in dynamic scenes and neither do they support contour-accurate extraction of the target objects, which is beneficial for many follow-up tasks. This thesis aims at improving on this with a novel approach: Motion information is extracted from spatiotemporal GNG-networks to estimate motion saliency. Furthermore, depth-information, as provided by structured light cameras, is included to segregate targets from background elements. } } @mastersthesis { Gas2016, author = { Daniel Gaspers }, title = { Strukturelle Beschreibung lokaler Bildmerkmale zur Erweiterung ansichtenbasierter Objektrepr{"a}sentationen }, month = { July }, year = { 2017 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { Im Rahmen dieser Masterarbeit sollen ansichtenbasierte Objektrepr{"a}sentationen auf Basis lokaler Bildmerkmale um die strukturelle Beschreibung dieser lokalen Bildmerkmale erweitert werden. Die strukturelle Beschreibung repr{"a}sentiert die relative r{"a}umliche Lage der lokalen Bildermerkmale zueinander unter Ber{"u}cksichtigung charakteristischer Skalierungen und Rotationen. Objekterkennungsverfahren auf Basis ansichtenbasierter Objektrepr{"a}sentationen {"u}berpr{"u}fen zur Erkennung eines Objektes von Interesse in einem Bildbereich das Auftreten von Bildmerkmalen aus der Objektrepr{"a}sentation. Falsche Erkennungen resultieren aus Schnittmengen zu den Bildmerkmalen anderer Objekte und dem Hintergrund. Durch die Erweiterung ansichtenbasierter Objektrepr{"a}sentationen um eine strukturelle Beschreibung kann nicht nur das Auftreten der Bildmerkmale, sondern auch ihre strukturelle Beziehung zueinander gepr{"u}ft und validiert werden. Des Weiteren kann die Deformation der Lage der Merkmale zueinander quantitativ beschrieben sowie ein entsprechendes Konfidenzma{\ss} der Objektstruktur definiert werden. Aus einer derart erweiterten ansichtenbasierten Objektrepr{"a}sentation resultiert somit ein im Vergleich zu konventionellen System robusteres Objekterkennungssystem. } } @mastersthesis { Gro2017, author = { Steffen Grotenh{"o}fer }, title = { Entwicklung eines modularen Objekterkennungssystems zur Integration unterschiedlicher Bildmerkmale }, month = { January }, year = { 2017 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { Im Rahmen dieser Masterarbeit soll ein modulares System zur Objekterkennung entwickelt und evaluiert werden, welches die Integration unterschiedlicher Bildmerkmale erm{"o}glicht. In konventionellen Systemen zur Objekterkennung wird in der Regel nur ein bestimmter Algorithmus zur Extraktion und Beschreibung globaler oder lokaler Merkmale genutzt. Um im Vergleich zu konventionellen Systemen eine h{"o}here Leistungsf{"a}higkeit bei der Objekterkennung zu erreichen, soll das zu entwickelnde System eine Kombination unterschiedlicher Bildmerkmale einsetzen. Durch die Kombination unterschiedlicher Bildmerkmale, wie beispielsweise kanten- und texturbasierter Bildmerkmale, soll das System mit m{"o}glichst vielen unterschiedlichen Objekten umgehen k{"o}nnen. Dadurch ist das zu entwicklende System nicht auf einen bestimmten Anwendungsbereich beschr{"a}nkt. Um besonders deskriptive Bildmerkmale des zu erkennenden Objektes auszuw{"a}hlen, soll ein {"u}berwachtes maschinelles Lernverfahren eingesetzt werden. Ein solches Verfahren nutzt positive und negative Trainingsbilder, um Objektrepr{"a}sentationen zu lernen. Bei den positiven Trainingsbildern handelt es sich um Bildausschnitte, die das Objekt von Interesse beinhalten. Die negativen Trainingsbilder beinhalten hingegen Teile des Hintergrunds oder andere Objekte. } } @mastersthesis { Gru2017, author = { Steffen Gr{"u}ne }, title = { Vorbereitung und Ausf{"u}hrung von einfachen Handlungen autonomer Roboter basierend auf raumzeitlichen Aufmerksamkeitsprozessen }, month = { March }, year = { 2017 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Im Bereich der autonomen kognitiven Systeme wird k{"u}nstliche visuelle Aufmerksamkeit oft verwendet, um eine Vorauswahl unter den Elementen einer Szene zu treffen und damit sp{"a}tere Verarbeitungsprozesse zu entlasten. Von menschlicher Aufmerksamkeit ist jedoch bekannt, dass diese auch eng mit der Handlungssteuerung verbunden ist, was bisher in k{"u}nstlichen Systemen kaum erforscht ist. Im Rahmen dieser Bachelorarbeit soll eine Integration zwischen Aufmerksamkeitsprozessen und der Steuerung einfacher Handlungen autonomer Roboter geschaffen werden. Daf{"u}r sollen Bewegungssalienz und andere Faktoren, die visuelle Aufmerksamkeit beeinflussen, f{"u}r die Auswahl und Parametrisierung der Handlung verwendet werden. } } @inproceedings { HM2017a, author = { Markus Hennig and B{"a}rbel Mertsching }, title = { Innovative 3D Animations for Teaching Electromagnetic Field Theory and its Mathematics in Undergraduate Engineering }, month = { March }, year = { 2017 }, address = { Valencia, Spain }, booktitle = { 3rd International Conference on Higher Education Advances (HEAd 2017) }, abstract = { In this work, an innovative approach for the design and structuring of teaching videos systematically using 3D animations is presented. The approach focuses on the quantitative description of electromagnetic fields and the mathematical methods and competencies required for this purpose, exemplarily with regard to an undergraduate electrical engineering course during the initial phase of corresponding degree programs. An essential part of this course is the spatial and time-dependent description of electromagnetic fields. For this purpose, students have to work with multiple integrals in 3D space and in different coordinate systems. Such subjects are typically covered only later in mathematics courses and without a technical context, therefore leading to major difficulties for many students. The videos presented in this work are intended to support students and lecturers to work with these subjects in an instructive fashion. The 3D animations allow for effectively clarifying complex connections between technical and mathematical aspects. The videos and their specific design are discussed with regard to didactic and technical considerations. Additionally, their integration with existing interventions for the course is described. } } @inproceedings { JMMY, author = { Lv Jianxun and Mahmoud Mohamed and B{"a}rbel Mertsching and Haiwen Yuan }, title = { Dense Optical Flow Estimation from RGB-D }, month = { August }, year = { 2017 }, booktitle = { 7th International Conference on Instrumentation {\&} Measurement, Computer, Communication and Control (IMCCC), Changchun, China }, abstract = { Optical flow is a key problem in computer vision with tremendous potential applications in many fields, such as action recognition, autonomous navigation and manipulation. In this paper, we propose a dense optical flow estimation approach for objects of interest. In order to improve the accuracy of the optical flow estimation, the intensity and depth data from the RGB-D sensor are used for doing object segmentation. Afterwards, a homography based method assuming the surface to be planar is applied to obtain dense optical flow for each segment. Several experiments have been performed to evaluate the proposed method. The results demonstrate the validity of our approach. } } @mastersthesis { Jus2017, author = { Jannes Just }, title = { Auswahl und Evaluierung charakteristischer Merkmale zur robusten Beschreibung von Konturfragmenten }, month = { January }, year = { 2017 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Im Rahmen dieser Bachelorarbeit sollen Verfahren zur Beschreibung von Konturfragmenten ausgew{"a}hlt, implementiert und schlie{\ss}lich evaluiert werden, die dann f{"u}r eine schnelle und robuste Objekterkennung auf Basis lokaler Bildmerkmale eingesetzt werden k{"o}nnen. Ausgangspunkt sind Konturfragmente aus bin{"a}ren Kantenbildern, deren lokale Eigenschaften durch Merkmalsvektoren beschrieben werden sollen. Dabei sollen die Merkmale beziehungsweise Merkmalsvektoren m{"o}glichst aussagekr{"a}ftig sein, das hei{\ss}t eine hohe Deskriptivit{"a}t aufweisen und dar{"u}ber hinaus m{"o}glichst robust gegen{"u}ber Transformationen wie Rotationen und Skalierungen sein. Gleichzeitig sollen die Merkmale eine m{"o}glichst hohe Diskriminativit{"a}t aufweisen, so dass unterschiedliche Konturfragmente anhand der Merkmalsvektoren gut voneinander unterschieden werden k{"o}nnen. Die einzelnen Merkmale beziehungsweise Merkmalsvektoren sollen in Matlab implementiert und evaluiert werden. } } @mastersthesis { Kaz2017, author = { Azharuddin Kazi }, title = { Desing of PCB containing photo current amplifiers and ADC drivers for an ultrafast optical polarimeter with high sampling speed }, month = { May }, year = { 2017 }, school = { Paderborn University }, type = { Master's thesis } } @article { KTS2017, author = { Alexander Kr{"u}ger and Jan T{"u}nnermann and Ingrid Scharlau }, title = { Measuring and Modeling Salience with the Theory of Visual Attention }, month = { May }, year = { 2017 }, journal = { Attention Perception {\&} Psychophysics }, number = { 6 }, pages = { 1593 -- 1614 }, volume = { 79 }, abstract = { For almost three decades, the theory of visual attention (TVA) has been successful in mathematically describing and explaining a wide variety of phenomena in visual selection and recognition with high quantitative precision. Interestingly, the influence of feature contrast on attention has been included in TVA only recently, although it has been extensively studied outside the TVA framework. The present approach further develops this extension of TVA’s scope by measuring and modeling salience. An empirical measure of salience is achieved by linking different (orientation and luminance) contrasts to a TVA parameter. In the modeling part, the function relating feature contrasts to salience is described mathematically and tested against alternatives by Bayesian model comparison. This model comparison reveals that the power function is an appropriate model of salience growth in the dimensions of orientation and luminance contrast. Furthermore, if contrasts from the two dimensions are combined, salience adds up additively. } } @proceedings { ICVS2017, author = { Ming Liu and Haoyao Chen and Markus Vincze }, title = { International Conference on Computer Vision Systems }, month = { July }, year = { 2017 } } @inproceedings { ICVS17, author = { Mahmoud Mohamed and Hossein Mirabdollah and B{"a}rbel Mertsching }, title = { Monocular Epipolar Constraint for Optical Flow Estimation }, month = { May }, year = { 2017 }, address = { Shenzhen, China }, booktitle = { International Conference on Computer Vision Systems (ICVS 2017) }, pages = { 62 -- 71 }, publisher = { Springer, Cham }, volume = { 10528 }, isbn = { 978-3-319-68345-4 }, abstract = { In this paper, the usage of the monocular epipolar geometry for the calculation of optical flow is investigated. We derive the necessary formulation to augment the epipolar constraint for the calculation of optical flow using the total variational model in a multi-resolution pyramid scheme. Therefore, we minimize an objective function which contains the epipolar constraint with a residual function based on different types of descriptors (brightness, HOG, CENSUS and MLDP). For the calculation of epipolar lines, the relevant fundamental matrices are calculated based on the 7- and 8- point methods. Moreover, SIFT and Lukas-Kanade methods are used to obtain matched features between two frames, by which fundamental matrices can be calculated. The effect of using different combination of the feature matching methods, fundamental matrix calculation and descriptors are evaluated based on the challenging KITTI dataset. } } @inproceedings { MM17, author = { Muhannad Mujahed and B{"a}rbel Mertsching }, title = { The Admissible Gap (AG) Method for Reactive Collision Avoidance }, month = { January }, year = { 2017 }, address = { Marina Bay Sands, Singapore }, booktitle = { IEEE International Conference on Robotics and Automation (ICRA 2017) }, abstract = { This paper proposes a new concept, the Admissible Gap, for reactive collision avoidance. We call a gap admissible if it is possible to find a collision-free motion command that guides a mobile robot through it, while respecting the vehicle constraints. By utilizing this concept, a new collision avoidance approach was developed, achieving an outstanding performance in unknown dense environments. Unlike the widely used gap-based techniques, our approach directly accounts for the exact shape and kinematics, rather than finding a direction solution and turning it later into a collision-free admissible motion. Experimental results demonstrated the outstanding behavior of the AG approach. Furthermore, a comparison with existing state-of-the-art methods showed that the AG approach achieves the best results in terms of efficiency, safety, and smoothness. } } @proceedings { IROS2017, author = { N. N. }, title = { IEEE/RSJ International Conference on Intelligent Robots and Systems }, month = { July }, year = { 2017 } } @book { Pap17, author = { Lothar Papula }, title = { Mathematische Formelsammlung f{"u}r Ingenieure und Naturwissenschaftler }, month = { September }, year = { 2017 }, edition = { 12. Auflage }, publisher = { Springer Vieweg }, isbn = { 978-3658161941 }, abstract = { Diese Formelsammlung folgt in Aufbau und Stoffauswahl dem dreib{"a}ndigen Werk Mathematik f{"u}r Ingenieure und Naturwissenschaftler desselben Autors. Sie enth{"a}lt alle wesentlichen f{"u}r das naturwissenschaftlich-technische Studium ben{"o}tigten mathematischen Formeln und bietet folgende Vorteile:- Rascher Zugriff zur gew{"u}nschten Information durch ein ausf{"u}hrliches Inhalts- und Sachwortverzeichnis.- Alle wichtigen Daten werden durch Formeln verdeutlicht.- Rechenbeispiele, die zeigen, wie man die Formeln treffsicher auf eigene Problemstellungen anwendet.- Eine Tabelle der wichtigsten Laplace-Transformationen.- Eine auf eingef{"a}rbtem Papier gedruckte ausf{"u}hrliche Integraltafel im Anhang. In der vorangegangenen Auflage wurden neu aufgenommen die Kapitel Komplexe Matrizen und Eigenwertprobleme in der linearen Algebra, Differentialgleichungen und Systeme von Differentialgleichungen im Kapitel Differentialgleichungen sowie das Kapitel Vektoranalysis. } } @mastersthesis { Raies2016, author = { Ali Raies }, title = { Optical Flow Estimation Based on Depth Information and Scene Analysis }, month = { January }, year = { 2017 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { Optical flow fields are widely used for motion estimation of objects relative to the observer of a scene. The optical fow is normally estimated using the brightness constraint or texture constraints. These methods still perform poorly with fast motions, in areas of low texture or discontinuous brightness. Most of the existing approaches make generic assumptions about the spatial structure of the flow. More recent works try to utilise the fact that the optical flow variation depends highly on object class across an image. Different motion models are used for each element (object class) in the scene depending on the type of object. This approach provides a more robust solution but there’s still room for improvement. The goal of this work is to optimize the optical flow estimation, when the observer itself is moving, by exploiting the recent advances in image segmentation and disparity map. The robustness, accuracy and performance will be evaluated using the KITTI stereo and optical flow benchmark. } } @mastersthesis { Reinke17, author = { Sebastian Reinke }, title = { Extraktion und Verifikation von Objektkandidaten auf Basis von Salienzkarten }, month = { December }, year = { 2017 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Im Rahmen dieser Arbeit soll ein Verfahren entwickelt und er probt werden, welches visuell auff{"a}llige Bereiche in einem Bild auf ihre Relevanz, ob diese ein Objekt enthalten, {"u}berpr{"u}ft. In der Regel wird ein Bild auf ein bestimmtes Zielobjekt hin {"u}berpr{"u}ft, was zu einem hohen Rechenaufwand f{"u}hrt, da keine Informationen dar{"u}ber vorliegen, an welcher Stelle sich das Zielobjekt befindet. Aus diesem Grund muss das gesamte Bild analysiert werden. In einem alternativen Ansatz werden Aufmerksamkeitsmodelle verwendet, um die Position m{"o}glicher Zielobjekte festzustellen, wodurch lediglich Teilbilder analysiert werden m{"u}ssen. Allerdings ist nicht jede von einem Aufmerksamkeitsmodell vorhergesagte Stelle auch gleichzusetzen mit einem Objekt und muss deswegen zus{"a}tzlich {"u}berpr{"u}ft werden. Zu diesem Zweck k{"o}nnen sogenannte Objectness-Ma{\ss}e verwendet werden, welche entscheiden, ob sich ein Objekt in einem Teilbild befindet. Ziel dieser Arbeit ist es festzustellen, welche Kombination aus m{"o}glichen Verfahren zur Kandidatenextraktion und Objectness-{"U}berpr{"u}fung das beste Ergebnis liefert. } } @mastersthesis { AR2017, author = { André Rossi }, title = { K{"u}nstliche Affordanzen in einem “Selection-for-Action”-Aufmerksamkeitssystem zur Handlungsauswahl }, month = { December }, year = { 2017 }, school = { Paderborn University }, abstract = { K{"u}nstliche visuelle Aufmerksamkeit wird in autonomen kognitiven Systemen verwendet, um eine Vorauswahl relevanter Bildelemente zu treffen. Darauffolgende Verarbeitungsstufen k{"o}nnen die ausgew{"a}hlten Bildelemente wegen ihrer reduzierten Gr{"o}{\ss}e dann effizienter analysieren. Untersuchungen der menschlichen visuellen Aufmerksamkeit legen nahe, dass die Selektion durch Aufmerksamkeit nicht nur durch einfache, visuelle Attribute wie Farbe oder Gr{"o}{\ss}e eines Objektes bestimmt wird, sondern auch durch Handlungsm{"o}glichkeiten, die durch einen Gegenstand angeboten werden. Diese Handlungsm{"o}glichkeiten werden als Affordanzen bezeichnet. Beispielsweise bietet die Affordanz eines Schalters, die Handlungsoption des Umlegens dieses Schalters an. Im Rahmen dieser Bachelorarbeit soll eine Steuerung einfacher Handlungen auf Basis eines k{"u}nstlichen Aufmerksamkeitssystems entworfen werden. Dazu wird das Bild mit einem Growing Neural Gas Algorithmus in eine auf Tiefeninformationen basierende Szenenrepr{"a}sentation zerlegt. Diese Szenenrepr{"a}sentation wird dann auf Affordanzen untersucht. Durch die Auswahl des relevantesten Objektes wird als n{"a}chstes in einer simulierten Testumgebung eine Handlung initialisiert und durchgef{"u}hrt. } } @mastersthesis { Saj2017, author = { Aben Saju }, title = { Methods for quality inspection of electrical connectors based on 3D data }, month = { July }, year = { 2017 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { The master's thesis is being conducted in cooperation with ASENTICS vision technology, Siegen. } } @mastersthesis { Sch2016, author = { Christian Scharfstein }, title = { Vorverarbeitung bin{"a}rer Kantenbilder zur Extraktion von Konturfragmenten f{"u}r echtzeitf{"a}hige Objekterkennungssysteme }, month = { January }, year = { 2017 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Im Rahmen dieser Bachelorarbeit soll ein Verfahren zur schnellen und robusten Bestimmung zusammengeh{"o}riger Kantenfragmente aus bin{"a}ren Kantenbildern entwickelt und evaluiert werden. Bei nat{"u}rlichen bin{"a}ren Kantenbildern tritt h{"a}ufig das Problem auf, dass eigentlich zusammengeh{"o}rige Kantenfragmente nicht verbunden sind, oder zwei nicht zusammengeh{"o}rige Kanten einander kreuzen. Eine systematische Analyse bin{"a}rer Kantenbilder f{"u}r den Zweck der Objekterkenung wird folglich erschwert, da hierf{"u}r m{"o}glichst eindeutige und zusammenh{"a}ngende Kanten erforderlich sind. Aufgabe des zu entwickelnden Verfahrens ist daher zum Einen die eindeutige Zuordnung mehrdeutiger Pixel des Eingangsbildes zu ihren jeweiligen Kanten und zum Anderen die Bestimmung und Verbindung zusammengeh{"o}riger Kantenfragmente nach geeigneten Kriterien. Zu diesem Zweck sollen geeignete Ans{"a}tze aus der Literatur identifiziert und implementiert werden. } } @mastersthesis { Sch2017, author = { Julian Scheibl }, title = { Auswahl und Evaluierung eines erweiterten Algorithmus zur Kantendetektion f{"u}r echtzeitf{"a}hige Objekterkennung }, month = { January }, year = { 2017 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Im Rahmen dieser Bachelorarbeit soll ein erweiterter Algorithmus zur Kantendetektion ausgew{"a}hlt, implementiert und schlie{\ss}lich evaluiert werden. Der Algorithmus erh{"a}lt dabei als Eingangssignal ein mehrkanaliges Bild. Zu diesem soll m{"o}glichst in Echtzeit ein korrespondierendes bin{"a}res Kantenbild bestimmt werden, so dass dieses Kantenbild f{"u}r eine Objekterkennung geeignet ist. Um dies zu realisieren, werden vor allem solche Algorithmen in Betracht gezogen, die sich Methoden des {"u}berwachten Lernens bedienen. Konventionelle Algorithmen zur Kantendetektion basieren in den meisten F{"a}llen auf der Analyse von Helligkeitsgradienten mit Hilfe von Faltungsmatrizen. Im Gegensatz dazu k{"o}nnen mit den Methoden des {"u}berwachten Lernens gleichzeitig verschiedene, komplexere Merkmale ber{"u}cksichtigt werden. Dies erfolgt durch die Analyse von Bildausschnitten mit Hilfe von Klassifizierungsverfahren. Die Klassifizierungsverfahren m{"u}ssen dazu zun{"a}chst mittels manuell erstellter Referenzkantenbilder trainiert werden. Derartige Verfahren erm{"o}glichen im Vergleich zu den konventionellen Verfahren eine deutlich zuverl{"a}ssigere und f{"u}r die Objekterkennung besser geeignete Kantendetektion. } } @mastersthesis { Schre2017, author = { Maximilian Schreckenberg }, title = { Schnelle Analyse und Beschreibung nat{"u}rlicher Kantenbilder zur echtzeitf{"a}higen Objekterkennung }, month = { December }, year = { 2017 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { Im Rahmen dieser Masterarbeit soll ein Verfahren zur schnellen Analyse und Beschreibung nat{"u}rlicher Kantenbilder zur echtzeitf{"a}higen Objekterkennung entwickelt und evaluiert werden. Die Objekterkennung soll dabei auf Basis lokaler Konturmerkmale erfolgen, f{"u}r deren Bestimmung und Beschreibung mehrere Teilschritte erforderlich sind. Die einzelnen Teilschritte sollen im Rahmen dieser Arbeit angepasst, optimiert und verkn{"u}pft werden, so dass eine echtzeitf{"a}hige Objekterkennung durchgef{"u}hrt werden kann. Zu Beginn wird ein Verfahren zur Kantendetektion in nat{"u}rlichen Eingangsbildern eingesetzt. Die resultierenden Kantenbilder sollen mit einem Verfahren analysiert werden, welches hieraus m{"o}glichst zusammenh{"a}ngende und f{"u}r die Objekterkennung geeignete Kanten extrahiert. Die Analyse der resultierenden Objekt-Konturen findet im erweiterten Kr{"u}mmungs-Skalenraum statt. Hierzu werden die Konturen systematisch mit Ableitungen einer Gau{\ss}-Funktion mit steigender Standardabweichung gefaltet. Diese {"a}u{\ss}erst rechenintensiven Faltungen sollen im Rahmen dieser Arbeit durch die Verwendung spezieller Rechteckfilter approximiert werden. Durch diese Analyse werden aussagekr{"a}ftige Konturfragmente bestimmt, deren Beschreibung mit Hilfe von geeigneten Merkmalsvektoren erfolgen soll. Diese Merkmalsvektoren sollen dann unter Ber{"u}cksichtigung struktureller Informationen zur Objekterkennung eingesetzt werden. Abschlie{\ss}end wird das entwickelte Verfahren evaluiert. } } @book { Sto17, author = { Neil Storey }, title = { Electronics: A Systems Approach }, month = { January }, year = { 2017 }, edition = { 6. Auflage }, publisher = { Pearson }, isbn = { 978-1292114064 } } @mastersthesis { The2017, author = { Ann-Katrin Thebille }, title = { One-Shot Learning Techniques for the Detection of Specific Objects }, month = { March }, year = { 2017 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Most object detection algorithms are based on the use of classifiers, which require a large amount of training images of the object of interest. As a result, the training of these classifiers is costly and time consuming. In this thesis an algorithm to reduce the necessary amount of training images is to be implemented and evaluated. The goal is to detect the object of interest robustly under varying conditions, even if only a single image is provided as input for the training. The algorithm to be implemented in this thesis will use geometric image transformations on available training images to generate artifical training data. The artificial training data therefore simulates different views of the object of interest. By adding artifical training data to the pool of training images, the accuracy of the detection will be improved. The classifier will be trained with features extracted from training images, generated training data, and negative examples generated from the background within input images. Initially, only global features like HOG (Histogram of oriented gradients) will be considered. If applicable, local features will be added at a later stage. The algorithm will be implemented in C/C++. } } @phdthesis { Tunnermann2017, author = { Jan T{"u}nnermann }, title = { On the Origin of Visual Temporal-Order Perception by Means of Attentional Selection }, month = { June }, year = { 2017 }, school = { PhD Thesis. Paderborn University } } @article { TKS2017, author = { Jan T{"u}nnermann and Alexander Kr{"u}ger and Ingrid Scharlau }, title = { Measuring Attention and Visual Processing Speed by Model-based Analysis of Temporal-order Judgments }, month = { July }, year = { 2017 }, journal = { Journal of Visualized Experiments }, abstract = { This protocol describes how to conduct temporal-order experiments to measure visual processing speed and the attentional resource distribution. The proposed method is based on a new and synergistic combination of three components: the temporal-order judgments (TOJ) paradigm, Bundesen's Theory of Visual Attention (TVA), and a hierarchical Bayesian estimation framework. The method provides readily interpretable parameters, which are supported by the theoretical and neurophysiological underpinnings of TVA. Using TOJs, TVA-based estimates can be obtained for a broad range of stimuli, whereas traditional paradigms used with TVA are mainly limited to letters and digits. Finally, the meaningful parameters of the proposed model allow for the establishment of a hierarchical Bayesian model. Such a statistical model allows assessing results in one coherent analysis both on the subject and the group level. To demonstrate the feasibility and versatility of this new approach, three experiments are reported with attention manipulations in synthetic pop-out displays, natural images, and a cued letter-report paradigm. } } @inproceedings { TGM2017, author = { Jan T{"u}nnermann and Steffen Gr{"u}ne and B{"a}rbel Mertsching }, title = { Selection and Execution of Simple Actions via Visual Attention and Direct Parameter Specification }, month = { October }, year = { 2017 }, editor = { Ming Liu and Haoyao Chen and Marcus Vincze }, address = { Shenzhen, China }, booktitle = { International Conference on Computer Vision Systems (ICVS 2017) }, pages = { 404 -- 414 }, publisher = { Springer }, volume = { 10528 }, abstract = { Can early visual attention processes facilitate the selection and execution of simple robotic actions? We believe that this is the case. Following the selection--for--action agenda known from human attention, we show that central perceptual processing can be avoided or at least relieved from managing simple motor processes. In an attention--classification--action cycle, salient pre-attentional structures are used to provide features to set of parallel classifiers. Their action proposals are coordinated, parametrized (via direct parameter specification from the pre-attentional stage), and executed. We evaluate the system with a simulated mobile robot. } } @mastersthesis { WANG16, author = { Haoan Wang }, title = { Convolutional Neural Network (CNN) driven Place Recognition for Appearance-based Mapping }, month = { November }, year = { 2017 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { Appearance-based mapping algorithms recognize places to localize a mobile robot during indoor and outdoor operations. In this respect, vision sensors are used as they offer ample features to uniquely represent the scenes. The FAB-MAP approach uses hand-engineered features (e.g. SIFT, SURF, etc.) to assist the localization of a robot by detecting loop-closures. However, these features are sensitive to illumination changes, therefore, the FAB-MAP approach produces false loop-closures in cases where a place has an undergone illumination or appearance change. This often leads to a failure in appearance-based mapping. With the advancement of artificial intelligence, the Convolutional Neural Network (CNN) for place recognition has drawn a huge attention in computer vision due to its robust performance against these kind of changes. This master thesis is aimed at integrating features obtained from CNN into the FAB-MAP approach to improve loop-closure detection results. The performance of the proposed method will be evaluated by comparing the precision-recall curve and average precision with the original FAB-MAP approach. } }