@book { Bar18, author = { Hans-Jochen Bartsch }, title = { Kleine Formelsammlung Mathematik }, month = { January }, year = { 2018 }, edition = { 7., aktualisierte Auflage }, note = { formelsammlung_mathe get_a }, publisher = { Carl Hanser Verlag }, isbn = { 978-3446451643 }, abstract = { Die "Kleine Formelsammlung" enth{"a}lt die wichtigsten Formeln ausgew{"a}hlter Stoffgebiete der Mathematik, die Studierende ingenieurwissenschaftlicher Fachrichtungen an Hochschulen f{"u}r angewandte Wissenschaften und Technischen Universit{"a}ten sowie Sch{"u}lerinnen und Sch{"u}ler an Fachoberschulen und in der Oberstufe an Gymnasien ben{"o}tigen. Sie dient zum Nachschlagen bei Klausuren, zur Unterst{"u}tzung beim L{"o}sen von {"U}bungsaufgaben, zum Auffrischen von mathematischen Kenntnissen sowie zur Pr{"u}fungsvorbereitung. } } @mastersthesis { Bau2018, author = { Joshua Bauch }, title = { Kr{"u}mmungsbasierte Verfahren zur Vorverarbeitung bin{"a}rer Kantenbilder auf Basis von Wahrscheinlichkeitskarten }, month = { January }, year = { 2018 }, school = { Paderborn University }, abstract = { Im Rahmen dieser Arbeit soll ein Verfahren zur Vorverarbeitung bin{"a}rer Kantenbilder zum Zweck der Objekterkennung entwickelt und evaluiert werden. In nat{"u}rlichen bin{"a}ren Kantenbildern tritt h{"a}ufig das Problem auf, dass die Kanten eines Objekts von Interesse Unterbrechungen aufweisen. Dies l{"a}sst sich beispielsweise auf Verdeckungen durch andere Objekte im Vordergrund oder schwache Gradienten zwischen einzelnen Objektteilen zur{"u}ckf{"u}hren. Dadurch wird eine Objekterkennung auf Basis solcher Bilddaten erschwert. Da das menschliche visuelle System unterbrochene und auch mehrdeutige Kanten ohne Weiteres erkennen und fortsetzen kann, sollen im Rahmen dieser Arbeit zun{"a}chst psychophysikalische Studien betrachtet und hinsichtlich einer Adaptierung f{"u}r technische Systeme bewertet werden. Dabei sollen probabilistische Beschreibungen der Fortf{"u}hrung von unterbrochenen Kanten aus Studien mit menschlichen Probanden f{"u}r eine Berechnung von pixelbasierten Wahrscheinlichkeitskarten verwendet werden, auf deren Basis unterbrochene Kantenfragmente fortgesetzt werden k{"o}nnen. Zuletzt soll {"u}berpr{"u}ft werden, ob sich auch Mehrdeutigkeiten von zusammenh{"a}ngenden Kantenfragmenten durch eine Anpassung des Verfahrens aufl{"o}sen lassen. } } @mastersthesis { Brink2017, author = { Lukas Brinkmann }, title = { Methoden zur Erkennung von bewegten Objekten bei gleichzeitiger Kamerabewegung }, month = { January }, year = { 2018 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Ein bekanntes Problem bei der Identifizierung von bewegten Objekten ist die Differenzierung zwischen der Bewegung eines Objektes, wie zum Beispiel eines Autos, und der Eigenbewegung der Kamera. Zur L{"o}sung dieses Problems gibt es mehrere vielversprechende Ans{"a}tze, die jedoch nur mit Parametern, die f{"u}r jede Sequenz speziell eingestellt werden m{"u}ssen, evaluiert und verglichen werden k{"o}nnen. Im Rahmen dieser Bachelorarbeit soll ein System zur Evaluierung der Methoden entwickelt werden, das eine {"u}bersichtliche Auswahl der verschiedenen Erkennungsmethoden bietet und eine quantitative Auswertung dieser Methoden anhand von vorher festgelegten Parametern erm{"o}glicht. Damit eine systematische Evaluierung der einzelnen Methoden zur Erkennung sich bewegender Objekte stattfinden kann, werden die Evaluierungskriterien und die Methoden beschr{"a}nkt. Das System zur Evaluierung soll eine schnelle Integration von neuen Methoden und Evaluierungskriterien gew{"a}hrleisten, damit die Evaluierung neuer Verfahren durchgef{"u}hrt werden kann. } } @mastersthesis { Caglar2018, author = { Emrah Caglar }, title = { Performance Analysis of Optical Flow Constraints for Unsupervised Learning of Convolutional Neural Networks }, month = { April }, year = { 2018 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { Recent studies have shown that the estimation of optical flow, which is one of the fundamental tasks of computer vision, can be solved through deep learning methods. Particularly in the last years, supervised and unsupervised deep learning techniques have been becoming very popular in this field. The performance of supervised deep learning methods for optical flow estimation has shown that they are highly competitive compared to traditional energy-based flow estimation approaches. However, the difficulty of generating ground-truth training data has a negative impact on the accuracy of the optical flow estimation using the supervised learning approaches. In contrast, unsupervised learning techniques solve the above-described training data problem and deliver competing performances akin to supervised variants. The analysis of these unsupervised methods for the flow estimation is crucial. Hence, in this work, unsupervised deep learning methods for the optical flow estimation with different flow constraint assumptions should be studied and analyzed. To solve this task, classical optical flow constraint assumptions will be embedded in the deep learning networks as loss functions to form an unsupervised training for the flow estimation. The performance of the modified networks will then be evaluated and compared based on optical flow datasets. } } @mastersthesis { Fri2017, author = { Philip Frieling }, title = { Realit{"a}tsnahe Simulation eines komplexen Rettungsroboters mit der Simulationsumgebung Gazebo }, month = { January }, year = { 2018 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Die Verwendung von Simulationsmodellen spielt bei der Entwicklung von Robotern eine wichtige Rolle. Durch sie ist es m{"o}glich, schnell und effizient neue Konzepte und Algorithmen zu entwickeln. Im Rahmen dieser Arbeit soll ein realit{"a}tsnahes Modell des Rettungsroboters GETjag entwickelt und evaluiert werden. Den Schwerpunkt bildet dabei die Simulation des Kettenantriebs. Die Umsetzung erfolgt in der Simulationsumgebung Gazebo, mit Anbindung an das Robot Operating System. Ziel der Arbeit ist es, mit einem realit{"a}tsnahen, aber auch echtzeitf{"a}higen physikalischen Modell des Roboters Tests in unterschiedlichen Umgebungen und auf verschiedenen Untergr{"u}nden durchf{"u}hren zu k{"o}nnen. Hierzu werden verschiedene Konzepte f{"u}r Umsetzung des Antriebs entwickelt. Des weiteren wird bei der Entwicklung ber{"u}cksichtigt, dass der Antrieb und das Modell einfach anpassbar sind, sodass {"A}nderungen am realen Roboter ohne gro{\ss}en Aufwand {"u}bernommen werden k{"o}nnen. Um die entwickelten Antriebsmodelle zu testen und mit dem Verhalten des realen Roboters vergleichen zu k{"o}nnen, werden im zweiten Teil der Arbeit Testumgebungen erstellt, wie sie auch bei Wettbewerben mit realen Robotern in der RoboCup Rettungsliga verwendet werden. } } @inproceedings { DCTDBM2018, author = { Daniel Gaspers and Christoph Knorr and Tobias Nickchen and Daniel Nickchen and B{"a}rbel Mertsching and Mahmoud Mohamed }, title = { Real-time Graph-Based 3D Reconstruction of Sparse Feature Environments for Mobile Robot Applications }, month = { June }, year = { 2018 }, address = { Philadelphia, PA, USA }, booktitle = { 2018 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR) }, publisher = { IEEE }, issn = { 2475-8426 }, isbn = { 978-1-5386-5572-6 }, abstract = { In the last years the demand for mobile robots in rescue and surveillance has increased considerably as these systems allow to reduce human harm and save workforce. A major problem still is the mapping of unknown environments for localization and navigation purposes. Common 2D mapping is not sufficient for 3D environments with multiple levels and 3D structures. Unfortunately recent approaches for 3D reconstruction suffer from high hardware requirements to meet real-time constraints and the accumulation of errors in the reconstruction result over time. Moreover the loop closing problem could not be solved satisfactorily yet. In this paper we propose a new approach for real-time 3D reconstruction that meets the hardware requirements of mobile robots and is capable of detecting and closing loops to reduce errors. We therefore combine and modify three state-of-the-art approaches into a 3D reconstruction system that is also working in sparse feature environments. Each of the subsystems runs in a parallel thread accelerated by the GPU and can easily be replaced by another algorithm if necessary. } } @book { GW18, author = { Rafael C. Gonzalez and Richard E. Woods }, title = { Digital Image Processing }, month = { April }, year = { 2018 }, edition = { 4. edition }, publisher = { Pearson Higher Education }, isbn = { 978-1292223049 } } @mastersthesis { Gur2017, author = { Nagarjun Gururaj }, title = { Semantic Motion Segmentation Using Optical Flow and Convolutional Neural Networks (CNNs) }, month = { March }, year = { 2018 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { The literature for motion segmentation of image sequences is fairly large and growing. The recent works indicate the importance of using image sequences captured using a static or a moving camera which influence the performance of such motion segmentation algorithms. However, motion segmentation can become complex for sequence of images captured using a moving camera. In order to boost the performance of such motion segmentation algorithms semantic labeling of sequence of images along with popular motion detection techniques like optical flow have been used. In this thesis work, motion segmentation for sequence of images captured using a moving camera is performed. For designing this motion segmentation algorithm, a classical computer vision approach in combination with a recent and well known deep learning approach is used. More specifically, optical flow orientations along with convolutional neural networks (CNNs) are used for this task. In order to obtain superior motion segmentations for moving camera images, the thesis work uses semantic labeling for sequence of images and optical flow orientations which are calculated using this information. Also, a CNN is used for which these optical flow orientations are used as inputs. The performance of the algorithm will be evaluated for multiple sequence of images. } } @book { Ham18, author = { Allan R. Hambley }, title = { Electrical Engineering: Principles and Applications }, month = { August }, year = { 2018 }, edition = { 7. Auflage }, publisher = { Pearson }, isbn = { 978–1292223124 } } @inproceedings { HM2018a, author = { Markus Hennig and B{"a}rbel Mertsching }, title = { Study-related Use of Instructional Videos by Undergraduate Engineering Students }, month = { April }, year = { 2018 }, address = { Valencia, Spain }, booktitle = { 4th International Conference on Higher Education Advances (HEAd 2018) }, abstract = { In this paper, a questionnaire-based survey on the use of online videos by undergraduate engineering students for study-related purposes is presented. Over the last few years, a large number of instructional videos has been uploaded to websites such as YouTube. Due to the widespread distribution of high-speed internet connections and (mobile) devices, such as smartphones or laptops, which are nowadays routinely used by students, online videos are also frequently used in higher education. While much research on this subject focuses on Massive Open Online Courses (MOOCs) or flipped classroom approaches, this survey examines use of videos for self-study, complementary to traditional face-to-face courses. Furthermore, we analyze the acceptance of a characteristic video production style, which uses specific 3D animations to clarify complex connections between technical and mathematical aspects. The results indicate extensive use of short videos which address subjects that are particularly difficult for the students. This survey can help educators to develop an impression of current video use by undergraduate engineering students. } } @mastersthesis { Koe2018, author = { Fabian K{"o}nig }, title = { Entwicklung eines verteilten Systems zur Kartenerstellung auf Basis einer dreidimensionalen Lokalisierung }, month = { October }, year = { 2018 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { Im Falle einer Naturkatastrophe k{"o}nnen Rettungsroboter eine gro{\ss}e Hilfe f{"u}r die Rettungskr{"a}fte sein. Um ein unbekanntes Gebiet m{"o}glichst schnell zu erkunden, ist es notwendig, dass eine gro{\ss}e Anzahl von Robotern autonom operiert. Ein koordiniertes Vorgehen der Roboter erfordert, dass diese kooperativ eine Karte der Umgebung erstellen. Im Rahmen dieser Arbeit soll ein System zur Kartenerstellung entwickelt werden, welches die 2D-Kartenerstellung mit einem Laserscanner und eine 3D-Lokalisierung mit einer Tiefenkamera kombiniert, um die Pr{"a}zision der Kartenerstellung zu verbessern. Dieses System soll dann so erweitert werden, dass die Karten mehrerer Roboter zu einer gemeinsamen kombiniert werden k{"o}nnen. } } @mastersthesis { SRL2017, author = { Sahil Richard Lopes }, title = { Guiding Motion Behavior with Attentional Selection-for-Action in a Wheel-Based Robot }, month = { January }, year = { 2018 }, school = { Paderborn University }, type = { Master's thesis } } @inproceedings { MTB2018, author = { Mahmoud Mohamed and Jan T{"u}nnermann and B{"a}rbel Mertsching }, title = { Seeing Signs of Danger: Attention-Accelerated Hazmat Label Detection }, month = { June }, year = { 2018 }, address = { Philadelphia, PA, USA }, booktitle = { 2018 IEEE International Symposium on Safety, Security, and Rescue Robotics (SSRR) }, publisher = { IEEE }, issn = { 2475-8426 }, isbn = { 978-1-5386-5572-6 }, abstract = { Rescue robots and similar vehicles must recognize various visual objects. Some are of particular interest and must be reliably recognized, for example, hazard signs. Hazmat labels and other intentionally placed signs of danger are typically attached to walls, containers, or vehicles, in locations where they attract attention. These backgrounds typically are of relatively simple structure (though not guaranteed to be plain) while the labels have saturated colors and high contrasts. We provide a new dataset that contains such images and a novel hazmat detection method. It includes an attentional preselection, which exploits the salient design and placement of the labels to locate them, followed by a SIFT-based classification that determines the concrete label type. The results show substantial speed improvements and accuracy gains over the traditional method without an attention stage. } } @article { MMBM2018, author = { Muhannad Mujahed and Dirk Fischer and B{"a}rbel Mertsching }, title = { Admissible Gap Navigation: A New Collision Avoidance Approach }, month = { February }, year = { 2018 }, journal = { Journal of Robotics and Autonomous systems }, pages = { 93 -- 110 }, volume = { 103 }, abstract = { This paper proposes a new concept, the Admissible Gap (AG), for reactive collision avoidance. A gap is called admissible if it is possible to find a collision-free motion control that guides a robot through it, while respecting the vehicle constraints. By utilizing this concept, a new navigation approach was developed, achieving an outstanding performance in unknown dense environments. Unlike the widely used gap-based methods, our approach directly accounts for the exact shape and kinematics, rather than finding a direction solution and turning it later into a collision-free admissible motion. The key idea is to analyze the structure of obstacles and virtually locate an admissible gap, once traversed, the robot makes progress towards the goal. For this purpose, we introduce a strategy of traversing gaps that respect the kinematic constraints and provides a compromise between path length and motion safety. We also propose a new methodology for extracting gaps that eliminates useless ones, thus reducing oscillations. Experimental results along with performance evaluation demonstrate the outstanding behavior of the proposed AG approach. Furthermore, a comparison with existing state-of-the-art methods shows that the AG approach achieves the best results in terms of efficiency, robustness, safety, and smoothness. } } @mastersthesis { Nguyen2017, author = { Thuy Nguyen }, title = { Moving Object Detection for a Non-stationary Camera }, month = { March }, year = { 2018 }, school = { Paderborn University }, type = { Master's thesis }, abstract = { Moving object detection with video data is a fundamental task of computer vision and image processing, which now plays an important role in many video surveillance systems. The idea is to distinguish the foreground (non-static) from the background region (static) in each frame of a video stream. Various robust algorithms such as background subtraction, optical flow, statistical approaches and temporal differencing have been introduced to address the task. However, one unresolved issue is that the background can be mistakenly considered for a moving object due to the camera movement. Therefore, in this work, the focus is on detecting and tracking moving objects in videos captured by a non-stationary camera. Although there are several proposed algorithms competing each other today, a state-of-the-art algorithm MCD5.8ms is currently the fastest one related to tracking moving objects. Unfortunately, there are two drawbacks in MCD5.8ms that need to be addressed: the relatively high amount of false positives from incorrect motion estimation, and an exceeded sensitivity to the illumination changes. In order to overcome these two challenges, in this thesis, an algorithm based on SCBU (scene conditional background update) is proposed. With the aim to boost up running time and reduce the amount number of false positives, a modification of SCBU is introduced. In addition, the implementation of SCBU will be compared with MCD5.8ms. By measuring the performance and analyzing the experimental results, it is possible to identify the advantages as well as the disadvantages of both algorithms. Moreover, potential approaches to address algorithm related issues would be elaborated on basis of these results. } } @mastersthesis { Nie2016, author = { Oliver Nietfeld }, title = { Analyse von Clusteralgorithmen zur visuellen Gruppierung der Umgebung f{"u}r die Szenenerkennung }, month = { January }, year = { 2018 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Um in einem unbekannten Gebiet autonom zu agieren, muss ein mobiler Roboter eine Repr{"a}esentation der Umgebung erlernen. In nat{"u}rlichen dynamischen Szenarien ist eine optische Kamera optimal, damit die Komplexit{"a}t der Umwelt Rechnung tragen kann. Orte, die in der N{"a}he zueinander liegen, teilen einen {"a}hnlichen visuellen Eindruck. Daher ist dieser Eindruck hilfreich, um die Struktur der Umgebung auf Basis der Nachbarschaftsbeziehung zu erfassen. Um diese Gruppen anzulegen, eignen sich Clusteralgorithmen. Im Rahmen dieser Bachelorarbeit werden die Gist-Merkmale der von der Kamera aufgenommenen Bilder genutzt, sodass die Orte auf Basis ihrer Nachbarschaft gruppiert werden koennen. Schlie{\ss}lich werden die ausgew{"a}hlten Clusteralgorithmen im Bezug auf ihre Nutzbarkeit zur Ortsgruppierung und die Anwendung f{"u}r Szeneerkennung analysiert. Auf Basis der korrekt zugeordneten Bilder zu den erstellten Clustern werden die Algorithmen evaluiert. Dazu werden die GPS (Global Positioning System) Koordinaten der Orte als Groundtruth verwendet. } } @mastersthesis { Roe2017, author = { Felix R{"o}hren }, title = { Autonome und pr{"a}zise Pfadverfolgung mit RTK-GPS unterst{"u}tzter Regelung auf Open-Source-Basis }, month = { March }, year = { 2018 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Auch abseits des Stra{\ss}enverkehrs ist das Forschungsfeld des autonomen Fahrens von enormen Interesse, da es bei hoher Pr{"a}zision und Zuverl{"a}ssigkeit viele T{"a}tigkeiten in Industrie und Landwirtschaft reibungsloser machen kann. F{"u}r dieses Einsatzgebiet existieren bereits Systeme, die zwar ein eigenst{"a}ndiges Fahrverhalten von Bodenfahrzeugen auf gr{"o}{\ss}eren Fl{"a}chen erm{"o}glichen, aber mit hohen Lizenzkosten verbunden sind. In dieser Arbeit soll daher ein System entwickelt werden, dass es erm{"o}glicht mit einem Bodenfahrzeug autonom und pr{"a}zise beliebigen, vorgegebenen Routen zu folgen. Auf Basis von Open-Source-Software soll eine lizenzfreie, aber auch m{"o}glichst genaue Lokalisierung mit RTK-GPS-Technik (Real Time Kinematics) entwickelt, und im Anschluss eine Steuerung f{"u}r Bodenfahrzeuge zur Pfadverfolgung getestet werden. } } @mastersthesis { Sch2018, author = { Julian Scheibl }, title = { Evaluierung von Trainingsmethoden zur objektspezifischen Kantendetektion }, month = { January }, year = { 2018 }, school = { Paderborn University }, type = { Bachelor's thesis }, abstract = { Die meisten konventionellen Algorithmen zur Kantendetektion nutzen Faltungsmatrizen, um Helligkeitsgradienten zu analysieren. Mit den Methoden des {"u}berwachten Lernens k{"o}nnen im Gegensatz dazu verschiedene, komplexere Merkmale ber{"u}cksichtigt werden. Dies erfolgt durch die Analyse von Bildausschnitten mittels Klassifizierungsverfahren. Derartige Verfahren erm{"o}glichen im Vergleich zu den konventionellen Verfahren eine zuverl{"a}ssigere und f{"u}r die Objekterkennung besser geeignete Kantendetektion. F{"u}r das Training dieser Verfahren werden {"u}blicherweise sehr breit angelegte Trainingsdatens{"a}tze verwendet. Dadurch werden die Klassifizierungsverfahren dahingehend trainiert, dass sie die Kanten von vielen unterschiedlichen Objekten detektieren. Im Rahmen dieser Bachelorarbeit sollen verschiedene Trainingsmethoden f{"u}r ein solches Klassifizierungsverfahren untersucht werden. Dabei sollen insbesondere die Kanten von spezifischen Objekten erkannt werden. Dar{"u}ber hinaus sollen die resultierenden Kantenbilder so aufbereitet werden, dass sie f{"u}r eine Objekterkennung geeignet sind. } } @article { Wes2018, author = { Thomas Westfechtel and Kazunori Ohno and B{"a}rbel Mertsching and Ryunosuke Hamada and Daniel Nickchen and Shotaro Kojima and Satoshi Tadokoro }, title = { Robust Stairway Detection and Localization Method for Mobile Robots using a Graph-Based Model and Competing Initializations }, month = { July }, year = { 2018 }, journal = { International Journal of Robotics Research }, number = { 12 }, pages = { 1463 -- 1483 }, volume = { 37 }, abstract = { One of the major challenges for mobile robots in human-shaped environments is navigating stairways. This study presents a method for accurately detecting, localizing, and estimating the characteristics of stairways using point cloud data. The main challenge is the wide variety of different structures and shapes of stairways. This challenge is often aggravated by an unfavorable position of the sensor, which leaves large parts of the stairway occluded. This can be further aggravated by sparse point data. We overcome these difficulties by introducing a three-dimensional graph-based stairway-detection method combined with competing initializations. The stairway graph characterizes the general structural design of stairways in a generic way that can be used to describe a large variety of different stairways. By using multiple ways to initialize the graph, we can robustly detect stairways even if parts of the stairway are occluded. Furthermore, by letting the initializations compete against each other, we find the best initialization that accurately describes the measured stairway. The detection algorithm utilizes a plane-based approach. We also investigate different planar segmentation algorithms and experimentally compare them in an application-orientated manner. Our system accurately detects and estimates the stairway parameters with an average error of only 2.5mm for a variety of stairways including ascending, descending, and spiral stairways. Our method works robustly with different depth sensors for either small- or large-scale environments and for dense and sparse point cloud data. Despite this generality, our system’s accuracy is higher than most state-of-the-art stairway-detection methods. } } @mastersthesis { Zub2018, author = { Thomas Zubert }, title = { Entwicklung eines echtzeitf{"a}higen realistischen Radarsensormodells zur Absicherung hochautomatisierter Fahrfunktionen }, month = { May }, year = { 2018 }, school = { Paderborn University }, abstract = { Im Rahmen dieser Arbeit wurde auf Basis von geometrisch idealen Sensoren ein realistisches Sensormodell f{"u}r einen hochaufl{"o}senden automobilen Radarsensor entwickelt und evaluiert. Die Reflexionseigenschaften der Ziele, Umgebungseigenschaften und Sensoreigenschaften wurden dabei parametrierbar abgebildet. Das Sensormodell sollte innerhalb einer Simulationsumgebung spezifischen Echtzeitkriterien gen{"u}gen und die simulierten Messungen in einem passenden Format abbilden. Zur Entwicklung des Modells wurden geeignete ph{"a}nomenologische und stochastische Modellierungsans{"a}tze recherchiert, hinsichtlich der Eignung bewertet und schlie{\ss}lich implementiert. Die Durchf{"u}hrung dieser Bachelorarbeit erfolgt in Kooperation mit dSPACE GmbH, Paderborn. } }