Prof. J. Walter - Informationstechnik, Mikrocomputertechnik, Digitale Medien Protokolle
Hochschule Karlsruhe Logo Entwicklungsprojekt Master
FT32 - Positionserfassung
Sommersemester 2019
Alexander Haaf
Johannes Marquart

Protokolle

12.04.2019
Teilnehmer: Prof. J. Walter, Alexander Haaf, Johannes Marquart
Themen:
- Besprechnung der Aufgabe, festlegung erster Anforderungen, Brainstorming über mögliche Konzepte

30.04.2019
Teilnehmer: Prof. J. Walter, Alexander Haaf, Johannes Marquart
Themen:
- "übliche" optische Maussensoren sind überholt/werden nicht mehr hergestellt und sind sehr ungenau auf spiegelnden Oberflächen
- neue Formen der Raumorientierung:
    - Fahzeuggebundene unabhängige Sensorik: Kameragestützte Orientierung (z.B. Decke oder Umgebung filmen); andere Maussensoren finden
    - Fahrzeuggebundene Sensorik mit externer Unterstützung: Kamera sucht Umgebung nach festen aktiven Markierungspunkten ab
    - Externe Sensorik: Erfassung der Fahrzeugposition von außen.
- Anforderungen: "Haus des Nikolaus" soll abzufahren sein -> daraus Positions- und Winkelanforderung ableiten

07.05.2019
Teilnehmer: Prof. J. Walter, Alexander Haaf, Johannes Marquart
Themen:
- Die Grundfläche auf der sich der Roboter mit der Positionserfassung bewegen soll, beträgt ca. 4 m² (2 m auf 2 m). Innerhalb dieser Grundfläche soll als Ziel ins Auge gefasst werden, das Haus des Nikolaus zu zeichnen. Die Größe des Hauses wird dabei mit ca. 0,04 m² veranschlagt (20 cm auf 20 cm).
- Falls ein morpholigescher Kasten erstellt werden soll, bzw. generell bei der Suche nach geeigneter Sensorik und damit in Verbindung stehender Bezugsquellen, sollen auch normale Computermäuse wie sie im Handel erhältlich sind, als eine Alternative in Betracht gezogen werden.
- Zwecks Stand der Technik des vorliegenden Fischertechnik-Roboters sollen Videoaufnahmen über dessen Betriebsmodi, im Rahmen derer ein IR Spursensor verwendet wird, erstellt werden. Die beiden Betriebsmodi beinhalten das Folgen einer Linie die sich zu einem Kreis schließt und das Verbleiben innerhalb dieses Kreises wenn der Robotor auf die Linie trifft. Hierfür wird ein ca. DIN A3 großes Papier, auf dem Kreis aufgedruck wurde, von Fischertechnik mitgeliefert. Zum Vergleich soll auch das Verhalten auf einem Whiteboard, auf dem der oben genannte Kreis manuell mit einem Stift aufgetragen wird, dokumentiert werden.
- Nach den Recherchen möglicher Bezugsquellen der benötigten Sensorik sollen nun die dafür in Frage kommenden Hersteller direkt angeschrieben werden, soweit dies möglich ist.

14.05.2019
Teilnehmer: Prof. J. Walter, Alexander Haaf, Johannes Marquart
Themen:
- Eine Mindmap die eine Übersicht über das Projekt liefern soll, muss noch erstellt werden.
- Finden eines Ansprechpartners bei Firmen (Bezugsquelle der benötigten Sensorik)
    - Information zu bestimmten Domains und deren Ansprechpartner können unter anderem über denic.de bezogen werden. Dies wird eventuell bei der Suche nach einer möglichen Bezugsquelle der benötigten Sensorik nötig sein, da nicht bei allen potenziellen Kandidaten direkt ein Ansprechpartner zu finden sein wird. EIne weitere Möglichkeit.
    - Ein weitere Möglichkeit einen Ansprechpartner zu finden besteht darin, einen Pressesprecher des jeweiligen Unternehmens zu kontaktieren.

21.05.2019
Teilnehmer: Prof. J. Walter, Alexander Haaf, Johannes Marquart
Themen:
- Bisher gab es auf die Anfragen bezüglich der Sensorik keine Antworten von den angeschriebenen Firmen Logitech und Pixart.
    - Um zeitnah die Sensorik untersuchen zu können und um damit Versucher durchzuführen, wurde daher beschlossen mehrere fertige Computermäuse zu kaufen damit man diese auseinander nehmen kann um so an die darin verbaute Sensorik zukommen.
    - Darüber hinaus sollen auch mehrere ESP32-Kameramodule gekauft werden um auch mit diesen Versuche durchzuführen. Für die Bildbearbeitung stehen diesbezüglich Developer Frameworks und Micropython zur Verfügung.
- Alternatives Konzept (4b).
    - Falls das alternative Konzept 4b untersucht werden soll, wurden zur Umsetzung die Verwendung von aktuellen Kameras aus dem Consumer-Bereich vorgeschlagen. Konkret wurden währen der Sitzung kurz eine Webcam von Logitech und eine Kamera des Herstellers ZED näher beleuchtet. Letztere verfügt über eine Tiefenwahrnehmung von bis zu 20 m.
    - Aufgrund der erhöhten Anforderungen an die Bildverarbeitungen soll in diesem Fall anstatt einem ESP32 ein handelsüblicher Rechner mit ausreichend leistungsstarker Grafikkarte oder vielleicht auch ein Raspberry Pi verwendet werden.

28.05.2019
Teilnehmer: Prof. J. Walter, Alexander Haaf, Johannes Marquart
Themen:
- Es gibt nach wie vor keine Antwort der Firmen Logitech und Pixart bezüglich der Sensorik.
    - Um zeitnah erste Erkenntnisse sammeln zu können, soll daher die aus älteren Computeräusen ausgebaute Sensorik (u. a. Logitech) näher untersucht und erste Versuche durchgeführt werden. Hier ist zu Beginn vor allem von Interesse wie schwiertig die Anbindung und das Auslesen der Daten mit dem ESP32 ist.
- Alternatives Konzept (4a).
    - Falls das Konzept 4b untersucht werden soll, wurde zur Umsetzung das sogenannte Position Sensitive Device (PSD), oder zu deutsch Optischer Positionssensor (OPS), vorgeschlagen. Hierbei wird zwischen analogen und direkten Sensoren unterschieden. Bei der analogen Version wird eine Photodiode mit mehreren Kontaktierungen punktförmig beleuchtet, wodurch je nach Position der Lichtquelle unterschiedliche Ströme an den Kontaktierungen enstehen und man dadurch die Position berechnen kann. Bei der direkten Version wird hingegen eine Kamera oder eine Matrixsensor zur seriellen (Kamera) und parallelen Auswertungen (Matrixsensor) der Helligkeit von einzelnen Pixeln verwendet.
    - Ebenso wurde zur Umsetzung auch das Lidar benannt. Die Funktionsweise ähnelt dem eines herkömmlichen Radars, wohingegen hier Laserimpulse zur Abstands- und Geschwindigkeitsmessung genutzt werden. Vorerst spielt das Lidar allerding keine große Rolle in der Planung des Projekts.

04.06.2019
Teilnehmer: Prof. J. Walter, Alexander Haaf, Johannes Marquart
Themen:
- Abgesehen von den ebenfalls bestellten Computer-Mäusen, sind nun die ESP32-Cams und die USB-Serial-Adapter angekommen wodurch nun erste Tests und Untersuchungen möglich sind.
    - Zunächst soll das Beispielprogramm CameraWebServer ausprobiert werden. Hier wird per WLAN das von der ESP32-Cam aufgenommene Bild oder Video übertragen und in einem Browser angezeigt, womit die ESP32-Cam hier als Webcam fungiert.
    - Bei der Anbindung über einen USB2.0-Anschluss (Programmierung und Spannungsversorgung) und Nutzung der Fritz-Box 7490 im Labor von Professor Walter, ist eine gewisse Instabilität festgestellt worden. Vor allem wurde die Detektion eines Brownouts über den seriellen Monitor von Arduino mitgeteilt. Dieser könnte verhindert werden indem man USB3.0-Anschluss oder eine weitere externe Spannungsquelle verwendet. Darüber hinaus bietet es sich an einen Tantal-Kondensator zur Spannungsstabilisierung einzubauen.
    - Durch die Verwendung des USB3.0-Anschlusses sind leider keine Verbesserungen eingetreten. Durch die Verwendung eines WLAN-Hotspots durch ein Smartphone (HTC U11) konnte aber zumindest über einen gewissen Zeitraum eine stabile Verbindung hergestellt werden bis wieder ein Brownout eintrat.
    - Durch die Verwendung eines weiteren Netzteils (12 V, 500 mA Spitze) und dem Arduino Breadboard (3,3 V, 700 mA Spitze) konnte schließlich eine stabile Verbindung über einen längeren Zeitraum hergestellt werden. Die Spannungsversorgung des USB-Serial-Adapters erfolgte dabei über einen Laptop.
    - Des weiteren konnte festgestellt werden das alle ESP32-Cams anscheinend für die Nutzung einer zusätlichen Antenne vorbereitet wurden. Hierzu befindet sich auf der Platine eine Brücke die je nach Bedarf umgelötet werden kann. Diese Umlötung der Brücke soll zumindest an einer Kamera erfolgen um anschließend neue Tests durchzuführen.

 

  Mit Unterstützung von Prof. J. Walter Sommersemester 2019