Abschlussarbeiten im Labor für Künstliche Intelligenz

 


Prognose des freien Willens – Machbarkeit und erste Ergebnisse

Mittwoch, Mai 31, 2017

Du handelst zufällig? Ich weiß, was Du tun wirst.

Masterprojekt auf der NWK18: Der freie Wille eines Menschen ist eine urbane Hypothese und Inhalt angeregter Forschungstätigkeit. Dabei steht die Frage im Mittelpunkt, ob ein freier Wille existiert oder der Mensch durch das Unterbewusstsein gesteuert ist. Im Rahmen dieser Arbeit wird ein Experiment aus dem Bereich Mensch-Roboter-Interaktion entworfen und vorbereitet, das klären soll, ob der Mensch beim Versuch bewusst zufällig zu handeln, doch unbewusst in ein Muster verfällt. Die Voruntersuchung klärt kritische Probleme und begründet die Zuversicht in die Determiniertheit anhand der Prognose einer Zeitreihe menschlicher Aktionen.

Der Vortrag zur Publikation wird von Vanessa Vogel am 31. Mai 2017 an der Hochschule Mittweida gehalten.

Vogel, Vanessa ; Boersch, Ingo: Prognose des freien Willens - Machbarkeit und erste Ergebnisse. In: 18. Nachwuchswissenschaftlerkonferenz (NWK), Hochschule Mittweida, 2017 (Scientific Reports Nr. 1), S. 341-345. ISSN 1437-7624

Masterarbeit von Jessica Truber

Dienstag, Mai 23, 2017

Entwicklung eines Frameworks zur Erstellung und Durchführung von Ontologietests im Kontext der Health Intelligence Platform

Aufgrund des ständigen Wandels der Ressource Wissen müssen auch Wissensrepräsentationssysteme wie Ontologien jederzeit flexibel anpassbar sein. Häufige Änderungen im Zuge der Ontologieevolution sorgen allerdings für eine Erhöhung ihres Fehlerpotenzials, wodurch Probleme im Anwendungsbereich auftreten können. Um dies zu vermeiden, rückt das Thema der Qualitätssicherung in den Vordergrund.

Auch für die Ontologie in der Health Intelligence Platform (HIP) wird eine effiziente Möglichkeit benötigt, um an sie gestellte Qualitätskriterien überprüfen zu können. Aus Mangel an passenden öffentlichen Werkzeugen zeigt diese Arbeit die Konzeption und Umsetzung eines Ontologietest-Frameworks, welches an die Anforderungen der HIP angepasst ist und sowohl strukturelle als auch semantische Fehler aufdeckt.

Als Ergebnis der Arbeit ist eine über Maven erstellte Klassenbibliothek entstanden, die in Form eines Java Archives in HIP-Entwicklungsprojekte eingebunden werden kann, um auf der Grundlage des Frameworks Ontologietests zu implementieren. Zukünftig wird eine Weiterentwicklung des Frameworks dafür sorgen, die Testgenerierung und die Nutzung an sich weiter zu vereinfachen.

Kolloqium: 23.05.2017

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dr. med. Christian Seebode (Ortec medical GmbH), Dipl.-Inform. Ingo Boersch

Download: A1-Poster, Masterarbeit

Masterarbeit von Sebastian Busse

Montag, April 10, 2017

Konzeption und prototypische Implementierung eines Softwaretools zur dynamischen Erstellung von Befundberichten mit Hilfe ontologiebasierter Methoden

Diese Arbeit beschreibt einen Ansatz, nach dem pathologische Befundberichte strukturiert und vollständig erstellt werden können.

Die implementierte Software nutzt Vorlagen der ICCR (International Collaboration on Cancer Reporting), um ein formales Modell der drei Report-Typen zur Erstellung von Endometrium-, Haut- und Prostatakrebsbefundberichten zu erstellen. Bei den erzielten Dokument-Repräsentationen handelt es sich um Wissensbasen, welche in der Web Ontology Language (OWL) formuliert und somit nicht nur maschinenlesbar, sondern darüber hinaus maschinenverständlich sind. Durch die formal spezifizierte Semantik des entsprechenden Formats lassen sich die Berichte unter Verwendung des HermiT-Reasoners auf Vollständigkeit überprüfen. Des Weiteren wird die Verknüpfung der modellierten Report-Bestandteile zu externen medizinischen Wissensbasen wie SNOMED CT, NCIT und PathLex betrachtet.

Die Beschreibung des ontologiebasierten Verfahrens und die prototypische Implementierung des Softwaretools sollen eine mögliche Darstellungsform aufzeigen, nach der Befundberichte im Bereich der anatomischen Pathologie digital, dynamisch sowie durch vorgegebene Strukturelemente präzise und vollständig erstellt und verarbeitet werden können.

Kolloqium: 10.04.2017

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Inform. Ingo Boersch

Download: A1-Poster, Masterarbeit

Masterarbeit von Franziska Krebs

Freitag, März 24, 2017

Entwicklung einer prototypischen Web-Applikation zur optimierten Menüplanung unter Verwendung von terminologischem Wissen

Ziel der Arbeit ist eine Applikation zur Menüplanung unter Verwendung ontologischen Wissens aus verschiedenen Quellen.

Ein Schwerpunkt ist die Auswahl und integrative Vernetzung geeigneter Wissensquellen in Form von Terminologien zur Beschreibung der Anforderungen an einen gewünschten Menüplan. Hierzu gehören beispielsweise Rezepte, Nährstoffangaben und diätische Restriktionen. Es soll der CTS2-Terminologieserver des Fraunhofer FOKUS verwendet werden.

Ein zweiter Schwerpunkt ist die Formalisierung des Planungsproblems sowie die Auswahl und lauffähige Umsetzung eines geeigneten Optimierungsverfahrens zur Mehrzieloptimierung. Hierbei ist der Stand der Technik einzubeziehen. Die Qualität der erstellten Pläne wird evaluiert.

Die Analyse, Konzeption und Umsetzung ermöglichen, dass aufbauend auf der Arbeit reale Planungsprobleme des Diskursbereiches gelöst werden können. Die Webapplikation läuft in einem aktuellen Browser und erlaubt in prototypischer Weise das Darstellen der Terminologien, die Eingabe des Planungsproblems, die Parametrierung der Planung und die Visualisierung der Ergebnisse. Die Schwierigkeit der Arbeit besteht in Komplexität und im Umfang der notwendig zu lösenden Teilaspekte.

Kolloqium: 24.03.2017

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr. rer. nat. Rolf Socher, in Kooperation mit dem Fraunhofer FOKUS

Download: A1-Poster, Masterarbeit

Masterarbeit von Christoph Gresch

Montag, Februar 27, 2017

Einsatz von Data Mining zur Identifikation und Schätzung der Anzahl von Bananenpflanzen in einem Luftbild

In dieser Arbeit werden in einem mit Drohnen aufgenommenen, orthorektifizierten Luftbild Bananenpflanzen detektiert und abschließend gezählt. Die Aufgabe fällt damit in das Gebiet der Mustererkennung und soll durch Ansätze des maschinellen Lernens in einem Data-Mining-Prozess gelöst werden. Die besondere Schwierigkeit besteht in der starken Überlappung der Bananenpflanzen im Bild, wodurch eine Segmentierung schwierig bis unmöglich wird. Ebenso kann bei einer entwickelten Plantage nicht mehr von einer gitterförmigen Anordnung der Pflanzen ausgegangen werden.

Ausgehend von einer Menge manuell annotierter Bananen-Templates werden Merkmale von Bildpunkten entwickelt,die es ermöglichen sollen, mit Hilfe von Supervised Learning die Zentren der Pflanzen von anderen Bildpunkten zu separieren. Es werden verschiedene Merkmale (Farbe, Textur, Gray-Level Co-Occurrence Matrix) und Lernalgorithmen systematisch untersucht.

Kolloqium: 27.02.2017

Betreuer: Prof. Dr.-Ing. Sven Buchholz , Dr. Frederik Jung-Rothenhäusler (ORCA Geo Services), Dipl.-Inform. Ingo Boersch

Download: A1-Poster

Bachelorarbeit von Tobias Meyer

Freitag, Oktober 14, 2016

Hyperparameter Selection for Anomaly Detection with Stacked Autoencoders - a Deep Learning Application

Ziel der Arbeit ist eine Untersuchung numerischer und strategischer Parameter bei der Anwendung von Autoencodern zur Erkennung von Anomalien in Bildern. Hierbei sind systematisch die Einflüsse verschiedener Einstellungen zu evaluieren und zu bewerten. Im Ergebnis soll eine Empfehlung zur Einstellung des Verfahrens bei der Detektion Malaria-infizierter Blutzellen vorgenommen werden. Die besondere Schwierigkeit der Arbeit besteht in der Umsetzung eines systematischen Suchprozesses in einem umfangreichen Parameterraum, der Arbeit mit realen Daten und dem aufwändigen Training.

Kolloqium: 14.10.2016

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Sven Buchholz, Dr.-Ing. Christian Wojek (Carl Zeiss AG)

Download: A1-Poster

Bachelorarbeit von Jan-Christoph Gracz

Donnerstag, September 29, 2016

Simulation von Schwarmintelligenz anhand eines Rehmodells in der Unreal Engine 4

Ziel der Arbeit ist die Umsetzung eines einfachen regelbasierten Schwarms in einer Spiele-Engine. Hierzu sind die Eigenschaften eines Agenten, wie Bewegungsrichtung und -geschwindigkeit anhand der Eigenschaften benachbarter Schwarmmitglieder zu bestimmen. Die emergierenden Bewegungsmuster des Schwarms sollen in geeigneter Weise visualisiert werden.

Grundlage der Arbeit bildet das Flocking-Modell von C. Reynolds, in dem der Einfluss benachbarter Individuen als gewichtete Summe physikalischer Kräfte modelliert wird. Ein Agent richtet sich nach folgenden einfachen Regeln:

  1. Artgenossen und Hindernissen ausweichen
  2. Ähnliche Geschwindigkeit wie die Nachbarn erreichen
  3. An das Zentrum der Nachbarschaft annähern
  4. Einen Zielpunkt erreichen

Die Darstellung erfolgt als eine Herde von Rehen, die zufällige Zielpunkte ansteuert und zeigt ein an die Natur angelehntes Schwarmverhalten.

Kolloqium: 29.09.2016

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Inform. Ingo Boersch

Download: A1-Poster

Masterarbeit von Patrick Rutter

Dienstag, August 02, 2016

Human Robot Interaction am Beispiel eines Tic-Tac-Toe spielenden NAO-Roboters

Ziel der Arbeit ist die Entwicklung einer Applikation, die einem NAO-Roboter ermöglicht, autonom Tic- Tac-Toe gegen einen menschlichen Spieler zu spielen. Schwerpunkt ist hierbei ein natürliches und motivierendes Spielerlebnis. Hierzu ist es notwendig, robuste Lösungen für Teilprobleme der Interaktion wie Rezeption und Aktorik zu entwickeln, die diese Zielstellung berücksichtigen. Eine leistungsfähige Spielstrategie ist so umzusetzen, dass sowohl starke wie auch schwächere Spieler Freude an der Interaktion finden. Die Applikation soll autonom auf dem Roboter laufen und perspektivisch für andere Spiele sowie beim Spiel NAO gegen NAO einsetzbar sein. Die besondere Schwierigkeit der Arbeit liegt in der Gestaltung der Interaktion und dem Lösen der Robotik-Probleme in einer realen, stochastischen Welt.

Die Arbeit wurde in die Problemfelder Spiellogik, Strategie, Aktorik, Bildverarbeitung und Interaktion aufgeteilt. Spiellogik und Strategie beschäftigen sich mit der Umsetzung des grundlegenden Spielablaufs. Die Aktorik dient primär der Umsetzung des Zeichnens auf dem Spielfeld. In der Bildverarbeitung wird das Spielfeld mit Hilfe der Roboterkameras erfasst und ausgewertet. In der Interaktion wird eine auf Sprache basierende Schnittstelle mit dem menschlichen Gegenspieler sowie eine adaptive Spielstärke umgesetzt.

Kolloqium: 02.08.2016

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Inform. Ingo Boersch

Download: A1-Poster

Masterarbeit von Benjamin Hoffmann

Montag, Juni 13, 2016

Modellierung patientenorientierter Zielgrößen mit Methoden des Data Mining aus Daten des Behandlungsprozesses beim Mammakarzinom

Ziel der Arbeit ist das Erstellen gültiger, transparenter, prädiktiver Modelle zur Vorhersage patientenorientierter Zielgrößen (poZg), wie bspw. dem Überleben von Brustkrebspatientinnen, aus den Daten des Tumorzentrums. Die Analyse dient insbesondere dem Aufzeigen bisher unbekannter Zusammenhänge, Einflussgrößen und Mustern, die zur Verbesserung des Behandlungsprozesses dienen können und mit Ärzten diskutiert werden können. Die Ergebnisse sind in ihrer Güte anhand der vorliegenden Daten geeignet zu bewerten und durch Fachexperten (Ärzte, TZBB) zu evaluieren.

Zugehörige Aufgabenstellungen sind unter anderem: Definition patientenorientierter Zielgrößen, deskriptive und explorative Analyse, Bestimmung relevanter Merkmale, Merkmalsdefinition, Modellbildung und Evaluierung.

Ein zweiter Schwerpunkt ist die geeignete patientenorientierte Visualisierung von Zusammenhängen, die bei Entscheidungen des Patienten hilfreich sein können. Besondere Schwierigkeiten der Arbeit sind die Umsetzung des Data Mining Prozesses mit realen, unvollständigen, fehlerbehafteten Daten und die Nutzung transparenter Modellierung und Visualisierung zum Erkenntnisgewinn für Fachexperten und zur Entscheidungsunterstützung für Patienten. Alle Softwaremodule sollen auf Wiederverwendbarkeit, auch durch Anwender beim TZBB, ausgelegt sein, vorzugsweise soll Python verwendet werden.

Kolloqium: 13.06.2016

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Sven Buchholz

Download: A1-Poster

THB-Projektkonferenz: Roboter David spielt mit adaptiver Spielstärke

Mittwoch, Juni 01, 2016


Masterstudent Patrick Rutter demonstrierte am 1. juni bei der Projektkonferenz der THB, die Fähgikeiten des von ihm programmierten NAO-Roboters beim TicTacToe-Spiel gegen Besucher. Mithilfe eines verlängerten Fingers setzt der NAO auf einen Touchscreen sein Feld und erkennt die Züge des Menschen. Während des Spieles versucht er zwar zu gewinnen, aber nicht demotivierend oft. Er adaptiert sich dazu an die Spielstärke des menschlichen Spielers und erzeugt so ein kurzweiliges Spielerlebnis.

Die Präsentation zeigt einen Zwischenstand der Masterarbeit.


Foto: Patrick Rutter

Franziska Krebs präsentiert ihr Projekt auf dem NKIF 2016 an der HAW Hamburg

Freitag, Mai 20, 2016

Vortrag zum SmartMenu-Projekt auf dem NKIF 2016 Vom 19. bis 21. Mai trafen sich Professoren, Mitarbeiter und Studenten norddeutscher Fachhochschulen zum zwanglosen Austausch über Forschung und Lehre beim 21. Norddeutschen Kolloquium für Informatik an Fachhochschulen (NKIF 2016) an der HAW Hamburg. Für die TH Brandenburg stellte Franziska Krebs (Masterstudentin Informatik) ihre Zwischenergebnisse zum SmartMenu-Projekt vor, in dem eine Speiseplanung gestützt auf Ontologien und semantische Technologien vorgenommen wird.

Vortragsfolien: Aufbau eines Wissensnetzes für ein klinisches Speiseempfehlungssystem – ein Beispiel aus dem THB-Forschungs-/Projektstudium

Es wurden Kontakte geschlossen und aufgefrischt, gefachsimpelt und diskutiert.

Fotos vom Kolloquium

Masterarbeit von Maik-Peter Jacob

Donnerstag, April 07, 2016

Reflexion und Analyse der Therapieentscheidung im realen Behandlungsprozess des Mammakarzinoms

Ziel der Arbeit ist Reflektion und Analyse der Therapieentscheidung im realen Behandlungsprozess des Mammakarzinoms. Dafür soll zunächst ein normatives Modell, welches aus der S3-Leitlinie (LL) gewonnen wird, mit den tatsächlichen Gegebenheiten, gegeben durch epidemiologische Daten des Tumorzentrums Land Brandenburg e.V., verglichen werden.

Zugehörige Fragestellungen sind hierbei: in wie weit wurde die LL eingehalten, wo gibt es Abweichungen, wie groß sind die Abweichungen. Anschließend sollen datenbasiert verschiedene Modelle und Visualisierungen mit Methoden des Data Minings erstellt werden. Diese sollen die reale Therapieentscheidung widerspiegeln. Wichtige Fragestellungen für die anschließende Reflektion und Analyse sind: wo gibt es Überschneidungen und Unterschiede zum LL-Modell, worauf lassen sich die Unterschiede zurückführen, gibt es andere Einflussfaktoren als in der Leitlinie verzeichnet.

Die besondere Schwierigkeit der Arbeit liegt in der Datenqualität und der komplizierten Anwendungsdomäne.

Kolloqium: 07.04.2016

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr. med. Eberhard Beck

Download: A1-Poster

Die erste internationale Workshop-Erfahrung - Der Fachbereich Informatik und Medien macht‘s möglich

Dienstag, November 03, 2015

Sebastian Busse stellt seine Projektarbeit in Lissabon vor

Sebastian Busse stellt seine Projektarbeit im Rahmen einer Posterpräsentation vor. (Foto: Dennis Wagner)

Im Masterprojekt "Künstliche Intelligenz" arbeitet Sebastian Busse an einem System zur Überprüfung von pathologischen Befundberichten auf inhaltliche Vollständigkeit mit Hilfe von terminologischem Wissen. Die erstellte Publikation [1] reichte er beim LOUHI*-Workshop 2015 in Lissabon ein. Der Workshop ist der Teil der EMNLP**-Konferenz.

„Congratulations, your submission has been accepted to appear at the conference.“

Der Fachbereiche Informatik und Medien (FBI) unterstützt Studenten bei Konferenzbeiträgen bei Reisekosten und Tagungsgebühr, um den Einstieg in den Konferenzbertireb zu fördern. So konnte Sebastian Busse seine Arbeit erfolgreich dem wissenschaftlichen Diskurs in Portugal stellen.

* Sixth Workshop on Health Text Mining and Information Analysis

** Conference on Empirical Methods in Natural Language Processing/

[1] Busse, S. Checking a structured pathology report for completeness of content using terminological knowledge. Proceedings of the Sixth International Workshop on Health Text Mining and Information Analysis. 2015 Sep; 103-108

Bachelorarbeit von Jan Dikow

Dienstag, September 15, 2015

Dimensionsreduktion kategorialer Daten zur Erzeugung von Themenlandkarten

Die Firma mapegy erzeugt für ihre webbasierte Analyse-und Visualisierungssoftware mapegy.scout verschiedene Visualisierungen auf Basis mehrerer Datenquellen wie beispielsweise Patentdaten und wissenschaftliche Publikationen. Eine der Visualisierungen ist eine Patentlandkarte, welche auf Grundlage der benutzerabhängigen Eingabe eine Gruppierung der Patente durchführt (Clusteranalyse) und diese Gruppen auf einer Karte darstellt (Dimensionsreduktion), so dass ähnliche Patente nahe zusammenliegen und unterschiedliche weiter auseinander. Dieser Prozess soll grundlegend überarbeitet werden, damit

  1. Verschiedene Typen von Dokumenten (auch z.B. News und wissenschaftliche Publikationen) anhand ihrer Zuordnung zu bestimmten Kategorien verarbeitet werden können,
  2. der Prozess besser skalierbar und insgesamt schnellerwird,
  3. erste Ergebnisse schnell bereitgestellt werden (z.B. durch eine Vorschau, Vorprozesse oder Sampling),
  4. ein Ausgabedatenmodell entsteht, das verschiedene Darstellungen im Front-End möglich macht.

Zur Erzeugung der Themenlandkarten wurde eine GHSOM (Growing Hierarchical Self-Organizing Map) gewählt, deren einzelne Teilkarten aus einer Menge von Neuronenmodellen bestehen, die sich an die Trainingsdaten anpassen und somit Clustering und Dimensionsreduktion gleichzeitig realisieren.

Kolloqium: 15.09.2015

Betreuer: Dipl.-Inform. Ingo Boersch, Uwe Kuehn, M.Sc. (mapegy GmbH, Berlin)

Download: A1-Poster

Masterarbeit von Andy Klay

Montag, September 14, 2015

Realisierung eines Tic-Tac-Toe-spielenden NAO-Roboters mittels automatischen Erlernens der Spielstrategie

Ziel der Arbeit ist die Entwicklung einer Applikation, die einen NAO-Roboter gegen einen Menschen Tic-Tac-Toe spielen lässt. Perspektivisch soll auch ein Spiel zwischen NAO-Robotern möglich sein. Ein Schwerpunkt der Arbeit ist die geeignete Realisierung eines Lernvorganges, mit dem die Applikation eine Spielstrategie erlernt, bspw. mit Reinforcement-Lernen. Der Lernvorgang soll durch die Messung der Spielstärke evaluiert werden. Wünschenswert ist eine Anzeige der aktuellen Spielstärke.

Die Applikation soll modular entworfen werden, so dass ein einfacher Austausch oder Erweiterung von Komponenten ermöglicht wird. Es soll möglich sein, ein verwandtes Spiel, wie 4x4-Tic-Tac-Toe, umzusetzen, in dem im Wesentlichen nur die spielabhängigen Anteile (wie Spielregeln, Situationserkennung, Zugausführung und Testgegner) modifiziert werden. Die Komponenten Spielsteuerung und Lernmodul sollen möglichst unabhängig vom konkreten Spiel sein.

Eine Teilaufgabe besteht in der Erkennung der Spielsituation mit Hilfe der Bildverarbeitung. Die relative Lage des Spielfeldes zum Roboter kann hierbei als statisch und bekannt vorausgesetzt werden. Sie ist im Rahmen der Arbeit geeignet zu definieren. Zur Ansteuerung der Aktorik ist eine sinnvolle, einfache Schnittstelle unter Berücksichtigung der NAO-Plattform zu realisieren. Die Applikation und Ergebnisse sind in geeigneter Weise zu evaluieren.

Kolloqium: 14.09.2015

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Jochen Heinsohn

Download: A1-Poster

Bachelorarbeit von Vanessa Vogel

Mittwoch, September 09, 2015

Konzeption und Implementierung einer Komponente zur Ontologie-Evolution für eine Wissensmanagement-Infrastruktur im Krankenhaus

Die zunehmende Verwendung von Ontologien im klinischen Bereich ist eine Herausforderung für das Gebiet der Onotologie-Evolution. In Anwendungsfällen mit eigenständigen Konzeptualisierungen kann es sinnvoll sein, Ontologien zu verwenden, die durch den Fachexperten erweiterbar sind und die Möglichkeit bieten, das Wissensmanagement direkt in die medizinischen Prozesse zu integrieren. Ein Beispiel ist die Erleichterung der Patientenauswahl für medizinische Studien durch das Studienpersonal. Dabei soll den Experten die Möglichkeit geboten werden, ihre Ontologien in einem redaktionellen Prozess selbständig zu pflegen.

Ziel dieser Arbeit ist die Konzeption und Realisierung einer prototypischen Client-Server-Applikation zur Umsetzung von elementaren Operationen der Ontologie-Evolution als REST-Webservice im Kontext der „Health Intelligence Plattform“ (HIP) für das Wissensmanagement in Krankenhäusern.

Kolloqium: 09.09.2015

Betreuer: Dipl.-Inform. Ingo Boersch, Dr. Christian Seebode (ORTEC medical GmbH)

Download: A1-Poster

Projektkonferenz - Humanoider Roboter lernt Tic Tac Toe spielen

Mittwoch, Juni 17, 2015

Am 17. Juni herrschte wieder reges Treiben im Vorraum der Mensa: dort zeigten 43 Studierende aus 11 Teams ihre Projektarbeiten auf der diesjährigen 4. Projektkonferenz.

Aus dem Labor für Künstliche Intelligenz präsentierte Andy Klay eine Arbeit zum Reinforcement-Lernen von Spielstrategien in humanoiden Robotern: der NAO-Roboter Eve erkennt mittels Bildverarbeitung die Spielsituatuin eines Tic Tac Toe-Spiels und reagiert mit einem eigenen Spielzug. Die dazu nötige Spielstrategie wurde jedoch nicht fest implementiert, sondern wird durch den Roboter beim Spielen gegen menschliche und künstliche Gegenr entwickelt, in dem er versucht herauszufinden, in welchen Situation, welche Züge zu einem späteren Spielgewinn führen. Schwache Gegner wird er versuchen auszutricksen und von starken Gegnern wird er Strategien übernehmen.

Reinforcement-Lernen ist in der Grundidee ein einfaches Lernparadigma, bei dem der Lerner nicht passiv die Belehrung durch den Lehrer hinnimmt (wie beim supervised learning), sondern aktiv durch eigene Aktionswahl seinen Lernprozess steuert. Der Lerner erntscheidet also, welche neuen Erfahrungen er machen möchte oder ob er lieber bei bewährten Aktionen bleibt. Die praktische Umsetzung wird schwierig, wenn die Umgebung stochastisch reagiert, nur schwer zu erkennen ist, einen Gegner enthält, sehr viele Zustände umfasst oder die Belohnung/Bestrafung verzögert erfolgt. Mindestens zwei dieser Merkmale weist das Tic Tac Toe-Spiel auf.

NAO und Eve vorm KI-Labor:

 

Bachelorarbeit von Matthias Gartemann

Dienstag, April 14, 2015

Konzeption und Implementierung einer Cloud Robotics-Anwendung für Text-to-speech Kommunikation mit Twitter

Ziel der Arbeit ist eine verteilte Applikation, die Tweets über die Streaming-API des Kurznachrichtendienstes Twitter empfängt und diese auf den Pioneer-Robotern vorliest. Die implementierte Anwendung soll Tweets anhand frei wählbarer Suchworte filtern können und auf bestimmte Tweets mit Reaktionen, bspw. eigenen Tweets der Roboter, reagieren. Für Anwender, die keinen Twitter-Account besitzen, soll eine alternative Internetseite im responsive Design angeboten werden. Der Schwerpunkt der Arbeit ist der Softwareengineering-Prozess sowie die Beschreibung aller verwendeten Dienste und Schnittstellen.

Kolloqium: 14.04.2015

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Jochen Heinsohn

Download: A1-Poster

Masterarbeit von Benjamin Arndt

Donnerstag, April 09, 2015

Schlagwortgenerierung für große Dokumentenportfolios und Integration durch ein Business-Intelligence-Tool

Ziel der Arbeit ist die Evaluation von Algorithmen zur Schlagwort-Extraktion aus Dokumenten. Gesucht wird eine Methode, die sich im Kontext der Erstellung von Technologie-Übersichtskarten aus u.a. Patentschriften zur möglichst eindeutigen Beschreibung einzelner Dokumente oder Dokumentmengen eignet. Kriterien zur Abbildung von Beschreibungsgüte und Performanz sollen geeignet definiert und erhoben werden. Ausgewählte Algorithmen sollen in einem SE-Prozess umgesetzt werden. Eine besondere Schwierigkeit der Aufgabe ergibt sich durch die Arbeit mit realen Datenmengen (Stemming, Stoppworte etc.).

Anforderungen an die Algorithmen sind der Umgang mit großen Datenmengen, Laufzeit und das Finden geeigneter Schlüsselworte und –Phrasen. Es werden drei Anwendungsfälle (Suche in Daten, Clustern, Keyword-Cloud) unterschieden. Fünf Algorithmen aus dem Bereich der unüberwachten Extraktion werden dargestellt, implementiert und evaluiert. Es erfolgt eine Aufteilung in zwei Klassen, je nachdem, ob zur Schlagwort-Bestimmung eines Dokumentes die gesamte Dokumentenmenge berücksichtigt wird (TFIDF, CorePhrase) oder nicht (TextRank, Rake, statistische Kookkurrenz-Auswertung). Abschließend erfolgt nach einer Komplexitätsabschätzung die Umsetzung zweier Ansätze in einsatzbereite RapidMiner-Operatoren.

Kolloqium: 09.04.2015

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr. rer. nat. Gabriele Schmidt, Uwe Kuehn M. Sc. (mapegy GmbH)

Download: A1-Poster

Bachelorarbeit von Sebastian Berndt

Freitag, November 14, 2014

Evaluation von Real-Time Appearance-Based Mapping zum Simultaneous Localization and Mapping mit RGB-Depth-Sensorik unter dem Robotic Operating System

Ziel der Arbeit ist die Evaluation des SLAM-Verfahrens RTAB-Map. Das Verfahren integriert aufeinanderfolgende Tiefenbilder eines Kinect-Sensors mit Hilfe einer Korrespondenzanalyse in den zugehörigen Farbbildern zu einer farbigen Punktwolke. Das Verfahren soll im Detail erläutert werden.

Zur Evaluation sind geeignete Kriterien anhand von Anwendungsszenarien zu definieren und in Versuchen zu prüfen. Das Schließen von Positionsschleifen, also das Wiedererkennen schon besuchter Orte soll berücksichtigt werden. Anwendungsszenarien können sein: SLAM auf dem Pioneer-Roboter, 3D-Modellierung durch freie Bewegung, Modellierung von Gebäuden, Beobachtung dynamischer Objekte (Personen, Roboter, Drohnen) durch mehrere Kinect-Sensoren. Die Installation unter der aktuellen ROS-Version soll nachvollziehbar dargestellt werden. Die besondere Schwierigkeit der Arbeit liegt beim Einarbeiten in teilweise komplizierte Ansätze aktueller Robotertechnologien und beim Umsetzen in lauffähige Expe rimente.

Kolloqium: 14.11.2014

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Jochen Heinsohn

Download: A1-Poster

Masterarbeit von Helge Scheel

Freitag, November 14, 2014

Konzeption und Implementierung eines reaktiven Pfadplanungsverfahrens für 3D-Umgebungen basierend auf dem Elastic Band Framework

Moderne autonome mobile Roboter werden mit komplexen Aufgabenstellungen konfrontiert. Zur Erfüllung dieser Aufgaben agieren sie häufig in einer dynamischen Umgebung und müssen bei der Navigation drei Raumdimensionen berücksichtigen. Pfadplanung in solchen Umgebungen ist durch hohe Komplexität geprägt und Gegenstand aktueller Forschung.

In dieser Arbeit wird ein reaktives Pfadplanungsverfahren auf Grundlage des Elastic Band Framework implementiert. Das Elastic Band Framework löst das Problem der hohen Komplexität, indem es die Pfadplanung in zwei Teilprobleme aufteilt. Ein globaler Pfad wird unter Annahme einer statischen Umgebung initial geplant und als ein elastisches Band interpretiert. Interne und externe Kräfte modifizieren das elastische Band kontinuierlich und passen es den dynamischen Änderungen der Umgebung an.

Ein vorhandenes Elastic-Band-Pfadplanungsverfahren wird für den Serviceroboter Care- O-bot® 3 für den Einsatz in einer dreidimensionalen Umgebung erweitert. Dafür werden konzeptionelle Änderungen erarbeitet und unter dem Robot Operating System implementiert. Die Eignung des entwickelten Pfadplanungsverfahrens für den Anwendungsfall wird durch eine Evaluierung in einer Simulationsumgebung und durch einen Funktionsnachweis am physischen Roboter aufgezeigt.

Kolloqium: 14.11.2014

Betreuer: Dipl.-Inform. Ingo Boersch, Dipl.-Ing. Matthias Gruhler (Fraunhofer IPA Stuttgart, Department Robot and Assistive Systems), Prof. Dr.-Ing. Jochen Heinsohn

Download: A1-Poster, Abschlussarbeit

Masterarbeit von Brandolf Gumz

Freitag, September 19, 2014

Evolution regulärer Ausdrücke zur Segmentierung digitalisierter Keilschrifttafeln in 3D

Ziel der Arbeit ist die Segmentierung dreiecksvernetzter Punktwolken digitalisierter Keilschrifttafeln zur Detektion von Oberflächen und Bruchstellen. Hierzu sollen in der Punktwolke Flächenmerkmale mit dem Blowing-Bubble-Algorithmus bestimmt und anhand von regulären Ausdrücken klassifiziert werden, die mit evolutionären Algorithmen entwickelt werden. Die Applikation und Ergebnisse sind in geeigneter Weise zu evaluieren.

Kolloqium: 19.09.2014

Betreuer: Prof. Dr. Friedhelm Mündemann, Dipl.-Inform. Ingo Boersch

Bachelorarbeit von Christoph Gresch

Montag, September 15, 2014

Systematic Review zum Data Mining zur Prognose von Punktdurchmessern beim Widerstandspunktschweißen

Ziel der Arbeit ist eine systematische Übersichtsarbeit zum Stand der Forschung zum Thema Data Mining zur Prognose von Punktdurchmessern von Schweißpunkten beim Widerstandspunktschweißen, insbesondere anhand von Verlaufsgrößen. Hierzu sind die relevanten Forschungsergebnisse möglichst vollständig zu identifizieren, darzustellen, zu beurteilen und zusammenzufassen.

Die Bestimmung relevanter Veröffentlichungen soll systematisch nach einer dokumentierten Methodik erfolgen. Hierzu sind geeignete Suchstrings, Datenquellen, Vorgehensweisen und Kriterien zur Auswahl und Relevanz von Publikationen zu definieren. Die ausgewählten Publikationen sind tabellarisch zusammenzufassen und inhaltlich einzeln kurz vorzustellen. Hierbei sollte sich an vorher formulierten Fragestellungen orientiert werden, wie bspw. Merkmalsdefinition, Modellart, Evaluationsmethode, Prognosegüte oder Datenbasis, die zur Weiterführung des FHB-Projektes sinnvoll sind

Kolloqium: 15.09.2014

Betreuer: Dipl.-Inform. Ingo Boersch, Dipl. Ing. Christoph Großmann (Technische Universität Dresden)

Download: A1-Poster

Bachelorarbeit Denis Weil

Freitag, Juni 13, 2014

Architektur und Nutzerschnittstelle zur Missionskontrolle und -Visualisierung für autonome reaktive Roboter in einem einfachen Personal Rapid Transit

Ziel der Arbeit ist die Entwicklung einer Applikation zur Missionskontrolle und –visualisierung zur Nutzung im Lehrprojekt „Masdar City“ im Bachelorstudiengang Informatik. Hierzu sind die Anforderungen zu analysieren, bspw. welche Phasen die Kommunikation umfasst, ein gegen Übertragungsfehler und -verluste abgesichertes Protokoll sowie eine Client-Server-Architektur zu konzipieren und umzusetzen. Der Funktionsnachweis soll mit einem Kommunikations-Simulator erbracht werden, der als Textdatei vordefinierte Testfälle abspielt.

Kolloqium: 13.06.2014

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Inform. Ingo Boersch

Download: A1-Poster

Bachelorarbeit von Jakob Hasse

Freitag, Oktober 18, 2013

Improving Local Navigation by Application of Scan Matching Techniques in Mobile Robotics

Ziel der Arbeit ist die Untersuchung verschiedener Registrierungsalgorithmen in Bezug auf die Navigation eines mobilen Roboters vom Typ KUKA. Hierzu sind geeignete Testszenarien zu definieren sowie Versuche zu planen. Anhand selbst gewählter Kriterien sind die Algorithmen zu bewerten und ein begründeter Umsetzungsvorschlag abzugeben. Der Roboter kann simuliert werden. Es werden die Auswirkungen von Scan-Matching-Techniken auf die lokale Navigation eines KUKA omniRob untersucht. Eine Verbesserung der Navigation soll vor allem vor und in vom Roboter befahrenen engen Bereichen angestrebt werden. Bisher korrigierte der Roboter seine Position aufgrund fehlender Genauigkeit sehr häufig vor engen Stellen. Weiterhin soll eine Änderung an der Navigationskomponente in Situationen nach angewandtem Scan-Matching für eine optimierte Fahrt sorgen. Da der reale omniRob noch nicht mit allen Implementierungen verfügbar ist, wird durchgehend in einer Simulation gearbeitet.

Kolloqium: 18.10.2013

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Jochen Heinsohn • Fachhochschule Brandenburg • Dipl.-Math. Christian Rink M. Sc., Dipl.-Math. techn. Daniel Seth • Institut für Robotik und Mechatronik des Deutschen Zentrums für Luft- und Raumfahrt

Download: A1-Poster, Abschlussarbeit

Bachelorarbeit von Franziska Krebs

Donnerstag, September 19, 2013

Definition und Implementierung einer CTS2-standardisierten Abbildung von Terminologien aus dem Bereich des Infektionsschutzes

Ziel der Arbeit ist die Abbildung eines Begriffssystems des Robert-Koch-Institutes aus dem Bereich des Infektionsschutzes in das vom Fraunhofer FOKUS entwickelte System CTS2-Le (RDFS-Ontologie) gemäß CTS2-Standards von OMG und HL7. Die Abbildung ist in geeigneter Weise zu evaluieren. Die Eignung der Abbildung zur Wissensrepräsentation ist durch die Implementierung eines einfachen Terminologie-Laders und eine erfolgreiche Kompetenzprüfung anhand geeignet formulierter Kompetenzfragen nachzuweisen.

Kolloqium: 19.09.2013

Betreuer: Dipl.-Inform. Ingo Boersch, Dr.-Ing. Andreas Billig (Fraunhofer FOKUS, Kompetenzzentrum E-HEALTH)

Download: A1-Poster, Abschlussarbeit

Masterarbeit von David Saro

Freitag, August 30, 2013

Automatische und assistierende Personaleinsatzplanung basierend auf CSP

Das vorliegende Problem der Personaleinsatzplanung ist ein Zuordnungsproblem und gehört der Klasse NP-schwer an. Im Allgemeinen sind solche Probleme nicht in praktisch angemessener Zeit lösbar. Mit problemspezifischen Suchalgorithmen können diese Probleme dennoch auf aktueller Rechentechnik gelöst werden.

Diese Masterarbeit hat das Ziel, das Problem der Personaleinsatzplanung des Unternehmen Coffee Corner zu lösen. Hierbei geht es um die Zuordnung von Mitarbeitern M zu Arbeitsstationen A zu bestimmten Zeiteinheiten Z, wobei M, A und Z Mengen darstellen. Es müssen demnach |A| · |Z| Variablen belegt werden, welche jeweils |M| Werte annehmen können. Der aufgespannte Suchraum umfasst |M||A|·|Z| Zuordnungsmöglichkeiten und somit 10 hoch 875 potenzielle Lösungen. Doch nicht jede Zuordnungsmöglichkeit ist eine gültige Lösung. Ob eine Zuordnungsmöglichkeit eine gültige Lösung ist, wird durch die Einhaltung von Nebenbedingungen entschieden. Ein Ausprobieren aller Möglichkeiten mit Prüfung auf Einhaltung der Nebenbedingungen ist bei steigender Anzahl von Arbeitsstationen, Mitarbeitern und Zeiteinheiten zeitlich zu aufwändig.

Ziel der Arbeit ist eine Untersuchung der Constraint-Propagierung zur Lösung von Personaleinsatzproblemen und die prototypische Umsetzung. Die Evaluation umfasst die Definition geeigneter Kriterien zur Wertung von Plänen, Auswahl von Constraintoptimierungs-Bibliotheken, Heuristiken zur Reduktion des Suchraumes sowie die Integration von Planung und Neuplanung anhand eines realen Anwendungsfalles in der Stadt Brandenburg.

Kolloqium: 30.08.2013

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Michael Syrjakow

Download: A1-Poster

Masterarbeit von Johannes Scheer

Montag, Juli 01, 2013

Automatisierte Merkmalsextraktion und Klassifizierung von Vogelstimmen mittels genetischer Programmierung

Ziel der Arbeit ist die Evaluation einer Methode zur automatischen Merkmalsextraktion mit Genetischem Programmieren. auf diesem Wege sollen Merkmale definiert werden, die sich zur Klassifikation von Vogelstimmen eignen. So erzeugte Merkmale können zum Einen genutzt werden, um von Ornithologen erstellte Langzeitaufnahmen zu bearbeiten oder für Hobby-Ornithologen, um mit einer Smartphone-Applikation Vögel aufzunehmen und zuzuordnen.

In der Arbeit soll aufbauend auf Arbeiten an der Universität Dortmund von Ingo Mierswa und Katharina Morik die prinzipielle Eignung des Ansatzes untersucht und anhand einer praktischen Umsetzung bewertet werden. Schwerpunkt sei hierbei die erfolgreiche und weiterverwendbare Umsetzung des Evolutionszyklus im GP-Framework ECJ.

Kolloqium: 28.06.2013

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Michael Syrjakow

Download: A1-Poster

Diplomarbeit von Gregor Landmann

Montag, März 25, 2013

Kameragestützte Feinpositionierung eines Quadrokopters

Das Ziel der vorliegenden Arbeit ist die Erweiterung der Steuerung eines Quadrokopters vom Typ MikroKopter2. Mit Hilfe einer am MikroKopter montierten Kamera soll es ermöglicht werden Objekte autonom zu finden und eine Position über diesen einzunehmen. Zuvor soll eine GPS-gestützte Grobpositionierung des MikroKopters in der Nähe des gesuchten Objektes erfolgen.

Die Aufgabenstellung gliedert sich in zwei Teile. Im ersten Teil soll zunächst eine Analyse der bestehenden Zielplattform erfolgen. Es soll herausgearbeitet werden, aus welchen Komponenten der MikroKopter besteht und wie diese zusammenarbeiten. Besondere Aufmerksamkeit soll der Hierarchie der verschiedenen Steuerquellen, wie z. B. Fernsteuerung, GPS und der Kontrolle über die Datenschnittstelle, gewidmet werden. Der zweite Teil umfasst die Konzeption und praktische Umsetzung der erweiterten Steuerung. Dies beinhaltet die GPS-gestützte Grobpositionierung des MikroKopters sowie die Objektfindung und Verfolgung mit bildverarbeitenden Verfahren.

Kolloquium: 25.03.2013

Betreuer: Prof. Dr. sc. techn. Harald Loose, Dipl.-Inform. Ingo Boersch

Download: A1-Poster, Diplomarbeit

Masterarbeit von Sebastian Moritz

Mittwoch, Januar 30, 2013

Bildbasierte 3-D-Rekonstruktion von Gesichtern mittels CUDA-gestützter Anpassung von Dreiecken

Ziel der Arbeit ist die Konzeption und Umsetzung der Rekonstruktion eines dreidimensionalen Gesichtsmodells aus Bildern mit der CUDA-Technologie von NVIDIA. Die Farbbilder in hoher Auflösung stammen von kalibrierten Kameras. Hierzu sind Konzepte massiv paralleler Architekturen und dafür geeigneter Algorithmen darzustellen. Stereoanalyse und alternative Verfahren sind auf ihre Eignung und Portierbarkeit auf die GPU zu untersuchen.

Schwerpunkt der Arbeit sind Verfahren zur 3D-Rekonstruktion aus Bildern unter besonderer Berücksichtigung der Umsetzung auf einer GPU. Auf eine formale Darstellung, insbesondere eigener Konzepte, ist Wert zu legen. Der praktische Teil umfasst die Auswahl, Konzeption und Umsetzung eines Verfahrens in eine robuste, korrekte, zuverlässige und in Geschwindigkeit optimierte Applikation unter Nutzung der Ergebnisse des theoretischen Schwerpunkts. Nutzer der Applikation sind in die Anforderungsanalyse einzubeziehen. Die Erfüllung der Anforderungen ist in geeigneter Form nachzuweisen.

Kolloquium: 30.01.2013

Betreuer: Prof. Dr. rer. nat. Friedhelm Mündemann, David Schneider, M.A. (Fraunhofer Heinrich-Hertz-Institut), Dipl.-Inform. Ingo Boersch

Download: A1-Poster

Platz drei des Innovationspreises 2012 für David Walter

Donnerstag, Dezember 13, 2012

Preisträger und Honorarprofessoren Unter dem Motto „innovativ und exzellent“ zeichnete die Fachhochschule Brandenburg am 7. Dezember Nachwuchswissenschaftler mit dem Innovationspreis 2012 aus. Der Preis wird für herausragende, an betrieblichen Bedürfnissen orientierte Innovationen vergeben und von Unternehmen der Region gestiftet.

Platz drei des Innovationspreises wurde in diesem Jahr an David Walter vergeben, der in seiner Masterarbeit erfolgreich ein Verfahren zur Prognose des Stromverbrauches für die Stadtwerke Brandenburg an der Havel GmbH entwickelte.

Bachelorarbeit von Daniel Kiertscher

Freitag, November 23, 2012

Modellierung von Geschäftsprozessen und Visualisierung von Ergebnismengen am Beispiel einer Postersammlung

Ziel der Arbeit ist eine Geschäftsprozessoptimierung an der FH Brandenburg mit dem Ziel, die Erstellung, Erfassung und Nutzung von Abschlusspostern zu verbessern. Die besondere Schwierigkeit der Aufgabe liegt in den betriebswirtschaftlichen Aspekten, wie Prozessanalyse und –darstellung, dem Umfang und Abgrenzung des zu untersuchenden Prozesses, sowie der Vorgabe von Petri-Netzen zur Formalisierung von Nebenläufigkeiten. Ein weiterer Schwerpunkt ist die Untersuchung von Visualisierungsvarianten für Postermengen unter anderem zur Webdarstellung.

Kolloquium: 23.11.2012

Betreuer: Prof. Dr. Friedhelm Mündemann, Dipl.-Inform. I. Boersch

Download: A1-Poster

Bachelorarbeit von Benjamin Hoffmann

Dienstag, Oktober 02, 2012

Entwicklung und Evaluation eines multimodalen Empfehlungssystems für Lokationen

In den vergangenen Jahren haben multimodale Anwendungen den Schritt von der Forschung in die Praxis gemacht. Ziel der Kombination verschiedener Modalitäten wie Sprache und Touch (Berührung) ist es, eine bessere und natürlichere Interaktion zwischen Benutzer und System zu ermöglichen.

In dieser Arbeit wurde ein leichtgewichtiges, multimodales, karten-basiertes Empfehlungssystem für das Auffinden von Lokationen zur Erfüllung von Aufgaben entwickelt. Existierende Dienste und Komponenten – wie zum Beispiel zur Georeferenzierung oder zur Spracherkennung – wurden erfolgreich zu einem funktionierenden System kombiniert. Der Einsatz von Webtechnologien wie HTML, CSS und JavaScript vereinfacht die Portierung der mobilen Android-App auf andere Plattformen. Eine in JavaScript definierte Grammatik erlaubt verschiedene Varianten bei der Spracheingabe.

Im Anschluss an die Entwicklung wurde eine Evaluation des Systems mit zwölf Versuchsteilnehmern vorgenommen. Diese beinhaltete neben dem Lösen von jeweils sechs Aufgaben die Beantwortung zweier Fragebögen. Es wurde insbesondere untersucht, ob Daten sozialer Netzwerke den Benutzer bei der Auswahl von Lokationen unterstützen können (H1) und ob Sprache die Eingabe erleichtert (H2). Die Befragung zeigt, dass 11 von 12 Personen der Meinung sind, dass soziale Netzwerke bei der Entscheidungsfindung helfen. Zehn der 12 Probanden bevorzugten die (initiale) Eingabe via Sprache. Nach dem Lösen der Aufgaben verbesserte sich die Bewertung der Nützlichkeit von Spracheingabe bei fünf Personen – nur eine Person änderte ihre Einschätzung zum Negativen. Beide Hypothesen ließen sich somit bestätigen.

Kolloquium: 02.10.2012

Betreuer: Prof. Dr. Jochen Heinsohn, Dipl.-Inform. Ingo Boersch, Dr. Tatjana Scheffler (DFKI), Dipl.-Inf. Rafael Schirru (DFKI)

Download: A1-Poster, Abschlussarbeit

Bachelorarbeit von Jonas Preckwinkel

Dienstag, Oktober 02, 2012

Repräsentation medizinischen Wissens mit Drools am Beispiel der Adipositas-Leitlinie

Ziel der Arbeit ist die Untersuchung, inwieweit sich die Rule Engine Drools zur Repräsentation und Verarbeitung medizinischen Regelwissens eignet. Dazu soll die Leitlinie zur Prävention und Therapie von Adipositas prototypisch in einem wissensbasierten System modelliert werden. Des Weiteren soll ein Benutzerhandbuch für Droolseinsteiger entstehen.

Praktisches Ergebis der Arbeit sei ein prototypisches wissensbasiertes System zum Laden und Verarbeiten (Vorwärtsverkettung) einer Regel- und Faktenbasis (Patientendaten) zur Adipositas-Therapie.

Kolloquium: 02.10.2012

Betreuer: Prof. Dr. Jochen Heinsohn, Dipl.-Inform. Ingo Boersch

Download: A1-Poster, Abschlussarbeit, Programm, Quelltext, Wissensbasis (zip, 11MB)

Zum Start des Programmes die ZIP-Datei auspacken und das Programm mit einem Doppelklick auf 'Quellcode\DroolsGui\DroolsGUI.jar' starten. Im Programm zunächst die vier Bestandteile der Wissensbasis (dataModel.drl, diagnose_rules.drl, testPatienten.drl und therapie_rules.drl) im Verzeichnis 'Quellcode\Drools Rule Files' laden, die Wissensbasis kompilieren und zum Schluss die Vorwärtsverkettung starten.

Für eigene Versuche können die DRL-Files (Wissensbasis als Textdatei) mit einem beliebigen Editor verändert oder eigene DRL-Files verwendet werden.

Bachelorarbeit von Johann–Sebastian Pleban

Donnerstag, September 27, 2012

Entwurf und Implementierung von Suchverfahren am Beispiel des Spiels “Rush-Hour” mit Visualisierung der Lösungsfindung

Ziel der Bachelorarbeit ist die Entwicklung einer Applikation zur Visualisierung einfacher Suchalgorithmen am Beispiel des Rushhour-Problems.

Insbesondere soll das Laden verschiedener Problemkonfigurationen der Rush-Hour-Domäne in einer geeigneten textuellen Repräsentation, das Finden einer oder aller Lösungen sowie das Verfolgen der Arbeitsweise der Suchalgorithmen (Tiefensuche, Breitensuche, A*) ermöglicht werden. Der Zustandsraum der Suchprobleme soll in geeigneten Metriken (bspw. Anzahl der Knoten, Anzahl der Lösungen) dargestellt werden.

Kolloquium: 27.09.2012

Betreuer: Prof. Dr. rer. nat. Rolf Socher, Dipl.-Inform. Ingo Boersch

Download: A1-Poster

Bachelorarbeit von Marco Knietzsch

Dienstag, September 18, 2012

Modellierung der Studien- und Prüfungsordnung des Studiengangs Bachelor Informatik in OWL

Ziel der Bachelorarbeit ist die ontologische Modellierung der Studien- und Prüfungsordnung der Informatik.

Die Ordnung soll in maschinenverständlicher Form, d.h. zugänglich für Visualisierung, Navigation, Abfragen und Inferenzen im Sinne des Semantic Web repräsentiert werden. Das konkrete Ziel ist eine Ontologie, die zu bestimmten Themen des Studiums befragt werden kann. Sie soll alle Fragen beantworten, die auch mit der originalen Ordnung beantwortet werden. Zudem sollten Schlüsse gezogen werden können, die weiteres Wissen generieren. Fragen könnten sein:"Was sind Pflichtfächer?", "Muss ich ein Praktikum machen?", "Wie lang ist die Bearbeitungszeit für eine Bachelorarbeit?".

Die Ontologie soll sich auf andere (ähnliche) Prüfungs- und Studienordnungen erweitern lassen.

Kolloquium: 18.09.2012

Betreuer: Prof. Dr. Jochen Heinsohn, Dipl.-Inform. Ingo Boersch

Download: A1-Poster

Masterarbeit von Stephan Dreyer

Mittwoch, August 29, 2012

Interaktive Evolution zur Assistenz bei der Einrichtungsplanung

Die Planung der Inneneinrichtung von Räumen ist oft aufwändig und zeitintensiv, da ein weites Spektrum verschiedenster Einrichtungsgegenstände verfügbar ist und diese fast beliebig kombiniert werden können. Diese Arbeit schlägt interaktive evolutionäre Algorithmen zur Assistenz bei der Einrichtungsplanung vor. Dazu werden zunächst die Bestandteile der interaktiven Evolution genauer definiert und Arten der interaktiven Selektion vorgestellt. Anschließend wird die Konzeption und Entwicklung des Softwaresystems dokumentiert.

Zur Verringerung der Benutzerermüdung wird die Methode der Sparse Fitness Evaluation umgesetzt. Es werden Versuche mit der entwickelten Software durchgeführt und aufgetretene Probleme diskutiert. Abschließend gibt die Arbeit einen Ausblick für eine weitere Entwicklung.

Kolloqium: 29.08.2012

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Michael Syrjakow

Download: A1-Poster, Masterarbeit, Quelltexte (85MB)

Software: Furny-1.0.zip in ein beliebiges Verzeichnis entpacken, in dieses Verzeichnis wechseln und den gewünschten Teil mit den .bat-Dateien starten

Bachelorarbeit von Sebastian Ali Nasrollahkhan Shahrestanaki

Freitag, August 24, 2012

Modellierung und Simulation eines autonomen Segelbootes

Ziel der Arbeit ist es, ein Bewegungsmodell zu entwickeln, welches die Bewegungen eines Segelbootes im Wasser abbildet, und dieses zu simulieren. Augenmerk bei der Modellierung liegt auf der Darstellung physikalischer Zusammenhänge, die am Segelboot zum Tragen kommen. Sowohl Bereiche der Mechanik als auch der Strömungsdynamik müssen in Betracht gezogen werden.

Neben dem Modell soll ein Simulationsprogramm entstehen, mit dessen Hillfe Anwendungsfälle am Computer getestet werden können.

Kolloquium: 24.08.2012

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr. Jochen Heinsohn

Download: A1-Poster

Masterarbeit von Rainer Muth

Freitag, August 17, 2012

Konzeption und Realisierung einer kontextbasierten Suche in externen Datenquellen im Bereich der Neurobiologie

Diese Masterarbeit befasst sich mit der Konzeption und Realisierung einer kontextbasierten Suche in externen Datenquellen. Die kontextbasierte Suche soll hierbei für das Abfragen der Datenquellen die Daten eines bestehenden Systems verwenden. Die Daten des bestehenden Systems basieren dabei auf neurologischen Erkrankungen und Testverfahren.

Die Ergebnisse der kontextbasierten Suche sollen zum einen dafür verwendet werden, um einem Benutzer des Systems ein größeres Angebot an Informationen zum Themengebiet zu unterbreiten und zum anderen um den Datenbestand des Systems bei Bedarf zu aktualisieren. Die externen Datenquellen sind PubMed und MedWorm. Dabei werden in PubMed relevante, medizinische, Publikationen und in MedWorm nach relevanten medizinischen Nachrichten gesucht.

Kolloqium: 13.08.2012

Betreuer: Prof. Dr.-Ing. Susanne Busse, Dipl.-Inform. Ingo Boersch

Download: A1-Poster, Masterarbeit, opus

Bachelorarbeit von Martin Brunnemann

Dienstag, Juni 19, 2012

Programmierung eines patrouillierenden Roboters unter Verwendung von ARIA, ARNL und MobileEyes zur Selbstlokalisierung, dynamischen Pfadplanung und Missionskontrolle

Ziel ist die Konzeption und Umsetzung einer zuverlässigen Patroullienmission eines autonomen Pioneer-Roboters. Die Definition und Kontrolle der Mission soll über ein geeignetes Userinterface erfolgen sowie der Verlauf visualisiert werden. Perspektivisch soll die Lösung nicht ans Informatikgebäude gebunden, sondern über eine definierte Schrittfolge bspw. auch im Audimax einsetzbar sein.

Die besondere Schwierigkeit besteht in der Anforderung einer hohen Zuverlässigkeit bei der Missionsausführung und der Gewährleistung der Personensicherheit im Aktionsbereich des Systems. Die geforderten Eigenschaften sind beim Entwurf zu berücksichtigen und geeignet nachzuweisen. Vorhandene Frameworks zur Pfadplanung, Fahrtausführung und Lokalisierung wie ARNL, ARIA und Mapper3 sollen verwendet werden.

Kolloquium: 19.06.2012

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr. Jochen Heinsohn

Download: A1-Poster

Masterarbeit von David Walter

Freitag, Juni 01, 2012

Analyse und Optimierung der Prognosegüte des Strombedarfs als Grundlage der Querverbundsoptimierung der Stadtwerke Brandenburg

Es gilt das vorhandene proprietäre Softwaresystem zur Ressourcenplanung und Erstellung von Bedarfsprognosen zu untersuchen. Dabei soll in der Datenanalyse die Güte der bisherigen Prognosen analysiert werden und der Zusammenhang zwischen dem Strombedarf im Netzgebiet und den messbaren exogenen Größen untersucht werden. Um die Prognosegüte zu verbessern, werden verschiedene Methoden zur Lastprognose evaluiert, das vorhandene System auf Optimierungsmöglichkeiten untersucht und ein Prognoseverfahren implementiert.

Neben der Implementierung von JForecast wurden Prognosemodelle aus dem vorhandenen Softwaresystem mit verschiedenen Parametersetups evaluiert und mit einem Testszenario die Ergebnisse verglichen.

Kolloquium: 01.06.2012

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dr. Tino Schonert (Stadtwerke Brandenburg an der Havel GmbH), Dipl.-Inform. Ingo Boersch

Download: A1-Poster

Bachelorarbeit von Bertram Sändig

Freitag, März 09, 2012

Entwicklung und Evaluierung von Clustering-Verfahren für Points of Interest verschiedener thematischer Kategorien

In dieser Arbeit geht es um die Entwicklung einer Anwendung zur Darstellung von konzentrierten Gebieten von Points of Interest (PoIs). Dadurch soll einem Anwender z. B. ein Ballungsgebiet von Restaurants innerhalb des urbanen Umfelds angezeigt werden.

Der Vorgang, Wertemengen nach ihrer Ähnlichkeit (hier nach geographischer Distanz) zu gruppieren, ist eine Disziplin des Data Minings und wird als Cluster-Analyse bezeichnet. Verschiedene Clustering-Verfahren sollen getestet und angepasst werden, um ihre Eignung für die Aufgabenstellung zu bewerten und zu optimieren.

Evaluiert wurden das Minimum spanning tree Clustering, k-Means, sowie ein selbstentwickeltes DK-Means-Verfahren.

Kolloquium: 10.02.2012

Betreuer: Dipl.-Inform. Ingo Boersch, Dr. Inessa Seifert (DFKI)

Download: A1-Poster

Bachelorarbeit von Helge Scheel

Mittwoch, September 28, 2011

Analyse von Matching-Verfahren und Konzeption für eine auf Angebot und Nachfrage basierende Plattform – Prototypische Implementierung am Beispiel einer Lehrstellenbörse

In dieser Arbeit wird das als Matching bezeichnete Zuordnungsproblem zwischen Nachfrage generierenden Benutzern und Angebot repräsentierenden Objekten untersucht. Ziel ist eine automatische, individuelle Auswahl von geeigneten Objekten für den einzelnen Nutzer, die seinen Präferenzen entsprechen. Beschränkt wird diese Problematik auf webbasierte Plattformen, wobei die registrierten Benutzer durch Nutzerprofile beschrieben werden und die Angebote als Objekte angesehen werden, deren Eignung für die einzelnen Nutzer bestimmt werden soll.

Zur Lösung dieses Problems stehen verschiedene Ansätze zur Verfügung. Empfehlungssysteme erstellen Vorschläge basierend auf vorhandenen Bewertungen des Nutzers für Objekte. Die Clusteranalyse gruppiert die Objekte zu Clustern, die eine möglichst homogene Menge an Objekten beinhalten. Eine hohe Eignung wird Objekten aus Clustern unterstellt, aus denen bisher positiv bewertete Objekte stammen. Klassifizierungs- und Regressionsverfahren berechnen eine Klassenzuordnung bzw. eine numerische Prognose, die Aussagen über die Eignung eines Objekts treffen.

Die Verfahren werden hinsichtlich ihrer Eignung für das beschriebene Problem evaluiert. Auf Basis dieser Untersuchung wird ein Konzept für das Anwendungsbeispiel einer Lehrstellenbörse entwickelt und prototypisch implementiert.

Kolloquium: 28.09.2011

Betreuer: Dipl.-Inform. Ingo Boersch, Dipl.-Inform. Dirk Wieczorek (]init[)

Download: A1-Poster

Bachelorarbeit von Paul Lehmann

Mittwoch, September 21, 2011

Matching und Visualisierung von Points of Interest aus sozialen Daten

Ziel der Bachelorarbeit ist eine Untersuchung zu Möglichkeiten der gegenseitigen Abbildung nutzergenerierter interessanter Orte (POI) aus drei sozialen Netzwerken mit Orten aus dem Openstreetmap-Projekt. Die Ansätze sollen prototypisch implementiert und die Matching-Ergebnisse visualisiert und evaluiert werden.

In der Arbeit werden verschiedene Algorithmen oder Kombinationen jener Algorithmen gegenüber gestellt und deren Vor- und Nachteile erörtert. Ferner wird auch darauf eingegangen, welche Fehler bei bestimmten Abläufen auftreten und wodurch sie provoziert werden. Nach dem Matching muss bestimmt werden, wie der resultierende PoI am Ende repräsentiert werden soll, seine kanonische Repräsentation. Die Paare von PoIs sollen dann über einen Webservice verfügbar sein. Zur Veranschaulichung der Ergebnisse werden die PoIs in einer Android-App auf einer Google-Maps-Karte visualisiert, die die Daten von dem Webservice bekommt.

Kolloquium: 21.09.2011

Betreuer: Dipl.-Inform. Ingo Boersch, Dr. Tatjana Scheffler (Deutsches Forschungszentrum für Künstliche Intelligenz GmbH)

Download: A1-Poster, Bachelorarbeit  

Masterarbeit von Christian Freye

Donnerstag, August 25, 2011

Kontext-spezifische Analyse von Benutzerpräferenzen mittels Clustering für Musikempfehlungen auf Grundlage von Semantic-Web-Metadaten

In dieser Masterarbeit wird ein Verfahren vorgestellt, mit dem Benutzerprofile extrahiert werden können, die als Basis für Musikempfehlungen genutzt werden können. Um dieses Ziel zu erreichen werden die Künstler, die ein Nutzer gehört hat, mit Metadaten beschrieben, die im Semantic-Web gefunden werden können.

Nach der Vorverarbeitung der Daten beginnt das Clustering der Künstler. Dadurch werden sie anhand ihres Musikstils in unterschiedliche Cluster unterteilt. Für jedes dieser Cluster wird dann ein Label gewählt, mit dem die zugrunde liegende Musikrichtung beschrieben werden kann. Diese Labels formen dann ein Benutzerprofil, welches ein breites Spektrum des Musikgeschmacks eines Nutzers widerspiegelt.

Durch die Evaluation kann gezeigt werden, dass die extrahierten Benutzerprofile spezifisch für die unterschiedlichen Musikrichtungen der Nutzer sind. Somit können sie als Basis für Empfehlungssysteme dienen, oder in bereits bestehende Anwendungen integriert werden.

Kolloquium: 25.08.2011

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Inf. Rafael Schirru (DFKI GmbH), Dipl.-Inform. Ingo Boersch

Download: A1-Poster, Masterarbeit  

Masterarbeit von Christian Labuda

Mittwoch, August 24, 2011

Nutzeridentifikation im Internet: Evaluation von Abwehrstrategien

Ziel dieser Arbeit ist es zunächst den aktuellen Stand der Technik im Bereich der Nutzeridentifikation zu untersuchen, um im Folgenden Abwehrmaßnahmen gegen die verschiedenen Methoden der Nutzeridentifikation im Internet bewerten zu können.

Nach aktuellem Stand der Technik verfügen moderne Browser bereits über Möglichkeiten verschiedene Identifikationsmöglichkeiten abzuwehren. Es ist jedoch eine Tatsache, dass eine einzige Lücke in dieser Abwehr es ermöglichen kann, den Nutzer wiederzuerkennen, wodurch die anderen Abwehrmaßnahmen ihren Sinn verlieren.

Die Abwehrtechnologien der am stärksten verbreiteten Browser sollen deshalb überprüft werden. Es wird ebenfalls geprüft, ob sich die Abwehrfunktionen der Browser durch eine sinnvolle Auswahl von Plugins und Zusatzprogrammen verbessern lassen. Zur Durchführung der Tests ist eine eigene Testseite zu implementieren, die bekannte eindeutige Identifikationsmechanismen unterstützt. Die Testseite soll außerdem eine Selbstkontrolle ermöglichen, sodass Internetnutzer ihre eigene Abwehr kontrollieren können.

Ein ergänzender Test der 50 am stärksten frequentierten Webseiten soll zeigen, ob die Webseiten trotz Abwehrmaßnahmen noch funktionieren. Dieser Test dient vor allem dazu die Einschränkungen im Komfort, die ein Nutzer durch die Nutzung von Abwehrmaßnahmen hinnehmen muss, einschätzen zu können.

Kolloquium: 24.08.2011

Betreuer: Prof. Dr. Barbara Wiesner, Dipl.-Inform. Ingo Boersch

Download: A1-Poster, Masterarbeit  

Diplomarbeit von Robert Müller

Montag, März 14, 2011

Konzeption eines autonomen Segelboots und Realisierung eines Reaktions-Prototyps

Ziel der Arbeit ist der Entwurf eines autonomen Segelbootes und die Erstellung eines ersten Reaktionsprotypen. Die besondere Schwierigkeit des Themas liegt in der Vielzahl zu treffender missionskritischer Einzelentscheidungen, die ein Verständnis des Gesamtsystems als autonomer Roboter voraussetzt.

Eine Anforderungsanalyse soll zeigen, welche Komponenten für ein autonomes Agieren eines Segelboots notwendig sind und wie sie in das Gesamtsystem eingegliedert werden. Dabei ist eine sorgfältige Auswahl der Komponenten zu treffen, wobei besonderes Augenmerk auf Kriterien wie zum Beispiel Platzbedarf, Gewicht oder Stromverbrauch gelegt wird, da in diesen Bereichen Beschränkungen mit der Verwendung eines Segelboots einher gehen. Nachfolgend muss jede Komponente einzeln auf ihre Funktionalität getestet werden. Bei den der Sensorik oder Aktorik angehörenden Bauteilen muss sichergestellt sein, dass über eine Schnittstelle auf die zur Verfügung gestellten Messwerte zugegriffen bzw. Steuerbefehle an sie übergeben werden können. Anschließend sollen alle Komponenten in geeigneter Form miteinander verbunden und im Segelboot untergebracht werden, wobei auf Wechselwirkungen zu achten ist, welche die Komponenten in ihrer Funktion einschränken könnten.

Wichtig ist außerdem die Realisierung einer hardwarebasierten Fallback-Möglichkeit, sodass im Notfall eingegriffen werden kann und von autonomer zu manueller Steuerung gewechselt werden kann. Schließlich soll es ein zentral im Hauptcontroller ausgeführtes Programm ermöglichen, alle von den Sensoren gelieferten Messwerte abzufragen und auszugeben, Steuerbefehle an die Aktoren zu senden und auf eventuelle Eingaben eines Benutzers zu reagieren.

Kolloquium: 11.03.2011

Betreuer: Prof. Dr. Jochen Heinsohn, Dipl.-Inform. Ingo Boersch

Download: A1-Poster, Diplomarbeit  

Bachelorarbeit von Tobias Schacht

Dienstag, November 23, 2010

Funktionale Programmierung mit F# und Microsoft Accelerator am Beispiel Bildverarbeitung

Die Arbeit präsentiert Funktionale Programmierung im Allgemeinen durch Schilderung deren grundlegender Konzepte und im Speziellen durch Präsentation der Funktionsweise der Sprache F#. Zusammen mit Vorstellung der Bibliothek Accelerator, die ein gleichartiges Programmiermodell verfolgt, und der Umsetzung von Beispielen aus Bildverarbeitung auf niedrigerer Ebene bei Ausnutzung von Datenparallelität, wird die Anwendung dieser Techniken in einer Demonstrationssoftware vorgezeigt.

Kolloquium: 23.11.2010

Betreuer: Prof. Dr. sc. techn. Harald Loose, Dipl.-Inform. Ingo Boersch

Download: A1-Poster, Bachelorarbeit  

Bachelorarbeit von Sebastian Schmidt

Mittwoch, Oktober 06, 2010

Konzeption und Implementierung eines Multitouch-Informationssystems

Ziel der Arbeit ist die Konzeption und Entwicklung eines prototypischen Informationssystems basierend auf dem Multitouchtisch Touchmaster von ART+COM zur Darstellung und zum Retrieval realer Mitarbeiter-Projekt-Beziehungen im Berliner Projektbüro des DFKI.

Schwerpunkt ist hierbei die Diskussion von Interaktions- und Visualisierungskonzepten für Multitouchtische unter Berücksichtigung der gleichzeitigen Bedienung durch mehrere Personen. Die Applikation soll die konventionelle Maus- und Tastatursteuerung, sowie das Fensterparadigma vermeiden und stattdessen eine intuitive Interaktion über Gesten und Physiksimulation ermöglichen.

Kolloquium: 06.10.2010

Betreuer: Dipl.-Inform. Ingo Boersch, Dipl. Inform.(FH) Kinga Schumacher (Deutsches Forschungszentrum für Künstliche Intelligenz GmbH)

Download: A1-Poster 

Bachelorarbeit von Peter Hirschfeld

Dienstag, September 28, 2010

Aufbau der Informationsverarbeitung und Evaluierung eines neuartigen Sensorsystems zur Positionsbestimmung von kontinuierlich und quasi-kontinuierlich gearteten Roboterkinematiken

Ziel der Arbeit ist eine Applikationsentwicklung für ein verteiltes Sensorsystem.

Hierzu ist Kommunikation zwischen Mikrocontroller und Sensoren über I2C und zum PC über CAN-Bus zu entwerfen und umzusetzen. Weiterhin soll eine Vorverarbeitung der Messwerte im Mikrocontroller (Nullpunktabgleich) sowie auf dem PC zur Positionsberechnung entwickelt werden. Die Funktion des Systems soll durch geeignete Tests nachgewiesen werden.

Kolloquium: 28.09.2010

Betreuer: Dipl.-Inform. Ingo Boersch, Dipl.-Ing. Roland Behrens (Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF)

Download: A1-Poster 

Masterarbeit von Marcin Franc

Donnerstag, August 26, 2010

Poster zur Arbeit von Marcin Franc

Integration von Data-Mining-Methoden zur Analyse der Daten aus dem astrophysikalischen Experiment LOPES

Die Arbeit beschäftigt sich mit der Integration von Data-Mining-Methoden, die zur Analyse der Daten aus dem astrophysikalischen Experiment LOPES benutzt werden können. Den Hauptteil der Arbeit bilden die Implementierung und Beschreibung der Software, welche die vorgenannte Integration durchführt. Der erste Teil dieser Beschreibung besteht aus der Analyse der Anforderungen an die Software zusammen mit der notwendigen Theorie der verwendeten Data-Mining-Methoden. Der zweite Teil ist eine Software- Engineering-orientierte Darstellung der implementierten Lösungen. Da die interessierte Leserschaft sowohl aus Informatikern als auch Physikern besteht, beginnt die Arbeit mit der allgemeinen Vorstellung des LOPES-Experiments und den Grundideen des Data Mining.

Kolloquium: 26.08.2010

Betreuer: Prof. Dr. Jochen Heinsohn (FHB), Prof. Dr. Johannes Blümer (Karlsruher Institut für Technologie)

Download: A1-Poster Masterarbeit 

Bachelorarbeit von Martin Gorges

Mittwoch, Mai 12, 2010

Optimierung und Evaluierung einer Routenabgleichkomponente in einer Ad-Hoc-Mitfahrerzentrale

Ziel dieser Arbeit ist das Testen und Überarbeiten eines bestehenden Mitfahrersuchalgorithmus, der vom Fraunhofer Institut für offene Kommunikationssysteme entwickelt wird.

Mit dem Algorithmus werden passende Mitfahrgesuche für einen Fahrer ermittelt, wobei die Lösung bei Kurzstrecken zum Einsatz kommen soll. Es gilt herauszufinden, unter welchen Bedingungen, wie viele Mitfahrer, in welcher Zeit, für den Fahrer gefunden werden. Weiterhin werden alternative Ansätze entwickelt und miteinander verglichen.

Kolloquium: 12.05.2010

Betreuer: Dipl.-Inform. Ingo Boersch, Dipl.-Inform. A. Kress (Fraunhofer Institut für offene Kommunikationssysteme)

Download: A1-Poster 

Bachelorarbeit von Robin Kaluzny

Donnerstag, Februar 18, 2010

Automatische Grenzfindung und Bereinigung von Karten unter kartografischen Aspekten anhand von ATKIS-Datensätzen

Diese Bachelorarbeit hat als Ziel, eine funktionstüchtige Softwarekomponente zu erstellen, die die Grenzziehung unter Berücksichtigung der vorliegenden ATKIS-Grenzen durchführt und sich in die Software eConstruction einfügt. Dabei sollen die für pixelbasierende Bilder typischen Rastermuster bei großem Zoom aus der Klassifikation elimeniert werden. Die Software eConstruction wurde in einem Förderprojekt des Landes Brandenburg und der Europäischen Union von der Firma DELPHI IMM entwickelt.

Kolloquium: 18.02.2010

Betreuer: Dipl.-Inform. Ingo Boersch, Dr. Rolf Lessing (DELPHI IMM GmbH)

Download: A1-Poster Bachelorarbeit

Diplomarbeit von Sebastian Bischoff

Mittwoch, November 25, 2009

Konzeption und Umsetzung einer RIA zur untersuchungsbegleitenden Erfassung von RNFLT-Scans und Untersuchung von Klassifikatoren für die diagnostische Unterstützung bei neurodegenerativen Erkrankungen am Beispiel der Multiplen Sklerose

Die retinale Nervenfaserschichtdicke (engl.: retinal nerve fiber layer thickness, RNFLT) ist ein moderner Parameter in der Augendiagnostik. Mittels optischer Kohärenztomographie (engl.: optical coherence tomography, kurz OCT) wird hierbei in einem Augen-Laserscan die Faserdicke der Augennerven in 256 radialen Einzelmesswerten bestimmt. Die RNFLT zeigt dabei spezifische Veränderungen in verschiedenen Krankheitsbildern und hält zunehmend Einzug in die Routinediagnostik.
Im Rahmen einer Studie sollen Modelle zum Vergleich der RNFLT-Veränderungen bei Patienten mit unterschiedlichen Erkrankungen gegenüber Kontrollmessungen bei gesunden Probanden bestimmt werden. Bisherige Vergleichsmethoden umfassen lediglich die mittlere Abnahme der Messwerte und berücksichtigen nicht typische Kurvenveränderungen. Im Rahmen dieser Abschlussarbeit sollen diese Messungen zuerst elektronisch erfasst, verarbeitet und die Auswertungen online verfügbar gemacht werden. Mit Hilfe von Kurvenanalyse und dem Einsatz von Methoden des maschinellen Lernens sollen genauere Lösungen für dieses Klassifikationsproblem entwickelt werden..

Kolloquium: 25.11.2009

Betreuer: Dipl. Inform. Ingo Boersch, Master of Science Sebastian Mansow-Model (mediber GmbH)

Download: A1-Poster, Diplomarbeit

Bachelorarbeit von Katarina Birghan

Montag, November 16, 2009

Inbetriebnahme, Konfigurierung und Evaluation des Vorverarbeitungsmoduls zur Segmentierung von Dialogakten mittels Pausenerkennung

Die Zielstellung dieser Bachelorarbeit war die Implementierung eines Moduls zur automatischen Dialogaktsegmentierung im Rahmen der Evaluierung von Sprachdialogsystemen. Gegenwärtig wird die Evaluierung mit einer Anzahl von Testpersonen durchgeführt. Dabei werden Kriterien wie Effizienz, Komfort, Gebrauchstauglichkeit und Akzeptanz untersucht. Dies ist recht kosten- und zeitintensiv. Zur automatischen Evaluierung wird im DFKIForschungsprojekt SpeechEval eine Simulationsumgebung entwickelt. Das Segmentierungsmodul ist dabei Bestandteil der NLU-Komponente.

Kolloquium: 16.11.2009

Betreuer: Prof. Dr. Jochen Heinsohn, Tatjana Scheffler, PhD (DFKI GmbH)

Download: A1-Poster

Bachelorarbeit von David Walter

Montag, Oktober 26, 2009

 

Konzeption und Umsetzung einer Browserapplikation zur Steuerung und ereignisbezogenen Visualisierung industrieller Prozesse

Das Ziel dieser Arbeit ist es, Konzepte zu erarbeiten, welche die Umsetzung einer asynch-ronen Kommunikation zwischen Browserapplikation und dem Webio-Server ermöglichen. Die verschiedenen Varianten sind zu untersuchen, um eine Entscheidung für die praktische Umsetzung zu treffen. Danach gilt es die Anforderungen für eine Software zu ermitteln, welche die Steuerung und die ereignisbezogene Visualisierung eines industriellen Prozes-ses ermöglicht. Nach diesen Anforderungen wird ein Prototyp der Software entwickelt, welcher zur Erprobung des praktischen Einsatzes dient.

Kolloquium: 26.10.2009

Betreuer: Dipl.-Inform. Ingo Boersch, Dipl.-Ing. Eckehart Gemmel (Systemhaus Brandenburg GmbH)

Download: A1-Poster 

Diplomarbeit von Thomas Augustin

Freitag, August 28, 2009

Kritik und Prognose des Semantic Web

Zielstellung der Arbeit ist ein wertender Überblick über Entwicklungstendenzen des Semantic Web. Hierzu sind der Stand der Technik und die Triebkräfte mit Bezug auf mögliche Einsatzszenarien darzustellen. Die grundsätzlichen Probleme wie Wissensrepräsentation (bspw. Konsistenz, Unschärfe, Unsicherheit, Mehrdeutigkeit), Quelle der Semantik, semantische Interoperabilität und andere sind zu vertiefen und aktuelle Lösungsansätze aufzuzeigen. Beide Teile sind durch aussagekräftige, computergestützte Beispiele zu untersetzen. Abschließend sollen möglichst konkrete Prognosen über die mittelfristige Entwicklung des Semantic Web formuliert werden.

Kolloquium: 28.08.2009

Betreuer: Professor Dr.-Ing. Thomas Preuss, Dipl.-Inform. Ingo Boersch

Diplomarbeit von Rene Peschmann

Dienstag, Juni 02, 2009

Entwicklung einer Software zur optimierten Auslagerung in einem Medikamentenlager

Das Ziel der Arbeit ist für ein Lager eine Auslagerungs-Strategie umzusetzen bzw. zu modifizieren, sodass die zu fahrende Gesamtroute für eine Auslagerung bestimmter Produkte so kurz wie möglich ist. Die einzige Nebenbedingung ist, dass der Lagerschlitten, also die Einheit, die für das Greifen der Produkte zuständig ist, für eine Tour nur eine bestimmte Anzahl an Produkten aufnehmen kann. Erst nachdem die aufgenommenen Güter dann an einem definierten Ort abgelegt wurden, kann eine weitere Tour gestartet werden. Abbruchbedingung für die Berechnung der Route kann eine bestimmte Zeit sein, welche vorher definiert wird.

Zusätzlich ist es wichtig zu analysieren, wie effektiv bekannte Verfahren sind und ob diese hinsichtlich des speziellen Problems noch optimiert werden können. Ziel der Diplomarbeit ist die Entwicklung und Umsetzung einer Auslagerungsstrategie für eine Lagerverwaltung. Hierbei sollen Aufträge zur Auslagerung von Gütern angenommen, eine kurze Route berechnet und ein reales Lagermodell angesteuert werden. Der theoretische Schwerpunkt liegt hierbei auf der Einordnung des Routingproblems und der Auswahl eines geeigneten Optimierungsverfahrens. Das Verfahren soll in eine funktionsfähige Applikation umgesetzt werden, welche die Planungskomponente als Modul enthält, sowie eine Visualisierung des Planungsprozesses und der erstellten Routen vornimmt. Die Funktionalität und Geschwindigkeit ist durch geeignete Experimente nachzuweisen.

Kolloquium: 02.06.2009

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Michael Syrjakow

Download: A1-Poster, Diplomarbeit

Diplomarbeit von Brandolf Gumz

Mittwoch, Oktober 29, 2008

Konzeption und Implementierung einer Applikation zur Bewertung geometrischer Differenzen von Landbedeckungs- und Landnutzungsdaten unter Berücksichtigung der semantischen Interoperabilität

Aufgabe ist es, eine Anwendung für die Firma DELPHI IMM GmbH zu entwickeln, die geometrische und semantische Unterschiede von Geodatensätzen aus verschiedenen Objektartenkatalogen für Landbedeckung- und Landnutzungsdaten aufzeigt und dabei die semantische Interoperabilität berücksichtigt.

Als Ausgangsdaten dienen zum einen ein ATKIS Basis-DLM Datensatz und zum anderen ein aus aktuellen Satellitenbildern klassifizierter DeCOVER-Ausgangsdienst (DeCOVER-AD) Datensatz. Anhand dieser Ausgangsdaten soll die Anwendung entwickelt und geprüft werden. Beide Datensätze liegen jeweils im Shape-Format vor. Die Nomenklatur der Landbedeckung und Landnutzung in beiden Formaten steht in einer n:m-Beziehung und wird durch eine Ähnlich-keitsrelation für die Arbeit bereitgestellt.

Das Ziel der Anwendung ist es eine Voraussetzung zu schaffen, um Landbedeckungs- und Landnutzungsdaten mit Hilfe von Ergebnissen auf Basis von Fernerkundungsdaten,

Kolloquium: 29.10.2008

Betreuer: Dipl.-Inform. Ingo Boersch, Dr. Rolf Lessing (DELPHI IMM GmbH)

Download: A1-Poster

Bachelorarbeit von David Saro

Donnerstag, Oktober 02, 2008

Anwendung von Methoden des Data Mining bei der Produktion von Dünnschicht-Solarmodulen

Zielstellung des Themas ist die Untersuchung der Anwendbarkeit von Methoden des Data Mining zum Finden und Modellieren von Abhängigkeiten der an fertigen Solarmodulen gemessenen Größen von den Parametern und Messwerten des Produktionsprozesses. Die auszuwertenden Daten liegen dabei zu Beginn der Arbeit im Wesentlichen als Tabelle vor.

Die Arbeit umfasst in einem ersten Teil die Einordnung der Aufgabenstellung in den wissenschaftlichen Kontext und das Umfeld beim Hersteller, die notwendige Datenvorbereitung (bspw. geeignete Behandlung von fehlenden Werten, Normalisierung, Diskretisierung, Selek-tion und Aggregation von Merkmalen), die Formulierung und Test einfacher Hypothesen (bspw. statistische Abhängigkeit), Darstellung von Werten der deskriptiven Statistik (bspw. Quartile im Boxplot, Scatterplots, Histogramme) und der Korrelation.

Darauf aufbauend soll im zweiten Teil versucht werden, Abhängigkeiten automatisch zu modellieren und über Kreuzvalidierung zu bewerten. Hierbei ist datengetrieben eine geeignete, möglichst transparente (menschenlesbare) Wissensrepräsentation auszuwählen. Als Anre-gung seien hier Entscheidungsbäume, Regelsysteme, künstliche neuronale Netze und Ent-scheidungslisten genannt. Die Arbeit soll konkrete Wege zur Fortführung der Datenanalyse aufzeigen.

Die besondere Schwierigkeit der Arbeit liegt in der unbekannten Datenqualität, dem Umfang der Daten und insbesondere der Breite des Themas. Zur Verwendung werden Weka, Ra-pidMiner, Gnuplot, Excel, R und Matlab empfohlen.

Kolloquium: 02.10.2008

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Jochen Heinsohn, Christian Kneisel

Download: A1-Poster

Diplomarbeit von Benjamin Kieper

Montag, September 29, 2008

Entwurf und Implementierung einer Anwendung zum dialogbasierten, überwachten Lernen von Objektmodellen aus Bildern

Ziel der Arbeit ist die Entwicklung einer Anwendung, die mit Hilfe von überwachtem Lernen und Bildverarbeitung, die von einer Kamera aufgenommenen Objekte erkennt und diese einer Klasse zuordnet. Das Trainieren des Klassifikators soll unter Verwendung einer einfach bedienbaren, grafischen Benutzeroberfläche durchgeführt werden können. Der Anwender hat die Aufgabe, die vom System vorgeschlagene Klassifizierung zu bewerten und gegebenenfalls zu korrigieren. Die während des Trainings entstehenden Klassifikatormodelle sollen dem Anwender dargestellt werden können.

Kolloquium: 29.09.2008

Betreuer: Prof. Dr. F. Mündemann, Dipl.-Inform. I. Boersch

Download: A1-Poster

Bachelorarbeit von Dong Yiquan

Montag, September 15, 2008

Automatisierte Vermessung einer Konturlehre

Für die Abstimmung der Anlage sind wiederholende Vermessungen der Profile der Target-Erosionszonen notwendig. Die Erfassung der Profile erfolgt mit einer Konturlehre, wobei die Kontur anschließend erfasst und vermessen werden muss. Um die bisherige manuelle Vermessung zu substituieren, sollte in dieser Arbeit die Vermessung automatisiert werden. Dazu war ein Ansatz mit Methoden der Bildverarbeitung vorgegeben. Ein Versuchsstand sollte im Bildverarbeitungslabor aufgebaut, ein Algorithmus zur Bilderfassung, Bildverbesserung und Bildauswertung sollte entwickelt und getestet sowie Parameter wie minimale und maximale Höhe der Kontur, die verbleibende Fläche unter den Profilen berechnet und die Konturlinie mit Polynomen approximiert werden

Kolloquium: 15.09.2008

Betreuer: Prof. Dr. sc. techn. Harald Loose, Dipl.-Inform. Ingo Boersch

Diplomarbeit von Kai Niekammer

Freitag, August 29, 2008

Wegplanung und Fahrt autonomer mobiler Systeme in geometrischen Karten am Beispiel von Zellzerlegungsverfahren

Zielsetzung der Arbeit ist die selbständige Navigation eines simulierten Roboters vom Typ Pioneer in einer vom Anwender erstellten Karte durch Zuweisung von Zielpunkten. Schwerpunkt der Arbeit ist die Diskussion von Verfahren zur Pfadplanung, sowie die prototy-pische Umsetzung einer Methode zur exakten Zerlegung des Freiraumes mit anschließender Pfadsuche im resultierenden Graphen. Besonderer Wert wird hierbei auf die Darstellung der Verarbeitungsschritte von der internen Karte bis zur Folge der Wegpunkte gelegt. Die gefun-denen Wegpunkte sind unter der Annahme fehlerfreier Aktorik und Sensorik in der Simulati-on abzufahren, eine eigene Registrierung ist nicht notwendig. Als Systemumgebung soll Saphira mit dem zugehörigen Simulator genutzt werden. Notwen-dig ist dafür eine Anbindung der Planungs- und Steuerungskomponente an bzw. in Saphira. Die Erstellung der internen Karte des Roboters und der korrespondierenden simulierten Um-welt kann durch eine Applikation unterstützt werden. Die Funktionsfähigkeit des Gesamtsys-tems ist durch geeignete Experimente nachzuweisen.

Kolloquium: 29.08.2008

Betreuer: Dipl.-Inform. I. Boersch, Prof. Dr.-Ing. J. Heinsohn

Download: A1-Poster, Diplomarbeit

Bachelorarbeit von Robert Fischer

Freitag, August 29, 2008

Entwicklung einer Applikation zur Layoutoptimierung von Webseiten mit evolutionären Algorithmen und interaktiver Fitness

Ziel der Arbeit ist die Untersuchung der Anwendbarkeit von interaktiver Fitness zur Verbesserung von Cascading Style Sheets durch subjektive Nutzerbewertung in einem evolutionären Optimierungsprozess. Ausgehend von der Fitnessbestimmung in evolutionären Algorithmen sind die Anwendungsindizien, Probleme und insbesondere mögliche Interaktionsvarianten mit dem menschlichen Bewerter darzustellen.

Kolloquium: 29.08.2008

Betreuer: Dipl.-Inform. I. Boersch, Prof. Dr. J. Heinsohn

Download: A1-Poster, Bachelorarbeit

Diplomarbeit von Jonas Lanvers

Montag, April 28, 2008

Poster Jonas Lanvers  

Simulation eines mobilen Sicherheitsroboters in Gazebo und Anbindung an eine Steuerungsbibliothek

Ziel dieser Arbeit ist der Entwurf und die Implementierung eines 3D-Modells des mobilen Sicherheitsroboters MOSRO für die Gazebo- Simulationsumgebung. Die in diesem Modell verwendeten Sensoren und Aktoren sollen realistisch modelliert und deren Schnittstellen in das Sensor-/Aktorkonzept der Robowatch Technologies GmbH integriert werden.

Alle implementierten Sensoren (Ultraschall, Infrarot, Passiv-Infrarot, Radar und Gyroskop) sind sowohl innerhalb des MOSRO-Modells, als auch separat als Plugins zu implementieren, damit sie auch für zukünftige Robotermodelle genutzt werden können.

Zum Testen und Demonstrieren der Simulation sollen zudem die Robowatch-Räumlichkeiten als Umgebungsmodell für die Simulation bereitgestellt werden. Ein einfaches Programm soll den Roboter in dieser Umgebung steuern und die Räume auf Personen überprüfen.

Kolloqium: 28.04.2008

Betreuer: Dipl.-Inform. Ingo Boersch, Dipl.-Inform. M. Willers (Robowatch Technologies GmbH)

Download: A1-Poster 

Diplomarbeit von Benjamin Hoepner

Freitag, August 31, 2007

Entwurf und Implementierung einer Applikation zur Visualisierung von Lernvorgängen bei selbstorganisierenden Karten

Selbstorganisierende Karten stellen eine besondere Form von künstlichen neuronalen Netzen dar, die sich unüberwacht trainieren lassen. Ziel der Arbeit ist die Konzeption und Implementierung einer Anwendung zum Training von selbstorganisierenden Karten. Schwerpunkt ist hierbei die Darstellung des Lernverlaufs und die Visualisierung der Karte.

Ausgangspunkt der Arbeit sei die vorhandene Applikation SOMARFF [Sch06], die in ihrem Funktionsumfang zu analysieren ist. Die neue Applikation soll den bestehenden Funktionsumfang in den Bereichen Datenvorverarbeitung, Training und Visualisierungen übernehmen und weitere Visualisierungen, wie „P-Matrix“ oder „Karte im Eingaberaum“ enthalten. Zusätzlich soll der Quantisierungsfehler geeignet dargestellt werden.

Wesentliche Eigenschaften selbstorganisierender Karten sollen abstrahiert und austauschbar gestaltet werden, um es zu ermöglichen, neue Topologien, Distanzmetriken, Datenquellen und Nachbarschaftsfunktionen zu integrieren. Besonderer Wert wird dabei auf die Wiederverwendbarkeit von Modulen und Erweiterbarkeit durch neue Module gelegt. Bestandteil der Arbeit ist weiterhin eine aussagekräftige Dokumentation des Systems für Entwickler, eine Nutzeranleitung und der Nachweis der Funktionsfähigkeit des Programms durch geeignete Experimente.

Kolloqium: 31.08.2007

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Jochen Heinsohn

Downloads: A1-Poster Diplomarbeit Applikation Sombrero.zip (84MB)

Diplomarbeit von Maurice Hüllein

Montag, Dezember 18, 2006

Automatische Generierung von Bewegungsmustern für reale Roboter mit Evolutionären Algorithmen

Ziel der Arbeit ist die Untersuchung einer automatischen Erzeugung von Bewegungsmustern für gegebene Robotermorphologien am Beispiel des ELFE-Laufroboters. Hierzu ist der Stand der Forschung auf dem Gebiet des maschinellen Lernens sensomotorischer Rückkopplungen mit Gütefunktional, die möglichen Repräsentationen von Bewegungsmustern und deren Lernalgorithmen im Überblick darzustellen.

Der Schwerpunkt der Arbeit liegt in der Untersuchung der Anwendung von Evolutionären Algorithmen, insbesondere Genetischem Programmieren auf die Problemstellung. Die gewonnenen Erkenntnisse sind in ein prototypisches System mit einem realen Roboter umzusetzen. Hierbei ist auf Modularisierung und die Möglichkeit zur Weiterentwicklung Wert zu legen. Wenn möglich, sollten Hypothesen über den Evolutionsverlauf am realen System aus einer Simulation abgeleitet und im Experiment evaluiert werden.

Abgabe: 29.11.2006 Kolloqium: 18.12.2006

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Jochen Heinsohn

Downloads: Diplomarbeit A1-Poster 

Diplomarbeit von Angelika Schulz

Samstag, August 26, 2006

Entwicklung eines Verfahrens zur Extraktion von biometrischen Merkmalen aus live aufgenommenen Frontal-Aufnahmen von Gesichtern

Ziel der Arbeit ist die Entwicklung eines Verfahrens zur Extraktion biometrischer Merkmale von Gesichtern aus Bildern, die mit einer Webcam aufgenommen wurden. Hierzu ist als Entwicklungssystem MATLAB mit der Image Processing Toolbox zu verwenden. Auf den erzeugten Mustervektoren ist eine geeignete Klasseneinteilung zu definieren und die Beispielbilder zu klassifizieren.

Abgabe: 17.08.2006 Kolloqium: 26.08.2006

Betreuer: Prof. Dr. sc. techn. Harald Loose, Dipl.-Inform. Ingo Boersch

Downloads: A1-Poster

Diplomarbeit von Katja Orlowski

Samstag, August 26, 2006

Entwicklung eines Verfahrens zur Extraktion von biometrischen Merkmalen aus standardisierten Passbildern (ISO/IEC FCD 19794-5)

Ziel der Arbeit ist die Entwicklung eines Verfahrens zur Extraktion biometrischer Merkmale aus stan-dardisierten Passbildern mit Frontalansicht. Hierzu ist als Entwicklungssystem MATLAB mit der Image Processing Toolbox zu verwenden. Auf den erzeugten Mustervektoren ist eine geeignete Klassenein-teilung zu definieren und die Beispielbilder zu klassifizieren.

Abgabe: 17.08.2006 Kolloqium: 26.08.2006

Betreuer: Prof. Dr. sc. techn. Harald Loose, Dipl.-Inform. Ingo Boersch

Downloads: A1-Poster 

Diplomarbeit von Sven Schröder

Freitag, April 07, 2006

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten

Ziel der Arbeit ist die Untersuchung von Visualisierungsmöglichkeiten von Daten mit Hilfe von Selbstorganisierenden Karten. Hierbei sind sowohl musterbezogene als auch musterunabhängige Varianten zu betrachten. Die Verfahren sollen prototypisch in ein Programmsystem umgesetzt werden, welches ohne Installation über das Netz nutzbar ist. Der Lernprozess ist geeignet darzustellen.

Hierzu sind Selbstorganisierende Karten im theoretischen Überblick zu beleuchten und für den Schwerpunkt Visualisierung trainierter Karten zu vertiefen. Anhand der im Verlauf der Diplomarbeit erzielten praktischen und theoretischen Erkenntnisse soll eine Bewertung und Systematisierung der Visualisierungsvarianten erstellt werden. Dabei sollen Aspekte wie Lesbarkeit, Informationsgehalt, Umsetzungskomplexität und andere Kriterien beurteilt werden.

Abgabe: 03.03.2006 Kolloqium: 07.04.2006

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Jochen Heinsohn

Downloads: A1-Poster Diplomarbeit Vortrag

Diplomarbeit von Holger Ripp

Mittwoch, Dezember 07, 2005

Entwurf, Implementierung und Evaluation eines Verfahrens zur Detektion von Gesichtsmerkmalen in Einzelbildern mittels künstlicher neuronaler Netze

Um ein Gesicht in einem Bild automatisch zu verarbeiten (Identifikation, Verifikation usw.), ist es notwendig zu wissen, ob und wo sich ein Gesicht im Bild befindet. Dieser als Gesichtsdetektion bezeichnete Vorgang kann mit verschiedenen Ansätzen realisiert werden.

In dieser Arbeit sollte ein Verfahren entwickelt werden, welches Gesichtsmerkmale (Augen, Nase und Mund) in Einzelbildern detektieren kann. Das Gesicht sollte sich dabei in der Frontalansicht befinden und beliebig positioniert, skaliert und rotiert sein dürfen. Weiterhin sollte eine beliebige Anzahl desselben Gesichtsmerkmals (z.B. des rechten Auges) erlaubt und das Verfahren Beleuchtungsinvariant sein.

Um das gesamte Gesicht zu detektieren, müssen die einzelnen Gesichtsmerkmale anschließend kombiniert werden, was jedoch nicht Gegenstand dieser Arbeit war.

Abgabe: 08.11.2005 Kolloqium: 07.12.2005

Betreuer: Prof. Dr. rer. nat. Friedhelm Mündemann, Dipl.-Inform. Ingo Boersch

Downloads: Diplomarbeit  A!-Poster 

Studienarbeit von David Suárez Perera

Montag, September 12, 2005

Backpropagation neural network based face detection in frontal faces images

Computer vision is a computer science field belonging to artificial intelligence. The purpose of this branch is allowing computers to understand the physical world by visual media means. This document proposes an artificial neural network based face detection system. It detects frontal faces in RGB images and is relatively light invariant.

Problem description and definition are enounced in the first sections; then the neural network training process is discussed and the whole process is proposed; finally, practical results and conclusions are discussed. Process has three stages: 1) Image preprocessing, 2) Neural network classifying, 3) Face number reduction. Skin color detection and Principal Component Analysis are used in preprocessing stage; back propagation neural network is used for classifying and a simple clustering algorithm is used on the reduction stage.

Abgabe: 12.09.2005

Betreuer: Dipl.-Inform. Ingo Boersch

Downloads: Studienarbeit 

Studienarbeit von Miguel Angel Perez del Pino

Mittwoch, September 07, 2005

A Theoretical & Practical Introduction to Self Organization using JNNS

Relating to this text

During the last years of my career, the main intention of my work has been to apply neural networks to several fields of my interest, mainly networking security and biomedicine. As Dr. Carmen Paz Suárez Araujo’s, from University of Las Palmas de Gran Canaria (Spain), and Prof. Ingo Boersch’s, from Fachhochschule Brandenburg (Germany), undergraduate student I have learned how important the neurocomputing is becoming in nowadays engineering tasks. Through this path, I have gathered a variety of ideas and problems which I would have appreciated to be written or explicitly available for my personal reading and further understanding.

The employment of a simulator to develop first stage analysis and to plan further work is a must in the engineering discipline. My aim in the development of this brief textbook has been to compose a little, but well condensed manual, where the reader can get the point of self organized networks, and moreover, of Kohonen Self Organized Maps, SOM. Using JNNS, the reader will be able to apply the theoretical issues of

Kohonen networks into practical and real development of ideas.

This brief textbook is oriented to those with little experience in self organization and Kohonen networks, but also to those interested in using and analyzing the deployment of solutions with the Java Neural Network Simulator, JNNS.

Abgabe: 07.09.2005

Betreuer: Dipl.-Inform. Ingo Boersch

Downloads: Studienarbeit  Patternfiles.zip 

Diplomarbeit von Michael Köhler

Mittwoch, August 31, 2005

Einsatz von Multiagentensystemen zur kraftfahrzeuginternen Diagnose am Beispiel der Heckdeckelfernschließung

Ziel der Arbeit ist die Anwendung von Agentensystemen auf die Diagnose einer fahrzeuginternen Funktion. Es sollen mit Hilfe der Agenten Fehler im Ablauf der Funktion erkannt und ihre Ursache so weit wie möglich eingegrenzt werden. Am Ende der Diagnose soll eine Aussage vorliegen, welches Bauteil der tatsächliche Verursacher des Fehlverhaltens war.

Hierzu sind Agentensysteme im theoretischen Überblick zu beleuchten und für den Schwerpunkt Diagnose zu vertiefen.

Beispielhaft soll ein Agentensystem für die Diagnose der Heckdeckelfernschließung (HFS) entwickelt werden. Hierzu werden die Funktion der Heckdeckelfernschließung untersucht und diagnoserelevante Aspekte herausgefiltert. Unter Verwendung dieser Vorbetrachtungen (Analyse) wird ein Entwurf für ein Diagnosesystem der HFS erstellt (Design), der vielversprechende agentenspezifische Methoden einsetzt. Mittels einer ausgewählten Agentenplattform soll der Entwurf prototypisch umgesetzt werden.

Anhand der im Verlauf der Diplomarbeit erzielten praktischen und theoretischen Erkenntnisse wird eine Bewertung von Agentensystemen für die Diagnose verteilter komplexer Systeme im Fahrzeug angestellt. Dabei Werden Aspekte wie die Flexibilität und Strukturierbarkeit der angewendeten Agentenstrukturen, deren erzielbare Diagnoseschärfe sowie die notwendigen Aufwände für die Implementierung und die Adaption betrachtet.

Abgabe: 16.08.2005 Kolloqium: 31.08.2005

Betreuer: Dipl.-Inform Ingo Boersch, Dipl.-Ing. André Fischer (DaimlerChrysler AG)

Downloads: A1-Poster 

Studienarbeit von Miguel Angel Perez del Pino

Freitag, Juli 08, 2005

Towards an Intelligent Intrusion Detection System based on SOM Architectures

With the growth of computer networks in the recent years, security has become a crucial aspect in modern computer systems. An adequate way to detect systems misuse is based on monitoring users’ activities and network traffic. Several intrusion detection methods have been proposed but they result in an expensive implementation and doubtful yield.

In this paper, it is analyzed an approach based on the application of non-supervised auto-organizing artificial neural networks to improve the performance of real-time intrusion detection systems.

Abgabe: 08.07.2005

Betreuer: Dipl.-Inform. Ingo Boersch

Downloads: Studienarbeit 

Diplomarbeit von Ronny Menzel

Mittwoch, März 30, 2005

Hindernisumfahrung eines autonomen Roboters in einer unbekannten statischen Umgebung

Ziel dieser Arbeit ist die Darstellung und der Vergleich verschiedener Hindernisumfahrungsstrategien, sowie die Konzeption und Implementierung einer Kollisionsvermeidungs- und Hindernissumfahrungsstrategie für den Wachschutzroboter Mosro.

Da der Roboter den Überwachungsweg in einer statischen Umgebung zurücklegt, können dynamische Objekte bei der Umfahrung vernachlässigt werden. Die Hindernisumfahrung soll möglichst einfach und in der Praxis einsetzbar sein, dabei aber die bauartbedingten Eigenschaften des Roboters berücksichtigen.

Abgabe: 07.03.2005 Kolloqium: 30.03.2005

Betreuer: Prof. Dr. sc. techn. Harald Loose, Dr. Jens Hanke, Robowatch Technologies

Download: A1-Poster  Vortrag 

Diplomarbeit von Steffen Lehnau

Montag, Januar 31, 2005

Tutorial und Testapplikationen zum Bau eines mobilen Roboters auf Basis der RCUBE-Plattform mit dem AKSEN-Board

Es ist zu untersuchen, welche Bestandteile für ein Autonomes Mobiles System notwendig sind und wie diese zusammenwirken. Auf Grund dieser Analysen ist ein autonomer, mobiler Roboter mit modularen, erweiterbaren und vielseitig verwendbaren Bestandteilen zu bauen. Auftretende Schwierigkeiten in der Entwicklung sind anzuführen und in allgemeingültigen Lösungsansätzen zu beschreiben.

Weiter ist zu untersuchen, welche Eigenschaften bzw. Skills ein AMS besitzen soll. Diese Skills sind zu implementieren und in die Bibliothek des AKSEN-Boards aufzunehmen. Traditionelle Ansätze zur Roboterprogrammierung, wie Weltenmodellierung oder Subsumtionsarchitektur, sind zu beleuchten.

In einem Tutorium sind an Hand des zu entwickelnden universalen, flexiblen Vehikels die Bestandteile und die zu einem komplexen Verhalten zusammengefassten, vorimplementierten Skills zu erklären. In umfangreichen Tests sollen Funktionsweise, Einfachheit und Robustheit aller Komponenten verifiziert werden.

Abgabe: 18.01.2005 Kolloqium: 31.01.2005

Betreuer: Prof. Dr. sc. techn. Harald Loose, Dipl.-Inform Ingo Boersch

Downloads: A1-Poster  Diplomarbeit  Vortrag 

Diplomarbeit von Jan Derer

Dienstag, Juni 29, 2004

Evolution einer 3D-Beschreibung aus Bildern mit Hilfe von Lindenmayer-Systemen (L-Systemen)

Ziel der Arbeit ist eine Untersuchung zur automatischen Erstellung von Objektbeschreibungen aus vorgegebenen Quellbildern.

Die Objektbeschreibung erfolgt in Form von L-Systemen, die passend zu Quellbildern erzeugt werden. Hierzu wird ein evolutionärer Prozeß auf die L-Systeme angewendet. Fitnessfunktion sei die Übereinstimmung der Ansichten der erzeugten L-Systeme aus verschiedenen Kameraperspektiven mit den Originalbildern eines einfachen Gegenstandes.

Die Arbeit soll die theoretischen Grundlagen dieses Ansatzes darlegen (insbesondere Einordnung und Klassifizierung von L-Systemen und ihre Evolutionsmöglichkeiten), eine Systemarchitektur vorschlagen und in Teilen prototypisch implementieren.

Bei der Implementation soll besonderer Wert auf die Weiternutzbarkeit der erstellten Module und die Definition externer Schnittstellen gelegt werden. Die Funktionsfähigkeit des Systems ist durch geeignete Teststellungen zu evaluieren.

Abgabe: 14.06.2004 Kolloqium: 29.06.2004

Betreuer: Prof. Dr. rer. nat. Friedhelm Mündemann, Dipl.-Inform. Ingo Boersch

Downloads: A1-Poster  Diplomarbeit  Vortrag 

Diplomarbeit von Tino Schonert

Dienstag, März 11, 2003

Einsatz Evolutionärer Algorithmen zur Optimierung der Tourenplanung eines Wachschutzunternehmens

Bei der SAFE Wachschutz / Allservice Brandenburg GmbH ist man daran interessiert, die Tourenplanung für das Wachpersonal so effektiv wie möglich zu gestalten, um Zeit und Kosten zu sparen.

Das Problem stellt sich wie folgt dar: ausgehend von einem zentralen Fahrzeugdepot müssen mehrere Kunden (Wachobjekte) angefahren und kontrolliert werden. Dazu stehen im Depot mehrere Fahrzeuge zur Verfügung.

Ziel ist es, die verschiedenen Kunden auf mehrere Routen so aufzuteilen, dass die dafür benötigte Zeit und Gesamtstrecke möglichst minimal werden. Die Planung der einzelnen Touren soll durch ein rechnergestütztes Verfahren vorgenommen werden. Dazu ist eine Software-Lösung zu erstellen, welche die individuellen Anforderungen des Problems in geeigneter Art und Weise abbildet und unter Berücksichtigung sämtlicher Restriktionen möglichst effiziente Routen ermittelt.

Teilaufgaben:

  • Analyse der gegebenen Problemstellung
  • Untersuchung und Bewertung möglicher Lösungsverfahren
  • Modellierung des Wachschutzprozesses (geeignete Beschreibung von Objekten, Wachanweisungen und Zeitbedingungen)
  • Konzeption und Implementierung eines Genetischen Algorithmus zur Lösung des Tourenplanungsproblems
  • Erstellung einer benutzerfreundlichen Oberfläche (Windows-Programm)

Das Programm soll an einem konkreten Beispiel (Nachtrevier Brandenburg) getestet und die Lösungen bzgl. des Zeit- und Kostenaufwands mit den bisherigen Fahrtrouten verglichen werden.

Abgabe: 04.02.2003 Kolloqium: 11.03.2003

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Jörn Schlanert (Geschäftsführer SAFE Wachschutz / Allservice GmbH)

Downloads: Diplomarbeit  A1-Poster  Vortrag 

Diplomarbeit von Enrico Ehrich

Mittwoch, Januar 15, 2003

Qualitatives räumliches Schließen zur Objektverfolgung in Bildfolgen

Zielstellung des Themas ist die Konzeption eines Systems zur Verfolgung von Objekten in Bildfolgen. Dieses System gibt bei Anfragen an die Wissensbasis Auskunft über die möglichen Positionen der Objekte, auch wenn diese zum aktuellen Zeitpunkt von anderen Objekten verdeckt sind. Systembedingt (z.B. Verdeckung) kann die Position eines Objektes mehrdeutig sein, hierbei sind alle möglichen Positionen des Objektes unter bestimmten Randbedingungen zu verfolgen.

In der Arbeit sollen die Grundlagen für die Wissensrepräsentation räumlicher Relationen sowie des Inferenzprozesses untersucht, sowie eine Systemarchitekur für das Gesamtsystem entwickelt werden. Die Funktionalität wird über eine protoypische Implemetation der Architektur (ohne Bildaufnahme, -verarbeitung) nachgewiesen. Die Umsetzung soll besonderen Wert auf Modularisierung und Wiederverwendbarkeit legen.

Abgabe: 22.11.2002 Kolloqium: 15.01.2003

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Inform Ingo Boersch

Downloads: Diplomarbeit  A1-Poster   Vortrag 

Diplomarbeit von Frank Schwanz

Mittwoch, Januar 15, 2003

Konzeption und Implementierung einer Videodigitalisierung und Videoausgabe unter Embedded Linux

Im Rahmen des Projektes "Initiative Intelligente Autonome Systeme" wird an der FH Brandenburg ein Kernel für intelligente autonome Systeme entwickelt. Eine Teilkomponente des R-Cube-Systems ist eine eigenständige Bildverarbeitungskarte mit StrongARM-Prozessor und ARM-Linux.

Zielstellung des Themas ist die Konzeption und Implementierung der Videodigitalisierung und Videoausgabe der Bildverarbeitungskarte. Hierbei sind Schnittstellen zum Auslesen der Bilddaten (vorzugsweise Video4Linux) und Ausgabe von Bilddaten (vorzugsweise Framebuffer-Device) zu entwickeln. Die Umsetzung soll besonderen Wert auf die mögliche Nutzung in kommenden Linux-Kernelversionen sowie die Performance der Lösung legen. Die Funktionsfähigkeit des Systems ist durch geeignete Teststellungen zu evaluieren.

Abgabe: 26.11.2002 Kolloqium: 15.01.2003

Betreuer: Dipl.-Ing. Henry Westphal (TIGRIS Elektronik GmbH), Dipl.-Inform Ingo Boersch

Downloads: Diplomarbeit  A1-Poster  Vortrag 

Diplomarbeit von Norman Krause

Dienstag, Juli 02, 2002

Untersuchung von Elementarbewegungen des Schreitroboter SimengDolores (Entwurf, Programmierung und Test)

Schwerpunkte:

* Bewegungsmuster (Gaits): Definition, Arten, Phasen, Beschreibungsmittel

* Geradlinige Bewegung (Beschreibung, Programmierung, Diskussion): Wave (Tripod) Gait, Follow-the-Leader Gait, Equal-Phase Gait

* Krummlinige Bewegung (Beschreibung, Programmierung, Diskussion): Turn (Drehen), Swing (Schwenken),

* Experimentelle Untersuchungen: Laufzeiten, Abhängigkeiten vom Ladezustand der Akkus, "Geradlinigkeit", Wiederholbarkeit, Reproduzierbarkeit

* Dokumentation in Form eines Films

Abgabe: 30.05.2002 Kolloqium: 02.07.2002

Betreuer: Prof. Dr. sc. techn. Harald Loose, Dipl.-Inform Ingo Boersch

Downloads: Diplomarbeit  A1-Poster  Vortrag 

Diplomarbeit von Mathias Lühr

Dienstag, Juni 25, 2002

Lösung komplexer "Pickup and Delivery" Probleme unter Einbeziehung moderner Constrainttechniken

Für die Tourenplanung innerhalb der Entsorgungs- und Baubranche sollen moderne Constrainttechniken analysiert und eine Softwarebibliothek entwickelt worden. Hierzu solIte der Stand der Forschung auf den Gebieten der "Constraint-Satisfaction" und von "Constraint Systemen" einfließen und bei der Analyse der Fahrzeugplanung hinsichtlich der Anforderungen an die zu schaffende Softwarebibliothek beachtet worden.

Für die Arbeit sollten geeignete Constraint-Solver-Bibliotheken hinsichtlich des Fahrzeugroutens evaluiert und ein zweckmäßiger Constraint-Solver ausgewählt werden.

Unter Einbeziehung des gewählten Solvers stand es zur Aufgabe, eine Softwarebibliothek zu entwerfen und zu implementieren, die gegebene "Pickup and Delivery" Probleme 1öst. Die Implementierung sollte in C/C++ oder in Delphi (Objektpascal) durchgeführt werden. Dabei war zu beachten, dass die entwickelte Bibliothek von Delphi-Programmen aus nutzbar und auf dem Betriebsystem Windows NT 4 lauffähig sein musste.

Abgabe: 22.04.2002 Kolloqium: 25.06.2002

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Ing (FH) Torsion Storrer (IVU Traffic Technologies AG)

Downloads: Diplomarbeit  A1-Poster  Vortrag 

Diplomarbeit von Andreas Schwarzbauer

Dienstag, Mai 21, 2002

Einsatz von Applikationsservern - Untersucht am Beispiel des Sybase "Enterprise Application Server"

Abgabe: 22.04.2002 Kolloqium: 21.05.2002

Betreuer: Prof. Dr. habil. Manfred Günther, Dipl.-Inform Ingo Boersch

Downloads: Diplomarbeit  A1-Poster  Vortrag 

Diplomarbeit von Cornell Hesse

Mittwoch, März 27, 2002

Strategische Untersuchung zum Einsatz eines Dokumenten-Management-Systems im PC Netzwerk der PCK Raffinerie GmbH für zentrale Dokumente mit allgemeinem Charakter

Die IT-Struktur der PCK Raffinerie GmbH beruht auf einem umfangreichen Client/Server basiertem Netzwerk. Innerhalb dieses Netzwerkes werden, mit dem Strukturierungsmittel "Verzeichnisablage", Dokumente geordnet abgelegt und dem Nutzer über ein zentrales Menü zur Verfügung gestellt. Für die Verwaltung technischer Dokumente wird ein Dokumentenverwaltungssystem (DVS) im SAP/R3 eingesetzt.

Es ist der Einsatz von Dokumenten-Management-Systemen zu untersuchen, um so die bestehende properitäre Lösung für die Verwaltung der zentralen Dokumente mit allgemeinem Charakter zu ersetzen. Die Verwaltung und Nutzungsmöglichkeiten der Dokumente sollen damit wesentlich zu verbessert werden. Hierzu ist erstens der Ist-Zustand zu dokumentieren und ein Anforderungskatalog zu erstellen und zweitens eine praktische Untersuchung der Systeme durchzuführen.

Die Untersuchung soll auf wenige ausgewählte Systeme begrenzt werden. Von Seiten der PCK werden der Microsoft SharePoint Portal Server und das Dokumentenverwaltungssystem (DVS) des SAP/R3 Systems vorgegeben. Die Arbeitsweise und Funktionalität der ausgewählten Systeme ist in der Praxis, an Hand eines selbst gewählten Beispiels aufzuzeigen, nachzuweisen und zu vergleichen.

Das Ergebnis ist in Form einer Empfehlung für die PCK Raffinerie GmbH darzustellen.

Abgabe: 22.02.2002 Kolloqium: 27.03.2002

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Ing. M. Thomas (PCK Schwedt)

Downloads: Diplomarbeit  A1-Poster  Vortrag 

Diplomarbeit von Rene Eggert

Donnerstag, Januar 31, 2002

Reinforcement Lernen für mobile Systeme

Zielstellung des Themas ist die Evaluation des Reinforcement-Lernens (speziell Q-Lernen) zur Anwendung in mobilen Systemen. Hierbei sollen die verschiedenen Arten der Methode theoretisch und experimentell verglichen und beispielhaft im Simulator sowie im realen Roboter umgesetzt werden. Die Anwendungsdomäne sei dabei das Erlernen eines Verhaltens zur Hindernisvermeidung mittels Sonarsensoren. Die Implementierung soll besonderen Wert auf die Wiedernutzbarkeit legen.

Abgabe: 10.01.2002 Kolloqium: 31.01.2002

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Inform Ingo Boersch

Downloads: Diplomarbeit  A1-Poster  Vortrag 

Diplomarbeit von Jörg Dressler

Donnerstag, September 27, 2001

Navigation mobiler Systeme in Indoor-Umgebungen

Zielstellung des Themas ist die Untersuchung von Selbstlokalisierungsverfahren mobiler Systeme in Gebäuden (insbesondere Kalman-Filter) zur intelligenten Verknüpfung mehrerer Informationsquellen und die Implementierung, sowie Evaluation auf einem realen Roboter. Die Umsetzung soll besonderen Wert auf die Erweiterbarkeit des Systems über die herkömmlichen Sensorquellen (Sonar, Odometrie) hinaus auf zusätzliche Sensorquellen (z.B. Kompass, Gyroskop, DGPS) legen.

Abgabe: 03.08.2001 Kolloqium: 27.09.2001

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Inform Ingo Boersch

Downloads: Diplomarbeit  A1-Poster 

Diplomarbeit von Oliver Sachse

Freitag, Januar 26, 2001

Demoapplikation Serviceroboter fürs Kinderzimmer - Integration von Bildverarbeitung, Handlungsplanung und Navigation

Zielstellung des Themas ist die Entwicklung einer vollständigen Demoapplikation mit einem realen Roboter für folgendes Szenario: Auf einem Teppichuntergrund liegt verstreut farbiges Spielzeug, daß durch einen Roboter eingesammelt und in einer Sammelstelle abgelegt werden soll. Die Objekte sollen mittels optischer Objekterkennung lokalisiert und gezielt aufgenommen werden. Für die Lösung der Aufgabe ist eine intelligente Verknüpfung von Bildverabeitung, Handlungsplanung und Navigationsleistungen notwendig. Besonderes Augenmerk ist auf die Robustheit und die "Gutmütigkeit" des Systems zu legen.

Abgabe: 15.01.2001 Kolloqium: 26.01.2001

Betreuer: Prof. Dr.-Ing. Jochen Heinsohn, Dipl.-Inform Ingo Boersch

Downloads: Diplomarbeit  A1-Poster  Vortrag