« September 2008 | Main | November 2008 »

Diplomarbeit von Brandolf Gumz

Mittwoch, Oktober 29, 2008

Konzeption und Implementierung einer Applikation zur Bewertung geometrischer Differenzen von Landbedeckungs- und Landnutzungsdaten unter Berücksichtigung der semantischen Interoperabilität

Aufgabe ist es, eine Anwendung für die Firma DELPHI IMM GmbH zu entwickeln, die geometrische und semantische Unterschiede von Geodatensätzen aus verschiedenen Objektartenkatalogen für Landbedeckung- und Landnutzungsdaten aufzeigt und dabei die semantische Interoperabilität berücksichtigt.

Als Ausgangsdaten dienen zum einen ein ATKIS Basis-DLM Datensatz und zum anderen ein aus aktuellen Satellitenbildern klassifizierter DeCOVER-Ausgangsdienst (DeCOVER-AD) Datensatz. Anhand dieser Ausgangsdaten soll die Anwendung entwickelt und geprüft werden. Beide Datensätze liegen jeweils im Shape-Format vor. Die Nomenklatur der Landbedeckung und Landnutzung in beiden Formaten steht in einer n:m-Beziehung und wird durch eine Ähnlich-keitsrelation für die Arbeit bereitgestellt.

Das Ziel der Anwendung ist es eine Voraussetzung zu schaffen, um Landbedeckungs- und Landnutzungsdaten mit Hilfe von Ergebnissen auf Basis von Fernerkundungsdaten,

Kolloquium: 29.10.2008

Betreuer: Dipl.-Inform. Ingo Boersch, Dr. Rolf Lessing (DELPHI IMM GmbH)

Download: A1-Poster

Categories: Abschlussarbeiten

Bachelorarbeit von David Saro

Donnerstag, Oktober 02, 2008

Anwendung von Methoden des Data Mining bei der Produktion von Dünnschicht-Solarmodulen

Zielstellung des Themas ist die Untersuchung der Anwendbarkeit von Methoden des Data Mining zum Finden und Modellieren von Abhängigkeiten der an fertigen Solarmodulen gemessenen Größen von den Parametern und Messwerten des Produktionsprozesses. Die auszuwertenden Daten liegen dabei zu Beginn der Arbeit im Wesentlichen als Tabelle vor.

Die Arbeit umfasst in einem ersten Teil die Einordnung der Aufgabenstellung in den wissenschaftlichen Kontext und das Umfeld beim Hersteller, die notwendige Datenvorbereitung (bspw. geeignete Behandlung von fehlenden Werten, Normalisierung, Diskretisierung, Selek-tion und Aggregation von Merkmalen), die Formulierung und Test einfacher Hypothesen (bspw. statistische Abhängigkeit), Darstellung von Werten der deskriptiven Statistik (bspw. Quartile im Boxplot, Scatterplots, Histogramme) und der Korrelation.

Darauf aufbauend soll im zweiten Teil versucht werden, Abhängigkeiten automatisch zu modellieren und über Kreuzvalidierung zu bewerten. Hierbei ist datengetrieben eine geeignete, möglichst transparente (menschenlesbare) Wissensrepräsentation auszuwählen. Als Anre-gung seien hier Entscheidungsbäume, Regelsysteme, künstliche neuronale Netze und Ent-scheidungslisten genannt. Die Arbeit soll konkrete Wege zur Fortführung der Datenanalyse aufzeigen.

Die besondere Schwierigkeit der Arbeit liegt in der unbekannten Datenqualität, dem Umfang der Daten und insbesondere der Breite des Themas. Zur Verwendung werden Weka, Ra-pidMiner, Gnuplot, Excel, R und Matlab empfohlen.

Kolloquium: 02.10.2008

Betreuer: Dipl.-Inform. Ingo Boersch, Prof. Dr.-Ing. Jochen Heinsohn, Christian Kneisel

Download: A1-Poster

Categories: Abschlussarbeiten, Maschinelles Lernen