« April 2015 | Main | Juli 2015 »

Data Challenge "Human Activity Recognition Using Smartphones Data Set" - Projektorientiertes Lernen im Master

Freitag, Juni 26, 2015

Konfusionsmatrix In der Wahlpflichvorlesung "Data Mining" im zweiten Mastersemester der Informatik wird neben knackigen Vorlesungen und Übungen auch eine Data Challenge geboten, bei der eine echte Datenanalyse im Team mit freier Wahl der Mittel bearbeitet und als Paper beschrieben wird. In einem paarweisen Review-Prozess werden die erstellten Analysen durch die Studierenden selbst nach vorgegebenen Kriterien evaluiert.

Die Aufgabe dieses Semesters ist die Konstruktion eines Modells, das die Aktivität einer Person (Sitzen, Liegen, Laufen usw.) aus den Messungen ihres Smartphones erkennt. Es sind belastbare Aussagen zur erwarteten Güte des Modells zu treffen und das Modell auf unbekannte Daten anzuwenden. Die Daten stammen aus [1] und sind vorverarbeitet, um sie leichter in Python, R oder RapidMiner laden zu können.

Bei den erstellten Klassifikationen gibt es kein Schummeln, denn die Lehrenden können erkennen, ob die berechneten Vorhersagen mit der Realität übereinstimmen. Dass die Studierenden die Aufgabe in der Mehrheit hervorragend gelöst haben, zeigt die Abbildung der Erfolgsraten, also der Anteil der richtig erkannten Tätigkeiten.

Abb.: Wie gut können die Teams die Tätigkeit einer Person anhand der Smartphone-Daten vorhersagen:

[1] Davide Anguita, Alessandro Ghio, Luca Oneto, Xavier Parra and Jorge L. Reyes-Ortiz. A Public Domain Dataset for Human Activity Recognition Using Smartphones. 21th European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning, ESANN 2013. Bruges, Belgium 24-26 April 2013.

Categories: Maschinelles Lernen

Projektkonferenz - Humanoider Roboter lernt Tic Tac Toe spielen

Mittwoch, Juni 17, 2015

Am 17. Juni herrschte wieder reges Treiben im Vorraum der Mensa: dort zeigten 43 Studierende aus 11 Teams ihre Projektarbeiten auf der diesjährigen 4. Projektkonferenz.

Aus dem Labor für Künstliche Intelligenz präsentierte Andy Klay eine Arbeit zum Reinforcement-Lernen von Spielstrategien in humanoiden Robotern: der NAO-Roboter Eve erkennt mittels Bildverarbeitung die Spielsituatuin eines Tic Tac Toe-Spiels und reagiert mit einem eigenen Spielzug. Die dazu nötige Spielstrategie wurde jedoch nicht fest implementiert, sondern wird durch den Roboter beim Spielen gegen menschliche und künstliche Gegenr entwickelt, in dem er versucht herauszufinden, in welchen Situation, welche Züge zu einem späteren Spielgewinn führen. Schwache Gegner wird er versuchen auszutricksen und von starken Gegnern wird er Strategien übernehmen.

Reinforcement-Lernen ist in der Grundidee ein einfaches Lernparadigma, bei dem der Lerner nicht passiv die Belehrung durch den Lehrer hinnimmt (wie beim supervised learning), sondern aktiv durch eigene Aktionswahl seinen Lernprozess steuert. Der Lerner erntscheidet also, welche neuen Erfahrungen er machen möchte oder ob er lieber bei bewährten Aktionen bleibt. Die praktische Umsetzung wird schwierig, wenn die Umgebung stochastisch reagiert, nur schwer zu erkennen ist, einen Gegner enthält, sehr viele Zustände umfasst oder die Belohnung/Bestrafung verzögert erfolgt. Mindestens zwei dieser Merkmale weist das Tic Tac Toe-Spiel auf.

NAO und Eve vorm KI-Labor:

 

Categories: Abschlussarbeiten, Maschinelles Lernen