Tastatur

Forschung

Foto Michael Kipp

Meine aktuelle Forschung beschäftigt sich mit Multitouch- und Gestik-Interaktion. Das von mir entwickelte Video-Annotationswerkzeug Anvil, das die Analyse von nonverbaler und multimodaler Kommunikation erlaubt, wird immer noch wissenschaftlich eingesetzt.

In der Vergangenheit habe ich mich mit intelligenten, emotionalen virtuellen Agenten, mit Gesten- und Gebärdensprachsynthese beschäftigt. Am DFKI habe ich im Bereich Dialogsysteme und Computerlinguistik gearbeitet. Meine Diplomarbeit befasste sich mit neuronalen Netzen.

Als wissenschaftlicher Gutachter bin ich für die EU, nationale Forschungsagenturen (Deutschland, Schweiz, Niederlanden, Island), Konferenzen (u.a. CHI, IROS, UbiComp, IUI, LREC, SIGGRAPH) und Fachzeitschriften (u.a. ACM TIIS, ACM TOG, ACM TACCESS, Speech Communication) tätig. Ich bin Mitglied im Editorial Board der Zeitschriften Journal on Multimodal User Interfaces (Springer) und Multimodal Technologies and Interaction (MDPI).

2007 und 2015 konnte ich mit meinen jeweiligen Ko-Autoren die Best Paper Awards der Konferenzen IVA und INTERACT gewinnen.

Weitere Infos zu meiner Forschung finden Sie bei Google-Scholar oder ResearchGate.

Google-Scholar → ResearchGate →

Forschungsthemen

  • Mensch-Computer-Interaktion
  • Multitouch
  • Gesture-basierte Interaktion
  • Multimodale Interaktion
  • Annotationswerkzeuge

Anvil

Das Video-Annotationstool Anvil erlaubt die manuelle Annotation von Videos zur späteren Auswertung.

Anvil-Homepage →

Publications

Selected publications:

Nguyen, Q., and Kipp, M. (2015) Where to Start? Exploring the efficiency of translation movements on multitouch devices. In: Proceedings of INTERACT. Best Paper Award

Kipp, M. (2014) ANVIL: The Video Annotation Research Tool. In: Durand, J., Gut, U., Kristoffersen, G. (eds.) Handbook of Corpus Phonology, Oxford University Press, Chapter 21, pp. 420-436.

Nguyen, Q., Kipp, M. (2014) Orientation Matters: Efficiency of translation-rotation multitouch tasks. In: Proceedings of CHI.

Kipp, M., Martin, J.-C. (2009) Gesture and Emotion: Can basic gestural form features discriminate emotions? In: Proceedings of the International Conference on Affective Computing and Intelligent Interaction (ACII-09), IEEE Press. Nominated for Best Paper

Kipp, M., Neff, M., Kipp, K.H. und Albrecht, I. (2007) Toward Natural Gesture Synthesis: Evaluating gesture units in a data-driven approach. In: Proceedings of the 7th International Conference on Intelligent Virtual Agents, Springer, pp.15-28. Best Paper Award

Kipp, M. (1998) The Neural Path to Dialogue Acts. In: Proceedings of the 13th European Conference on Artificial Intelligence (ECAI).

Show all →

Talks

Selected talks:

01/2016: Digital vs. Präsenz: Beispiele aus der Informatikausbildung, Tag der Lehre, Hochschule Augsburg

03/2015: Anvil - Efficient Annotation, Videos and Motion Capture, LIMSI, Paris

11/2012: Keynote Tools for Multimodal Behavior Analysis and Synthesis, 4th Nordic Symposium on Multimodal Communication, Gothenburg, Sweden

09/2012: Gebärdensprachavatare im Internet - Möglichkeiten und Grenzen, Di-Ji-Kongress "Verständlich informiert - im Job integriert", Aktionsbündnis für barrierefreie Informationstechnik, Berlin

Show all →