Spatial Memory is an essential part of our everyday life: There is no need for a map to find the way to our best friend’s home, we know where to find milk cartons in our preferred supermarket, and most of the time we remember where we placed the remote control of our TV. In a similar way, spatial memory and technology can be also combined: The desktop of our laptop represents a physical desktop and like in a physical environment, documents and tools can be placed at different positions. Navigating to them is easy when done regularly.

In our paper titled “Memory in Motion: The Influence of Gesture- and Touch-Based Input Modalities on Spatial Memory“, we investigate the influence of three different state-of-the-art input modalities (touchpad, touch, and gesture) and two different off-the-shelf displays (a 10.6 inch tablet and a 55 inch tabletop) on spatial memory performance and object location memory. To do so, we used a well-established task set consisting of (1) a navigation task, where our participants had to navigate to spatially spread symbols and (2) an object location memory task, where participants had to recall positions of the symbols.

Our three different input modalities PAD, TOUCH, and MOVE used on LARGE.

Our findings show that participants engage in different interaction strategies when working in different conditions. Depending on the interaction modality and the display size, we identified two trade-offs: The Efficiency vs. Spatial Memory trade-off shows that navigation speed negatively correlates with spatial memory performance, and the User Satisfaction vs. Spatial Memory trade-off shows that a subjective user satisfaction score negatively correlates with the performance of spatial memory, leading to different usage patterns that participants take on to fulfil the task at hand.

We will present that paper at this year’s CHI conference in Denver, Colorado, USA. Feel free to read the paper, watch the video, or use our task for your own experiment.


Reference Paper:
Johannes Zagermann, Ulrike Pfeil, Daniel Fink, Philipp von Bauer, and Harald Reiterer. 2017. Memory in Motion: The Influence of Gesture- and Touch-Based Input Modalities on Spatial Memory. To Appear: In Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems (CHI ’17). ACM, May 2017.

Memory in Motion

Johannes Zagermann is a research assistant in the Human-Computer Interaction Group at the University of Konstanz. Currently he is working on the SFB-TRR 161 project C01 (Quantifiying Interaction). His main research areas are collaborative sensemaking, cross-device interaction and their intersection. In addition, he is interested in the application and combinations of different evaluation methods (e.g. eye tracking) in order to investigate quantitative and qualitative aspects of knowledge work.

Leave a Reply

Mit dem Eintrag in das nachstehende Feld können Sie unter Angabe eines Namens einen Kommentar hinterlassen.

Personenbezogene Daten
Sie haben die Möglichkeit die Kommentarfunktion ohne Angabe von personenbezogenen Daten unter einem Pseudonym zu nutzen.
Name - Bei dieser Angabe handelt es sich um eine Pflichtangabe. Der von Ihnen gewählte Name wird mit dem von Ihnen verfassten Kommentar veröffentlicht.
E–Mailadresse - Bitte beachten Sie, dass die Angabe Ihrer E–Mailadresse zur Nutzung der Kommentarfunktion nicht erforderlich ist. Auch im Falle einer Eingabe wird die E-Mailadresse nicht verwendet, auch nicht veröffentlicht. Bitte lassen Sie dieses Feld unausgefüllt.
Webseite - Die Angabe Ihrer Webseite ist freiwillig. Die von Ihnen angegebene Webseite wird zusammen mit Ihrem Kommentar veröffentlicht.

Nach den §§ 21, 22 LDSG haben Sie das Recht, auf Antrag unentgeltlich Auskunft über die von der Universität Stuttgart und Universität Konstanz über Sie gespeicherten Daten zu erhalten und bei unrichtig gespeicherten Daten deren Berichtigung zu verlangen (Auskunfts- und Berichtigungsrecht). Ein Auskunfts- oder Berichtigungsersuchen richten Sie bitte schriftlich an die Geschäftsstellen des SFB-TRR 161 an der Universität Stuttgart (E-Mail: sfbtrr161[at]visus.uni-stuttgart.de) bzw. der Universität Konstanz (E-Mail: sfbtrr161[at]uni-konstanz.de).