Search

Categories

Monthly Archives

July 2017
M T W T F S S
« May    
 12
3456789
10111213141516
17181920212223
24252627282930
31  

Tags

Für eine Studie werden 16-18 jährige gesucht, die an 3 Sitzungen mit zwei EEG-Terminen teilnehmen

Für eine Studie werden 16-18 jährige gesucht, die an 3 Sitzungen mit zwei EEG-Terminen teilnehmen. Für die Beteiligung gibt es 72 Euro. Nach zwei Jahren wiederholen wir das Ganze und es gibt nochmals 72 Euro!

Falls jemand Interesse hat, kann er sich gerne bei h.schmitt@mx.uni-saarland.de oder Mikado.Studie@gmail.com melden. Wir machen mit jedem einen individuellen Termin aus.

FootStriker – ein Wearable zur Laufstilverbesserung

Mahmoud Hassan hat sich im Rahmen seiner Masterarbeit mit der Fragestellung beschäftigt, wie Läufer durch ein Echtzeitassistenzsystem unterstützt werden können einen neuen, effizienteren Laufstil zu erlernen. Konkret ging es dabei um die Umstellung des Laufstils vom Fersenlauf hin zum Mittelfuß- bzw. Vorfußlauf.

Hierzu wurde das FootStriker System entworfen und prototypisch umgesetzt. Es besteht einerseits aus einer selbstentwickelten, drucksensitiven Sohle zur Laufstilerkennung, und andererseits aus einem Aktuator, der einen Reizstrom an der Wadenmuskulatur (EMS) zur aktiven Anpassung der Fußgelenkstellung in der Flugphase des Schrittes anlegt. Das System wurde im Rahmen einer Laufstudie evaluiert und im IMWUT Journal publiziert: https://dl.acm.org/citation.cfm?doid=3075646.3053332

Revision: Tickets für Studierende der HBKsaar und UdS (Medieninformatik)

Vom 14. bis 17. April 2017 findet wieder im saarbrücker E-Werk das weltweit größte Demoszene-Event statt und wir unterstützen interessierte Studierende der HBK und der Medieninformatik bei einer Teilnahme mit kostenlosen Eintrittskarten (solange der Vorrat reicht…). Das Festivalticket kostet sonst 65 EUR.

https://2017.revision-party.net/

Es gibt außerdem auch wieder einen Wettbewerb für die Medienfassade der HBKsaar, weitere Infos hier:

http://www.xmlab.org/revision

Wenn Ihr Interesse habt zur Revision zu gehen, meldet euch bitte bei Marcel Köster: m.koester@xmlab.org

Begründet in der Mail kurz eure Motivation / euer Interesse! Die einzige Bedingung ist, dass ihr Studierende der HBKsaar oder Medieninformatik (UdS) seid und an einem Nachtreffen (voraussichtlich) kurz vor Semesterbeginn teilnehmt, bei dem ihr von eurer Erfahrungen erzählt und dazu z.B. Fotos zeigt.

CHI 2016

Vom 7. bis 12. Mai 2016 fand die diesjährige ACM SIGCHI Conference on Human Factors in Computing Systems (CHI), eine der wichtigsten Konferenzen weltweit zum Thema Human-Computer Interaction (HCI), im kalifornischen San Antonio statt. Fast 4000 Forscher und Entwickler aus aller Welt, darunter auch 6 UMTL-Forscher, nahmen an der 34. Ausgabe der Konferenz teil und präsentierten ihre neuesten Forschungsergebnisse.

Im Bereich HCI und Sport wurden mehrere Arbeiten präsentiert. Im Paper ClimbAware wurden Ergebnisse einer Studie zur Wahrnehmung von Notifikationen von Wearables beim Klettern vorgestellt. Der betaCube, das Herzstück des neuesten DFKI-Spinoffs “climbtrack”, ein Assistenzsystem für Sportkletterer wurde als Poster präsentiert. Im NatureCHI-Workshop wurden die Ergebnisse eine Umfrage unter Kletterern zur Akzeptanz und den Einsatzmöglichkeiten von Wearables im Klettersport präsentiert. Beim gemeinsamen Klettern und Laufen mit Kollegen aus aller Welt wurden neue Ideen und Projekte diskutiert.
ClimbAware
BetaCube
running at chi

Mit dem WaterCoaster wurde ein sensor-gestütztes System zur Überwachung der täglichen Flüssigkeitsaufnahme präsentiert – ein System, das vor allem älteren Menschen helfen kann, ihren Flüssigkeitsbedarf zu decken.
WaterCoaster
Zwei weitere Paper beschäftigen sich mit Gamifizierungsansätzen im Allgemeinen und der Nutzung von Microtasks zur Erkennung von Kassenzetteln zur Haushaltsführung im Speziellen.

Die nächste CHI wird im Mai 2017 in Denver, Colorado stattfinden.

Bundespräsident besucht das DFKI

Heute besuchte der Bundespräsident mit dem Diplomatischen Korps das DFKI und wir hatten die Gelegenheit ihm mehrere Beispiele unserer Forschung zu demonstrieren. Zum Einen wurden Beispiele aus dem Innovative Retail Lab vorgestellt und climbtrack präsentierte den betaCube an unserer neuen DFKI-Kletterwand!

bp-ct

bp-irl

Globus-Marathon St. Wendel

Christian Lander und Florian Daiber verstärkten dieses Jahr das Globus Team beim Globus-Marathon St. Wendel, indem sie unser Innovative Retail Lab (würdig) vertraten. Christian bestritt seinen ersten Halbmarathon und Florian feierte seine Laufpremiere über die volle Distanz.

globus runner

Passend hierzu findet in diesem Semester das Seminar Ubiquitous Sports Technologies statt. Vielleicht laufen beim nächsten Globus-Marathon ein paar Cyborgs mit…

Recon Jet Running Glasses

climbtrack gewinnt CeBIT Innovation Award

Felix Kosmalla und Frederik Wiehr gewinnen mit climbtrack den diesjährigen CeBIT Innovation Award. climbtrack ist ein Assistenzsystem für Klettertraining und macht neuartige Konzepte aus dem Bereich Mensch-Maschine-Interaktion für den Klettersport nutzbar. Das System erkennt Kletterwände, projiziert gespeicherte Kletterrouten und vorher aufgezeichnete Aktionen der Sportlerinnen und Sportler in Lebensgröße an die Wand und bietet eine detaillierte Videoanalyse. Die Idee wurde im Rahmen eines Spin-offs des DFKI umgesetzt und mit dem ersten Preis des CeBIT Innovation Award 2016 ausgezeichnet. Bundesforschungsministerin Prof. Dr. Johanna Wanka überreichte die Auszeichnung im Rahmen der offiziellen Eröffnung in Hannover.

IMG_20160315_103656

IMG_20160315_101852

IMG_20160315_101030

DFKI-Pressemitteilung

Gazeprojector

Mehrere Bildschirme mit einer Eye-Tracking-Brille gleichzeitig nutzen

Mit mobilen Eye-Trackern lassen sich relativ einfach Blickbewegungen des Nutzers erkennen. Solche Tracker-Brillen besitzen in der Regel zwei Kameras: Eine kleine Infrarot-Kamera ist zum Nutzer hingewandt und erkennt die Bewegungen der rechten Pupille. Die andere Kamera (Frontkamera) ist nach vorne gerichtet und erfasst das Bild, das auch der Nutzer sieht. Eine Software kombiniert die Bilder beider Kameras und erkennt so, wohin das Auge genau schaut. Die Technik ist nicht nur für Marktforscher interessant, sondern ist auch schon bei ersten Computerspielen im Einsatz – etwa um Charaktere am Bildschirm mit Blickbewegungen zu steuern.

„Damit solche Datenbrillen richtig arbeiten und den Display erkennen, müssen sie zuvor kalibriert werden“, sagt Antonio Krüger, Professor an der Universität des Saarlandes und Leiter des Innovative Retail Laboratory am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Bislang war die Technologie nur in der Lage, mit einem einzigen Bildschirm zu arbeiten. Die Saarbrücker Forscher um Krüger und seinen Doktoranden Christian Lander haben nun ein Verfahren entwickelt, das es ermöglicht, mehrere Bildschirme in einem Raum mit der Brille gleichzeitig zu nutzen: zum Beispiel einen Flachbildschirm an der Wand, ein Tablet auf dem Sofatisch und einen PC-Bildschirm auf dem Schreibtisch.

„Bei unserer Technik nutzen wir einen Server, der bestimmte Merkmale der einzelnen Bildschirme wie beispielsweise die Auflösung und Größe erkennt“, so Christian Lander, Leiter des Projekts. Darüber hinaus schicken die Displays in regelmäßigen Abständen Informationen zu den gezeigten Inhalten an den Server, beispielsweise ob ein Textdokument, ein Foto oder Video zu sehen ist. Dadurch hat dieser alle Bildschirme und deren Inhalte stets im Blick. Außerdem liefert die Frontkamera des Eye-Trackers weitere Bilder. „Unsere Software vergleicht die eingehenden Daten mit denen der Nutzerkamera. Sie erkennt so, ob der Nutzer auf das Tablet auf dem Tisch oder den Fernsehschirm an der Wand schaut“, sagt Lander weiter.

Damit die Tracking-Brille die Geräte erkennt, muss jedes einzelne von ihnen im Vorfeld einmal vom System erfasst werden. Das Verfahren erlaubt dem Nutzer zudem eine gewisse Flexibilität: Die Bildschirme müssen nicht an einem festen Ort im Raum bleiben. Das System erkennt beispielsweise ein Tablet, egal ob es auf einem Tisch liegt oder ob der Nutzer es in den Händen hält. Die Technologie könnte zum Beispiel für Chirurgen von Interesse sein, die sich während einer Operation auf verschiedenen Bildschirmen gleichzeitig Röntgenbilder und andere Daten des Patienten anzeigen lassen. Außerdem ist ein Einsatz bei Produktionsanlagen in der Industrie denkbar.

An der Arbeit waren auch Forscherkollegen um Andreas Bulling vom Max-Planck-Institut für Informatik sowie um Sebastian Boring von der Universität in Kopenhagen beteiligt. Die Informatiker präsentierten ihre Arbeit vergangene Woche auf dem 28th ACM User Interface Software and Technology Symposium im US-amerikanischen Charlotte.

 

Tracking-Brillen2

Video

Presseecho zum GazeProjector

Abschlussarbeiten

Im Bereich Eye-Tracking und Gaze-based Interaction bieten wir am UMTL auch Abschlussarbeiten an. Wenn euch das Thema interessiert, meldet euch einfach bei Christian Lander.

Touching the 3rd Dimension

PhD flow

Florian Daiber schließt Promotion erfolgreich ab

Mit der Disputation seiner Doktorarbeit zum Thema “Touching the 3rd Dimension – Interaction with Stereoscopic Data On and Above Interactive Surfaces” am 4. Mai 2015 hat Florian Daiber seine Promotion erfolgreich abgeschlossen. In seiner Arbeit befasst er sich mit verschiedenen Möglichkeiten mit dreidimensionalen Datenrepräsentationen zu interagieren. Grundproblem hierbei sind die häufig hohen Anforderungen, die aktuelle 3D User Interfaces an den Nutzer stellen. Seine Arbeit zeigt Möglichkeiten für das Design von 3D Interaktionstechnologien auf, die es ermöglichen sollen Virtual Reality im eigenen Wohnzimmer oder auf öffentlichen Plätzen zu etablieren.

Diss 2014 wrap-up

Am UMTL schlossen in 2014 Sven Gehring, Markus Löchtefeld und Gerrit Kahl erfolgreich ihre Promotion ab \o/

 

Defense Sven Gehring

Sven Gehring
Interaction with Media Facades – The design of interactive systems for large-scale urban screens

Media facades are a prominent example of the digital augmentation of urban spaces. They denote the concept of turning the surface of a building into a large-scale urban screen. Due to their enormous size, they require interaction at a distance and they have a high level of visibility. Additionally, they are situated in a highly dynamic urban environment with rapidly changing conditions, which results in settings that are neither comparable, nor reproducible. Altogether, this makes the development of interactive media facade installations a challenging task.

The thesis investigates the design of interactive installations for media facades holistically. A theoretical analysis of the design space for interactive installations for media facades is conducted to derive taxonomies to put media facade installations into context. Along with this, a set of observations and guidelines is provided to derive properties of the interaction from the technical characteristics of an interactive media facade installation. This thesis further provides three novel interaction techniques addressing the form factor and resolution of the facade, without the need for additionally instrumenting the space around the facades. The thesis contributes to the design of interactive media facade installations by providing a generalized media facade toolkit for rapid prototyping and simulating interactive media facade installations, independent of the media facade’s size, form factor, technology and underlying hardware.

Defense Markus Löchtefeld

Markus Löchtefeld
Spatial Interaction with Mobile Projected Displays

The miniaturization of projection technology recently reached a point where battery powered pico-projectors can be carried in ones pocket. These projectors not only allow for mobile stand-alone devices but also the integration into other devices. These new class of devices allow to create ad-hoc mobile projected displays everywhere. Until today this development is mainly technology driven. While projector phones – smart- phones with integrated projector – are available, the fact that they are mainly hand-held devices, present a variety of challenges for application and interaction techniques, for the mobile projected display they provide.
In this thesis we enable spatial interaction with mobile projected displays to over- come the current technological driven approaches. We contribute by investigating the following three different directions: Applications exploiting spatial features; Analysis of spatial alignment of mobile projected displays; and Interaction techniques exploiting spatial memory techniques. Through the development and evaluation of applications and interaction techniques that rely on spatial features we exploit the users spatial memory and allow mobile projected displays to become a valuable addition of our current mobile devices.

Verteidigung Gerrit Kahl

Gerrit Kahl
Dual Reality Framework – Basistechnologien zum Monitoring und Steuern von Cyber-Physischen Umgebungen

Diese Promotionsarbeit untersucht die Thematik des Monitoring und der Steuerung von Cyber-Physischen Umgebungen (CPE). In diesem Zusammenhang wird das Konzept und die Umsetzung eines Dual Reality (DR) Frameworks präsentiert, welches sich aus zwei Kom- ponenten zusammensetzt: dem Dual Reality Management Dashboard (DURMAD) zur interaktiven dreidimensionalen Visualisierung von CPE und dem Event Broadcasting Service (EBS), einer modularen Kommunikationsinfrastruktur. Hierbei stellt DURMAD basierend auf dem DR-Konzept den aktuellen Status der Umgebung in einem 3D-Modell visuell dar. Gleichzeitig umfasst es weitere Auswertungs- und Darstellungsformen, welche verschiedene Formen der Entscheidungsunterstützung für Manager der Umgebung bieten. Speziell entwickelte Filtermechanismen für den EBS ermöglichen eine Vorverarbeitung der Informationen vor dem Versenden bzw. nach dem Empfangen von Events. Durch offene Strukturen können externe Applikationen an das DR-Framework angeschlossen werden. Dies wird anhand von Objektgedächtnissen, semantischen Beschreibungen und Prozessmodellen präsentiert. Basierend auf einer Formalisierung von Dual Reality wird der Begriff Erweiterte Dual Reality (DR++) definiert, welcher auch die Auswirkungen von Simulationen in DR-Applikationen umfasst. Durch eine Integration des DR-Frameworks in das Innovative Retail Laboratory werden die Potenziale der erarbeiteten Konzepte anhand einer beispielhaften Implementierung in der Einzelhandelsdomäne aufgezeigt.