Aktuelle Projekte

IT-Systeme bilden den Innovationsmotor für Industrie 4.0. Der Einsatz cyber-physischer IT-Systeme auf allen Ebenen in der Produktion wird zum entscheidenden Faktor, um das innovative Konzept der agilen multiadaptiven Smart Factory umzusetzen. Wechselnde qualitative und quantitative Marktanforderungen erfordern heute eine schnelle Reaktion von produzierenden Unternehmen. Produktions- und Logistikprozesse unterliegen daher einem permanenten Wandel. Sowohl im Konsum- als auch im Investitionsgüterbereich muss immer stärker individuellen Kundenanforderungen Rechnung getragen werden. Die Produktions- und Logistikprozesse müssen diesen Anforderungen dynamisch begegnen und starke, nicht vorhersehbare Bedarfsschwankungen meistern, sowie kürzere Produktlebenszyklen unterstützen. Die Erhöhung der Flexibilität in der Produktion ist schon seit Jahrzehnten ein viel diskutiertes und oft aus rein produktionstechnischer Sicht adressiertes Arbeitsfeld. Mit dem Einsatz cyber-physischer Produktionssysteme für die Erstellung von „Smart Factories“, wie sie im Zukunftsprojekt Industrie 4.0 angestrebt werden, vollzieht sich jedoch ein Paradigmenwechsel in der Produktionslogik. Durch den intensiven Einsatz hoch vernetzter Sensorik und Aktuatorik, der Überwindung klassischer Produktionshierarchien von zentraler Steuerung hin zu dezentraler Selbstorganisation und feingranularer Steuerung, aber auch der konsequenten Berücksichtigung wandlungsfähiger Produktionseinheiten schon in der Anlagenkonzeption erreicht man mittelfristig eine starke Reduktion der Vorhaltekosten für die vom Markt geforderte Flexibilität bei der Herstellung von Premiumprodukten in einer Smart Factory.

Gefördert vom Bundesministerium für Wissenschaft und Forschung (BMBF).

Two technologies have dominated recent tech exhibitions as well as the entertainment market: multi-touch surfaces and 3D stereoscopic displays. Currently, these promising technologies are combined in different setups, and first commercial systems are available that support (multi-)touch interaction as well as stereoscopic display. Recent research projects address technological questions of how users interact with stereoscopically displayed three-dimensional content on a two-dimensional touch surface. The approach of combining multi-touch surfaces and 3D stereoscopic displays has great potential to provide plausible as well as natural interaction for a wide range of applications, e.g. in entertainment, planning and design, education, and decision-making. It can also be applied to different user interface systems ranging from 3D desktop environments to more immersive collaborative large tabletop or other projection-based setups.

Although stereoscopic multi-touch enabled surfaces induce several perceptual conflicts, e.g. visual-haptic or accommodation-vergence conflicts, it is reasonable that they will further dominate future user interfaces in various settings due to their potential as well as attractiveness for human users. So far most approaches have not taken into account the mentioned perceptual conflicts and are in most cases limited in their focus on the actual moment of touch (i.e. when the finger touches the surface), whereas the essential time period before the touch is rarely considered. Obviously - in the case of stereoscopic display - these moments are particularly important since most virtual objects are rendered not on the surface, but before or behind it. Hence, usually touching virtual objects and touching the physical surface occur at different moments during the interaction. The benefits, challenges and limitations of using this combination have not been examined in-depth and are so far not well understood so far.

The project Touching the 3rd Dimension (T3D) therefore aims to address these questions by analyzing the perceptual aspects during the lifetime of a touch, i.e. the pre-touch, as well as the actual touch phase. On the one hand we intend to design and evaluate different interaction concepts for stereoscopic multi-touch enabled surfaces based on perceptual limitations of the user, and on the other hand we will exploit our setup to gain novel insights into the nature of touch and perception in the real world. In addition we will explore potential application areas, in particular 3D modeling in the domains of city modeling and computer-aided design (CAD).

Gefördert von der Deutschen Forschungsgemeinschaft (DFG).

Das Verbundprojekt „Softwareinnovationen für das digitale Unternehmen“ (SINNODIUM) schließt an die vier bereits laufenden Projekte im Rahmen des Spitzenclusterwettbewerbs an, verknüpft die verschiedenen Forschungsstränge und führt das Gesamtvorhaben zu einem integrierten Abschluss. Konkret sollen erste prototypische Lösungen für die nächste Generation der Unternehmenssoftware – „emergente Software“ – geschaffen werden, die dynamisch und flexibel eine Vielzahl von Komponenten unterschiedlicher Hersteller kombinierbar macht und dadurch in digitalen Unternehmen quer durch alle Branchen einen Innovationsschub auslöst.

In SINNODIUM arbeiten mittelständische und große Softwareunternehmen daher gemeinsam mit Forschungspartnern an durchgängigen Anwendungsszenarien für emergente Unternehmenssoftware in den Bereichen Smart Retail (Handel), Smart Production (Industrie) und Smart Services (Dienstleistung und Logistik).

Gefördert vom Bundesministerium für Wissenschaft und Forschung (BMBF).

DA4RBI - Data Analytics 4 Retail Business Intelligence

The focus of this project is the creation and maturation of advanced algorithms and techniques for the analysis of customer position data to a point where they reach a state of reliability to be integrated into an existing business intelligence systems. These algorithms and technologies will allow the creation of new and advanced retail experiences especially through advanced services.

Gefördert von der Europäischen Union (EU) im Rahmen des European Institute of Innovation and Technology (EIT).

In this project we explore mobile map interaction. Wihtin this project we investigate various directions in particular mobile mapping (indoor and outdoor), indoor localisation and augmented reality (AR) map interaction.

In this project we investigate how humans use mobile, ubiquitous devices (tablets, phones, wearables, etc.) in their daily lifes.