<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Soziotechnische Integration &#187; Wii</title>
	<atom:link href="https://test.soziotech.org/tag/wii/feed/" rel="self" type="application/rss+xml" />
	<link>https://test.soziotech.org</link>
	<description>Ein Projekt mit der Forschungsgruppe Kooperationssysteme an der Universität der Bundeswehr München</description>
	<lastBuildDate>Mon, 15 Jun 2015 15:24:48 +0000</lastBuildDate>
	<language>de-DE</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	<generator>https://wordpress.org/?v=4.2.38</generator>
	<item>
		<title>Alternative Möglichkeiten zur Interaktion mit großen vertikalen Displays</title>
		<link>https://test.soziotech.org/alternative-moeglichkeiten-zur-interaktion-mit-grossen-vertikalen-displays/</link>
		<comments>https://test.soziotech.org/alternative-moeglichkeiten-zur-interaktion-mit-grossen-vertikalen-displays/#comments</comments>
		<pubDate>Fri, 02 Sep 2011 18:17:34 +0000</pubDate>
		<dc:creator><![CDATA[Tim Saldik]]></dc:creator>
				<category><![CDATA[Largescreen]]></category>
		<category><![CDATA[Mobiles & Handhelds]]></category>
		<category><![CDATA[Natural User Interfaces]]></category>
		<category><![CDATA[Surface Computing]]></category>
		<category><![CDATA[Ubiquitäre Natural User Interfaces]]></category>
		<category><![CDATA[Beyond Touch]]></category>
		<category><![CDATA[Brain-Computer Interface]]></category>
		<category><![CDATA[gerätevermittelt]]></category>
		<category><![CDATA[Gestensteuerung]]></category>
		<category><![CDATA[Gesture Recognition]]></category>
		<category><![CDATA[Imaginary Interface]]></category>
		<category><![CDATA[Light Space]]></category>
		<category><![CDATA[Magic Window]]></category>
		<category><![CDATA[Multitoe]]></category>
		<category><![CDATA[Multitouch]]></category>
		<category><![CDATA[Natural User Interface]]></category>
		<category><![CDATA[Remote Touch]]></category>
		<category><![CDATA[Second Light]]></category>
		<category><![CDATA[Sixth Sense]]></category>
		<category><![CDATA[Soap]]></category>
		<category><![CDATA[Touch Projector]]></category>
		<category><![CDATA[Wii]]></category>

		<guid isPermaLink="false">http://sevastyanova.cscwlab.de/?p=1666</guid>
		<description><![CDATA[<p><img src="https://test.soziotech.org/wp-content/uploads/cache/536_crop_940x198_sixthsense2.jpg" width="618" height="130" alt="Alternative Möglichkeiten zur Interaktion mit großen vertikalen Displays" /></p>Ein Großteil der Entwicklungen im Bereich der Natural User Interfaces basiert auf (Multi-)Touch Interfaces und der Steuerung durch Touchgesten. Da diese Form der natürlichen Benutzerschnittstellen beispielsweise bei sehr großen vertikalen Displays oder an für den Benuter nicht erreichbaren Displays nicht &#8230; <a href="https://test.soziotech.org/alternative-moeglichkeiten-zur-interaktion-mit-grossen-vertikalen-displays/">Weiterlesen <span class="meta-nav">&#8594;</span></a><img src="https://analytics.flottmedia.com/piwik/piwik.php?idsite=2&amp;rec=1&amp;url=https%3A%2F%2Ftest.soziotech.org%2Falternative-moeglichkeiten-zur-interaktion-mit-grossen-vertikalen-displays%2F&amp;action_name=Alternative+M%C3%B6glichkeiten+zur+Interaktion+mit+gro%C3%9Fen+vertikalen+Displays&amp;urlref=http%3A%2F%2Ffeeds.feedburner.com%2Fsoziotech" style="border:0;width:0;height:0" width="0" height="0" alt="" /><div class='yarpp-related-rss'>
<h3>Verwandte Artikel:</h3><ol>
<li><a href="https://test.soziotech.org/technik-state-of-the-art-alternative-verwendungsmoeglichkeiten/" rel="bookmark" title="Technik State-of-the-Art: Alternative Verwendungsmöglichkeiten">Technik State-of-the-Art: Alternative Verwendungsmöglichkeiten </a></li>
<li><a href="https://test.soziotech.org/militarische-lagekarte-auf-dem-microsoft-surface/" rel="bookmark" title="Militärische Lagekarte auf dem Microsoft Surface">Militärische Lagekarte auf dem Microsoft Surface </a></li>
<li><a href="https://test.soziotech.org/surface-bluetooth-mobile-manager/" rel="bookmark" title="Surface Bluetooth Mobile Manager">Surface Bluetooth Mobile Manager </a></li>
</ol>
</div>
]]></description>
				<content:encoded><![CDATA[<p><img src="https://test.soziotech.org/wp-content/uploads/cache/536_crop_940x198_sixthsense2.jpg" width="618" height="130" alt="Alternative Möglichkeiten zur Interaktion mit großen vertikalen Displays" /></p><p><em> Ein Großteil der Entwicklungen im Bereich der Natural User Interfaces basiert auf (Multi-)Touch Interfaces und der Steuerung durch Touchgesten. Da diese Form der natürlichen Benutzerschnittstellen beispielsweise bei sehr großen vertikalen Displays oder an für den Benuter nicht erreichbaren Displays nicht verwendet werden kann, besteht die Notwendigkeit, alternative natürliche Interaktionsmechanismen einzusetzen, die eine berührungslose Interaktion mit vertikalen Displays aus einer gewissen Entfernung ermöglichen. Um einen Überblick über bereits existierende Prototypen solcher über die Touchinteraktion hinausgehenden (Beyond Touch) Interaktionsmechnismen zu geben, werden nun einige dieser Prototypen vorgestellt.</em></p>
<p>Aus der Vielzahl der Prototypen von natürlichen Interaktionsmechanismen lassen sich einige gehäuft auftretende, grundlegende Bedienkonzepte identifizieren. So werden vermehrt Ansätze gewählt, bei denen es beispielsweise möglich ist auch aus einiger Entfernung durch Touchgesten in unteschiedlichen Ausprägungen zu interagieren. Andere Prototypen basieren auf mouseähnlichen tragbaren Eingabegeräten, die eine Bedienung auf intuitive und natürliche Weise anstreben. Andere Interaktionsmechanismen beruhen auf der Gestensteuerung und verzichten auf zusätzliche Eingabegeräte auf Nutzerseite. Des Weiteren wird hier auch ein sogenanntes Brain-Computer Interface vorgestellt, das eine Anwendungsnutzung allein durch Gehirnstrommessung ermöglicht. Zunächst werden nun einige Mechanismen beschrieben, die durch die Körperbewegungen des Nutzers gesteuert werden. Nach diesen gestenbasierten Interaktionsmechanismen werden die Remote-Touch Interaktionsmechanismen, die gerätevermittelten Interaktionsmechanismen und das Brain-Computer Interface vorgestellt.</p>
<h2>Gestenbasierte Interaktionsmechanismen</h2>
<p>Die natürlichste Form der <a href="https://test.soziotech.org/glossar/hci/" class="glossaryLink" title="Klicken Sie, um zum detaillierten Glossareintrag für HCI zu springen." onmouseover="tooltip.show('Die Human-Computer Interaction (dt. Mensch-Computer Interaktion) ist eine Disziplin der Informatik, die sich mit der Gestaltung, Evaluation und Implementierung von interaktiven Computersystemen zur Nutzung durch Menschen und den wesentlichen Phänomenen, die sie umgeben, befasst.');" onmouseout="tooltip.hide();">HCI</a> ist die Bedienung einer  Nutzerschnittstelle ohne die bewusste Nutzung eines  Interaktionsmechanismus zur Erreichung der Zielsetzung. Dies bedingt  einen vollständigen Verzicht auf Eingabegeräte auf Nutzerseite und die  Interaktion zwischen System und Nutzer auf Basis der dem Nutzer zur  Verfügung stehenden Kommunikationsmittel. Ebenso wie die Interaktion  zwischen Menschen kann der Nutzer dem System seine Absichten über die  Bemühung von Mimik, Gestik und Sprache mitteilen.  <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-1" href="#note-1666-1" onmouseover="tooltip.show('Dahm, Markus  (2006): Grundlagen der Mensch-Computer-Interaktion. 1. Aufl., . München:  Pearson Studium, S. 112.');" onmouseout="tooltip.hide();"><sup>1</sup></a> Die Gesture Based Interfaces nutzen zur  Interaktion zwischen Mensch und Computer nur die Gestik zur Eingabe auf  Nutzerseite und visuelles oder akustisches Feedback durch den Computer.</p>
<h3>Magic Window</h3>
<p>Magic Window <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-2" href="#note-1666-2" onmouseover="tooltip.show('Lee, Johnny C. (2008a): Hacking the Nintendo Wii Remote.  IEEE Pervasive Computing, 3/2008 (7). IEEE Computer Society, S.  39–45.');" onmouseout="tooltip.hide();"><sup>2</sup></a> ist ein Interaktionsmechanismus, der es dem Nutzer erlaubt  ohne die Zuhilfenahme von Eingabegeräten mit Bildmaterial zu  interagieren. Dazu wird die Position des Kopfes des Nutzers verfolgt  (Headtracking) indem die Position der an der Brille des Nutzers  befestigten Infrarot-<a href="https://test.soziotech.org/glossar/led/" class="glossaryLink" title="Klicken Sie, um zum detaillierten Glossareintrag für LED zu springen." onmouseover="tooltip.show('Elektronisches Halbleiter-Bauelement, auch Lumineszenz-Diode oder lichtemittierende Diode (englisch light-emitting diode). Fließt durch die Diode Strom in Durchlassrichtung, so strahlt sie Licht bzw. Infrarotstrahlung (als Infrarotleuchtdiode) oder auch Ultraviolettstrahlung mit einer vom Halbleitermaterial und der Dotierung abhängigen Wellenlänge ab. ');" onmouseout="tooltip.hide();">LED</a> von der Infrarotkamera einer Wii-Remote erfasst  wird. Da die Darstellung auf dem Display stets zum Nutzer ausgerichtet  wird, entsteht für diesen ein der Effekt, dass er den dargestellten  Inhalt wie durch ein Fenster betrachtet. Bewegt sich der Nutzer also  nach links, kann er mehr von der rechten Seite des Bildes sehen. Bewegt  er seinen Kopf nach unten, kann er mehr von der oberen Seite des Bildes  sehen. Nähert er sich dem Display, kann er mehr vom gesamten Bild sehen  usw. Diese Form der Interaktion ist sehr natürlich, da der Nutzer das  Prinzip der Paralaxe, also der scheinbaren Änderung der Position eines  Objektes, wenn der Beobachter seine eigene Position verschiebt, bereits  aus der im Alltag gesammelten Erfahrung kennt. Um der Interaktion  weitere Freiheitsgrade hinzuzufügen kann z.B. ein weiterer Wii-Remote  Controller in die Interaktion eingebunden werden.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16660">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-529" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-0" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/magicwindow1.jpg" title="
			Zur Interaktion mit Magic Window werden neben einem Rechner Infrarot-LEDs am Kopf des Nutzer (hier an der Brille), eine Infrarotkamera (Wii-Mote unter dem Fernseher) und ein Anzeigegerät (Fernseher) benötigt., Quelle: http://www.computer.org/portal/web/csdl/doi/10.1109/MPRV.2008.53.			"  >
								<img alt="Zur Interaktion mit Magic Window werden neben einem Rechner Infrarot-LEDs am Kopf des Nutzer (hier an der Brille), eine Infrarotkamera (Wii-Mote unter dem Fernseher) und ein Anzeigegerät (Fernseher) benötigt." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_magicwindow1.jpg" width="126" height="100" class="colorbox-0" />
							</a>
			<p class=wp-caption-text>MagicWindow benötigte Hardware <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-3" href="#note-1666-3" onmouseover="tooltip.show('Bildquelle: http://www.computer.org/portal/web/csdl/doi/10.1109/MPRV.2008.53.');" onmouseout="tooltip.hide();"><sup>3</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-530" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-0" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/magicwindow2.jpg" title="
			Die Darstellung auf dem Anzeigegerät wird immer auf den Nutzer ausgerichtet. Die Einbindung in eines Wii-Mote Controllers in die Interaktion schafft zusätzliche Freiheitsgrade., Quelle: http://www.computer.org/portal/web/csdl/doi/10.1109/MPRV.2008.53.			"  >
								<img alt="Die Darstellung auf dem Anzeigegerät wird immer auf den Nutzer ausgerichtet. Die Einbindung in eines Wii-Mote Controllers in die Interaktion schafft zusätzliche Freiheitsgrade." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_magicwindow2.jpg" width="126" height="100" class="colorbox-0" />
							</a>
			<p class=wp-caption-text>Interaktion mit MagicWindow  <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-3" href="#note-1666-3" onmouseover="tooltip.show('Bildquelle: http://www.computer.org/portal/web/csdl/doi/10.1109/MPRV.2008.53.');" onmouseout="tooltip.hide();"><sup>3</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h3>SixthSense</h3>
<p>SixthSense <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-4" href="#note-1666-4" onmouseover="tooltip.show('Mistry, Pranav &amp; Maes, Pattie (2009): SixthSense: A Wearable Gestural Interface.  In: Anjyo, Ken (Hrsg.): ACM SIGGRAPH ASIA 2009 Sketches. New York, USA:  ACM Press, S. 11:1');" onmouseout="tooltip.hide();"><sup>4</sup></a> ist ein Interaktionsmechanismus der in die  Rubrik des Wearable Computing eingeordnet werden kann, da die Hardware  wie Kleidung am Körper getragen wird. Diese Hardware besteht aus einem  Projektor und einer Kamera, die vor der Brust getragen werden sowie  farbigen Markern an Daumen und Zeigefinger beider Hände. Somit können  Inhalte durch den Projektor auf jeder beliebigen Fläche dargestellt  werden und durch Handgesten manipuliert werden, die von der Kamera  aufgenommen werden. So kann der Nutzer beispielsweise jederzeit und  nahezu überall seinen Kalender anzeigen lassen, um seine Termine zu  verwalten, Skizzen oder Notizen machen, Kartenmaterial der Umgebung  betrachten oder gestengesteuert Fotos machen.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16661">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-535" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-1" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/sixthsense1.jpg" title="
			Ein Projektor und eine Kamera sowie farbige marker an den Fingern stellen die neben einem tragbaren Rechner die benötigte Hardware., Quelle: http://www.pranavmistry.com/projects/sixthsense/#PICTURES.			"  >
								<img alt="Ein Projektor und eine Kamera sowie farbige marker an den Fingern stellen die neben einem tragbaren Rechner die benötigte Hardware." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_sixthsense1.jpg" width="126" height="100" class="colorbox-1" />
							</a>
			<p class=wp-caption-text>Hardwarekomponenten von SixthSense <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-5" href="#note-1666-5" onmouseover="tooltip.show('Bildquelle: http://www.pranavmistry.com/projects/sixthsense/#PICTURES.');" onmouseout="tooltip.hide();"><sup>5</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-536" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-1" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/sixthsense2.jpg" title="
			Durch den am Körper getragenen Projektor kann jede Oberfläche als Interaktionsfläche dienen. So kann man sich Karten der Umgebung anschauen und mit natürlichen Gesten modifizieren., Quelle: http://www.pranavmistry.com/projects/sixthsense/#PICTURES.			"  >
								<img alt="Durch den am Körper getragenen Projektor kann jede Oberfläche als Interaktionsfläche dienen. So kann man sich Karten der Umgebung anschauen und mit natürlichen Gesten modifizieren." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_sixthsense2.jpg" width="126" height="100" class="colorbox-1" />
							</a>
			<p class=wp-caption-text>Gestensteuerung mit SixthSense <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-5" href="#note-1666-5" onmouseover="tooltip.show('Bildquelle: http://www.pranavmistry.com/projects/sixthsense/#PICTURES.');" onmouseout="tooltip.hide();"><sup>5</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h3>Imaginary Interface</h3>
<p>Imaginary Interface <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-6" href="#note-1666-6" onmouseover="tooltip.show('Gustafson, Sean; Bierwirth, Daniel &amp; Baudisch, Patrick (2010): Imaginary Interfaces: Spatial Interaction with Empty Hands and without Visual Feedback.   In: Perlin, Ken; Czerwinski, Mary &amp; Miller, Rob (Hrsg.):   Proceedings of the 23nd Annual ACM Symposium on User Interface Software   and Technology. New York, USA: ACM Press, S. 3–12.');" onmouseout="tooltip.hide();"><sup>6</sup></a> ist ebenfalls  eine Wearable Computing Benutzerschnittstelle und nutzt eine Kamera zur  Erfassung von Handgesten, verzichtete aber anders als SixthSense  vollständig auf eine Darstellung von Inhalten und erlaubt daher eine  sehr kompakte Bauweise, da kein Anzeigegerät erforderlich ist. Durch  eine L-Geste mit der nichtdominanten Hand wird eine imaginäre  Eingabefläche aufgespannt, auf der dann durch das Zusammenführen von  Daumen und Zeigefinger gezeichnet oder geschrieben werden kann. So kann  der Nutzer jederzeit  Dokumente zu in seinem aktuellen Umfeld relevanten  Themen erstellen. Diese auf einfachen Gesten basierende Form der  Interaktion ist leicht erlernbar, jedoch sind komplexe Zeichnungen wegen  des fehlenden visuellen Feedbacks schwierig zu realisieren.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16662">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-525" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-2" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/imaginaryinterface1.jpg" title="
			Infrarotkamera und IR-LEDs zur Ausleuchtung des Bereichs vor dem Nutzer und Aufnahme der reflektierten Infrarotstrahlen, Quelle: http://portal.acm.org/citation.cfm?id=1866033.			"  >
								<img alt="Infrarotkamera und IR-LEDs zur Ausleuchtung des Bereichs vor dem Nutzer und Aufnahme der reflektierten Infrarotstrahlen" src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_imaginaryinterface1.jpg" width="126" height="100" class="colorbox-2" />
							</a>
			<p class=wp-caption-text>Imaginary Interface Hardware <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-7" href="#note-1666-7" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1866033.');" onmouseout="tooltip.hide();"><sup>7</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-526" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-2" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/imaginaryinterface2.jpg" title="
			Die L-Geste mit der nichtdominanten Hand spannt die Eingabefläche auf, auf der dann mit der dominanten Hand gezeichnet werden kann., Quelle: http://portal.acm.org/citation.cfm?id=1866033.			"  >
								<img alt="Die L-Geste mit der nichtdominanten Hand spannt die Eingabefläche auf, auf der dann mit der dominanten Hand gezeichnet werden kann." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_imaginaryinterface2.jpg" width="126" height="100" class="colorbox-2" />
							</a>
			<p class=wp-caption-text>Skizze mit Imaginary Interface  <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-7" href="#note-1666-7" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1866033.');" onmouseout="tooltip.hide();"><sup>7</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h3>Multitoe</h3>
<p>Mit Multi Toe <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-8" href="#note-1666-8" onmouseover="tooltip.show('Kaefer, Konstantin; Kanitz, Dorian; Meusel, René;    Fetzer, Caroline;  Augsten, Thomas; Stoff, Thomas; Holz, Christian  &amp;   Baudisch, Patrick  (2010): “Multi-Toe” Interaction with a High-Resolution Multi-Touch Floor.   Potsdam,  Germany, S. 1-6.');" onmouseout="tooltip.hide();"><sup>8</sup></a> kann der Benutzer eine Anwendung mit   den Füßen steuern. Dazu erfolgt die Interaktion auf einem   touchsensitiven Untergrund, der sich wiederum über einem Display   befindet. Bei dieser Form der Touchinteraktion treten einige   Besonderheiten auf. So hat der Nutzer nahezu dauerhaften Kontakt zur   Interaktionsoberfläche. Außerdem ist die Kontakfläche um einiges größer   als bei der Touchinteraktion mit Fingern, sodass ein Interaktionspunkt   an der Sohle des Benutzers identifiziert werden muss, um eine präzise   Bedienung zu gewährleisten. Allerdings bietet Multi Toe auch einige   Vorteile gegenüber einer herkömlichen Touchinteraktion mit Fingern. So   kann der Nutzer anhand des individuellen Profils seiner Schuhsohle   identifiziert werden. Außerdem kann eine Gewichtsverlagerung des Nutzers   erkannt werden, wodurch eine differenzierte Touchinterakion mit   zusätzlichen Freiheitsgraden erfolgen kann.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16663">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-531" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-3" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/multitoe1.jpg" title="
			Durch Rückprojektion können große Bodenflächen zur Interaktion genutzt werden., Quelle: http://portal.acm.org/citation.cfm?id=1866064.			"  >
								<img alt="Durch Rückprojektion können große Bodenflächen zur Interaktion genutzt werden." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_multitoe1.jpg" width="126" height="100" class="colorbox-3" />
							</a>
			<p class=wp-caption-text>Setting für großlächige MultiToe-Interaktion <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-9" href="#note-1666-9" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1866064.');" onmouseout="tooltip.hide();"><sup>9</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-532" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-3" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/multitoe2.jpg" title="
			Durch die Gewichtsverlagerung kann ein der Interaktionspunkt, Quelle: http://portal.acm.org/citation.cfm?id=1866064.			"  >
								<img alt="Durch die Gewichtsverlagerung kann ein der Interaktionspunkt" src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_multitoe2.jpg" width="126" height="100" class="colorbox-3" />
							</a>
			<p class=wp-caption-text>Interaktion mit MultiToe <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-9" href="#note-1666-9" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1866064.');" onmouseout="tooltip.hide();"><sup>9</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h3>Wii Gesture Interface</h3>
<p>Wii Gesture Interface <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-10" href="#note-1666-10" onmouseover="tooltip.show('Lin, Jiaqing; Nishino, Hiroaki; Kagawa, Tsuneo &amp; Utsumiya, Kouichi (2010): Free Hand Interface for Controlling Applications Based on Wii Remote IR Sensor.   In: Spencer, Stephen N. (Hrsg.): Proceedings of the 9th ACM SIGGRAPH   Conference on Virtual-Reality Continuum and its Applications in Industry   VRCAI 2010. New   York, USA: ACM Press, S. 139–142.');" onmouseout="tooltip.hide();"><sup>10</sup></a> ist ein  Interaktionsmechanismus zur Steuerung vertikaler Displays durch  natürliche Handgesten. Eine Platine mit einer Vielzahl von Infrarot-LED  leuchtet dazu den Raum vor dem Display aus. Die reflektierte  Infrarotstrahlung wird dann von der Infrarotkamera eines Wii-Remote  Controllers  in ein Bild umgewandelt, dass es ermöglicht die Hand des  Benutzers und ihre Bewegungen zu identifizieren. Somit können einfache  Gesten, wie eine Bewegung der Hand von links nach rechts genutzt werden,  um beispielsweise den nächsten Inhalt auszuwählen oder eine  Berührungsgeste, um einen Inhalt auszuwählen. Um dann weitere  Interaktionsmöglichkeiten zu schaffen und die Präzision der Interaktion  zu steigern, kann zusätzlich noch ein weiterer Wii-Remote Controller  eingebunden werden, dessen Tasten z.B. mit schwer durch Gesten  darstellbaren Aktionen belegt werden können.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16664">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-832" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-4" href="https://test.soziotech.org/wp-content/uploads/communityinteraction-framework/captured_image-png.png" title="
			Managed Library for Nintendo's Wiimote Test Application			"  >
								<img alt="Managed Library for Nintendo's Wiimote Test Application" src="https://test.soziotech.org/wp-content/uploads/communityinteraction-framework/thumbs/thumbs_captured_image-png.png" width="126" height="100" class="colorbox-4" />
							</a>
			<p class=wp-caption-text>WiiMote Test Application</p>
		</div>
	</div>
			
	<div id="ngg-image-607" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-4" href="https://test.soziotech.org/wp-content/uploads/communityinteraction-framework/img_0178.jpg" title="
			Teelichter auf den Monitoren dienen als IR Emitter			"  >
								<img alt="Teelichter auf den Monitoren dienen als IR Emitter" src="https://test.soziotech.org/wp-content/uploads/communityinteraction-framework/thumbs/thumbs_img_0178.jpg" width="126" height="100" class="colorbox-4" />
							</a>
			<p class=wp-caption-text>WiiMote in Aktion</p>
		</div>
	</div>
			
	<div id="ngg-image-728" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-4" href="https://test.soziotech.org/wp-content/uploads/communityinteraction-framework/remote_white.jpg" title="
			Die Fernbedienung der Spielekonsole Wii, Quelle: http://www.nintendo.com/wii/console/controllers.			"  >
								<img alt="Die Fernbedienung der Spielekonsole Wii" src="https://test.soziotech.org/wp-content/uploads/communityinteraction-framework/thumbs/thumbs_remote_white.jpg" width="126" height="100" class="colorbox-4" />
							</a>
			<p class=wp-caption-text>Nintendo WiiMote <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-11" href="#note-1666-11" onmouseover="tooltip.show('Bildquelle: http://www.nintendo.com/wii/console/controllers.');" onmouseout="tooltip.hide();"><sup>11</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-881" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-4" href="https://test.soziotech.org/wp-content/uploads/evaluation-von-natuerlichen-interaktionsmechanismen/wii-in-use.jpg" title="
			Eine Gruppe Nutzer mit je einer Wii-Mote vor dem Sensor., Quelle: http://www.joergspielt.de/?page_id=39.			"  >
								<img alt="Eine Gruppe Nutzer mit je einer Wii-Mote vor dem Sensor." src="https://test.soziotech.org/wp-content/uploads/evaluation-von-natuerlichen-interaktionsmechanismen/thumbs/thumbs_wii-in-use.jpg" width="126" height="100" class="colorbox-4" />
							</a>
			<p class=wp-caption-text>Wii Remote in Nutzung <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-12" href="#note-1666-12" onmouseover="tooltip.show('Bildquelle: http://www.joergspielt.de/?page_id=39.');" onmouseout="tooltip.hide();"><sup>12</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-512" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-4" href="https://test.soziotech.org/wp-content/uploads/logos/wii-logo.jpg" title="
			Wii-Logo			"  >
								<img alt="Wii-Logo" src="https://test.soziotech.org/wp-content/uploads/logos/thumbs/thumbs_wii-logo.jpg" width="126" height="100" class="colorbox-4" />
							</a>
			<p class=wp-caption-text>Wii-Logo</p>
		</div>
	</div>
			
	<div id="ngg-image-880" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-4" href="https://test.soziotech.org/wp-content/uploads/evaluation-von-natuerlichen-interaktionsmechanismen/wii-mote-plus.jpg" title="
			Neben den Lage- und Beschleunigungssensoren verfügt
die Wii-Remote auch über eine Infrarotkamera in der Spitze
des Gerätes. Zusammen mit der fest platzierten Infrarot LED-Leiste, auf deren linker und rechter Seite jeweils fünf Infrarot-LEDs angebracht sind, kann die Wii-Remote ihre Ausrichtung relative zu der LED-Leiste bestimmen., Quelle: http://www.pixmania.com/videogames-und-konsolen-wii-motion-plus-weis/chde7505394_jvart.html.			"  >
								<img alt="Neben den Lage- und Beschleunigungssensoren verfügt
die Wii-Remote auch über eine Infrarotkamera in der Spitze
des Gerätes. Zusammen mit der fest platzierten Infrarot LED-Leiste, auf deren linker und rechter Seite jeweils fünf Infrarot-LEDs angebracht sind, kann die Wii-Remote ihre Ausrichtung relative zu der LED-Leiste bestimmen." src="https://test.soziotech.org/wp-content/uploads/evaluation-von-natuerlichen-interaktionsmechanismen/thumbs/thumbs_wii-mote-plus.jpg" width="126" height="100" class="colorbox-4" />
							</a>
			<p class=wp-caption-text>Wii-Mote Plus <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-13" href="#note-1666-13" onmouseover="tooltip.show('Bildquelle: http://www.pixmania.com/videogames-und-konsolen-wii-motion-plus-weis/chde7505394_jvart.html.');" onmouseout="tooltip.hide();"><sup>13</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-509" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-4" href="https://test.soziotech.org/wp-content/uploads/labordokumentation/wiicontroller1.jpg" title="
			Der Nintendo Wii Controller ist ein Zubehörteil der Spielkonsole Nintendo Wii, kann aber auch als Alternative zur Maus am Computer verwendet werden			"  >
								<img alt="Der Nintendo Wii Controller ist ein Zubehörteil der Spielkonsole Nintendo Wii, kann aber auch als Alternative zur Maus am Computer verwendet werden" src="https://test.soziotech.org/wp-content/uploads/labordokumentation/thumbs/thumbs_wiicontroller1.jpg" width="126" height="100" class="colorbox-4" />
							</a>
			<p class=wp-caption-text>Nintendo Wii Controller</p>
		</div>
	</div>
			
	<div id="ngg-image-828" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-4" href="https://test.soziotech.org/wp-content/uploads/communityinteraction-framework/wiimote_ct_scan.jpg" title="
			WiiMote Anwendung für die Evaluation eines CT Scans, Quelle: http://hackawii.com/medical-wiimote-reporting-a-ct-scan/.			"  >
								<img alt="WiiMote Anwendung für die Evaluation eines CT Scans" src="https://test.soziotech.org/wp-content/uploads/communityinteraction-framework/thumbs/thumbs_wiimote_ct_scan.jpg" width="126" height="100" class="colorbox-4" />
							</a>
			<p class=wp-caption-text>WiiMote in der Medizin <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-14" href="#note-1666-14" onmouseover="tooltip.show('Bildquelle: http://hackawii.com/medical-wiimote-reporting-a-ct-scan/.');" onmouseout="tooltip.hide();"><sup>14</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h2>Remote-Touch Interaktionsmechanismen</h2>
<p>Diese Form der alternativen natürlichen Interaktionsmechanismen  erfordert keine Präsenz des Nutzers an einem vertikalen oder  horizontalen Touchscreen sondern verlagert die direkte Interaktion mit  dem System auf das vom Benutzer verwendete Gerät. Zwar erfolgt die  Interaktion mit dem verwendeten Interaktionsmechanismus wiederum durch  intuitive Touchgesten, jedoch ist der Nutzer nun nicht mehr dazu  gezwungen sich zur Interaktion in unmittelbarer Nähe des großen  vertikalen Displays aufzuhalten. Auf diese Weise können mehr Nutzer und  auch entfernt stehende Nutzer in die Interaktion einbezogen werden. Je  nach visuellem Feedback des genutzten Interaktionsmechanismus kann auch  eine uneingeschränkte Interaktion wie am großen vertikalen Touchscreen  selbst erfolgen. Außerdem ist es mit Remote Touch Interfaces möglich  auch Displays, die keine Touchscreen sind mittel touchbasierter  Nutzerinteraktion zu steuern.</p>
<h3>SecondLight</h3>
<p>SecondLight <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-15" href="#note-1666-15" onmouseover="tooltip.show('Izadi, Shahram; Hodges, Steve; Taylor, Stuart; Rosenfeld, Dan;  Villar, Nicolas; Butler, Alex &amp; Westhues, Jonathan (2008): Going Beyond the Display: A Surface Technology with an Electronically Switchable Diffuser.  In: Cousins, Steve &amp; Beaudouin-Lafon, Michel (Hrsg.): Proceedings  of the 21st Annual ACM Symposium on User Interface Software and  Technology. New York, USA: ACM Press, S. 269–278.');" onmouseout="tooltip.hide();"><sup>15</sup></a> ist ein von Microsoft auf Basis der Technologie des MS Surface entwickelter Ansatz, der die gleichzeitige Projektion zweier unterschiedlicher Bilder auf die Oberfläche eines horizontalen Displays ermöglicht. Während das eine Bild wie gewohnt auf der Darstellungsfläche des Gerätes angezeigt wird, wird das zweite Bild durch diese Darstellungsfläche hindurch projiziert und kann durch weniger lichtdurchlässige Materialien sichtbar gemacht werden. Dies ermöglicht auch eine Projektion auf in einer geringen Entfernung über dem Gerät befindliche Oberflächen. Zusätzlich können auf diesen entfernten Oberflächen auch Touchinteraktion erfolgen.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16665">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-533" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-5" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/secondlight1.jpg" title="
			SecondLight nutzt ähnlich dem MS Surface eine Rückprojetktion für die Darstellung und Infrarotlicht und -kameras zur Touchidentifikation. Während das Surface eine statisch diffuse Oberfläche hat, kann Second Light die Oberfläche abwechselnd klar und diffus stellen, wodurch mit 2 Projektoren ein Bild auf die diffuse Oberfläche und ein Bild durch die Oberfläche hindurch projiziert werden kann. , Quelle: http://portal.acm.org/citation.cfm?id=1449715.1449760.			"  >
								<img alt="SecondLight nutzt ähnlich dem MS Surface eine Rückprojetktion für die Darstellung und Infrarotlicht und -kameras zur Touchidentifikation. Während das Surface eine statisch diffuse Oberfläche hat, kann Second Light die Oberfläche abwechselnd klar und diffus stellen, wodurch mit 2 Projektoren ein Bild auf die diffuse Oberfläche und ein Bild durch die Oberfläche hindurch projiziert werden kann. " src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_secondlight1.jpg" width="126" height="100" class="colorbox-5" />
							</a>
			<p class=wp-caption-text>SecondLight Hardware <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-16" href="#note-1666-16" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1449715.1449760.');" onmouseout="tooltip.hide();"><sup>16</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-534" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-5" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/secondlight2.jpg" title="
			Eine Projektion erfolgt auf die Oberfläche, eine zweite durch die Oberfkäche hindurch auf diffuse Materialien über der Oberfläche. So können zwei Bilder gleichzeitig angezeigt werden., Quelle: http://portal.acm.org/citation.cfm?id=1449715.1449760.			"  >
								<img alt="Eine Projektion erfolgt auf die Oberfläche, eine zweite durch die Oberfkäche hindurch auf diffuse Materialien über der Oberfläche. So können zwei Bilder gleichzeitig angezeigt werden." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_secondlight2.jpg" width="126" height="100" class="colorbox-5" />
							</a>
			<p class=wp-caption-text> Zweier Bilder gleichzeitig mit SecondLight <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-16" href="#note-1666-16" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1449715.1449760.');" onmouseout="tooltip.hide();"><sup>16</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h3>Touch Projector</h3>
<p>Touch Projector <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-17" href="#note-1666-17" onmouseover="tooltip.show('Boring, Sebastian; Baur, Dominikus; Butz, Andreas; Gustafson, Sean &amp; Baudisch, Patrick (2010): Touch Projector: Mobile Interaction Through Video.  In: Henry, Nathalie &amp; Tabard, Aurélien (Hrsg.): Proceedings of the  28th International Conference on Human Factors in Computing Systems.  Atlanta,  GA, USA: ACM Press, S. 2287–2296.');" onmouseout="tooltip.hide();"><sup>17</sup></a> ist ein Interaktionsmechanismus, der es erlaubt Inhalte auf gewöhnlichen Displays mittels Touchgesten zu manipulieren. Zu diesem Zweck wird das Echtzeitbild der Kamera eines <a href="https://test.soziotech.org/glossar/smartphone/" class="glossaryLink" title="Klicken Sie, um zum detaillierten Glossareintrag für Smartphone zu springen." onmouseover="tooltip.show('Mobiltelefon, das im Vergleich zu herkömmlichen Mobiltelefonen mehr Computerfunktionalität und -konnektivität zur Verfügung stellt. Aktuelle Smartphones lassen sich meist über zusätzliche Programme (sogenannte Apps) vom Anwender individuell mit neuen Funktionen aufrüsten. Häufig vefügt ein Smartphone über einen Touchscreen. ');" onmouseout="tooltip.hide();">Smartphones</a> genutzt. Die darauf sichtbaren Inhalte, die auf dem herkömmlichen Display dargestellt werden, können nun durch Touchgesten auf dem Display des Smartphones manipuliert werden. Anschließend wird die Veränderung auch auf die Darstellung auf dem herkömmlichen Display übertragen. Dabei werden alle Displays in der Umgebung und das Smartphone über eine Server synchronisiert, was auch das verschieben eines Inhalts von einem Display auf ein anderes ermöglicht. Durch diesen Mechanismus können auch für den Benutzer unzugängliche nicht touchfähige Displays via Touchgesten genutzt werden.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16666">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-539" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-6" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/touchprojector1.jpg" title="
			Das Echtzeitbild der Kamera eines Smartphones kann durch Touchevents manipuliert werden. Anschließend wird die Veränderung auf das Wanddisplay übertragen., Quelle: http://portal.acm.org/citation.cfm?id=1753326.1753671.			"  >
								<img alt="Das Echtzeitbild der Kamera eines Smartphones kann durch Touchevents manipuliert werden. Anschließend wird die Veränderung auf das Wanddisplay übertragen." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_touchprojector1.jpg" width="126" height="100" class="colorbox-6" />
							</a>
			<p class=wp-caption-text>TouchProjector  <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-18" href="#note-1666-18" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1753326.1753671.');" onmouseout="tooltip.hide();"><sup>18</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-540" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-6" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/touchprojector2.jpg" title="
			Mit TouchProjector können Inhalte durch Touchinteraktion von einem Display auf ein anderes verschoben werden., Quelle: http://portal.acm.org/citation.cfm?id=1753326.1753671.			"  >
								<img alt="Mit TouchProjector können Inhalte durch Touchinteraktion von einem Display auf ein anderes verschoben werden." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_touchprojector2.jpg" width="126" height="100" class="colorbox-6" />
							</a>
			<p class=wp-caption-text>Displayübergreifende Interaktion <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-18" href="#note-1666-18" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1753326.1753671.');" onmouseout="tooltip.hide();"><sup>18</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h3>Light Space</h3>
<p>Auf den ertsen Blick unterscheidet sich<strong> </strong>Light Space <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-19" href="#note-1666-19" onmouseover="tooltip.show('Wilson, Andrew D. &amp; Benko, Hrvoje (2010): Combining Multiple Depth Cameras and Projectors for Interactions On , Above , and Between Surfaces. In: Perlin, Ken; Czerwinski, Mary &amp; Miller, Rob (Hrsg.): Proceedings of the 23nd Annual ACM Symposium on User Interface Software and Technology. New York, USA: ACM Press, S. 273–282.');" onmouseout="tooltip.hide();"><sup>19</sup></a> nicht wesentlich von andern natürlichen Benutzerschnittstellen. Es bietet sowohl eine horizontale als auch eine vertikale projizierte Darstellungsfläche, auf denen die gewohnten Touchgesten zur Manipulation von Bildinhalten ausgeführt werden können. Die Innovation liegt bei Light Space zwischen den Darstellungsflächen, denn ein dritter Projektor sowie drei  Kameras zur Entfernungsmessung erlauben eine Touchinteraktion auf gewöhnlichen Gegenständen aber auch eine Darstellungsübergreifende Interaktion mit den Inhalten. So kann ein Nutzer einen Inhalt auf der einen Darstelungsfläche berühren, danach die andere Darstellungsfläche berühren und so den Inhalt dorthin zu verschieben. Außerdem kann er einen Inhalt vom Rand der Darstellungsfläche auf seine Hand verschieben, wodurch der Inhalt im Sinne der Augmented Reality zu einem projizierten Ball wird, den der Nutzer auf seinem Arm umherrollen kann oder in die andere Hand bzw. auf einen Gegenstand legen kann. Berührt der Nutzer wiederum mit der Hand ohne Ball eine Darstellungsfläche, wird der durch den Ball repräsentierte Inhalt dorthin verschoben. Des Weiteren können durch die präzise Tiefenwahrnehmung der Anwendung Menüs im Raum platziert werden. Hält der Benutzer seine Hand über einen auf den Boden projizierten Menü Schriftzug, ändert sich die nun auf der Hand befindliche Darstellung je nach Höhe über dem Boden zu einem Menüpunkt, der dann durch das Entfernen der Hand ausgewählt werden kann.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16667">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-527" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-7" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/lightspace1.jpg" title="
			Inhalte können auf einer Darstellungsfläche berührt werden und durch das Berühren der anderen Darstellungsfläche dorthin verschoben werden. Dies funktioniert auch, wenn zwei Nutzer sich die Hand geben und mit der anderen Hand eine Darstellungsfläche berühren., Quelle: http://portal.acm.org/citation.cfm?id=1866029.1866073.			"  >
								<img alt="Inhalte können auf einer Darstellungsfläche berührt werden und durch das Berühren der anderen Darstellungsfläche dorthin verschoben werden. Dies funktioniert auch, wenn zwei Nutzer sich die Hand geben und mit der anderen Hand eine Darstellungsfläche berühren." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_lightspace1.jpg" width="126" height="100" class="colorbox-7" />
							</a>
			<p class=wp-caption-text>Displayübergreifende Mehrbenutzerinteraktion  <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-20" href="#note-1666-20" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1866029.1866073.');" onmouseout="tooltip.hide();"><sup>20</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-528" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-7" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/lightspace2.jpg" title="
			Drei Kameras und Projektoren sind an der Decke des Raumes befestigt und können so auf alle Oberflächen im Sichtfeld der Kameras projizieren und die Nutzerinteraktion registrieren., Quelle: http://portal.acm.org/citation.cfm?id=1866029.1866073.			"  >
								<img alt="Drei Kameras und Projektoren sind an der Decke des Raumes befestigt und können so auf alle Oberflächen im Sichtfeld der Kameras projizieren und die Nutzerinteraktion registrieren." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_lightspace2.jpg" width="126" height="100" class="colorbox-7" />
							</a>
			<p class=wp-caption-text>LightSpace Hardwaresetting <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-20" href="#note-1666-20" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1866029.1866073.');" onmouseout="tooltip.hide();"><sup>20</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h2>Gerätevermittelte Interaktionsmechanismen</h2>
<p>Zur  Interaktion mit den Device Mediated Interfaces benötigt der Nutzer ein zusätzliches  Eingabegerät, das er bei der Interaktion bei sich trägt oder in der Hand  hält. Entgegen der indirekten Manipulation mit einer gewöhnlichen Maus,  die nur über Sensoren zur Erfassung einer Positionsveränderung in einer  zweidimensionalen Ebene verfügt und diese auf den Zeiger überträgt,  können die für Device Mediated Interfaces genutzten  Interaktionsmechanismen ihre Position im Raum oder relative  Lageveränderungen durch zusätzliche optische, gyroskopische oder  Beschleunigungssensoren ermitteln. So kann der Nutzer direkt mit  Inhalten interagieren, denn wenn er mit dem Gerät auf einen Inhalt  zeigt, zeigt auch der <a href="https://test.soziotech.org/glossar/cursor/" class="glossaryLink" title="Klicken Sie, um zum detaillierten Glossareintrag für Cursor zu springen." onmouseover="tooltip.show('Ein Cursor (von lat. Läufer), auch Einfügemarke, Schreibmarke oder Eingabemarkierung markiert in einem Computerprogramm die aktuelle Bearbeitungsposition auf dem Display. ');" onmouseout="tooltip.hide();">Cursor</a> auf dieses Ziel. So wird die natürliche  Interaktion des Nutzers über die Sensorik der genutzten  Interaktionsmechanismen an den Computer übertragen und dort in  entsprechende Manipulationen umgesetzt. Der Interaktionsmechanismus  übernimmt sozusagen eine Mediatorrolle zwischen dem Nutzer und dem  genutzten System, da er die natürlichen Interaktionen des Nutzers in vom  System interpretierbare Manipulationen umwandelt. Außerdem bieten die  Zusatztasten des jeweiligen Interaktionsmechanismus die Option Shortcuts  für bestimmte Funktionen zu nutzen. Auf diese Weise muss der Nutzer  keine komplexen Muster von Manipulationen nachbilden, um das System zu  Steuern. Zur weiteren Steigerung der Effizienz der Interaktion sind  Device Mediated Interfaces ergonomisch gestaltet, sodass der Nutzer  gewissermaßen mit dem Gerät verschmilzt und das Gerät die natürliche  Interaktion des Nutzers nicht beeinträchtigt.</p>
<h3>Soap</h3>
<p>Soap <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-21" href="#note-1666-21" onmouseover="tooltip.show('Baudisch, Patrick; Sinclair, Mike &amp; Wilson, Andrew (2007): Soap: A Pointing and Gaming Device for the Living Room and Anywhere else. In: Heart, John C. (Hrsg.): ACM SIGGRAPH 2007 Emerging Technologies. New York, USA: ACM Press, S. 17–20.');" onmouseout="tooltip.hide();"><sup>21</sup></a> ist ein Interaktionsmechanismus, der die Steuerung eines Zeigers zur Nutzung einer Anwendung auf großen vertikalen Wanddisplays ermöglicht. In einer flexiblen Kunststoffhülle befindet sich der optische Sensor einer Mouse sowie eine Taste auf der Rückseite der Platine, die durch die Kunsstoffhülle hindurch betätigt werden kann. Die Kunststoffhülle ist wiederum mit einem dehnbaren Stoffüberzug bespannt. Auf diese Weise kann eine Verschiebung der Stoffhülle durch den optischen Sensor registriert werden und so die Bewegung des Cursors gesteuert werden. Eine schnelle Verschiebung des Cursors hingegen ist in vertikale Richtung durch dauerhaftes fixieren des Gerätes durch Zusammendrücken von Daumen und Zeigefinger oder in horizontale Richtung durch Drehen des Gerätes um die Längsachse ähnlich einem nassen Stück Seife in der Handfläche möglich. Aufgrund dieser Seifenmetapher trägt der Mechanismus auch seinen Namen.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16668">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-537" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-8" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/soap1.jpg" title="
			In der Kunststoffhülle befindet sich die Platine einer optischen Mouse mit Sensor, eine Stromversorgung, eine Taste und eine Antenne zur Übertragung der Sensordaten., Quelle: http://portal.acm.org/citation.cfm?id=1278280.1278298.			"  >
								<img alt="In der Kunststoffhülle befindet sich die Platine einer optischen Mouse mit Sensor, eine Stromversorgung, eine Taste und eine Antenne zur Übertragung der Sensordaten." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_soap1.jpg" width="126" height="100" class="colorbox-8" />
							</a>
			<p class=wp-caption-text>Soap Hardware <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-22" href="#note-1666-22" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1278280.1278298.');" onmouseout="tooltip.hide();"><sup>22</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-538" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-8" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/soap2.jpg" title="
			Soap stellt eine alternative zur Steuerung von Anwendungen auf großen Wanddisplays dar., Quelle: http://portal.acm.org/citation.cfm?id=1278280.1278298.			"  >
								<img alt="Soap stellt eine alternative zur Steuerung von Anwendungen auf großen Wanddisplays dar." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_soap2.jpg" width="126" height="100" class="colorbox-8" />
							</a>
			<p class=wp-caption-text>Soap zur Steuerung großer Wanddisplays <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-22" href="#note-1666-22" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1278280.1278298.');" onmouseout="tooltip.hide();"><sup>22</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h3>Brain-Computer Interface</h3>
<p>Das Brain-Computer Interface <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-23" href="#note-1666-23" onmouseover="tooltip.show('McFarland, Dennis J. &amp; Wolpaw, Jonathan R. (2011): Brain-Computer Interfaces for Communication and Control. Communications of the ACM, 5/2011 (54), S. 60-66.');" onmouseout="tooltip.hide();"><sup>23</sup></a> ist eine Form der Mensch-Computer Interaktion, die auf der Messung von Gehirnströmen basiert. Da dies über an der Kopfhaut platzierte Elektroden geschieht, ist dieser Interaktionsmechanismus im Gegensatz zu den bisher vorgestellten Mechanismen auch für Menschen mit eingeschränkter Bewegungsfähigkeit geeignet. Die Anwendung von McFarland und Wolpaw erlaubt z.B. eine Texteingabe ohne die Nutzung zusätzlicher Eingabegeräte. Auf einem Display wird dazu eine Matrix von Buchstaben angezeigt, von denen jeweils abwechselnde Gruppen aufleuchten. Der Nutzer muss während der Blinksequenz eine Buchstaben mit den Augen fixieren. Da jeder Buchstabe eine individuelle Blinksequenz hat und das Aufleuchten des fixierten Buchstaben mittels <a href="https://test.soziotech.org/glossar/eeg/" class="glossaryLink" title="Klicken Sie, um zum detaillierten Glossareintrag für EEG zu springen." onmouseover="tooltip.show('Die Elektroenzephalografie (von griechisch encephalon, Gehirn, gráphein) ist eine standardmäßige Untersuchungsmethode in der Neurologie bzw. der medizinischen Diagnostik zur Messung der summierten elektrischen Aktivität des Gehirns durch Aufzeichnung der Spannungsschwankungen an der Kopfoberfläche. ');" onmouseout="tooltip.hide();">EEG</a> gemessen werden kann, ist der vom Nutzer ausgewählte Buchstabe eindeutig bestimmbar. So wird eine Texteingabe allein durch das Anschauen der Buchstabenmatrix möglich. Allerdings ist durch die Dauer der Blinksequenz keine schnelle Eingabe möglich und die für diesen Interaktionsmechanismus benötigte Hardware ist im Vergleich zu den meisten zuvor beschriebenen Prototypen sehr teuer.</p>

<div class="ngg-galleryoverview" id="ngg-gallery--16669">


	
	<!-- Thumbnails -->
		
	<div id="ngg-image-523" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-9" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/braincomputer-interface1.jpg" title="
			Zur Nutzung des BCI ist das tragen einer Kappe mit Elektroden zur Messung von Gehirnströmen notwendig., Quelle: http://portal.acm.org/citation.cfm?id=1941506.			"  >
								<img alt="Zur Nutzung des BCI ist das tragen einer Kappe mit Elektroden zur Messung von Gehirnströmen notwendig." src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_braincomputer-interface1.jpg" width="126" height="100" class="colorbox-9" />
							</a>
			<p class=wp-caption-text>Brain-Computer Interface in Nutzung <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-24" href="#note-1666-24" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1941506.');" onmouseout="tooltip.hide();"><sup>24</sup></a></p>
		</div>
	</div>
			
	<div id="ngg-image-524" class="ngg-gallery-thumbnail-box"  >
		<div class="ngg-gallery-thumbnail wp-caption" >
			<a rel="lightbox-9" href="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/braincomputer-interface2.jpg" title="
			Buchstabenmatrix zur Eingabe, Kappe mit Elektroden und Rechner zur Nutzung der Anwendung, Quelle: http://portal.acm.org/citation.cfm?id=1941506.			"  >
								<img alt="Buchstabenmatrix zur Eingabe, Kappe mit Elektroden und Rechner zur Nutzung der Anwendung" src="https://test.soziotech.org/wp-content/uploads/beispiele-natuerlicher-interaktionsmechanismen/thumbs/thumbs_braincomputer-interface2.jpg" width="126" height="100" class="colorbox-9" />
							</a>
			<p class=wp-caption-text>Brain-Computer Interface Hardware <a class="simple-footnote" title="Klicken Sie, um zur Fußnote zu springen oder Links in der Fußnote zu folgen." id="return-note-1666-24" href="#note-1666-24" onmouseover="tooltip.show('Bildquelle: http://portal.acm.org/citation.cfm?id=1941506.');" onmouseout="tooltip.hide();"><sup>24</sup></a></p>
		</div>
	</div>
		
	<!-- Pagination -->
 	<div class='ngg-clear'></div>
 	
</div>


<h2>Fazit<strong><br />
</strong></h2>
<p>Fallende Preise<strong> </strong>durch die kommerzielle Massenfertigung von Sensortechnik wie der Wii-Remote oder der Microsoft Kinect aber auch sinkende Preise bei großen vertikalen Displays oder Projektoren haben dazu beigetragen, dass die Zahl neu entwickelter Interaktionsmechanismen zur Gestaltung der Schnittstelle zwischen Mensch und Computer zunimmt. Da gerade im Bereich der <a href="https://test.soziotech.org/glossar/nui/" class="glossaryLink" title="Klicken Sie, um zum detaillierten Glossareintrag für NUI zu springen." onmouseover="tooltip.show('Natürliche Benutzerschnittstellen sind eine neue Form der Human-Computer Interaction (Mensch-Maschine-Interaktion. Sie zeichnet sich dadurch aus, dass die Benutzerschnittstelle so gestaltet ist, dass existierende Fähigkeiten, die der Nutzer durch das Leben in seiner Umwelt erbworben hat, bei der Interaktion wiederverwendet werden. ');" onmouseout="tooltip.hide();">NUI</a> bisher nur wenig Forschungsarbeit im Bezug auf die Standardisierung solcher Nutzerschnittstellen und die Eignung eines Interaktionsmechanismus für die Nutzung in einem bestimmten Anwendungsumfeld oder für eine bestimmt Aufgabe erfolgt ist, müssen zukünftige Arbeiten weitere Erkenntnisse über die Leistungsfähigkeit und Nutzerakzeptanz natürlicher Interaktionsmechnismen liefern. Außerdem haben alle der in diesem Artikel vorgeschlagenen Kategorien von natürlichen Interaktionsmechnismen ihre Vor- und Nachteile, sodass eventuell eine Kombination der Merkmale existierender natürlicher Benutzerschnittstellen oder die Entwicklung neuer Ansätze zur Gestaltung dieser Schnittstellen einen Interaktionsmechnismus hervorbringen, der das Potential hat, eine ähnlich hohe Verbreitung und Nutzerakzeptanz zu erreichen, wie es heute bei Maus und Tastatur für die <a href="https://test.soziotech.org/glossar/gui/" class="glossaryLink" title="Klicken Sie, um zum detaillierten Glossareintrag für GUI zu springen." onmouseover="tooltip.show('Graphical User Interface zu deutsch auch grafische Benutzeroberfläche. Bezeichnung einer Software-Komponente, die dem Benutzer eines Computers die Interaktion mit der Maschine über grafische Symbole erlaubt. Die Darstellungen und Elemente (Arbeitsplatz, Symbole, Papierkorb, Menü) können meist unter Verwendung eines Zeigegerätes wie einer Maus gesteuert werden. ');" onmouseout="tooltip.hide();">GUI</a> der Fall ist.</p><img src="https://analytics.flottmedia.com/piwik/piwik.php?idsite=2&amp;rec=1&amp;url=https%3A%2F%2Ftest.soziotech.org%2Falternative-moeglichkeiten-zur-interaktion-mit-grossen-vertikalen-displays%2F&amp;action_name=Alternative+M%C3%B6glichkeiten+zur+Interaktion+mit+gro%C3%9Fen+vertikalen+Displays&amp;urlref=http%3A%2F%2Ffeeds.feedburner.com%2Fsoziotech" style="border:0;width:0;height:0" width="0" height="0" alt="" /><div class="simple-footnotes"><h2 class="notes">Quellen und Fußnoten:</h2><ol><li id="note-1666-1">Dahm, Markus  (2006): Grundlagen der Mensch-Computer-Interaktion. 1. Aufl., . München:  Pearson Studium, S. 112. <a class="simple-footnote-backlink" href="#return-note-1666-1">&#8617;</a></li><li id="note-1666-2">Lee, Johnny C. (2008a): <em>Hacking the Nintendo Wii Remote</em>.  IEEE Pervasive Computing, 3/2008 (7). IEEE Computer Society, S.  39–45. <a class="simple-footnote-backlink" href="#return-note-1666-2">&#8617;</a></li><li id="note-1666-3">Bildquelle: <a class="link-external" href="http://www.computer.org/portal/web/csdl/doi/10.1109/MPRV.2008.53" title="Go to external Source" >http://www.computer.org/portal/web/csdl/doi/10.1109/MPRV.2008.53</a>. <a class="simple-footnote-backlink" href="#return-note-1666-3">&#8617;</a></li><li id="note-1666-4">Mistry, Pranav &amp; Maes, Pattie (2009): <em>SixthSense: A Wearable Gestural Interface</em>.  In: Anjyo, Ken (Hrsg.): ACM SIGGRAPH ASIA 2009 Sketches. New York, USA:  ACM Press, S. 11:1 <a class="simple-footnote-backlink" href="#return-note-1666-4">&#8617;</a></li><li id="note-1666-5">Bildquelle: <a class="link-external" href="http://www.pranavmistry.com/projects/sixthsense/#PICTURES" title="Go to external Source" >http://www.pranavmistry.com/projects/sixthsense/#PICTURES</a>. <a class="simple-footnote-backlink" href="#return-note-1666-5">&#8617;</a></li><li id="note-1666-6">Gustafson, Sean; Bierwirth, Daniel &amp; Baudisch, Patrick (2010): <em>Imaginary Interfaces: Spatial Interaction with Empty Hands and without Visual Feedback</em>.   In: Perlin, Ken; Czerwinski, Mary &amp; Miller, Rob (Hrsg.):   Proceedings of the 23nd Annual ACM Symposium on User Interface Software   and Technology. New York, USA: ACM Press, S. 3–12. <a class="simple-footnote-backlink" href="#return-note-1666-6">&#8617;</a></li><li id="note-1666-7">Bildquelle: <a class="link-external" href="http://portal.acm.org/citation.cfm?id=1866033" title="Go to external Source" >http://portal.acm.org/citation.cfm?id=1866033</a>. <a class="simple-footnote-backlink" href="#return-note-1666-7">&#8617;</a></li><li id="note-1666-8">Kaefer, Konstantin; Kanitz, Dorian; Meusel, René;    Fetzer, Caroline;  Augsten, Thomas; Stoff, Thomas; Holz, Christian  &amp;   Baudisch, Patrick  (2010): <em>“Multi-Toe” Interaction with a High-Resolution Multi-Touch Floor</em>.   Potsdam,  Germany, S. 1-6. <a class="simple-footnote-backlink" href="#return-note-1666-8">&#8617;</a></li><li id="note-1666-9">Bildquelle: <a class="link-external" href="http://portal.acm.org/citation.cfm?id=1866064" title="Go to external Source" >http://portal.acm.org/citation.cfm?id=1866064</a>. <a class="simple-footnote-backlink" href="#return-note-1666-9">&#8617;</a></li><li id="note-1666-10">Lin, Jiaqing; Nishino, Hiroaki; Kagawa, Tsuneo &amp; Utsumiya, Kouichi (2010): <em>Free Hand Interface for Controlling Applications Based on Wii Remote IR Sensor</em>.   In: Spencer, Stephen N. (Hrsg.): Proceedings of the 9th ACM SIGGRAPH   Conference on Virtual-Reality Continuum and its Applications in Industry   VRCAI 2010. New   York, USA: ACM Press, S. 139–142. <a class="simple-footnote-backlink" href="#return-note-1666-10">&#8617;</a></li><li id="note-1666-11">Bildquelle: <a class="link-external" href="http://www.nintendo.com/wii/console/controllers" title="Go to external Source" >http://www.nintendo.com/wii/console/controllers</a>. <a class="simple-footnote-backlink" href="#return-note-1666-11">&#8617;</a></li><li id="note-1666-12">Bildquelle: <a class="link-external" href="http://www.joergspielt.de/?page_id=39" title="Go to external Source" >http://www.joergspielt.de/?page_id=39</a>. <a class="simple-footnote-backlink" href="#return-note-1666-12">&#8617;</a></li><li id="note-1666-13">Bildquelle: <a class="link-external" href="http://www.pixmania.com/videogames-und-konsolen-wii-motion-plus-weis/chde7505394_jvart.html" title="Go to external Source" >http://www.pixmania.com/videogames-und-konsolen-wii-motion-plus-weis/chde7505394_jvart.html</a>. <a class="simple-footnote-backlink" href="#return-note-1666-13">&#8617;</a></li><li id="note-1666-14">Bildquelle: <a class="link-external" href="http://hackawii.com/medical-wiimote-reporting-a-ct-scan/" title="Go to external Source" >http://hackawii.com/medical-wiimote-reporting-a-ct-scan/</a>. <a class="simple-footnote-backlink" href="#return-note-1666-14">&#8617;</a></li><li id="note-1666-15">Izadi, Shahram; Hodges, Steve; Taylor, Stuart; Rosenfeld, Dan;  Villar, Nicolas; Butler, Alex &amp; Westhues, Jonathan (2008): <em>Going Beyond the Display: A Surface Technology with an Electronically Switchable Diffuser</em>.  In: Cousins, Steve &amp; Beaudouin-Lafon, Michel (Hrsg.): Proceedings  of the 21st Annual ACM Symposium on User Interface Software and  Technology. New York, USA: ACM Press, S. 269–278. <a class="simple-footnote-backlink" href="#return-note-1666-15">&#8617;</a></li><li id="note-1666-16">Bildquelle: <a class="link-external" href="http://portal.acm.org/citation.cfm?id=1449715.1449760" title="Go to external Source" >http://portal.acm.org/citation.cfm?id=1449715.1449760</a>. <a class="simple-footnote-backlink" href="#return-note-1666-16">&#8617;</a></li><li id="note-1666-17">Boring, Sebastian; Baur, Dominikus; Butz, Andreas; Gustafson, Sean &amp; Baudisch, Patrick (2010): <em>Touch Projector: Mobile Interaction Through Video</em>.  In: Henry, Nathalie &amp; Tabard, Aurélien (Hrsg.): Proceedings of the  28th International Conference on Human Factors in Computing Systems.  Atlanta,  GA, USA: ACM Press, S. 2287–2296. <a class="simple-footnote-backlink" href="#return-note-1666-17">&#8617;</a></li><li id="note-1666-18">Bildquelle: <a class="link-external" href="http://portal.acm.org/citation.cfm?id=1753326.1753671" title="Go to external Source" >http://portal.acm.org/citation.cfm?id=1753326.1753671</a>. <a class="simple-footnote-backlink" href="#return-note-1666-18">&#8617;</a></li><li id="note-1666-19">Wilson, Andrew D. &amp; Benko, Hrvoje (2010): <em>Combining Multiple Depth Cameras and Projectors for Interactions On , Above , and Between Surfaces</em>. In: Perlin, Ken; Czerwinski, Mary &amp; Miller, Rob (Hrsg.): Proceedings of the 23nd Annual ACM Symposium on User Interface Software and Technology. New York, USA: ACM Press, S. 273–282. <a class="simple-footnote-backlink" href="#return-note-1666-19">&#8617;</a></li><li id="note-1666-20">Bildquelle: <a class="link-external" href="http://portal.acm.org/citation.cfm?id=1866029.1866073" title="Go to external Source" >http://portal.acm.org/citation.cfm?id=1866029.1866073</a>. <a class="simple-footnote-backlink" href="#return-note-1666-20">&#8617;</a></li><li id="note-1666-21">Baudisch, Patrick; Sinclair, Mike &amp; Wilson, Andrew (2007): <em>Soap: A Pointing and Gaming Device for the Living Room and Anywhere else</em>. In: Heart, John C. (Hrsg.): ACM SIGGRAPH 2007 Emerging Technologies. New York, USA: ACM Press, S. 17–20. <a class="simple-footnote-backlink" href="#return-note-1666-21">&#8617;</a></li><li id="note-1666-22">Bildquelle: <a class="link-external" href="http://portal.acm.org/citation.cfm?id=1278280.1278298" title="Go to external Source" >http://portal.acm.org/citation.cfm?id=1278280.1278298</a>. <a class="simple-footnote-backlink" href="#return-note-1666-22">&#8617;</a></li><li id="note-1666-23">McFarland, Dennis J. &amp; Wolpaw, Jonathan R. (2011): <em>Brain-Computer Interfaces for Communication and Control</em>. Communications of the ACM, 5/2011 (54), S. 60-66. <a class="simple-footnote-backlink" href="#return-note-1666-23">&#8617;</a></li><li id="note-1666-24">Bildquelle: <a class="link-external" href="http://portal.acm.org/citation.cfm?id=1941506" title="Go to external Source" >http://portal.acm.org/citation.cfm?id=1941506</a>. <a class="simple-footnote-backlink" href="#return-note-1666-24">&#8617;</a></li></ol></div><div class='yarpp-related-rss'>
<h3>Verwandte Artikel:</h3><ol>
<li><a href="https://test.soziotech.org/technik-state-of-the-art-alternative-verwendungsmoeglichkeiten/" rel="bookmark" title="Technik State-of-the-Art: Alternative Verwendungsmöglichkeiten">Technik State-of-the-Art: Alternative Verwendungsmöglichkeiten </a></li>
<li><a href="https://test.soziotech.org/militarische-lagekarte-auf-dem-microsoft-surface/" rel="bookmark" title="Militärische Lagekarte auf dem Microsoft Surface">Militärische Lagekarte auf dem Microsoft Surface </a></li>
<li><a href="https://test.soziotech.org/surface-bluetooth-mobile-manager/" rel="bookmark" title="Surface Bluetooth Mobile Manager">Surface Bluetooth Mobile Manager </a></li>
</ol>
</div>
]]></content:encoded>
			<wfw:commentRss>https://test.soziotech.org/alternative-moeglichkeiten-zur-interaktion-mit-grossen-vertikalen-displays/feed/</wfw:commentRss>
		<slash:comments>0</slash:comments>
		</item>
		<item>
		<title>CommunityMirrors &#8211; Hardware</title>
		<link>https://test.soziotech.org/communitymirrors/hardware/</link>
		<comments>https://test.soziotech.org/communitymirrors/hardware/#comments</comments>
		<pubDate>Fri, 08 Jul 2011 04:29:18 +0000</pubDate>
		<dc:creator><![CDATA[Florian Ott]]></dc:creator>
				<category><![CDATA[CommunityMirrors]]></category>
		<category><![CDATA[Digitale Bilderrahmen]]></category>
		<category><![CDATA[Fingerprint]]></category>
		<category><![CDATA[Großbildschirm]]></category>
		<category><![CDATA[Hardware]]></category>
		<category><![CDATA[Headtracker]]></category>
		<category><![CDATA[Kinect]]></category>
		<category><![CDATA[Large Screen]]></category>
		<category><![CDATA[RFID]]></category>
		<category><![CDATA[Smartphones]]></category>
		<category><![CDATA[Tablets]]></category>
		<category><![CDATA[Trolley]]></category>
		<category><![CDATA[Wii]]></category>

		<guid isPermaLink="false">http://sevastyanova.cscwlab.de/</guid>
		<description><![CDATA[