Skip to content

Colorpicker UI für Leap Motion

by - 22. April 2014

Prolog

Die Leap Motion ist ein kleines Gerät für den Desktopgebrauch, das Hand- und Fingerstellungen extrem genau erfasst. Im Frühsommer 2012 wurde dieser Controller angekündigt; man konnte ihn nur vorbestellen, er wurde noch nicht ausgeliefert. Und ich bestellte ihn auch sofort. Was mich daran interessierte, waren die Möglichkeiten eines Interfaces, das ohne Stift, ohne Tastatur, ohne Maus funktioniert; nur mittels der eigenen Finger und Hände wird gesteuert, navigiert, geschaffen. Ein Eingabegerät, das den Raum vor einem Screen abtastet: dreidimensional und berührungslos.

Vielleicht – so schien es mir zum damaligen Zeitpunkt – ist es möglich, mit dem Controller und entsprechender Software sogar ein wenig in Richtung des Films Minority Report zu kommen. Genauer: in Richtung des Systems g-speak von John Underkoffler, der die Gesten für Minority Report entwickelte, wie er in einem TED-Talk erzählt. Minority Report für den Desktop!!!  Euphorie und Spannung auf das mit diesem Controller Kommende machten sich in mir breit!

Leap Motion Visualizer

Herumrühren im 3-D Raum. Spielerische Auseinandersetzung mit der Leap Motion und dem dazu gelieferten Visualizer

Nun, die Auslieferung der Leap Motion erfolgte im Frühsommer 2013, also ein Jahr später, und die ersten Versuche mit vorhandenen Apps aus dem Leap Motion AppStore ließen mich alles andere als Tom Cruise fühlen: Es gab gerade eine Handvoll sinnvoller Anwendungen, kaum eine lief problemlos und auch wenn sie lief, war der joy of use … nunja … überschaubar. Auch die ersten systematischen Untersuchungen zur User Experience und zum Einsatzbereich durch UID brachten Ernüchterung. Mein erstes Resumee im Sommer 2013: Nein, dies war (noch?) kein technologischer Durchbruch wie einst das iPhone oder das App-Konzept, kein Quantensprung im Interface-Design. Und es war meilenweit von der Eleganz und Wirksamkeit eines g-speak entfernt.

Nutzungsszenario Selektieren im Farbwürfel

Nun, nachdem meine Illusionen und Hoffnungen von der technischen Realität zerblasen wurden, wollte ich schauen, was mit den vorhandenen Mitteln Sinnvolles und Einfaches bewerkstelligt werden kann. Ausloten, was geht und wie es sich anfühlt war der nächste Schritt. Ein sinnvolles und kleines Aufgabenszenario musste her. Die Aufgabe, im dreidimensionalen Raum zu navigieren und einen Raumpunkt zu selektieren erschien mir hinreichend beschränkt und einfach. Im Kontext einer Selektion einer Farbe ergibt dies ein durchaus sinnvolles Nutzungsszenario für beispielsweise einen Arbeitsschritt eines Screendesigners. Bewusst sollte diese Aufgabe isoliert betrachtet werden; die Frage nach der Einbettung dieses Vorgangs in einen größeren Nutzungszusammenhang wurde ausgeklammert.

Als Screendesigner kennt man das Modell des RGB-Farbraumes, in dem jeder Farbpunkt durch ein Tripel der Werte aus den 3 Farbachsen Rot, Grün und Blau dargestellt wird. Das zugrunde liegende räumliche Modell stellt einen Würfel dar, in dem jede der drei Achsen positive ganzzahlige Werte zwischen 0 und 2^8-1 = 255 annehmen kann. Das Tripel (0,0,0) ergibt schwarz und ist die dunkelste Farbe, die in diesem Farbraum dargestellt werden kann; das Tripel (255,255,255) ergibt die hellste Farbe Weiss. Die RGB-Farben werden durch additive Farbmischung erzielt; daher werden die Farben grundsätzlich umso heller, je höher die Werte sind. Insgesamt sind in diesem Farbraum (2^8)^3 = ca. 16,7 Mio Farben darstellbar.

RGB-Würfel

RGB-Würfel: Betrachter schaut auf die ihm zugewandten Aussenflächen. Der weisseste Punkt ist die dem Betrachter am nächsten liegende Ecke des Würfels oben und vorne (R= 255, G=255, B=255)

RGB-Würfel: Betrachter schaut durch den Würfel auf die ihm abgewandten Aussenflächen. Der schwärzeste Punkt ist die vom Betrachter am weitesten entfernte Ecke des Würfels, am Schnittpunkt der drei Farbachsen und damit am Ursprung des Koordinatensystems (R=0, G=0, B=0)

RGB-Würfel: Betrachter schaut durch den Würfel auf die ihm abgewandten Aussenflächen. Der schwärzeste Punkt ist die vom Betrachter am weitesten entfernte Ecke des Würfels, am Schnittpunkt der drei Farbachsen und damit am Ursprung des Koordinatensystems (R=0, G=0, B=0)

Ein studentisches Projekt mit Schwerpunkt Interaction Design

Eine Projektgruppe des Studiengangs ON an der DHBW Mosbach setzte im im Wintersemester sich mit der Aufgabe auseinander, ein funktionstüchtiges Design des Interfaces zur Navigation innerhalb des RGB-Würfels unter Verwendung der Leap Motion zu konzipieren. Die Konzeption umfasste die Gestaltung der Interaktionen, die Gestaltung des visuellen Feedbacks auf dem Screen und die codemäßige Umsetzung in einem Funktionsprototypen. Selbstverständlich wurde iterativ vorgegangen, da von vornherein klar war, dass Coding, Interaktionen und visuelles Feedback in hohem Maße voneinander abhängig sind.

Die erzielten Resultate und identifizierten Knackpunkte beim Design des Interfaces und der Interaktionen sollen in diesem Artikel betrachtet werden; zusätzlich werde ich Überlegungen zur Verbesserung der Benutzbarkeit dieses Interfaces anstellen. Das Interface läuft im Webbrowser; die Projektgruppe hat das Interface live gestellt.

Prinzip der Verankerung

Zum Markieren einer einzelnen Farbe des RGB-Würfels muss eine bestimmte natürliche Geste gebildet werden. Die Geste des ausgestreckten Zeigefingers des Nutzers zusätzlich mit horizontal abgewinkelten Daumen, von den Studenten sinnigerweise „Gangster-Pistole“ genannt, zielt auf einen Punkt des vor dem Nutzer liegenden Raumes. Die Markierung im Würfel verbindet sich mit dem Zeigefinger und folgt dessen Bewegungen. In solchen Fällen spricht das Interaktionsdesign von dem Prinzip der Verankerung, auf das die direkte Objektmanipulation aufbaut. (Dorau, S. 106).

 Navigation im Farbwürfel mittels Markierungs-Geste aus Sicht des Nutzers.  Im Browserfenster erscheint das komplette visuelle Interface mit Farbwürfe, der markierten Farbe und der zuletzt gespeicherten Farbe.

Navigation im Farbwürfel mittels Markierungs-Geste aus Sicht des Nutzers. Im Browserfenster erscheint das komplette visuelle Interface mit Farbwürfe, der markierten Farbe und der zuletzt gespeicherten Farbe.

 

Die Spitze des Zeigefingers deutet auf eine Raumzelle (gewissermaßen ein „Voxel“ = Volumen Element) des Würfels. Indem der Zeigefinger sich durch die Hit Area über dem Leap Controller bewegt, verändert sich die Position des markierten Punktes innerhalb des Farbwürfels.

Die Markierung von Farbzellen funktioniert sowohl in der Annäherung von außen als auch durch Gestenänderung von innen. Aus der Perspektive des Nutzers kann ich die Markierungsgeste ausserhalb der Hit-Area formen und mich auf den Würfel zubewegen. Die ersten erkannten Punkte liegen in diesem Fall an derjenigen Würfelaussenseite, von der aus die Hand sich dem Controller annähert. Von dort aus bewege ich die Hand weiter nach innen in den Würfel und / oder nach oben / unten / links / rechts bis ich den gewünschten Punkt erreicht habe.

Umgekehrt kann ich auch mittels des Nicht-Markierungsmodus meine Hand in den Eingabebereich einführen, ohne eine erneute Markierung auszulösen. Erst wenn ich innerhalb des Eingabebereiches Zeigefinger und Daumen spreize, erkennt das System den Markierungsmodus und zeigt mir den nunmehr neu markierten Punkt innerhalb des Würfels an.

Beide Methoden funktionieren mit dem studentischen Prototypen – und das ist auch gut so, da es dem Nutzer Flexibilität gibt. Allerdings funktionieren sie derzeitig nicht zuverlässig und robust – dazu später mehr.

Wie soll nun die Interaktion gestaltet sein, wenn der Nutzer eine bestimmte Farbe im Farbraum erreicht hat und nun diese Farbe festsetzen oder speichern will oder gar die Hitarea mit der Hand verlassen will um, sagen wir mal, zwischendurch einen Schluck zu trinken ? Anders als mit der Maus, die man einfach loslässt und mit der Hand in die dritte Dimension geht, ist bei einem Scannen des dreidimensionalen Raumes nicht möglich, mit der Hand in eine andere Dimension zu wechseln.

An dieser Stelle bietet sich an, durch verschiedene Gesten verschiedene Modi zu repräsentieren und damit die existierende Verankerung zu verlassen. Durch Ändern der Geste verlasse ich den Markierungsmodus. Ich kann beispielsweise zu einer undefinierten Geste greifen, z.B. geballte Faust, und damit die Hitarea zu verlassen ohne die Markierung zu verändern. Oder ich will die markierte Farbe speichern und verlasse die Markierungsgeste, indem ich den Daumen „einklappe“, also nur den Zeigefinger ausstrecke (Selektionsmodus) und als nächste Bewegung die Tap-Geste ausführe (Zeigefinger „drückt“ deutlich in Richtung Screen)

Zwischenbemerkung:

Ich kann mit den vorhandenen Interaktionspatterns niemals eine bereits markierte Farbzelle nutzen, indem ich sie beispielsweise verschiebe; vielmehr fange ich die Markierung zwangsläufig immer wieder neu an. Daher sehe ich Potential für weitere Gesten angesichts eines Real-World- Nutzungsszenarios, bei dem Farben nicht nur neu definiert werden, sondern oftmals umdefiniert werden oder in iterativen Schritten ihre finale Bestimmung erhalten. Es wäre bei einer Weiterführung des Projektes über die Gestaltung und die Steuerung eines Bearbeiten-Modus nachzudenken, bei dem der User eine bereits markierte Farbe gezielt in ihren Werten verändern möchte.

Gesten als Metaphern der realen Welt

Die implementierten Gesten und ihre korrespondieren Funktionen basieren weitestmöglich auf Metaphern der realen Welt:

  • „Gangster-Pistole“  > Zielen: Farbe markieren
  • Zeigefinger allein > auf etwas Bestimmtes zeigen: Farbe selektieren
  • Tap > mit Zeigefinger drücken: Farbe speichern
  • Circle > horizontale, halbkreisförmige Bewegung: Würfelausrichtung ändern

Je mehr Entsprechung die Geste in der Realität hat, desto leichter erlernbar und besser merkbar ist sie. Tap-Geste und Circle-Geste sind aus dem Software-Development-Kit von LeapMotion entnommen.

Visuelle und textuelle Beschreibung der im Colorpicker verwendeten Gesten im Hilfelayer der Colorpicker Applikation.

Visuelle und textuelle Beschreibung der im Colorpicker verwendeten Gesten im Hilfelayer der Colorpicker Applikation.

Eigenlokation im Raum und ihr visuelles Feedback

Während der Interface-Entwicklung wurde schnell klar, dass eine reine Kennzeichnung des annavigierten Punktes nicht ausreicht: die Darstellung des Voxels erfolgt auf dem (2-dimensionalen) Screen. Eine Punktmarkierung innerhalb des (von einem fixen Betrachterstandpunkt aus) projizierten Würfels macht den Raumpunkt für den Nutzer nicht nachvollziehbar und ist auch nicht eindeutig, wie die folgende Skizze exemplarisch illustriert.

Beide Punkte P1 und P2 bezeichnen im RGB-Würfel verschiedene Farben, liegen aber aus der festen Betrachterperspektive auf derselben Sichtlinie. Erst die zusätzliche Darstellung von Loten ergänzt die zur eindeutigen Ortsbestimmung notwendigen Informationen.

Beide Punkte P1 und P2 bezeichnen im RGB-Würfel verschiedene Farben, liegen aber aus der festen Betrachterperspektive auf derselben Sichtlinie. Erst die zusätzliche Darstellung von Loten ergänzt die zur eindeutigen Ortsbestimmung notwendigen Informationen.

 

Verbessert werden kann die unzureichende Eigenlokation, indem zusätzlich zum annavigierten Punkt die Lotrechte auf die 3 Aussenflächen des Kubus dargestellt werden. Weiterhin werden die numerischen RGB-Werte direkt neben dem markierten Punkt dargestellt, damit die exakte Raumposition auch direkt im Wahrnehmungsfokus des Users liegt und simultan erfasst werden kann.

Farbidentifikation als Grundlage für Steuerbarkeit

Bisher wurde die Navigation im Farbwürfel unter dem Aspekt des Ansteuerns eines Koordinatenpunktes im Würfel betrachtet. Dies ist aber kein Zweck an sich, sondern nur ein Mittel, damit der Nutzer innerhalb des Farbwürfels explorieren kann, jede einzelne markierte Farbe sowohl adäquat wahrnehmen und ggf. auch speichern kann. Es wurde der Projektgruppe sehr schnell klar, dass die punktuelle Markierung keine ausreichende Fläche aufweist, um dies zu leisten. Deswegen wurde diese Anzeigefläche ausserhalb des Würfels gelegt.

 

Großflächige Farbdarstellung ausserhalb des Farbwürfels.Oben die aktuelle markierte Farbe, unten die zuletzt gespeicherte.

Großflächige Farbdarstellung ausserhalb des Farbwürfels.Oben die aktuelle markierte Farbe, unten die zuletzt gespeicherte.

 

Dies bietet verschiedene Vorteile gegenüber einer Platzierung innerhalb des Würfels:

  • Die Farbflächenausdehnung kann so groß werden, dass die Farbe auch sicher vom Nutzer erkannt werden kann.
  • Der Hintergrund kann homogen und stabil sein – im umgesetzten Prototypen ist der Hintergrund standardmäßig weiß. Innerhalb des Würfels ändert sich die Umgebung ständig durch die Navigation und kann zu verschiedenen Wahrnehmungsfehlern aufgrund von Simultankontrasten führen.
  • Ein Vergleich der markierten Farbe mit einer vorher gespeicherten ist möglich. Im Prototypen funktioniert dies nachvollziehbar gut: das untere Farbfeld zeigt die zuletzt gespeicherte Farbe mit den RGB-Werten, die obere zeigt die aktuell markierte Farbe, die mit der Veränderung der Fingerposition aktualisiert wird. Dieser Refreshvorgang zeigt keinerlei spürbare Latenz.

Der Nachteil dieser Auslagerung ausserhalb des Würfels liegt darin, dass der Nutzer zum Erfassen und Vergleichen der Farbflächen seinen Wahrnehmungsfokus vom Würfel weg und hin zu den Farbfeldern bewegen muss. Für eine Optimierung des Interfaces wäre an dieser Stelle anzusetzen, designerische Alternativen zu entwickeln und eine die Leistungsfähigkeit der verschiedenen Designalternativen zu evaluieren.

Ob mit der sehr großzügigen Dimensionierung der Farbflächen im Prototypen etwas übers Ziel inausgeschossen wurde oder ob die gewählte Größe aufgrund des etwas größeren Betrachtungsabstanden angemessen ist, wäre in einer künftigen Weiterentwicklung zu evaluieren.

Darstellung der Farbumgebung

Für eine intuitive Navigation innerhalb des Farbwürfels reicht es nicht, dass der Nutzer den aktuell markierten Raumpunkt und die zugehörige Farbe erkennt. Darüber hinaus muss er in der Lage sein, die im Umfeld liegenden Farben zu erkennen, um bewusst in Richtung der gewünschten Farbeigenschaft zu steuern (z.B. heller oder dunkler, mehr in Richtung Rot oder mehr in Richtung Blau).

Im Rahmen der Entwicklung des vorliegenden Prototypen wurden zwei verschiedene Konzepte der Visualisierung angedacht:

  • Darstellung der drei orthogonalen Schnittflächen zu einer markierten Farbzelle über den gesamten Würfel. Dabei stellt sich die Frage, wie mit den Bildteilen umgegangen werden soll, die durch vom Kamerastandpunkt aus verdeckt sind. Eine Variante wäre, die Aussenflächen schwarz zu halten, so dass nur die Schnittflächen dargestellt werden und Orientierung geben könnte.
Skizze der Visualisierung mittels dreier orthogonaler Schnittflächen, die durch die markierte Farbzelle gehen. Der RGB-Würfel hier wie der UI Prototyp so ausgerichtet, dass die vertikale Achse die Farbe blau kennzeichnet.

Skizze der Visualisierung mittels dreier orthogonaler Schnittflächen, die durch die markierte Farbzelle gehen. Der RGB-Würfel hier wie der UI Prototyp so ausgerichtet, dass die vertikale Achse die Farbe blau kennzeichnet.

  • Darstellung der drei orthogonalen Schnittflächen als Projektion auf die drei Aussenflächen. Dieses Konzept wurde im Prototypen umgesetzt. Wenn  ich mit diesem Prototypen arbeitete, empfinde ich die ständigen Veränderungen der Aussenflächen als sehr störend und keineswegs als hilfreich um Farben bewusst anzusteuern.  Mir fehlen unveränderliche Anhaltspunkte, aus denen ich ERSEHEN kann, welche Farbe in welcher Richtung liegt. Auch die Projektion auf die Aussenfläche in Zusammenarbeit mit den Loten der markierten Farbzelle suggeriert, dass die Farbzelle sich genau nicht auf den gezeigten Aussenflächen befindet; das Konzept ist also – zumindest für mich persönlich – kontra-intuitiv.

Im Rahmen einer Weiterentwicklung des Interfaces wird eine der Aufgaben sein, das erstgenannte Konzept zu implementieren und in einem Vergleich mit dem bereits implementierten Konzept zu evaluieren.

Message Bar

Sehr gut gelungen ist eine zu den direkten Zustandsänderungen zusätzliches Feedback des Systems an den Nutzer: <Farbe ist gespeichert> <Leap ist bereit> <Würfel wurde gedreht> (siehe Abbildung zur Farbdarstellung oben). Dem Nutzer gibt dies Sicherheit über die Ausführung von Befehlen oder auch über fehlerhaft ausgelöste Zustandsänderungen. Im Prototypen wird dieses Feedback textuell für einen kurzen Zeitraum in einer von oben in den Viewport fahrenden Message Bar gegeben. Absolut usable und gerade bei einem noch nicht ausgereiften Interface eine große Hilfe!

Schwachpunkte

Identifizierte und teilweise auch der Projektgruppe bekannte Schwächen des UI Prototypen liegen in verschiedenen Bereichen:

  • Hängenbleiben („Freeze“) der Markierung beim visuellen Feedback
  • „zittrige“ Eingabe
  • unzuverlässige Erkennung von Gesten
Freeze

Grundsätzlich positiv ist die Latenzzeit beim Navigieren sehr gering d.h. als User habe ich den Eindruck, die Markierung folgt ausreichend schnell meinem Finger. Dies allerdings nur für einige Sekunden, danach kommt es allerdings häufig vor, dass die Markierung trotz weitergeführter Fingerbewegung für ein bis drei Sekunden stehen bleibt. Damit habe ich die Verankerung verloren, da mein Finger zwischenzeitlich eine neue Position eingenommen hat.Meinen gewonnenen Arbeitsfortschritt habe ich verloren und ich muss zwangsläufig mit der Navigation neu beginnen. Wenn ich es richtig verstanden habe, so sind diese Freezes das Ergebnis von zu großer Datenvolumina im Speicher.

Zittrige Eingabe

Ironischerweise ist die hohe Präzision des Leap Controllers auch ein Problem für die Steuerbarkeit. Innerhalb der Hit-area des Würfels ist es nahezu unmöglich, einen bestimmten Markierungspunkt trotz subjektiv stillgehaltenem Finger zu halten. Bereits unbeabsichtigte kleinste Bewegungen des Arms, der Hand oder des ausgestreckten Zeigefingers führen dazu, dass der gewählte Farbwert um ein bis zwei Werte in verschiedenen Achsen schwankt. Dieses ist insbesondere deswegen ein Problem, weil im Nutzungsprozess ein angesteuerter Farbwert im nächsten Schritt auch markiert bleiben und gespeichert werden soll. Dazu muss die Geste geändert werden und dies führt zu einer unbeabsichtigten Änderung der Fingerposition.

An dieser Stelle zeigt sich eine grundsätzliche Schwäche der Gestensteuerung gegenüber der Steuerung mit einem Eingabedevice wie einer Maus: der Nutzer kann die Maus liegen lassen und hat damit einen Ruhezustand hergestellt. Hat der Nutzer den Cursor einmal an eine gewüschte Stelle platziert, so muss er nichts weiter tun, um diese Stelle zu halten. Dagegen ist es bei der Fingergeste grundsätzlich anders: hier muss der Nutzer aktiv sich konzentrieren und unter Kraftaufbringung versuchen, die Geste an derselben Stelle schwebend zu halten.

Auch dieser ergonomische Nachteil bedarf der Optimierung des Interaktionsdesigns, um die präzise Steuerbarkeit zu gewährleisten. Mögliche Lösungsstrategien sind die Anwendung von Trägheitsalgorithmen oder das Zoomen in den Würfel hinein um das Verhältnis vonBewegung innerhalb der Hit-Area zu resultierenden Veränderungen im Farbwürfel zu verändern.

Unzuverlässige Erkennung von Gesten

Funktionen wie beipielsweise <Würfel drehen>  oder  <Farbe speichern>  werden manchmal nicht ausgelöst werden, wenn ich es als Nutzer beabsichtige – oder andersherum genau dann ausgelöst werden, wenn ich es nicht beabsichtige, sondern eigentlich etwas anderes beabsichtige.

 

Epilog

Mir ist anhand der Analyse des Prototypen wieder einmal bewusst geworden, wie entscheidend das visuelle Feedback für die Steuerbarkeit eines Systems ist – gerade bei gestischer Steuerung. Und mir ist ebenfalls wieder einmnal bewusst geworden, wie ausgereift das WIMP-System ist – innerhalb seiner eigenen Grenzen und systemeigenen Beschränkungen. Ich werde daher auf die Unterschiede der beiden Interfaces (Leap Motion vs. klassische Maus) in einer der kommenden Blogartikel genauer eingehen.

Der Colorpicker mittels Leap Motion ist ein guter Start; aber für ein sauber und elegant bedienbares System ist noch einiges an Arbeit an Code und Interaktionen zu leisten. Neben der technischen Aushärtung des Systems sollte die weitere Entwicklungsarbeit auch Methoden und Vorgehensweise des User Centered Designs integrieren. Vielleicht interessieren sich im kommenden Winter Studenten am FB ON für die Weiterführung des Colorpicker UIs …

 

Basics

Quelle:

Konzept eines UIs zur Farbselektion aus einem RGB-Würfel mittels Leap Motions Controller
Jasmin Wagner, Domenik Niemietz, Michael Tebbe, Konstantin Scharow (Studiengang Online Medien an der DHBW Mosbach, 5. Semester) (http://www.dhbw-mosbach.de/studienangebote/onlinemedien.html) Februar 2014
Die Arbeit entstand im Rahmen der LV Multimediales Informationsdesign,  Betreuung: Lothar B. Blum.

Technische Daten:

Verwendete Spoftware:  LeapMotion Version 1.1.3
Der Prototyp läuft im Webbrowser. Am besten lief der Colorpicker unter Firefox. Meinen Analysen basieren auf FF 28.0
URL: http://leap.2fq.de/

Hinweise:

Ich habe festgestellt, dass die Leap Motion trotz der Infrarotsensoren einer gleichmäßige Umgebungsausleuchtung bedarf. Schlaglichter in der Form von einseitigem Tageslicht oder nahestehende Lampen mit Punktlicht können schnell zu Fehlerkennungen und fehlerhaftem Verhalten führen.

Grundlagenliteratur:

Ich möchte auf das ausgezeichnete Buch „Emotionales Interaktionsdesign – Gesten und Mimik interaktiver Systeme“ von Rainer Dorau hinweisen. Der Hauptitel ist ein wenig irreführend, denn emotional ist an diesem Buch nichts. Ganz im Gegenteil: es befasst sich sehr analytisch und rational mit den Interaktionsmöglichkeiten von computergesteuerten Systemen. Sein Schwerpunkt liegt auf den Touch-Systemen.

Dorau, Rainer: „Emotionales Interaktionsdesign – Gesten und Mimik interaktiver Systeme“, Heidelberg 2011 (Springer)

From → Allgemein

One Comment
  1. aithalides permalink

    Es gibt erste positive Kommentare auf das ColorPicker UI aus der Leap Motion Community:

    https://community.leapmotion.com/t/colorpicker-ui-with-leap-motion/1023

Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: