DE112011105917T5 - Benutzerschnittstellenvorrichtung - Google Patents

Benutzerschnittstellenvorrichtung Download PDF

Info

Publication number
DE112011105917T5
DE112011105917T5 DE112011105917.5T DE112011105917T DE112011105917T5 DE 112011105917 T5 DE112011105917 T5 DE 112011105917T5 DE 112011105917 T DE112011105917 T DE 112011105917T DE 112011105917 T5 DE112011105917 T5 DE 112011105917T5
Authority
DE
Germany
Prior art keywords
user
user interface
interface device
screen
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112011105917.5T
Other languages
English (en)
Inventor
Andy Cockburn
Dinesh Mandalapu
Mark Billinghurst
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of DE112011105917T5 publication Critical patent/DE112011105917T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators

Abstract

Eine Benutzerschnittstellenvorrichtung (105) umfasst eine Kamera (110, 205), die ein Bild des Gesichts und der Finger (125) eines Benutzers (115) aufnimmt, und einen Prozessor (210, 230), der die räumliche Position der Gesichtszüge (120) und der Finger (125) des Benutzers (115) unter Verwendung des aufgenommenen Bildes bestimmt, wobei der Prozessor (210, 230) ferner bestimmt, wohin der Benutzer (115) auf einem Bildschirm (130) der Benutzerschnittstellenvorrichtung (105) blickt, und wobei der Prozessor (210, 230) die Gesichtszüge (120) und die Finger (125) des Benutzers (115) auf Angaben einer Manipulation von Bildschirminhalt der Benutzerschnittstellenvorrichtung (105) überwacht.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Benutzerschnittstellen sind für einen Benutzer praktisch, der durch Manipulation von Bildschirminhalt auf Informationen zugreift. Ein Benutzer kann beispielsweise eine Maus oder ein Tastfeld einsetzen, um Bildschirminhalt, der an der Benutzerschnittstelle angezeigt wird, zu aktivieren. Dabei kann der Benutzer beliebige Daten manipulieren, die mit dem Bildschirminhalt verknüpft sind. Ein Benutzer kann auch mit der Benutzerschnittstelle über eine Berührungsbildschirmvorrichtung interagieren, um ähnliche Aufgaben zu erfüllen. Ein Benutzer, der diese Vorrichtungen einsetzt, kann jedoch Schwierigkeiten bei ihrer Bedienung haben. Beispielsweise kann ein Benutzer, der Bildschirminhalt mit den Fingern manipuliert, eine Maskierung oder Verdeckung diverser Objekte auf dem Bildschirm erfahren, während er den Bildschirm berührt. Zusätzlich ist es schwierig, kleine Objekte auf dem Bildschirm auszuwählen, insbesondere falls die Finger des Benutzers relativ größer sind als die Finger eines durchschnittlichen Benutzers, für den die Benutzerschnittstellenvorrichtung gestaltet wurde. Ferner gibt es auf Grund der binären Funktion entweder des Berührens oder des Nicht-Berührens des manipulierten Objekts ein Limit dafür, was ein Benutzer mit einem Bildschirmobjekt machen kann.
  • In dem Maße wie die Benutzerschnittstellen auch immer unterschiedlicher und einzigartiger werden, wird es immer schwieriger, Daten dazwischen zu manipulieren und zu übertragen. Auf Grund der Vielfalt und Einzigartigkeit der diversen Arten von Benutzerschnittstellen bleibt einem Benutzer tatsächlich nicht anderes übrig, als mehrere Arten von Bedienelementen für jede Benutzerschnittstelle zu verwenden oder einzusetzen. Zusätzlich kann es sein, dass den Benutzerschnittstellen die Unterstützung fehlt, die verwendet wird, um Daten zwischen diesen zu manipulieren.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Die beiliegenden Zeichnungen bilden diverse Beispiele der hier beschriebenen Grundlagen ab und sind Teil der Beschreibung. Die Beispiele schränken den Umfang der Ansprüche nicht ein. Es zeigen:
  • 1 ein Diagramm eines Benutzerschnittstellensystems gemäß einem Beispiel der hier beschriebenen Grundlagen.
  • 2 ein Blockdiagramm einer Benutzerschnittstellenvorrichtung gemäß einem Beispiel der hier beschriebenen Grundlagen.
  • 3 ein Ablaufschema, das ein Verfahren zum Manipulieren von Bildschirminhalt der Benutzerschnittstellenvorrichtung gemäß einem Beispiel der hier beschriebenen Grundlagen abbildet.
  • In allen Zeichnungen bezeichnen die gleichen Referenzzahlen ähnliche aber nicht unbedingt identische Elemente.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Das vorliegende System, Produkt und Verfahren offenbaren eine Benutzerschnittstelle, die eine Kamera einsetzt, um die Position des Auges und der Finger eines Benutzers mit Bezug auf die Benutzerschnittstelle zu verfolgen. Es kann einem Benutzer erlaubt werden, einen Cursor über einen beliebigen Bildschirm zu bewegen, indem er beispielsweise seinen Zeigefinger und Daumen in einer offenen Griffkonfiguration in einem gewissen Abstand vom Bildschirm der Benutzerschnittstelle hält. Die Position des Cursors am Bildschirm wird durch eine Linie oder einen Vektor bestimmt, die bzw. der durch die beiden räumlichen Punkte erstellt wird, die durch das Auge und die Finger des Benutzers definiert werden. Daher kann die Kamera den Punkt im Raum bestimmen, in dem sich das Auge des Benutzers befindet; den Punkt im Raum bestimmen, in dem sich der oder die Finger des Benutzers befindet bzw. befinden, und eine Linie oder einen Vektor bestimmen oder berechnen, die bzw. der durch diese beiden Punkte erstellt wird, um zu bestimmen, mit welcher Position am Bildschirm der Benutzerschnittstelle der Benutzer zu interagieren versucht.
  • Wie zuvor kurz besprochen, weist die Verwendung von Berührungsbildschirmsystemen eine gewisse Anzahl von Nachteilen auf. Insbesondere Handgeräte, wie etwa Tablets und Smartphones, erlauben es den Benutzern, direkt mit einer zweidimensionalen Benutzerschnittstelle zu interagieren, welche diverse Bildschirminhalte abbildet. Ein Finger und manchmal ein Griffel kann verwendet werden, um diesen Bildschirminhalt zu manipulieren. Wenn er jedoch direkt mit der Oberfläche des Bildschirms an der Benutzerschnittstelle interagiert, kann es sein, dass der Benutzer andere Bildschirminhalte oder manipulierbare Objekte am Bildschirm verdeckt oder maskiert. Dies wirkt sich unmittelbar auf die Fähigkeit des Benutzers aus, mit dem Bildschirminhalt mühelos zu interagieren.
  • Zusätzlich kann es für einen Benutzer schwierig sein, Objekte am Bildschirm einer Benutzerschnittstelle genau auszuwählen oder zu manipulieren. Dieses Problem kann auftreten, wenn die Bildschirmgröße relativ klein ist, die Objekte am Bildschirm relativ klein sind, wenn die Finger des Benutzers relativ groß sind, oder bei Kombinationen davon. Wenn dies vorkommt, kann es sein, dass die Benutzerschnittstelle nicht in der Lage ist zu unterscheiden, welche der gegebenenfalls vorhandenen Objekte am Bildschirm zu manipulieren sind.
  • Ferner ist eine Benutzerschnittstelle eines Berührungsbildschirms binär, was die Ausdrucksmöglichkeiten der Interaktion des Benutzers einschränken kann. Insbesondere kann ein Objekt auf einem Berührungsbildschirm nicht manipuliert werden, es sei denn dass und bis der Benutzer den Bildschirm tatsächlich berührt. Daher kann der Bildschirm nur ein ausgewähltes oder nicht ausgewähltes Bildschirmobjekt erfassen. Dies schränkt die Fähigkeit des Benutzers weiter ein, einen Schwebezustand oder einen provisorischen Auswahlzustand des Bildschirminhalts einzuleiten. Der Wunsch, die Fähigkeit zu haben, Bildschirminhalt auf einem Berührungsbildschirm provisorisch auszuwählen, hat zu unpraktischen zeitweiligen Betriebsarten geführt, die verwendet werden, um zu bestimmen, ob ein ausgewähltes Objekt an einer Benutzerschnittstelle lange genug ausgewählt wurde, um als provisorisch ausgewähltes Objekt zu zählen oder nicht.
  • Ferner kann sich die Verwendung eines Berührungsbildschirms als unerwünscht erweisen, insbesondere falls der Berührungsbildschirm in einer öffentlichen Umgebung verwendet werden soll. Die Verwendung einer einzigen Vorrichtung durch mehrere Personen kann zur Verbreitung von Bakterien und Viren führen. Demnach kann dies Benutzer davon abhalten, den Berührungsbildschirm zu berühren, was zu einer Verringerung der Verwendung der Dienste führt, die durch den Berührungsbildschirm bereitgestellt werden.
  • Benutzerschnittstellen gibt es auch in diversen Formen, von denen einige eventuell nicht vollständig miteinander kompatibel sind. Die Verwendung von zahlreichen unterschiedlichen Arten von Benutzerschnittstellen kann dazu führen, dass der Benutzer ein anderes Interaktionsverfahren mit jeder Benutzerschnittstelle einsetzt. Beispielsweise kann es sein, dass ein Benutzer bei einer Vorrichtung eine Reihe von Druckknöpfen betätigen muss, bei einer anderen Vorrichtung eine Fernbedienung verwenden muss, bei noch einer anderen einen Bildschirm berühren muss und für eine andere Vorrichtung eine externe Hardware-Vorrichtung verwenden muss, wie etwa eine Maus. Dies kann beim Verwenden dieser unterschiedlichen Arten von Eingabeverfahren zu Verwirrung und Unzufriedenheit seitens des Benutzers führen. Zusätzlich kann es sein, dass es keine Interaktionsunterstützung gibt, die es den Benutzern erlaubt, Daten zwischen den diversen Anzeigen zu manipulieren. Beispielsweise kann ein Benutzer, der sich ein Bild auf einer mobilen Vorrichtung ansieht, wünschen, die Daten, die mit diesem Bild verknüpft sind, auf eine andere Vorrichtung zu verschieben, um das Bild auf der anderen Vorrichtung zu visualisieren. Folglich wird die erste Vorrichtung kommunikationsmäßig mit der anderen Vorrichtung gekoppelt und die Daten werden auf die andere Vorrichtung übertragen. Die Übertragung dieser Informationen erfolgt gewöhnlich über ein physisches Kabel zwischen den beiden Vorrichtungen oder über eine Funkverbindung.
  • In der nachstehenden Beschreibung werden zum Zweck der Erklärung zahlreiche spezifische Einzelheiten dargelegt, um ein vollständiges Verständnis der vorliegenden Systeme und Verfahren bereitzustellen. Für den Fachmann auf diesem Gebiet ist es jedoch ersichtlich, dass die vorliegenden Geräte, Systeme und Verfahren ohne diese spezifischen Einzelheiten in die Praxis umgesetzt werden können. Die Bezugnahme in der Beschreibung auf „ein Beispiel” oder ein ähnlicher Wortlaut gibt an, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder Charakteristik, das bzw. die in Zusammenhang mit diesem Beispiel beschrieben wird, wie beschrieben enthalten ist, jedoch in anderen Beispielen nicht enthalten sein kann.
  • In der vorliegenden Beschreibung und in den beiliegenden Ansprüchen versteht sich der Begriff „Benutzerschnittstelle” im weitesten Sinne als eine beliebige Hardware oder eine Kombination aus Hardware und Software, die es einem Benutzer ermöglicht, mit einem System, einem Programm oder einer Vorrichtung zu interagieren. Bei einem Beispiel der vorliegenden Beschreibung kann die Benutzerschnittstelle einen Bildschirm umfassen. Bei einem anderen Beispiel kann die Benutzerschnittstelle einen Bildschirm und eine Kamera umfassen. Bei noch einem anderen Beispiel kann die Benutzerschnittstelle einen Bildschirm und eine Kamera umfassen, in die eine mobile Vorrichtung integriert sind, wie etwa unter anderem in einen Tablet-Computer, ein Smartphone, einen persönlichen digitalen Assistenten (PDA), einen Laptop-Computer oder einen Bürocomputer, einen Fernseher und einen Drucker.
  • Zusätzlich versteht sich in der vorliegenden Beschreibung und in den beiliegenden Ansprüchen der Begriff „Benutzerschnittstellenvorrichtung” im weitesten Sinne als eine beliebige Vorrichtung, die es einem Benutzer ermöglicht, mit einem System, einem Programm oder einer Vorrichtung über eine beliebige Hardware oder eine Kombination aus Hardware und Software zu interagieren. Bei einem Beispiel kann eine Benutzerschnittstellenvorrichtung eine mobile Vorrichtung umfassen, wie etwa unter anderem einen Tablet-Computer, ein Smartphone, einen persönlichen digitalen Assistenten (PDA), einen Laptop-Computer oder einen Bürocomputer, einen Fernseher und einen Drucker.
  • Ferner versteht sich in der vorliegenden Beschreibung und in den beiliegenden Ansprüchen der Begriff „Bildschirminhalt” im weitesten Sinne als beliebige Daten oder Symbole, die Daten darstellen, die auf einem zweidimensionalen Bildschirm angezeigt werden, der zu einer mobilen Vorrichtung gehört, wie etwa unter anderem zu einem Tablet-Computer, einem Smartphone, einem persönlichen digitalen Assistenten (PDA), einem Laptop-Computer oder einem Bürocomputer, einem Fernseher und einem Drucker.
  • 1 ist ein Diagramm eines Benutzerschnittstellensystems (100) gemäß einem Beispiel der hier beschriebenen Grundlagen. Das System (100) kann eine Benutzerschnittstellenvorrichtung (105) und eine Kamera (110) umfassen. Wie zuvor kurz beschrieben, ermittelt das Benutzerschnittstellensystem (100) die räumliche Position des Auges (120) und der Finger (125) eines Benutzers (115). Das System (100) kann dann die X-, Y- und Z-Koordinaten oder die räumliche Position sowohl der Gesichtszüge oder des Auges (120) als auch der Finger (125) des Benutzers bestimmen. Das System kann auch unter Verwendung dieser Informationen berechnen, wohin der Benutzer (115) am Bildschirm (130) der Benutzerschnittstellenvorrichtung (105) blickt.
  • Wie zuvor beschrieben, kann die Benutzerschnittstellenvorrichtung (105) unter anderem ein Tablet-Computer, ein Smartphone, ein persönlicher digitaler Assistent (PDA), ein Laptop-Computer, ein Bürocomputer, ein Fernseher und ein Drucker sein. Wie es nachstehend beschrieben wird, kann die Benutzerschnittstellenvorrichtung (105) Hardware oder eine Kombination aus Hardware und Software enthalten, die mindestens die Funktion des Bestimmens der räumlichen Position des Auges (120) und der Finger (125) eines Benutzers (115) und des Bestimmens der Position am Bildschirm (130) der Benutzerschnittstellenvorrichtung (105) durch Berechnen einer Linie oder eines Vektors (135) unter Verwendung der beiden räumlichen Positionen erfüllt.
  • Die Kamera (110) kann eine beliebige Art von Kamera sein, die eine gewisse Anzahl von aufeinanderfolgenden Einzelbildern innerhalb eines gewissen Zeitraums aufnimmt. Bei einem Beispiel kann die Kamera eine Bildrate von bis zu 30 Einzelbildern pro Sekunde aufweisen. Bei einem anderen Beispiel kann die Bildrate mehr als 30 Einzelbilder pro Sekunde betragen. Bei einem anderen Beispiel kann es einem Benutzer (115) erlaubt sein, die Bildrate der Kamera (110) anzupassen. Dies kann derart erfolgen, dass die Kamera (110) die räumliche Position der Gesichtszüge oder des Auges (120) und der Finger (125) des Benutzer (115) ausreichend bestimmen kann und dabei noch die Verarbeitungszeit der Bilder erhöhen oder verringern kann, wenn sie erzeugt und analysiert werden.
  • Die Kamera (110) kann ferner den Abstand eines Objekts mit Bezug auf den Bildschirm (130) der Benutzerschnittstellenvorrichtung (105) bestimmen. Bei einem Beispiel kann die Kamera eine Entfernungsbildkamera sein, die den Abstand von Objekten zur Kamera (110) bestimmt. Die Bilder, die von der Kamera (110) aufgenommen werden, können dann verarbeitet werden, um die räumliche Position des Auges (120) und der Finger (125) des Benutzers (115) zu bestimmen. Zusätzlich kann ein Prozessor mit der Kamera (110) verwendet werden, um die Gesichtszüge eines menschlichen Gesichts sowie die Finger (125) des Benutzers (115) zu erkennen. Die Kamera (110) kann ferner Bilder vom Gesicht des Benutzers (115) mit einer ausreichenden Auflösung aufnehmen, um die Position des Gesichts, der Augenhöhle, des Augapfels, der Pupille des Benutzers (115) oder Kombinationen davon zu bestimmen. Die Auflösung der Bilder kann erhöht werden, um genauer zu bestimmen, wohin der Benutzer (115) am Bildschirm blickt.
  • Bei einem Beispiel kann der Prozessor ferner verwendet werden, um das dominante Auge (120) des Benutzers zu verfolgen und das andere Auge zu vernachlässigen. Bei diesem Beispiel kann der Benutzer sein dominantes Auge (120) identifizieren, indem er die Informationen in die Benutzerschnittstellenvorrichtung (105) eingibt.
  • Bei einem Beispiel ist die Kamera ist eine dreidimensionale Bildgebungskamera, die eine gewisse Anzahl von Linsen verwendet, die jeweils ein Bild auf einmal aufnehmen, und dieses Bild kombiniert, um ein dreidimensionales Bild zu formen. Aus dem dreidimensionalen Bild kann das System (100) in der Lage sein, die räumliche Position des Auges (120) und der Finger (125) des Benutzers (115) zu bestimmen und die Position am Bildschirm (130) zu berechnen, auf die der Benutzer (115) blickt. Wie zuvor besprochen, kann das System (100) mit einer Bildrate von beispielsweise ungefähr 30 Einzelbilder pro Sekunde bestimmen, ob der Benutzer (115) den Abstand zwischen seinen Fingern (135) anpasst, wobei ein gewisser Abstand dadurch bestimmt, ob der Benutzer Bildschirminhalt am Bildschirm (130) der Benutzerschnittstellenvorrichtung (105) auswählt.
  • 2 ist ein Blockdiagramm einer Benutzerschnittstellenvorrichtung (105) gemäß einem Beispiel der hier beschriebenen Grundlagen. Die Benutzerschnittstellenvorrichtung (105) kann Hardware oder Hardware und Software umfassen, die es einem Benutzer (1, 115) ermöglicht bzw. ermöglichen, Objekte oder Daten auf einem Bildschirm (1, 130) der Benutzerschnittstellenvorrichtung (105) zu manipulieren. Die Benutzerschnittstellenvorrichtung (105) kann unter anderem eine Kamera (205), einen Bildprozessor (210), eine gewisse Anzahl von Ausgabevorrichtungen (215), eine Eingabevorrichtung (220), einen Prozessor (230) und eine Datenspeichervorrichtung (234), wozu ein Arbeitsspeicher (RAM) (250), ein Festspeicher (ROM) (255), ein Festplattenlaufwerk-(HDD)Speicher (240) und ein Flash-Speicher (245) gehören, umfassen. Jedes Element davon wird nun ausführlicher beschrieben.
  • Die Kamera (205) kann eine beliebige Art von Kamera sein, die eine Reihe von aufeinanderfolgenden Einzelbildern in einem spezifischen Zeitraum aufnimmt. Die Kamera (205) kann Teil der Benutzerschnittstellenvorrichtung (105) sein oder kann eine Peripherievorrichtung sein, die kommunikationsmäßig mit der Benutzerschnittstellenvorrichtung (105), z. B. über einen Peripherievorrichtungsadapter (260), gekoppelt ist. Wie zuvor erwähnt, kann die Kamera eine gewisse Anzahl von aufeinanderfolgenden Bildern des Auges (1, 120) und der Finger (1, 125) eines Benutzers (1, 115) aufnehmen und verarbeiten, so dass die Position des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115) mit einer ausreichend hohen Rate bestimmt werden kann. Beispielsweise kann die Kamera (105) eine gewisse Anzahl von aufeinanderfolgenden Bildern des Auges (1, 120) und der Finger (1, 125) eines Benutzers (1, 115) aufnehmen, die ausreicht, um zu bestimmen, ob der Benutzer sein Auge (1, 120) und/oder seine Finger (1, 125) bewegt, was bedeutet, dass der Benutzer (1, 115) versucht, mit dem Bildschirminhalt am Bildschirm (1, 130) der Benutzerschnittstellenvorrichtung (105) zu interagieren. Bei einem Beispiel kann die Bildrate kleiner oder gleich ungefähr 30 Einzelbilder pro Sekunde sein. Bei einem anderen Beispiel kann die Bildrate über 30 Einzelbilder pro Sekunde hinausgehen.
  • Die Benutzerschnittstellenvorrichtung (105) kann auch einen Bildprozessor (210) umfassen. Der Bildprozessor (210) kann eine Hardware-Architektur umfassen, die ausführbaren Code aus einer Datenspeichervorrichtung (235) abruft und den ausführbaren Code ausführt. Der ausführbare Code kann, wenn er von dem Bildprozessor (210) ausgeführt wird, bewirken, dass der Bildprozessor (210) mindestens die Funktion des Bestimmens der räumlichen Position des Auges (1, 120) und der Finger (1, 125) eines Benutzers (1, 115) umsetzt. Der ausführbare Code kann auch, wenn er von dem Bildprozessor (210) ausgeführt wird, bewirken, dass der Bildprozessor eine Position am Bildschirm (1, 130) der Benutzerschnittstellenvorrichtung (105) basierend auf den räumlichen Positionen des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115) bestimmt. Der Bildprozessor (210) kann dies für jedes Einzelbild vornehmen, das von der Kamera (205) aufgenommen wird.
  • Die Benutzerschnittstellenvorrichtung (105) kann ferner eine gewisse Anzahl von Ausgabevorrichtungen (215) umfassen. Bei einem Beispiel ist die Ausgabevorrichtung (215) ein Bildschirm (1, 130). Wie zuvor beschrieben, kann der Bildschirm (Fig. 130) Daten grafisch darstellen, die von einem Benutzer (1, 115) manipuliert werden können. Die grafische Darstellung von Daten am Bildschirm (130) kann durch einen Prozessor (230) gesteuert werden. Der Prozessor (230) kann auch eine Hardware-Architektur umfassen, die ausführbaren Code aus der Datenspeichervorrichtung (235) abruft und den ausführbaren Code ausführt. Der ausführbare Code kann, wenn er von dem Prozessor (230) ausgeführt wird, bewirken, dass der Prozessor (230) mindestens die Funktion des Anzeigens von Bildschirminhalt am Bildschirm (1, 130) umsetzt.
  • Bei einem anderen Beispiel kann die Anzahl von Ausgabevorrichtungen unter anderem eine Vorrichtung, um eine haptische Rückmeldung zu erzeugen, wie etwa einen Vibrationsmotor oder ein anderes Stellglied, und einen Lautsprecher umfassen. Diese anderen Ausgabevorrichtungen (215) können in Zusammenarbeit mit dem Bildschirm (1, 130) funktionieren, so dass visuelle Änderungen am Bildschirm (1, 130) vom Benutzer (1, 115) gespürt oder gehört werden können.
  • Die Benutzerschnittstellenvorrichtung (105) kann ferner eine Datenspeichervorrichtung (235) und einen Peripherievorrichtungsadapter (260) umfassen. Die Datenspeichervorrichtung (235) kann digital Daten speichern, die von einem Prozessor (210, 230) empfangen oder erzeugt werden, der zu der Benutzerschnittstellenvorrichtung (105) gehört. Die Datenspeichervorrichtung (235) kann einen Arbeitsspeicher (RAM) (250), einen Festspeicher (ROM) (255), einen Flash-Speicher (245) und einen Festplattenlaufwerk-(HDD)Speicher (240) umfassen. Viele andere Arten von Speicher sind verfügbar und die vorliegende Beschreibung zieht die Verwendung einer beliebigen Art von Datenspeichervorrichtung (235) in Betracht, wie sie für eine bestimme Anwendung der hier beschriebenen Grundlagen geeignet sein kann. Bei bestimmten Beispielen können verschiedene Arten von Speicher in der Datenspeichervorrichtung (235) für verschiedene Datenspeicherbedürfnisse verwendet werden.
  • Der Peripherievorrichtungsadapter (260) kann eine Schnittstelle zwischen der Benutzerschnittstellenvorrichtung (105) und der Kamera (205) bereitstellen. Der Peripherievorrichtungsadapter (260) kann dadurch die Übertragung von Daten ermöglichen, die sich auf die aufgenommenen Bilder beziehen, die der Benutzerschnittstellenvorrichtung (105) und genauer gesagt dem Bildprozessor (210) bereitzustellen sind.
  • Eine Eingabevorrichtung (230) kann ebenfalls in der Benutzerschnittstellevorrichtung (105) enthalten sein. Bei einem Beispiel kann die Benutzerschnittstellenvorrichtung (220) Eingabevorrichtungen (220) umfassen, wie etwa unter anderem ein Mikrofon, eine virtuelle alphanumerische Tastatur und eine materielle alphanumerische Tastatur.
  • Während des Betriebs der Benutzerschnittstellenvorrichtung (105) kann der Benutzer (1, 115) Bildschirminhalt manipulieren, indem er zwei Finger, wie etwa den Zeigefinger und den Daumen, in einer offenen Griffposition zwischen dem Auge (1, 120) des Benutzers (1, 115) und dem Bildschirm (1, 130) der Benutzerschnittstellenvorrichtung (105) hält. Wie zuvor beschrieben, kann die Kamera (205) eine gewisse Anzahl von aufeinanderfolgenden Bildern auf einer vorbestimmten Bildrate aufnehmen und diese Bilder einem Bildprozessor (210) bereitstellen. Zusätzlich zum Bestimmen der räumlichen Position des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115) und zum Bestimmen, wohin der Benutzer (1, 115) am Bildschirm (1, 130) blickt, kann die Benutzerschnittstellenvorrichtung (105) ferner bestimmen, ob der Benutzer (1, 115) mit seinen Fingern eine Aktion ausführt, die eine Auswahl oder Manipulation von beliebigem Bildschirminhalt angibt.
  • Bei einem Beispiel kann der Benutzer (1, 115) kann den Abstand zwischen seinen Fingern (1, 125) schließen, was von der Benutzerschnittstellenvorrichtung (105) als eine Auswahl des Bildschirminhalts, den der Benutzer betrachtet, ausgelegt werden kann. Nachdem der Benutzer (1, 115) den Bildschirminhalt ausgewählt hat, kann er dann den Bildschirminhalt in andere Positionen am Bildschirm, aus dem Bildschirm heraus, in eine temporäre Datei ziehen, wie etwa in einen Papierkorb für Daten, die gelöscht wurden, oder kann den Bildschirminhalt weiter manipulieren, indem er die Datei öffnet, die zu dem Bildschirminhalt gehört.
  • Bei einem anderen Beispiel kann der Benutzer (1, 115), nachdem er den Bildschirminhalt ausgewählt hat, den Bildschirminhalt aus dem Bildschirm (1, 130) heraus ziehen, wodurch die Illusion geschaffen wird, dass der Inhalt aus der Benutzerschnittstellenvorrichtung (105) entfernt wird. Wie es später besprochen wird, kann der Benutzer (1, 115) dann diese Informationen auf den Bildschirm einer anderen Benutzerschnittstellenvorrichtung ziehen.
  • Bei noch einem anderen Beispiel kann der Benutzer (1, 115), nachdem er den Bildschirminhalt ausgewählt hat, seine Finger (1, 125) näher an den Bildschirm (Fig. 130) heran bringen oder davon entfernen, um das ausgewählte Objekt weiter zu manipulieren. Wenn der Benutzer (1, 115) beispielweise seine Finger (1, 125) von dem Bildschirm (1, 130) entfernt, kann das ausgewählte Objekt größer werden. Wenn der Benutzer (1, 115) zusätzlich seine Finger (1, 125) dem Bildschirm (1, 130) nähert, kann das ausgewählte Objekt kleiner werden.
  • Bei einem anderen Beispiel kann der Benutzer (1, 115) einen einzigen Finger (1, 125) verwenden, um den Bildschirminhalt zu manipulieren. Bei diesem Beispiel kann die Kamera (2, 205) ein Bild des Auges (1, 120) und des Fingers (1, 125) des Benutzers (1, 115) aufnehmen. Der Prozessor (2, 210, 230) kann dann die räumliche Position des Auges (1, 120) und des Fingers (1, 125) des Benutzers (1, 115) bestimmen und ferner bestimmen, wohin der Benutzer (1, 115) am Bildschirm (1, 130) blickt.
  • Bei noch einem anderen Beispiel kann der Benutzer (1, 115) andere Eingabevorrichtungen (220) verwenden, die zu der Benutzerschnittstellenvorrichtung (105) gehören, um den ausgewählten Bildschirminhalt weiter zu manipulieren. Beispielsweise kann der Benutzer (1, 115), nachdem er den Bildschirminhalt ausgewählt hat, ein Mikrofon (270) verwenden, das kommunikationsmäßig mit der Benutzerschnittstellenvorrichtung gekoppelt ist, um beispielsweise den ausgewählten Inhalt zu öffnen, indem er das Wort „Öffnen” ausspricht. Ähnliche Aktionen können über dieses Verfahren ausgeführt werden, und die vorliegende Beschreibung zieht die Verwendung von zusätzlichen Befehlen in Betracht, um den Bildschirminhalt weiter zu manipulieren.
  • Bei noch einem weiteren Beispiel kann die Benutzerschnittstellenvorrichtung (105), und genauer gesagt der Bildprozessor (210), einen Wimpernschlag des Benutzers (1, 115) ermitteln. Nachdem der Bildprozessor (210) den Wimpernschlag ermittelt hat, kann er den Wimpernschlag beispielsweise als einen Befehl zum Öffnen von Elementen deuten und kann bewirken, dass der von dem Benutzer (1, 115) ausgewählte Bildschirminhalt geöffnet wird. Auch hier können ähnliche Aktionen über dieses Verfahren ausgeführt werden, und die vorliegende Beschreibung zieht die Verwendung eines Wimpernschlags in Betracht, um zusätzliche oder andere Befehle darzustellen, um den Bildschirminhalt weiter zu manipulieren.
  • Wie zuvor erwähnt, kann der Benutzer (1, 115) den Bildschirminhalt derart manipulieren, dass er die Informationen auf eine getrennte Benutzerschnittstellenvorrichtung überträgt oder kopiert. Die Benutzerschnittstellenvorrichtung (105) kann daher kommunikationsmäßig mit einer anderen Benutzerschnittstellenvorrichtung derart gekoppelt sein, dass die Kamera (205) der ersten Benutzerschnittstellenvorrichtung (105) das Auge (1, 120) und die Finger (1, 125) eines Benutzers (1, 115) aus dem Bildschirm (1, 130) der ersten Benutzerschnittstellenvorrichtung (105) heraus und in den der zweiten Benutzerschnittstellenvorrichtung herein verfolgen kann. Bei einem Beispiel kann die zweite Benutzerschnittstellenvorrichtung auch eine Kamera umfassen, die ähnlich ist wie die der ersten Benutzerschnittstellenvorrichtung (105), um ähnlich das Auge (1, 120) und die Finger (1, 125) des Benutzers (1, 115) von der ersten Benutzerschnittstellenvorrichtung (105) hinüber zu der zweiten Benutzerschnittstellenvorrichtung zu verfolgen. Daher kann der Benutzer (1, 115) Bildschirminhalt virtuell von einer Benutzerschnittstellenvorrichtung (105) zur anderen ziehen. Die Prozessoren (210, 230) können verwendet werden, um zwischen getrennten Benutzerschnittstellenvorrichtungen zu koordinieren, um Informationen und Daten zwischen Benutzerschnittstellenvorrichtungen virtuell zu übertragen. Zusätzlich können die Prozessoren (210, 230) Code ausführen, der bewirkt, dass die erste Benutzerschnittstellenvorrichtung (105) die Daten, die zu dem ausgewählten Bildschirminhalt gehören, über einen Netzwerkadapter (265) an die zweite Benutzerschnittstellenvorrichtung sendet. Daher können Daten sowohl virtuell als auch elektronisch von einer Benutzerschnittstellenvorrichtung zur anderen übertragen oder kopiert werden.
  • Die Benutzerschnittstellenvorrichtung (105) kann es einem Benutzer (1, 115) ferner erlauben, mehrere Bildschirmobjekte unter Verwendung einer beliebigen Anzahl von Fingern oder Fingergruppen auszuwählen. Bei einem Beispiel kann der Benutzer (1, 115) beide Gruppen aus Daumen und Zeigefinger an beiden Händen verwenden, um eine Vielzahl von Bildschirmobjekten auszuwählen. Insbesondere kann die Kamera ein Bild des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115) an beiden Händen aufnehmen und dieses Bild dem Bildprozessor (210) bereitstellen. Wie zuvor beschrieben, kann der Bildprozessor die Position des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115) an beiden Händen bestimmen und die Position am Bildschirm (1, 130) bestimmen, auf die der Benutzer blickt. Der Bildprozessor (210) kann eine erste Position am Bildschirm (1, 130) bestimmen, die der Benutzer (1, 115) betrachtet, bestimmen, ob der Benutzer (1, 115) diesen Bildschirminhalt auswählt, und erlauben, dass dieses Element ausgewählt wird. Während der Bildschirminhalt ausgewählt wird, kann der Benutzer (1, 115) einen anderen Bildschirminhalt betrachten und diesen Inhalt mit der anderen Fingergruppe (1, 125) auswählen.
  • Bei einem anderen Beispiel kann es die Benutzerschnittstellenvorrichtung (105) einem Benutzer (1, 115) erlauben, mehrere Objekte am Bildschirm (1, 130) unter Verwendung einer einzigen Fingergruppe auszuwählen. Bei einem Beispiel, das ähnlich wie das zuvor beschriebene ist, kann der Benutzer (1, 115) eine Anzahl von einzelnen Fingern verwenden, um eine Anzahl von Objekten am Bildschirm (130) auszuwählen. Bei diesem Beispiel kann der Bildprozessor (210) die Position des Auges (1, 120) des Benutzers (1, 115) sowie einer Anzahl von Fingern (1, 125) des Benutzers (1, 115) bestimmen. Die Benutzerschnittstellenvorrichtung (105) kann dann eine Auswahl von Bildschirminhalt ermitteln, wenn der Benutzer (1, 115) einen Finger in Richtung auf den Bildschirm (1, 130) bewegt. Bei einem anderen Beispiel kann der Benutzer (1, 115) seinen Zeigefinger und Daumen in einer offenen Griffkonfiguration verwenden, so dass eine gewisse Anzahl von Bildschirminhaltsobjekten aussieht, als ob sie zwischen Daumen und Zeigefinger des Benutzers (1, 115) läge. Wie zuvor beschrieben, kann der Benutzer dann die Auswahl dieses Bildschirminhalts betätigen, indem er beispielsweise blinzelt oder hörbar einen Auswahlbefehl angibt. Bei diesem Beispiel kann der Benutzer (1, 115) die Größe der auswählbaren Fläche am Bildschirm (1, 130) erhöhen, indem er den Zwischenraum zwischen Daumen und Zeigefinger des Benutzers (1, 115) vergrößert oder verkleinert.
  • Nun mit Bezug auf 3 wird ein Ablaufschema gezeigt, das ein Verfahren zum Manipulieren von Bildschirminhalt der Benutzerschnittstellenvorrichtung gemäß einem Beispiel der hier beschriebenen Grundlagen abbildet. Das Verfahren kann damit beginnen, dass die Kamera (2, 205) Bilder des Auges (1, 120) und der Finger (1, 125) eines Benutzers (1, 115) aufnimmt (Block 305). Wie zuvor erwähnt, kann die Kamera eine dreidimensionale Kamera sein und kann eine beliebige Anzahl von aufeinanderfolgenden Einzelbildern pro Sekunde aufnehmen.
  • Nachdem die Kamera (2, 205) ein Bild des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115) aufgenommen hat (Block 305), kann ein Bildprozessor (2, 210) die räumliche X-, Y-, Z-Position des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115) bestimmen (Block 310). Wie zuvor besprochen, kann dies dadurch erfolgen, dass ein Prozessor (1, 210, 230) derart Code ausführt, dass diese räumlichen Positionen bestimmt werden können (Block 310).
  • Ein Prozessor (2, 210, 230) kann dann bestimmen (Block 315), wohin der Benutzer (1, 115) auf einem Bildschirm (1, 130) der Benutzerschnittstellenvorrichtung (2, 105) blickt. Dies kann unter Verwendung der räumlichen Position des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115), die zuvor bestimmt wurde (Block 310), bestimmt werden.
  • Nachdem bestimmt wurde (Block 315), wohin der Benutzer (1, 115) am Bildschirm (1, 130) blickt, kann die Benutzerschnittstellenvorrichtung (2, 105) das Auge (1, 120) und die Finger (1, 125) des Benutzers (1, 115) auf Angaben einer Manipulation von Bildschirminhalt überwachen (Block 320). Wie zuvor beschrieben, kann der Benutzer Bildschirminhalt verschiedenartig manipulieren, wie etwa durch Blinzeln, durch einen hörbaren Befehl, oder indem er den Abstand zwischen seinen Fingern (1, 125) vergrößert oder verkleinert.
  • Wenn der Benutzer (1, 115) angegeben hat, dass Bildschirminhalt zu manipulieren ist, kann die Benutzerschnittstellenvorrichtung (2, 105) den Bildschirminhalt basierend auf diesen Angaben manipulieren (Block 325). Daher ändert sich der Bildschirminhalt basierend auf Positionsänderungen des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115), wie zuvor beschrieben.
  • Während des Prozesses kann die Kamera (2, 205) damit fortfahren, eine gewisse Anzahl von Bildern eines zweiten Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115) aufzunehmen. Jedes Einzelbild kann dann analysiert werden, um die räumlichen Positionen des Auges (1, 120) und der Finger des Benutzers (1, 115) zu bestimmen (Block 310). (1, 125), sowie um zu bestimmen (Block 315), wohin der Benutzer am Bildschirm (1, 130) der Benutzerschnittstellenvorrichtung (2, 105) blickt. Jedes aufgenommene Bild (Block 205) kann verwendet werden, um das Auge (1, 120) und die Finger (1, 125) des Benutzers (1, 115) auf Angaben einer Manipulation von Bildschirminhalt zu überwachen (Block 320).
  • Die zuvor beschriebenen Verfahren können zusammen mit einem Computerprogrammprodukt, das ein nicht vorübergehendes computerlesbares Medium umfasst, das, wenn es von einem Prozessor ausgeführt wird, die obigen Prozesse und Verfahren ausführt, durchgeführt werden. Insbesondere kann das Computerprogrammprodukt computerverwendbaren Programmcode umfassen, der darin ausgebildet ist und der, wenn er von einem Prozessor ausgeführt wird, ein aufgenommenes Bild von einer Kamera (1, 110) empfängt und die räumliche Position des Auges (1, 120) und der Finger (1, 125) eines Benutzers (1, 115) bestimmt (3, Block 310). Das Computerprogrammprodukt kann ferner computerverwendbaren Programmcode umfassen, der darin ausgebildet ist und der, wenn er von einem Prozessor ausgeführt wird, bestimmt (3, 315), wohin auf einem Bildschirm (1, 130) der Benutzerschnittstellenvorrichtung (1, 105) der Benutzer (1, 115) blickt, basierend auf der räumlichen Position des Auges (1, 120) und der Finger (1, 125) des Benutzers (1, 115). Das Computerprogrammprodukt kann ferner noch computerverwendbaren Programmcode umfassen, der darin ausgebildet ist und der, wenn er von einem Prozessor ausgeführt wird, das Auge (1, 120) und die Finger (1, 125) des Benutzers (1, 115) auf Angaben einer Manipulation von Bildschirminhalt überwacht (3, Block 320). Das Computerprogrammprodukt kann ferner noch computerverwendbaren Programmcode umfassen, der darin ausgebildet ist und der, wenn er von einem Prozessor ausgeführt wird, Bildschirminhalt manipuliert (3, 325), basierend auf Angaben des Benutzers (1, 115) von Manipulationen des Bildschirminhalts.
  • Die Beschreibung und die Figuren beschreiben eine Benutzerschnittstellenvorrichtung. Die Benutzerschnittstellenvorrichtung umfasst eine Kamera und einen Prozessor. Der Prozessor kann Bilder von der Kamera empfangen und die räumliche Position der Gesichtszüge und Finger eines Benutzers bestimmen und unter Verwendung dieser Informationen bestimmen, wohin der am Bildschirm blickt, wenn er Bildschirminhalt betrachtet. Diese Benutzerschnittstellenvorrichtung kann eine gewisse Anzahl von Vorteilen aufweisen, wozu die Manipulation von Bildschirminhalt ohne Berührung des Bildschirms oder Verwendung einer Maus oder eines Tastfelds gehört. Zusätzlich erlaubt es die Benutzerschnittstellenvorrichtung einem Benutzer, Bildschirminhalt von dem Bildschirm der Benutzerschnittstellenvorrichtung auf einen anderen Bildschirm einer anderen Benutzerschnittstellenvorrichtung zu ziehen. Ferner ermöglicht es die Benutzerschnittstellenvorrichtung der vorliegenden Beschreibung einem Benutzer, Bildschirminhalt auszuwählen, ohne die Sicht auf den Bildschirminhalt, beispielsweise mit einem Finger, zu verdecken.
  • Die vorstehende Beschreibung wurde vorgelegt, um Beispiele der beschriebenen Grundlagen zu erläutern und zu beschreiben. Diese Beschreibung ist nicht dazu gedacht, vollständig zu sein oder diese Grundlagen auf eine genaue offenbarte Form einzuschränken. Angesichts der obigen Lehre sind zahlreiche Änderungen und Variationen möglich.

Claims (15)

  1. Benutzerschnittstellenvorrichtung (105), umfassend: – eine Kamera (110, 205), die ein Bild des Gesichts und der Finger (125) eines Benutzers (115) aufnimmt; und – einen Prozessor (210, 230), der die räumliche Position der Gesichtszüge (120) und der Finger (125) des Benutzers (115) unter Verwendung des aufgenommenen Bildes bestimmt; wobei der Prozessor (210, 230) ferner bestimmt, wohin der Benutzer (115) an einem Bildschirm (130) der Benutzerschnittstellenvorrichtung (105) blickt; und wobei der Prozessor (210, 230) die Gesichtszüge (120) und die Finger (125) des Benutzers (115) auf Angaben einer Manipulation von Bildschirminhalt der Benutzerschnittstellenvorrichtung (105) überwacht.
  2. Benutzerschnittstellenvorrichtung (105) nach Anspruch 1, wobei die Kamera (110, 205) eine dreidimensionale Kamera ist.
  3. Benutzerschnittstellenvorrichtung (105) nach Anspruch 1, wobei der Prozessor (210, 230) die räumliche Position der Gesichtszüge (120) des Benutzers (115) durch Bestimmen der Position der Augenhöhle, des Augapfels, der Pupille des Benutzers (115) oder Kombinationen davon bestimmt.
  4. Benutzerschnittstellenvorrichtung nach Anspruch 1, wobei der Prozessor (210, 230) bestimmt, wohin der Benutzer (115) am Bildschirm (130) der Benutzerschnittstellenvorrichtung (105) blickt, indem er einen Vektor berechnet, der aus den räumlichen Positionen der Gesichtszüge (120) und der Finger (125) des Benutzers (115) besteht.
  5. Benutzerschnittstellenvorrichtung (105) nach Anspruch 1, wobei der Prozessor (210, 230) den Bildschirminhalt der Benutzerschnittstellenvorrichtung (105) ändert, wenn der Prozessor (210, 230) Angaben einer Manipulation von Bildschirminhalt erkannt hat.
  6. Benutzerschnittstellenvorrichtung (105) nach Anspruch 1, wobei Angaben einer Manipulation von Bildschirminhalt der Benutzerschnittstellenvorrichtung (105) einen Wimpernschlag des Auges (120), eine Vergrößerung des Abstands zwischen zwei Fingern (125) des Benutzers (115), eine Verkleinerung des Abstands zwischen zwei Fingern (125) des Benutzers (115), eine Vergrößerung des Abstands zwischen den Fingern (125) des Benutzers (115) und dem Bildschirm (130), eine Verkleinerung des Abstands zwischen den Fingern (125) des Benutzers (115) und dem Bildschirm (130), eine Änderung der räumlichen Position der Finger (125) eines Benutzers (115) oder Kombinationen davon umfassen.
  7. Benutzerschnittstellenvorrichtung (105) nach Anspruch 1, wobei der Prozessor (210, 230) ferner hörbare Hinweise von dem Benutzer (115) auf Angaben einer Manipulation von Bildschirminhalt der Benutzerschnittstellenvorrichtung (105) überwacht.
  8. Benutzerschnittstellenvorrichtung (105) nach Anspruch 1, wobei die Kamera (110, 205) eine gewisse Anzahl von aufeinanderfolgenden Bildern der Gesichtszüge (120) und der Finger (125) eines Benutzers (115) mit einer Bildrate von dreißig Einzelbildern pro Sekunde oder mehr aufnimmt.
  9. Verfahren zum Manipulieren von Bildschirminhalt auf einer Benutzerschnittstellenvorrichtung 105), umfassend folgende Schritte: – Aufnehmen eines Bildes des Auges (120) und der Finger (125) des Benutzers (115) mit einer Kamera (110, 205); – Bestimmen der räumlichen Position des Auges (120) und der Finger (125) des Benutzers (115) mit einem Prozessor (210, 230); – Bestimmen mit dem Prozessor (210, 230), wohin auf einem Bildschirm (130) der Benutzerschnittstellenvorrichtung (105) der Benutzer (115) blickt, unter Verwendung der räumlichen Position des Auges (120) und der Finger (125) des Benutzers (115); – Überwachen des Auges (120) und der Finger (125) des Benutzers (115) auf Angaben einer Manipulation von Bildschirminhalt; und – Manipulieren des Bildschirminhalts basierend auf Angaben des Benutzers (115) einer Manipulation von Bildschirminhalt.
  10. Verfahren nach Anspruch 9, wobei die Kamera (110, 205) eine dreidimensionale Kamera ist.
  11. Verfahren nach Anspruch 9, wobei das Bestimmen, wohin der Benutzer (105) am Bildschirm der Benutzerschnittstellenvorrichtung (105) blickt, dadurch ausgeführt wird, dass ein Vektor berechnet wird, der aus den räumlichen Positionen des Auges (120) und der Finger (125) des Benutzers (115) besteht.
  12. Verfahren nach Anspruch 9, ferner umfassend das Ändern des Bildschirminhalts der Benutzerschnittstellenvorrichtung (105), wenn der Prozessor (210, 230) Angaben einer Manipulation von Bildschirminhalt ermittelt hat.
  13. Verfahren nach Anspruch 9, wobei der Prozessor (210, 230) ferner hörbare Hinweise vom Benutzer (115) auf Angaben einer Manipulation von Bildschirminhalt der Benutzerschnittstellenvorrichtung (105) überwacht.
  14. Computerprogrammprodukt zum Manipulieren von Bildschirminhalt auf einer Benutzerschnittstellenvorrichtung (105), wobei das Computerprogrammprodukt Folgendes umfasst: – ein nicht vorübergehendes computerverwendbares Speichermedium (240, 245, 250, 255), in dem computerverwendbarer Programmcode ausgebildet ist, wobei der computerverwendbare Programmcode Folgendes umfasst: – computerverwendbaren Programmcode, der die räumliche Position des Auges (120) und der Finger (125) eines Benutzers (115) unter Verwendung eines Bildes der Gesichtszüge (120) und der Finger (125) des Benutzers (115), das von einer Kamera (110, 205) aufgenommen wird, bestimmt, – computerverwendbaren Programmcode, der bestimmt, wohin der Benutzer (115) auf einem Bildschirm (130) der Benutzerschnittstellenvorrichtung (105) blickt, unter Verwendung der räumlichen Position der Gesichtszüge (120) und der Finger (125) des Benutzers (115); – computerverwendbaren Programmcode, der die Gesichtszüge (120) und die Finger (125) des Benutzers (115) auf Angaben einer Manipulation von Bildschirminhalt überwacht; und – computerverwendbaren Programmcode, der den Bildschirminhalt basierend auf Angaben einer Manipulation von Bildschirminhalt des Benutzers (115) manipuliert.
  15. Computerprogrammprodukt nach Anspruch 14, wobei die Kamera (110, 205) eine dreidimensionale Kamera ist.
DE112011105917.5T 2011-12-27 2011-12-27 Benutzerschnittstellenvorrichtung Ceased DE112011105917T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IN2011/000897 WO2013098827A1 (en) 2011-12-27 2011-12-27 User interface device

Publications (1)

Publication Number Publication Date
DE112011105917T5 true DE112011105917T5 (de) 2014-09-18

Family

ID=48696443

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112011105917.5T Ceased DE112011105917T5 (de) 2011-12-27 2011-12-27 Benutzerschnittstellenvorrichtung

Country Status (5)

Country Link
US (1) US20150035746A1 (de)
CN (1) CN104040461A (de)
DE (1) DE112011105917T5 (de)
GB (1) GB2511973A (de)
WO (1) WO2013098827A1 (de)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101909082B1 (ko) * 2012-01-31 2018-10-18 삼성전자주식회사 사용자 인터랙션을 이용하여 이동 단말을 제어하는 장치 및 방법
US9317746B2 (en) * 2012-09-25 2016-04-19 Intel Corporation Techniques for occlusion accomodation
JP5964190B2 (ja) * 2012-09-27 2016-08-03 京セラ株式会社 端末装置
WO2015008164A2 (en) 2013-06-27 2015-01-22 Eyesight Mobile Technologies Ltd. Systems and methods of direct pointing detection for interaction with a digital device
WO2015001547A1 (en) * 2013-07-01 2015-01-08 Inuitive Ltd. Aligning gaze and pointing directions
CN104571474B (zh) * 2013-10-17 2018-02-23 中国移动通信集团公司 一种对终端屏幕显示内容进行自适应调整的方法和装置
CN104750252B (zh) * 2015-03-09 2018-02-27 联想(北京)有限公司 一种信息处理方法及电子设备
CN107787497B (zh) * 2015-06-10 2021-06-22 维塔驰有限公司 用于在基于用户的空间坐标系中检测手势的方法和装置
CN106873758A (zh) * 2015-12-10 2017-06-20 深圳市中兴微电子技术有限公司 一种屏幕显示方法和终端
CN106020478B (zh) * 2016-05-20 2019-09-13 青岛海信电器股份有限公司 一种智能终端操控方法、装置和智能终端
CN106095079B (zh) * 2016-06-02 2018-10-16 深圳铂睿智恒科技有限公司 一种移动终端显示控制方法、系统及移动终端
CN108090463B (zh) * 2017-12-29 2021-10-26 腾讯科技(深圳)有限公司 对象控制方法、装置、存储介质和计算机设备
US10802600B1 (en) * 2019-09-20 2020-10-13 Facebook Technologies, Llc Virtual interactions at a distance
US11170576B2 (en) 2019-09-20 2021-11-09 Facebook Technologies, Llc Progressive display of virtual objects
US11086406B1 (en) 2019-09-20 2021-08-10 Facebook Technologies, Llc Three-state gesture virtual controls
US11189099B2 (en) 2019-09-20 2021-11-30 Facebook Technologies, Llc Global and local mode virtual object interactions
US11176745B2 (en) 2019-09-20 2021-11-16 Facebook Technologies, Llc Projection casting in virtual environments
US10991163B2 (en) 2019-09-20 2021-04-27 Facebook Technologies, Llc Projection casting in virtual environments
US11086476B2 (en) * 2019-10-23 2021-08-10 Facebook Technologies, Llc 3D interactions with web content
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11227445B1 (en) 2020-08-31 2022-01-18 Facebook Technologies, Llc Artificial reality augments and surfaces
US11176755B1 (en) 2020-08-31 2021-11-16 Facebook Technologies, Llc Artificial reality augments and surfaces
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11113893B1 (en) 2020-11-17 2021-09-07 Facebook Technologies, Llc Artificial reality environment with glints displayed by an extra reality device
US11409405B1 (en) 2020-12-22 2022-08-09 Facebook Technologies, Llc Augment orchestration in an artificial reality environment
US11461973B2 (en) 2020-12-22 2022-10-04 Meta Platforms Technologies, Llc Virtual reality locomotion via hand gesture
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
US11762952B2 (en) 2021-06-28 2023-09-19 Meta Platforms Technologies, Llc Artificial reality application lifecycle
US11798247B2 (en) 2021-10-27 2023-10-24 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11748944B2 (en) 2021-10-27 2023-09-05 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
JP2023165361A (ja) * 2022-05-02 2023-11-15 ディープインサイト株式会社 コンピュータプログラム、画像処理装置、画像処理方法及び車載インタフェース装置
US11947862B1 (en) 2022-12-30 2024-04-02 Meta Platforms Technologies, Llc Streaming native application content to artificial reality devices

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981309A (ja) * 1995-09-13 1997-03-28 Toshiba Corp 入力装置
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
EP0913970B1 (de) * 1997-10-31 2005-03-30 Lucent Technologies Inc. Zugriff auf Kommunikationssysteme
US6531999B1 (en) * 2000-07-13 2003-03-11 Koninklijke Philips Electronics N.V. Pointing direction calibration in video conferencing and other camera-based system applications
JP4149213B2 (ja) * 2002-07-12 2008-09-10 本田技研工業株式会社 指示位置検出装置及び自律ロボット
US8019121B2 (en) * 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
JP4595750B2 (ja) * 2005-08-29 2010-12-08 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN100432897C (zh) * 2006-07-28 2008-11-12 上海大学 手、眼关系引导的非接触式位置输入系统和方法
JP4274233B2 (ja) * 2006-11-30 2009-06-03 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
US20090251407A1 (en) * 2008-04-03 2009-10-08 Microsoft Corporation Device interaction with combination of rings
WO2009128064A2 (en) * 2008-04-14 2009-10-22 Pointgrab Ltd. Vision based pointing device emulation
JP2009258884A (ja) * 2008-04-15 2009-11-05 Toyota Central R&D Labs Inc ユーザインタフェイス
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8675099B2 (en) * 2009-06-16 2014-03-18 Aptina Imaging Corporation Efficient system and method for face tracking
US8599238B2 (en) * 2009-10-16 2013-12-03 Apple Inc. Facial pose improvement with perspective distortion correction
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
US20110304541A1 (en) * 2010-06-11 2011-12-15 Navneet Dalal Method and system for detecting gestures

Also Published As

Publication number Publication date
CN104040461A (zh) 2014-09-10
WO2013098827A1 (en) 2013-07-04
US20150035746A1 (en) 2015-02-05
GB2511973A (en) 2014-09-17
GB201410781D0 (en) 2014-07-30

Similar Documents

Publication Publication Date Title
DE112011105917T5 (de) Benutzerschnittstellenvorrichtung
DE112006002954B4 (de) Virtuelles Schnittstellensystem
DE102012109058B4 (de) Steuerverfahren und elektronische Einrichtung
EP2989524A1 (de) Verfahren zum interagieren mit einem auf einer datenbrille angezeigten objekt
EP3123278B1 (de) Verfahren und system zum betreiben einer anzeigevorrichtung
DE102018103468A1 (de) Informationsverarbeitungssystem, informationsverarbeitungsverfahren und programm
DE102012220062A1 (de) Einstellung mehrerer benutzereingabeparameter
DE102008017846A1 (de) Verfahren und Benutzerschnittstelle für die grafische Darstellung von medizinischen Daten
DE202017105614U1 (de) Systeme und Computerprogrammprodukte für eine Touchscreen-Benutzeroberfläche eines kollaborativen Bearbeitungstools
DE102014019646B4 (de) Informationsverarbeitungsverfahren und elektronische Vorrichtung
DE102014113704A1 (de) Informationsverarbeitungseinrichtung und Informationsverarbeitungsverfahren
DE112018005075T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
DE102012224365A1 (de) Schnelle Cursor-Lokalisierung
DE112016001140T5 (de) Interaktives Mehrbenutzer-Anzeigesystem und Verfahren
DE102015218963A1 (de) Steuerverfahren, Steuervorrichtung und elektronische Vorrichtung
DE102015105022B4 (de) Datenverarbeitungsverfahren und Elektronikgerät
DE102015104659A1 (de) Informationsverarbeitungsverfahren und elektronisches Gerät hierfür
DE112017004394T5 (de) Gestenbeurteilungseinrichtung, Gestenbedienungseinrichtung und Gestenbeurteilungsverfahren
EP2555097A1 (de) Methode und Vorrichtung zur Bestimmung eines Bildausschnitts und Auslösen einer Bilderfassung mittels einer einzigen berührungsbasierten Geste
DE112011105001T5 (de) Systeme und Verfahren zum Verknüpfen von Audiomaterial
DE102016105824A1 (de) Dateneingabe über mehrere Schreibvorrichtungen
DE102013208762A1 (de) Intuitive Gestensteuerung
DE212016000069U1 (de) Vorrichtung zum automatischen Messen eines Zustandes eines Benutzers
DE102014019648A1 (de) Datenverarbeitungsverfahren und elektronische Vorrichtung
DE102014012516A1 (de) Informationsverarbeitungsverfahren und elektrische Vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER & PAR, DE

Representative=s name: SCHOPPE, ZIMMERMANN, STOECKELER, ZINKLER, SCHE, DE

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final