Laut IBM kommt eine technologisch-sensorische Revolution

Falls Sie es noch nicht bemerkt haben, es ist Listensaison. Geschenk- und Kartenlisten, Neujahrsvorsatzlisten und natürlich Best-Of-2012-Listen.

IBM hat seine eigene Interpretation dieser Tradition. Es hat eine Liste von technischen Fortschritten veröffentlicht, von denen Forscher glauben, dass sie unser Leben in den nächsten fünf Jahren verändern werden. In einem neuen 5 von 5 Bericht Diese Woche veröffentlicht, beschreiben sie Möglichkeiten, wie Technologie in der Lage sein wird, unsere Sinne für zu verbessern, zu erweitern oder (in unterschiedlichem Maße) nachzuahmen Sicht , Klang , berühren , Geruch , und Geschmack . IBM baut viele dieser Technologien intern, aber andere entwickeln ihre eigene Technologie, die zu dieser Veränderung beitragen könnte.

Sehen Sie zu. Das Versprechen von Google Glass und Lookalikes wie dieser Konkurrent Vuzix oder sogar Google Goggles zeigen, wie Computer lernen, besser zu sehen. Der Vision-Bericht von IBM sagt, dass die Bildverarbeitung schneller und besser lernen wird, menschliche Szenen wie einen Strand, ein Volleyballspiel oder einen Surfwettbewerb zu erkennen.



Wenn es ums Hören geht, sind Siri von Apple und ihre Legion von Konkurrenten das beste Beispiel dafür, wie alltägliche Technik versucht, unsere Bedürfnisse mit unterschiedlichem Erfolg auszuloten. Vielleicht erinnern sich die Leute am meisten daran Google Now ist, wie seine Sprachsuche auf magische Weise funktioniert . Aber vergessen Sie Erwachsene, IBM-Forscher arbeiten daran, die Gefühle eines Babys anhand der von ihnen erzeugten Geräusche zu erkennen, und patentieren sogar eine Möglichkeit, diese Daten zu verfolgen.

Aber vielleicht am interessantesten ist ihr Abschnitt über berührungsbasierte Technologie. Bildschirme werden in den nächsten fünf Jahren eine ganze Reihe anderer Fähigkeiten annehmen, IBM sagt voraus :

Wir bei IBM Research gehen davon aus, dass unsere mobilen Geräte in den nächsten fünf Jahren virtuelle und reale Erfahrungen zusammenbringen werden, um nicht nur einzukaufen, sondern auch die Oberfläche der Produkte zu fühlen und Feedback zu Daten wie Frische oder Qualität zu erhalten.

Durch die Anpassung von Vibrationsmustern mit variabler Frequenz an physische Objekte, sodass, wenn ein Käufer ein Seidenhemd berührt, der Bildschirm Vibrationen aussendet, die dem entsprechen, was unsere Haut mental in das Gefühl von Seide übersetzt.

Sie haben Recht – Disney arbeitet an einem Projekt namens TeslaTouch Seit einiger Zeit. Sie haben einen Bildschirm gebaut, der die Nerven in Ihren Fingern kitzelt, wenn Sie eine Ziffer über die kalte Oberfläche ziehen. Unterschiedliche elektrische Feldmuster auf dem Touchpanel sorgen für das Gefühl der Berührung. Fingermalerei auf einem Bildschirm könnte das Gefühl von Fingermalerei auf einer Leinwand haben – ohne das Durcheinander. Wenn Sie ein Kleid oder Hemd online gekauft haben, können Sie den virtuellen Stoff betasten, bevor Sie ihn kaufen.

Projekte mit ähnlichen Zielen laufen im Labor für Linearaktuatoren der Ecole Polytechnique Federale de Lausanne in der Schweiz. In einem Video, Doktorand Christophe Winter erklärt, dass Sie das Verständnis einer Person für das Material, das sie berühren, dh die Reibung, die sie empfinden, ändern können, indem Sie die Vibration der Oberfläche ändern, die sie berühren.

Aber obwohl unser taktiles Feedback von den Bildschirmen bereichert wird, denke ich, dass wir unsere Geräte auch insgesamt weniger berühren werden. Bedenken Sie, was die Kinect für Spiele getan hat und welche anderen Anwendungen der Bewegungssensor-Sensor getestet und entwickelt wird. Wie MIT-Technologie-Überprüfung schrieb Anfang des Jahres, es besteht eine faire Chance Wir werden weniger Bildschirme berühren und mehr auf sie gestikulieren .

verbergen