learning4me


Wann sind Gesten Teil eines Lernprozesses?

Posted in Lernen von learning4me - 01/07/2012
Tags: , , ,

Die Gesten sind der Maus ihrn Tod – einverstanden. Aber sind die Gesten-basierten Computereingaben deshalb schon Element eines Lernprozesses? Ist  die Maus je als solches Element verstanden worden? Sind es nicht erst die sinnhaltigen Gesten, die den Unterschied machen?

Simone, die kleine Patientin auf dem iTisch, die Sonja Gerber anspricht, ist faszinierend (auch wenn der anfängliche Zauber wohl mehr von der ziemlich gelungenen interaktiven Animation ausgeht denn von Gesten). Hier macht es tatsächlich einen sinnhaltigen Unterschied, ob ich das virtuelle Stethoskop mit dem Finger an die richtige Stelle des Brustkorbs ziehe oder leider eine Rippe daneben. Hier macht es einen Unterschied, ob Teammitglieder Behandlungsprozesse im richtigen zeitlichen Ablauf auf den Tisch „wischen“.

Diese Definition zugrundelegend ist Lernprozess-orientiertes Gesten-basiertes Lernen zwar noch nicht da, Simone und einige andere Beispiele in diese Richtung aber machen Hoffnung, dass es kommt (irgendwann).

Motion Based Computing

Posted in Lernen von learning4me - 18/06/2012
Tags: ,

Ja, ich weiß, das Thema heißt Gesture Based Computing, aber mit diesem Begriff tue ich mich zugegebenermaßen schwer. Das liegt vor allem daran, dass mir partout nichts einfallen möchte, um Gesten oder Handbewegungen mit nennenswerten Lernprozessen in Verbindung zu bringen.

Die Gesten-basierte Bedienung von Smart Phones oder Tablets ist eine tolle intuitive Geschichte, den Umgang mit diesen Geräten zu vereinfachen. Aber allein, es fehlt mir die Phantasie, darin Elemente eines Lernprozesses oder gar ein Lernziel zu sehen. Aber der Themenblock fängt ja gerade erst an, vielleicht wird bald meiner Phantasie auf die Sprünge geholfen.

Wofür meine Phantasie jetzt schon reicht, ist, mir auszumalen, welches Potenzial in Motion Based Computing (MBC) stecken könnte. Ich weiß nicht, ob dieser Begriff  bereits irgendwo eingeführt ist; ich für mich verstehe darunter die Erkennung von Körperbewegungen, wie sie bei der Kinect im Ansatz schon geht.

Ich sehe für das MBC spannende Möglichkeiten, und zwar bei allen Lernzielen, bei denen es im weitesten Sinne um räumliche Abläufe geht: sei es beim Erlernen von motorischen Abläufen, z.B. im Sport oder für handwerkliche Handgriffe, sei es bei der Vorstellung/Einprägung von dreidimensionalen Strukturen etc.:

  • Vielleicht lassen sich für manche Lerner abstrakte Zusammenhänge z.B. aus der Mathematik be“greif“barer machen, wenn sie sich diese in Bewegung übersetzen?
  • Vielleicht lässt sich der Verlauf eines Hirnnerven einfacher merken, wenn man sich selbst – wie er – durch Knochenfenster und Krümmungen winden muss?
  • Vielleicht verstehe ich zum ersten Mal, warum ich beim Kugelstoßen auf keinen grünen Zweig komme, wenn ich sehe, wie meine Körperbewegung von der Idealbewegung abweicht?

Ich bin gespannt in den kommenden Tagen zu lesen/zu hören, welche Phantasien andere dazu haben bzw. ob und was da vielleicht jetzt schon geht.

PS: Mit welcher Begründung wird denn Spracherkennung von manchen zum Gesture Based Computing gezählt? Weil es auf denselben Devices funktioniert?