print logo

Etwas lauter bitte!

Das virtuelle Speaker-Training in EasySpeech funktioniert, ist einfach zu bedienen und hilft beim Abstellen von Fehlern.
Frank Puscher | 16.12.2019
Die Schnellauswertung in der Brille gibt unmittelbares Feedback, aber Details finden sich nur im Portal © Screenshot/Easyspeech, Dashöfer
 

Die Oculus Go war eine der ersten VR-Brillen die „standalone“, also ohne PC funktioniert. Sie verbindet sich über das hauseigene WLan mit dem Smartphone und das stellt wiederum die Verbindung zu den Oculus-Servern her. Der User kann die Brille einfach aufsetzen und loslegen. Und mit einem Preis von unter 300 Euro (aktuell um 200) hat die Facebook-Company hier 2018 eine Schallmauer durchbrochen.

Unternehmen wie der Hamburger Dashöfer-Verlag, die eine Idee für ein Geschäftsmodell mit Virtual Reality haben, können Kunden nun eine Fertiglösung zu einem erschwinglichen Preis anbieten. Sie sind nicht mehr darauf angewiesen, dass der Kunde bereits eine Brille hat oder sich selbst eine kauft und diese entsprechend konfiguriert. Sie liefern einfach die komplette Installation und packen noch etwas netten Service dazu.

Setup

Wer schon mal eine Oculus Go getragen hat, braucht auch keine Einführung. Die Brille wird kurz kalibriert, EasySpeech gestartet und schon sieht sich der Benutzer einer Auswahl an Vortragsszenarien gegenüber. Er wählt eines aus, in dem er mit seinem Controller klickt und schon befindet er sich in einem digitalen Konferenzraum mit einer Menge fremder Menschen, die einen konzentriert anschauen.

Das direkte Reinspringen in ein Szenario ist die richtige Strategie, um das Leistungsspektrum einer VR-Anwendung zu erfühlen. Hat man die erste Runde absolviert und befindet sich wieder vor dem Auswahlmenü, so wird einem viel deutlicher, was man wirklich trainieren möchte und welche Parameter man noch konfigurieren will.

Aber die Standardszenarien haben es auch schon in sich. Es gibt zwei wesentliche Use-Cases: Der Benutzer möchte einen eigenen Vortrag üben, das Timing prüfen und die verbalen Übergänge zwischen den Folien glätten. Oder der User möchte grundsätzlich seine Speaker-Fähigkeiten trainieren.

Vortrag

Für Letzteres gibt es sehr herausfordernde Aufgaben, wie etwa die Stegreifrede, bei der man von der Software ein Thema zugeteilt bekommt und frei darüber sprechen muss. In der ersten Version von EasySpeech trainiert man Meetings in einem Konferenzraum mit 10 Zuhörern. Die Erweiterung auf große Tagungen und kleine 1:1-Szenarien wird in Hamburg gerade programmiert.

Und dann wird auch noch ausgewählt, ob das Setup einfach, mittel oder schwer sein soll. „Schwer“ ist es dann, wenn die Zuhörer unruhig sind. Handys klingeln, ein Zwischenrufer bittet, man möge doch lauter sprechen, ein anderer ist der Meinung, ihm bringt das alles nichts. Und dann fährt draußen ein Krankenwagen mit Sirene vorbei oder das Licht flackert, als wenn sogleich der Strom ausfällt.

Soweit die Theorie. In der Praxis ist es sehr überraschend, wie schnell man in das Szenario eintaucht. Obwohl man nicht grundsätzlich mit Kopfhörern ausgestattet wird und – wie in unserem Testfall – eine externe Geräuschkulisse vom Eintauchen in die Anwendung ablenken könnte. Es passiert aber nicht. Am Anfang zögert man etwas, weiß eventuell nicht, was man erzählen soll oder es ist peinlich, wenn andere dabei zuschauen, was man da gerade unter der Brille veranstaltet. Aber das ist nach ein, zwei Minuten vergessen und man plappert drauf los.

Die zwei Minuten für die Stegreifrede sind schnell vorbei und ich ertappte mich dabei, zwischenzeitlich auf die Uhr zu schauen, wie lang das noch geht. Aber auch das legt sich, sobald man in das Thema eintaucht, über das man spricht. Und prompt spreche ich über die vorgegebene Zeit hinweg. Ein Fehler, der mir auch im Präsentationsalltag immer wieder passiert.

Auswertung

Unmittelbar nach Beendigung des Vortrags erscheint die erste Auswertung. Sie gibt Punkte zwischen 0 und 10 für die Menge der Blickkontakte, die Redegeschwindigkeit, die Klarheit der Aussprache, die Menge der Füllwörter, die Zahl der Wortwiederholungen und schließlich ein Gesamtergebnis. 4 von 10 Punkten. Ein Desaster für einen leidlich erfahrenen Vortragsredner.

Der Ehrgeiz ist geweckt. Ich will wissen, wie das besser geht. Man sagt mir, dass die Blickkontakte erst entstehen, wenn man eine halbe bis drei  Sekunden direkt auf eine Person schaut. Ein Scannen aller Köpfe zählt nicht als Blickkontakte und ist bei realen Präsentationen auch nicht professionell. Und wenn es Zwischenrufe gibt sollte man auf jeden Fall reagieren. Ignorieren und dann etwa noch ein Füllwort: Das gibt Punktabzug.

Zweiter Versuch und es wird etwas besser. Mein Präsentationsauftrag lautet „Sanktionen“. Ich kann es recht simpel mit wenigen Worten erläutern und wiederhole das in unterschiedlicher Form. Ich spreche für mein Gefühl sehr langsam, und lande mit 91 Wörtern pro Minute genau am unteren Ende der Skala. Schon diese bewusste Veränderung meines Redeverhaltens fühlt sich wie ein wichtiges Learning an.  

Auch die Blickkontakte bekomme ich leidlich in den Griff. Ich sehe, dass die Personen, die ich in der Gruppe anschaue, etwas heller dargestellt sind als der Rest. Sie sitzen in meinem „Spotlight“. Das ist zwar ein unrealistischer Effekt, aber es hilft beim Trainieren.

Stärken und Mängel

Der Verlag Dashöfer hat sich entschieden, reale Menschen in die Szenerie zu setzen und keine künstlichen Avatare. Das fühlt sich richtig an. Im Samsung-Tool sind es zum Beispiel Avatare, die aussehen, wie die Figuren in der Nintendo Wii. Einer der Menschen im Meeting-Raum sitzt zum Zeitpunkt des Tests übrigens auch ganz physisch links neben mir. Tobias Weilandt ist der Projektleiter für EasySpeech und im Zweitberuf kritischer virtueller Seminarteilnehmer.

Es fällt allerdings auf, dass sich Störungen wiederholen. Wenn zwei unterschiedliche Personen im Meeting bitten, man möge ihnen das Ganze wie einem Kind erklären, wirkt das plump. Das ist eine klassische Kinderkrankheit in der Steuerung der Störungen und lässt sich recht simpel abstellen. Wenn andererseits eine Person zweimal das klingelnde Handy herausholt, dann ist das völlig ok. Solche Menschen gibt es, und man muss als Vortragender mit ihnen leben.

Die Auswertung die in der Brille angezeigt wird, scheint konsistent zu funktionieren. Sie reagiert auf Veränderungen. Verbesserungswürdig wäre die Erklärung, warum welcher Parameter wie reagiert. Die Deutlichkeit der Aussprache leidet zum Beispiel stark unter Umgebungsgeräuschen. Diese Informationen sollte man dem User mitgeben und das kann man ruhig direkt in der Anwendung tun.

Es gibt allerdings drei Mängel, die aus meiner Sicht etwas gravierender sind. Zum einen werden die selbst hochgeladenen Präsentationen zu Standbildern umgerechnet. Das bedeutet, dass Animationseffekte und vor allem Videos nicht funktionieren. Gerade bei animierten Aufzählungslisten legt man schon Wert auf jeden einzelnen Punkt. Man kann beides simulieren, in dem man selbst die Animation auf einzelne Folien zerlegt oder in dem man einem Video ein Standbild gibt und die Folie dann eben so lange stehen lässt, wie das Video dauert.

Das zweite Manko liegt für mich in der mangelnden Außenperspektive. Der Vortragende kann sich selbst nicht sehen, auch nicht in einer Aufzeichnung nach dem Vortrag. Die Oculus Go kann das nicht. Hierzu müsste man eine externe Kamera aufstellen. Auch die Sicht des Referenten auf sein Publikum wird nicht aufgezeichnet, nur der Ton. Aus meiner Perspektive könnte es aber sehr spannend sein, den gehaltenen Vortrag als Ganzes zum Beispiel an einen Speakercoach zu senden, um sich beraten zu lassen. Fabian Friedrichs notierte sich die Idee. Sie hat Upselling-Potential. Als Workaround bietet sich an, die Oculus selbst das Geschehen aufzeichnen zu lassen. Dafür gibt es eine Bordfunktion, die man nach Drücken der Home-Taste auf dem Controller auslösen kann.

Den dritten Mangel sehe ich in der Angebotsbreite. Bislang fokussiert Easyspeech nur auf Meetings mit einer Gruppe von Teilnehmern. Da ist VirtualSpeeach schon weiter. Dort gibt es große Konferenzsäle, die zu bespielen sind, oder man begibt sich in das direkte Vorstellungsgespräch. Beide Module sind geplant, aber eben noch nicht vorhanden.

Fazit

Es steht außer Zweifel, dass sich mit EasySpeech das Sprechen vor Publikum minimalinvasiv trainieren lässt. Und zwar in einem Setup, das ich nach Schulnoten mit einer Zwei bewerten würde. Es funktioniert gut, erfüllt seinen Zweck, aber etwas Luft nach oben ist noch. Das, aus der Perspektive eines sehr erfahrenen Bühnen-Präsentators, der gerne noch mehr Finetuning betreiben möchte.

Aber das wird den großen Teil der potentiellen Zielgruppe überhaupt nicht tangieren. Wer seine Redeangst überwinden will, der findet hier mehr als genug Thrill und damit kann man lange trainieren.

Und ein sehr spannendes Feature sei in der Software enthalten, was wir aber vor Ort nicht testen konnten. Die KI von Dashöfer transkribiert den Vortrag. Wenn das in guter Qualität gelingt, so wird aus jedem Vortrag ein schönes Stück fürs Contentmarketing. Und schon lohnt sich die Investition. Aktuell liegt die kleinste Lizenz bei 2.990 EUR netto inklusive VR Brille und nutzbar für bis zu 25 Usern.