Im Vergleich zum aktuellen Dilemma mit Evalyze ist ein weiteres Entwicklungsthema fast bedeutungslos.
Mir wurde als Wunsch der Anwender herangetragen, dass sie unsere Geräte über einen Sprachassistenten steuern wollen. So wie „Hallo Alexiritana, mach mal dies und das!“
Da merkt man doch gleich, dass unsere Anwender überhaupt kein technisches Verständnis haben. Für eine sinnvolle Sprachschnittstelle sind die Funktionen unserer Geräte viel zu komplex und umfangreich. Dafür braucht man mehr Eingaben, als es ein Sprachassistent zügig aufnehmen kann. Sprachassistenten können zwar einfache Fragen beantworten, oder auch z.B. Termine planen, aber für Aufgaben, die eine größere Zahl von Parametern verlangen, sind sie ziemlich ungeeignet.
Unsere Äpp hat schon einen sehr reduzierten Funktionsumfang. Immerhin kann man dort noch aus (teils längeren) Listen auswählen. Bei Sprachsteuerung wäre das unpraktikabel.
Naja, ich werde wohl mal vorsehen, ein paar ganz einfache Tasks (z.B. Statusabfragen, oder eine Reinitialisierung) umsetzen zu lassen. Wenn die Kunden das so wünschen, bleibt mir nichts anderes übrig.
Zunächst beschränken wir uns auf Englisch und Deutsch – in der Hoffnung, dass sich bei Bedarf später weitere Sprachen unproblematisch ergänzen lassen.
Wenn die Ausführung über die Cloud läuft, habe ich auch schwere Datenschutzbedenken. Aber das muss ich erst einmal zurückstellen.
Ein neues Projekt braucht einen Codenamen (habe ich hier im Blog vor Evalyze leider versäumt zu vergeben). Ich werde zukünftig auf die Sprachsteuerung mit der Bezeichnung „OTask“ (für „Oral Task“) referenzieren.
Ich mag meine Tastatur einfach lieber als jede Sprachbedienung.
LikeGefällt 2 Personen
Die Kombination aus Tastatur und Maus ist für mich optimal für maximale Produktivität.
Außerdem bin ich viel zu maulfaul, um auch noch mit dem Sprachassistenten reden zu wollen. Aber – was soll ich machen? – die Kunden wollen das.
LikeGefällt 2 Personen
Hast du Bibliotheken, die du nutzen kannst oder musst das selbst coden ?
LikeLike
Ich selbst code da nichts. Das machen meine Jungs.
Wir sind noch beim Recherchieren. Es gibt wohl APIs, die wir nutzen können.
Eine besonders herausfordernde Programmieraufgabe scheint das eh nicht zu werden, eher eine Fleißarbeit.
LikeLike
ich mach so etwas grundsätzlich nicht. mir ist das noch zu unausgereift, insbesondere wegen des mitschneidens unerwünschter zuhörer. früher musste sich agenten mehr mühe geben, heute ist das abhören eine zu bezahlende dienstleistung 🙂
LikeGefällt 1 Person
Da hast du absolut recht.
Ich würde – aus diesen und anderen Gründen – so einen Sprachassistenten auch nicht benutzen wollen.
LikeLike
Oral Task 🙂 🙂
LikeGefällt 1 Person
Ich wollte erst was mit „Voice Task“ (oder so ähnlich) machen, aber OTask geht einem besser von den Lippen.
LikeGefällt 3 Personen
Meinen Dialekt versteht eh keins von den dummen Dingern.
LikeLike
Die Spracherkennung wird sich in den nächsten Jahren bestimmt noch verbessern, und falls nicht, kriegst du dann ein Gehirnimplantat zum Supersonderspottpreis in Kombination mit einem Zwanzigjahresabonnement.
LikeLike
Wü i oba need!!!
LikeGefällt 1 Person
Ich finde den Gedanken etwas gruselig. So etwas wie Alexa käme mir nie ins Haus.
LikeGefällt 2 Personen
Geht mir ähnlich.
Viele Leute sehen das aber anders, und schätzen die Bequemlichkeit, oder was weiß ich.
Zumindest besteht eine Nachfrage.
LikeLike
Pingback: Ein Wunsch wird sich erfüllen //2274 | breakpoint
Pingback: Let’s Tweet Again //2356 | breakpoint