Spezifikation Zustände für nächsten Protoypen - redscarwolf/VR-Robot GitHub Wiki
Brainstorming
TODO: Weitere Zustände überlegen, gegebene Zustände erweitern, Überlegungen wie die Zustände mit Nutzerinteraktionen zusammenhängen (Unity, VR, AI-API). Vielleicht kristallisieren sich dann schon fünf Favoriten heraus. Sonst Abstimmung?
TODO: Recherche ob es eine AI gibt, die wie von Marko vorgeschlagen meine Stimmlage analysiert und in komfortablem Format zurückgibt (JSON)
Für alle Zustände gilt: Wenn wir nur ein minimum viable product (MVP) machen wollen, können wir den Speech-to-text Service von Watson anzapfen und einfach Voice Kommandos geben. Oder mit dem Natural Language Classifier Service ein etwas aufwändigeres Mapping von Input (Sprache) auf bestimmte Klassen (Zustände).
IDLE
Brauchen wir auf jeden Fall
MOVING
Ist auch wichtig, oder? Sonst können wir das Ding nicht bewegen.
- Moving besteht höchst wahscheinlich aus 4 animationen, da man Vorwärts, Rückwärts, Links und Rechts braucht. Würde ich rauslassen und erstmal das animierte "Ding" an Ort und Stelle lassen
TERRIFIED (erschrocken)
Das hat Jo so oft erwähnt, dass es sicher schön wäre, das zu haben. Z. B. Erkennung durch schnelle Annäherung in Unity oder laute Sprache.