Spezifikation Zustände für nächsten Protoypen - redscarwolf/VR-Robot GitHub Wiki

Brainstorming

TODO: Weitere Zustände überlegen, gegebene Zustände erweitern, Überlegungen wie die Zustände mit Nutzerinteraktionen zusammenhängen (Unity, VR, AI-API). Vielleicht kristallisieren sich dann schon fünf Favoriten heraus. Sonst Abstimmung?

TODO: Recherche ob es eine AI gibt, die wie von Marko vorgeschlagen meine Stimmlage analysiert und in komfortablem Format zurückgibt (JSON)

Für alle Zustände gilt: Wenn wir nur ein minimum viable product (MVP) machen wollen, können wir den Speech-to-text Service von Watson anzapfen und einfach Voice Kommandos geben. Oder mit dem Natural Language Classifier Service ein etwas aufwändigeres Mapping von Input (Sprache) auf bestimmte Klassen (Zustände).

IDLE

Brauchen wir auf jeden Fall

MOVING

Ist auch wichtig, oder? Sonst können wir das Ding nicht bewegen.

  • Moving besteht höchst wahscheinlich aus 4 animationen, da man Vorwärts, Rückwärts, Links und Rechts braucht. Würde ich rauslassen und erstmal das animierte "Ding" an Ort und Stelle lassen

TERRIFIED (erschrocken)

Das hat Jo so oft erwähnt, dass es sicher schön wäre, das zu haben. Z. B. Erkennung durch schnelle Annäherung in Unity oder laute Sprache.

HAPPY

LAUGHING

SAD

CRYING

DANCING