Tygodnik postępów prac - lvl7/PowerSammy GitHub Wiki
Postępy Prac
16.03.2016
Pierwsze spotkanie zaowocowało w ustalenie ogólnego szkicu tematu naszej pracy - umieszczenie głowy robota społecznego Samuel na platformie mobilnej PowerBot. Ustaliliśmy jak powinien wyglądać nasz postęp prac poprzez stworzenie wykresu Gantta. Zdecydowaliśmy również, iż użyjemy narzędzi:
- github jako repozytorium oraz stronę zewnętrzną projektu
- overleaf jako portal umożliwiający tworzenie dokumentacji w LaTeX
- slack jako wewnętrzny kanał komunikacji
30.03.2016
Rozkręciliśmy głowę robota społecznego Samuel w celu zapoznania się z peryferiami oraz budową wewnętrzną.
Na potrzeby sterowania serwomechanizmami wymontowaliśmy serwo DYNAMIXEL wraz z przejściówką na RS-485. Serwo zostało podłączone pod nod'a ROS'a w celu obserwacji charakterystyk oraz możliwych wychyleń.
13.04.2016
Podłączyliśmy kamery z głowy robota społecznego Samuel do komputera stacjonarnego. Jedna z kamer ( prawe oko ) działała poprawnie. W ramach testu przesyłaliśmy obraz na platformę PowerBot jak i bezpośrednio przez połączenie USB to komputera przenośnego.
20.04.2016
Na zajęciach dyskutowaliśmy na temat sterowania robotem za pomocą systemu wizyjnego. Doszliśmy do wniosku, że kamera z głowy Samuel wykrywać będzie kody QR, a te z kolei będą dekodowane na polecenia, które będą wykonywane przez platformę mobilną PowerBot. Ustaliliśmy również budowę polecenia:
M_[D(distance_in_centimeters)][A(angular_in_radian)][D(distance_in_centimeters)_][A(angular_in_radian) _]E
27.04.2016
Zajęliśmy się obsługa Node'a odpowiadającego za pobieranie danych z serw DYNAMIXEL w celu sterowania głową robota społecznego Samuel. Wykonanie odpowiedniej przejściówki pozwalającej zasilać wcześniej wymieniony serwomechanizm.
04.05.2016
Wykres Gantta obejmował połączenie platformy mobilnej PowerBot wraz z robotem społecznym Samuel lecz ze względu na brak przetwornicy skupiliśmy się na dalszej pracy z obsługą kamery znajdującej się w prawym oku robota. Używając programu mplayer oraz idea_stream_openCv przesyłaliśmy strumień obrazów na komputer stacjonarny. Niestety pomysł ten okazał się chybiony ponieważ występowały zbyt duże opóźnienia by możliwe było zdalne sterowanie robotem.
11.05.2016
Pracowaliśmy nad detekcją kodów QR. Ich rozpoznanie oraz dekodowanie przebiegło pomyślnie. Ponadto wykrywaliśmy orientację kodu w przestrzeni wraz z obrotami co umożliwi nam nawigowanie robota PowerBot w taki sposób by ten ustawiał się prostopadle do płaszczyzny, na której znajduje się kod QR
18.05.2016
Zamontowaliśmy przetwornice step-down w celu zasilania głowy robota Samuel z akumulatorów platformy PowerBot. Napisaliśmy skrypt do ustawiania serw DYNAMIXEL sterujących głową robota Samuel do ustawiania ich w pozycji domyślnej.
25.05.2016
Rozmontowaliśmy głowę robota społecznego Samuel w celu identyfikacji pozostałych serw potrzebnych do ruchu głowy. Testy czytania kodów QR zmusiły nas do zmiany planowanego sterowania robotem mobilnym ze względu na wahające się odczyty kąta pod jakim jest skierowana kamera.
01.06.2016
Uruchomiliśmy głowę Samuela wraz z sterowaniem serw odpowiadających za jej obrót oraz uruchomiliśmy skrypt inicjujący położenia początkowe. Wykonaliśmy testy poboru prądu przez serwa tak aby dobrać zakresy oraz elementy potrzebne do połączenia głowy wraz z platformą mobilną.
03.06.2016
Połączyliśmy platformę mobilną z głową robota społecznego Samuel. Głowa jest w pełni sprawna oraz zasilana z akumulatorów znajdujących się w PowerBocie. Dodatkowo napisaliśmy skrypt odczytujący instrukcję zawartą na kodach QR oraz wykonujący zadany obrót robotem PowerBot.