Tygodnik postępów prac - lvl7/PowerSammy GitHub Wiki

Postępy Prac

16.03.2016

Pierwsze spotkanie zaowocowało w ustalenie ogólnego szkicu tematu naszej pracy - umieszczenie głowy robota społecznego Samuel na platformie mobilnej PowerBot. Ustaliliśmy jak powinien wyglądać nasz postęp prac poprzez stworzenie wykresu Gantta. Zdecydowaliśmy również, iż użyjemy narzędzi:

  • github jako repozytorium oraz stronę zewnętrzną projektu
  • overleaf jako portal umożliwiający tworzenie dokumentacji w LaTeX
  • slack jako wewnętrzny kanał komunikacji

30.03.2016

Rozkręciliśmy głowę robota społecznego Samuel w celu zapoznania się z peryferiami oraz budową wewnętrzną.
Na potrzeby sterowania serwomechanizmami wymontowaliśmy serwo DYNAMIXEL wraz z przejściówką na RS-485. Serwo zostało podłączone pod nod'a ROS'a w celu obserwacji charakterystyk oraz możliwych wychyleń.

13.04.2016

Podłączyliśmy kamery z głowy robota społecznego Samuel do komputera stacjonarnego. Jedna z kamer ( prawe oko ) działała poprawnie. W ramach testu przesyłaliśmy obraz na platformę PowerBot jak i bezpośrednio przez połączenie USB to komputera przenośnego.

20.04.2016

Na zajęciach dyskutowaliśmy na temat sterowania robotem za pomocą systemu wizyjnego. Doszliśmy do wniosku, że kamera z głowy Samuel wykrywać będzie kody QR, a te z kolei będą dekodowane na polecenia, które będą wykonywane przez platformę mobilną PowerBot. Ustaliliśmy również budowę polecenia:

M_[D(distance_in_centimeters)][A(angular_in_radian)][D(distance_in_centimeters)_][A(angular_in_radian) _]E

27.04.2016

Zajęliśmy się obsługa Node'a odpowiadającego za pobieranie danych z serw DYNAMIXEL w celu sterowania głową robota społecznego Samuel. Wykonanie odpowiedniej przejściówki pozwalającej zasilać wcześniej wymieniony serwomechanizm.

04.05.2016

Wykres Gantta obejmował połączenie platformy mobilnej PowerBot wraz z robotem społecznym Samuel lecz ze względu na brak przetwornicy skupiliśmy się na dalszej pracy z obsługą kamery znajdującej się w prawym oku robota. Używając programu mplayer oraz idea_stream_openCv przesyłaliśmy strumień obrazów na komputer stacjonarny. Niestety pomysł ten okazał się chybiony ponieważ występowały zbyt duże opóźnienia by możliwe było zdalne sterowanie robotem.

11.05.2016

Pracowaliśmy nad detekcją kodów QR. Ich rozpoznanie oraz dekodowanie przebiegło pomyślnie. Ponadto wykrywaliśmy orientację kodu w przestrzeni wraz z obrotami co umożliwi nam nawigowanie robota PowerBot w taki sposób by ten ustawiał się prostopadle do płaszczyzny, na której znajduje się kod QR

18.05.2016

Zamontowaliśmy przetwornice step-down w celu zasilania głowy robota Samuel z akumulatorów platformy PowerBot. Napisaliśmy skrypt do ustawiania serw DYNAMIXEL sterujących głową robota Samuel do ustawiania ich w pozycji domyślnej.

25.05.2016

Rozmontowaliśmy głowę robota społecznego Samuel w celu identyfikacji pozostałych serw potrzebnych do ruchu głowy. Testy czytania kodów QR zmusiły nas do zmiany planowanego sterowania robotem mobilnym ze względu na wahające się odczyty kąta pod jakim jest skierowana kamera.

01.06.2016

Uruchomiliśmy głowę Samuela wraz z sterowaniem serw odpowiadających za jej obrót oraz uruchomiliśmy skrypt inicjujący położenia początkowe. Wykonaliśmy testy poboru prądu przez serwa tak aby dobrać zakresy oraz elementy potrzebne do połączenia głowy wraz z platformą mobilną.

03.06.2016

Połączyliśmy platformę mobilną z głową robota społecznego Samuel. Głowa jest w pełni sprawna oraz zasilana z akumulatorów znajdujących się w PowerBocie. Dodatkowo napisaliśmy skrypt odczytujący instrukcję zawartą na kodach QR oraz wykonujący zadany obrót robotem PowerBot.