Spisu treści:

Rękawica do konwersji gestów na mowę/tekst: 5 kroków
Rękawica do konwersji gestów na mowę/tekst: 5 kroków

Wideo: Rękawica do konwersji gestów na mowę/tekst: 5 kroków

Wideo: Rękawica do konwersji gestów na mowę/tekst: 5 kroków
Wideo: Ups. 2024, Lipiec
Anonim
Rękawica do konwersji gestów na mowę/tekst
Rękawica do konwersji gestów na mowę/tekst
Rękawica do konwersji gestów na mowę/tekst
Rękawica do konwersji gestów na mowę/tekst
Rękawica do konwersji gestów na mowę/tekst
Rękawica do konwersji gestów na mowę/tekst

Ideą/pchnięciem przy realizacji tego projektu była pomoc osobom, które mają trudności z porozumiewaniem się za pomocą mowy i porozumiewaniem się za pomocą gestów rąk lub popularnie zwanego amerykańskim językiem migowym (ASL). Ten projekt może być krokiem w kierunku zapewnienia tym osobom możliwości pracy z innymi osobami, które nie rozumieją języka migowego, we wspólnym środowisku. Ponadto ten projekt umożliwi im wygłaszanie przemówień publicznych bez korzystania z rzeczywistego ludzkiego tłumacza. Na początku próbowałem tylko wykryć niektóre łatwiejsze gesty, takie jak alfabety A, B, I itp., A także przypisałem pewne gesty do popularnych słów/pozdrowień, takich jak „Witaj”, „Dzień dobry” itp.

Krok 1: Montaż obwodu

Montaż obwodu
Montaż obwodu
Montaż obwodu
Montaż obwodu
Montaż obwodu
Montaż obwodu

Krok 2: Szczegóły projektu

Ten projekt obejmuje rękawice do noszenia z 4 czujnikami zginania wklejonymi/wbudowanymi w rękawicę – po jednym na mały, środkowy, wskazujący i kciuk. Czujnik Flex nie był używany w przypadku palca pierścieniowego ze względu na ograniczenia dostępności pinów wejścia analogowego w Arduino Uno R3 i ogólnie z powodu braku niezależnego ruchu wyświetlanego przez palec w językach migowych. Wykorzystywany jest również akcelerometr MMA8452Q, który przykleja się z tyłu dłoni, aby zmierzyć orientację dłoni. Dane wejściowe z tych czujników są analizowane i wykorzystywane do wykrywania gestu. Po wykryciu gestu odpowiedni znak/wiadomość jest zapisywana w zmiennej. Te znaki i komunikaty łączą się ze sobą, aż do wykonania określonego z góry gestu, wskazującego na dokończenie zdania. Po wykryciu tego specjalnego gestu zapisany ciąg zdań jest wysyłany do Raspberry Pi za pomocą kabla USB przez Arduino. Następnie Raspberry Pi wysyła otrzymany ciąg do usługi Amazon Cloud Service o nazwie Polly, aby przekonwertować zdanie otrzymane w formacie tekstowym na format mowy, a następnie przesyła strumieniowo odebraną mowę do głośnika podłączonego do Raspberry Pi za pomocą kabla AUX.

Ten projekt był tylko dowodem koncepcji, z lepszym sprzętem i planowaniem oraz lepiej skalibrowanym do wykrywania wielu innych gestów i ruchów rąk. Obecnie w tym projekcie zaprogramowana jest tylko ograniczona funkcjonalność, taka jak podstawowe wykrywanie gestów i wyjście tekstu na mowę.

Krok 3: Kod

Krok 4: Kroki

1. Podłącz czujniki flex i akcelerometr MMA8452Q do Arduino zgodnie z dostarczonym schematem obwodu.

2. Zrzuć program Final_Project.ino (znajdujący się w pliku Arduino_code.zip) do Arduino.

3. Podłącz Arduino do Raspberry Pi za pomocą kabla USB. (Kabel typu A/B).

4. Włącz Raspberry Pi, skopiuj plik Raspberry_pi_code.zip do Raspberry Pi i rozpakuj go. Podłącz głośnik do Raspberry Pi.

5. Skopiuj poświadczenia konta AWS, tj. aws_access_key_id, aws_secret_access_key i aws_session_token do pliku ~/.aws/credentials. Ten krok jest wymagany do komunikacji z chmurą AWS i korzystania z usług AWS.

6. Uruchom program seria_test.py znaleziony w wyodrębnionym folderze w kroku 4.

7. Teraz wykonaj gesty, aby ułożyć zdanie, a następnie wykonaj specjalny gest (Trzymaj palce i dłoń prosto i w jednej linii z dłonią skierowaną od siebie, a następnie obróć nadgarstek, obracając go w dół, tak aby teraz twoja dłoń jest skierowany do Ciebie, a czubki palców skierowane w dół w kierunku Twoich stóp).

8. Sprawdzaj terminal w poszukiwaniu przydatnych informacji.

9. I słuchaj przekonwertowanej mowy przesyłanej strumieniowo przez głośnik.

Krok 5: Referencje

1.

2.

3.

4.

Zalecana: