Wykrywanie upadków ludzi za pomocą OpenCV i Raspberry Pi - Część 2

Przegląd projektu

Wykrywanie upadków to istotna technologia, szczególnie w opiece nad osobami starszymi i bezpieczeństwie inteligentnego domu. Dzięki Raspberry Pi i OpenCV możesz zbudować wydajny system wykrywania, który monitoruje upadki w czasie rzeczywistym i rejestruje dane. Ten projekt jest ulepszoną wersją projektu KNN 3D Human Skeleton Recognition, zaprojektowaną tak, aby była praktyczna i łatwa do wdrożenia.
    
    
Cześć 👋! Witamy w OpenELAB’s projekcie tutorialowym! Ten artykuł zawiera szczegółowy przewodnik, jak użyć Raspberry Pi 4B i OpenCV do implementacji systemu wykrywania upadku człowieka. Tutorial jest podzielony na trzy części, a dziś skupimy się na Części 2, gdzie implementujemy podstawową funkcjonalność. Obejmuje to:
  1. Szkolenie danych
  2. Zapisywanie wyników w CSV plik
  3. Używanie aparatu do weryfikacji modelu
Zanurzmy się i stwórzmy coś niesamowitego razem! 🚀
Raspberry Pi 4

Raspberry Pi 4B

Zobacz produkt
Następnie przeprowadzimy Cię krok po kroku 📜 przez kod źródłowy, co ułatwia Ci zanurzenie się w tym projekcie!
Jesteś gotowy? Zaczynajmy 🚀

    

Kroki do wykonania

  1. 🚀 Otwórz Remote
  2. Skonfiguruj kamerę
  3. Konfiguruj VSCode
  4. Uruchom projekt w VSCode
  5. 🔧 Postępuj zgodnie z instrukcjami użytkowania
Uwaga: Ten projekt jest zmodyfikowaną wersją projektu KNN 3D Human Skeleton Recognition. Zapewnia kompletny samouczek dotyczący jego płynnego uruchamiania na Raspberry Pi.

   

Plan działania

Otwórz zdalny dostęp:

 

Kroki do otwarcia aparatu:

Lokalizacja uruchamiania IDE Python na Raspberry Pi:

Konfiguracja kodu: korzyści, łatwiejsze naprawianie błędów:

Proces otwierania:

Instalacja zakończona sukcesem: Uruchom test.py

Kompiluj i Uruchom

  1. Najpierw uruchom kod testowy test.py aby zapewnić prawidłowe działanie kamery.
  2. Uruchom plik First_train.py, aby wytrenować dane i zapisać kluczowe punkty ciała ludzkiego jako pliki 1_Fall.csv oraz 2_Normal.csv. Użytkownik może nacisnąć klawisz Esc, aby wyjść i zapisać wyniki.
  3. Uruchom plik second_KNN.py, aby użyć modelu KNN do konfiguracji.
  4. Uruchom plik Third.py w celu weryfikacji. Możesz przesłać wideo z kompletnymi punktami kluczowymi człowieka lub otworzyć kamerę do testów.

Ostateczny wynik (zawiera pliki GIF)

Zostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Pola wymagane są oznaczone *

Pasek boczny

Najnowszy post

Ta sekcja nie zawiera obecnie żadnych treści. Dodaj treść do tej sekcji, korzystając z paska bocznego.

Zarejestruj się do naszego newslettera

Uzyskaj najnowsze informacje o naszych produktach i specjalnych ofertach.