Upptäcka mänskliga fall med OpenCV och Raspberry Pi - Del 2

Projektöversikt

Fallavkänning är en viktig teknik, särskilt inom äldreomsorg och smarta hemsäkerhetssystem. Med Raspberry Pi och OpenCV kan du bygga ett effektivt detekteringssystem som övervakar fall i realtid och loggar data. Detta projekt är en förbättrad version av KNN 3D Human Skeleton Recognition-projektet, designat för att vara praktiskt och lätt att implementera.
    
    
Hej 👋! Välkommen till OpenELAB’s handledningsprojekt! Den här artikeln ger en detaljerad guide om hur man använder en Raspberry Pi 4B och OpenCV för att implementera ett system för att upptäcka när människor faller. Handledningen är uppdelad i tre delar, och idag fokuserar vi på Del 2, där vi implementerar kärnfunktionaliteten. Detta inkluderar:
  1. Tränar datan
  2. Sparar resultaten i en CSV fil
  3. Använda en kamera för att validera din modell
Låt oss dyka in och bygga något fantastiskt tillsammans! 🚀
Raspberry Pi 4

Raspberry Pi 4B

Visa produkt
Nästa kommer vi att guida dig steg för steg 📜 genom källkod, vilket gör det enkelt för dig att dyka in i detta projekt!
Är du redo? Låt oss börja 🚀

    

Steg att följa

  1. 🚀 Öppna Remote
  2. Ställ in kameran
  3. Konfigurera VSCode
  4. Kör projektet i VSCode
  5. 🔧 Följ bruksanvisningen
Notera: Detta projekt är en modifierad version av KNN 3D Human Skeleton Recognition-projektet. Det ger en komplett handledning för att köra det smidigt på en Raspberry Pi.

   

Handlingsplan

Öppna fjärrkontroll:

 

Steg för att öppna kameran:

IDE Python-körplats på Raspberry Pi:

Konfigurationskod: Fördelar, enklare felsökning:

Öppningsprocess:

Installation lyckades: Kör test.py

Kompilera och kör

  1. Först, kör testkoden test.py för att säkerställa att kameran fungerar korrekt.
  2. Kör First_train.py-filen för att träna data och spara de mänskliga kroppens nyckelpunkter som 1_Fall.csv och 2_Normal.csv-filer. Användaren kan trycka på Esc-tangenten för att avsluta och spara resultaten.
  3. Kör second_KNN.py-filen för att använda KNN-modellen för konfiguration.
  4. Kör Third.py-filen för verifiering. Du kan ladda upp en video med kompletta mänskliga nyckelpunkter eller öppna din kamera för testning.

Slutresultat (inkluderar GIF-filer)

Lämna en kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade *

Sidopanel

Senaste inlägg

Denna sektion innehåller för närvarande inget innehåll. Lägg till innehåll i denna sektion med hjälp av sidofältet.

Registrera dig för vårt nyhetsbrev

Få den senaste informationen om våra produkter och specialerbjudanden.