Levande ISS tracker med Raspberry Pi med en SenseHat (uppdaterad)
Uppdatering: en annan funktion har lagts till: nästa gång ISS kommer att flyga över platsen för RPI.
Beskrivning av funktionen läggs till i steg 2.
--------------------------------------------------------------------------------------------------------------------------------
Först av allt jag ber om ursäkt för den dåliga kvaliteten på videon. Jag kunde inte hitta ett sätt att fånga produktionen av LCD-matrisen anständigt och försökte en massa filter. Det är tänkt för en kort visning av skriptet delar, men kommer inte nära live-upplevelse. Du kan få bilden genom att observera det genom dina ögonfransar. -0)
Python-skript gäller alla SenseHat sensorer. Den innehåller följande funktioner, som jag kommer att förklara senare:
- En joystick-driven meny
- Levande spårning av den internationella rymdstationen, använder 2 API's av ESA, Visa information om latitud/longitud, land, tidszon, synlighet och i många fall en sprite representation av land flagga
- En nivå med två korslagda visor linjer att mäta den vågräta positionen
- En visning av miljödata: temperatur, fuktighet, tryck, havet och IMU data
Det är en rättfram skript, undvika klasser till exempel för att göra det lätt att följa för början programmerare (som mig).
Hårdvaran använde jag:
- PI B + (hade en fortfarande liggandes. Det är snabb nog, eftersom hastigheten på visning genom ledde matrisen är den mest långsam del)
- Känsla hatt styrelse
- WiFi dongle
- SD-kort (inklusive gummiband för att hålla den i den trasiga slot)
- PI fall.
Några upfront anmärkningar:
- SenseHat styrelsen har lanserats för Astro Pi-projektet (https://astro-pi.org/). Ett mycket bra pedagogiskt och motiverande projekt av ESA.
- SenseHat inaktiverar ytterligare användning av GPIO stiften. Jag fann det ganska nedslående för jag förväntade mig känsla hatten att slutföra en fullständig E2E tillämpning av hallon. Med E2E jag menar full interaktion med miljön som med robotics: fysiska sensing = > digital bearbetning = > fysisk (re-) åtgärder genom manöverdon/motorer eller något sånt. (På webbplatsen Astro Pi kan du hitta en instruktion för att bygga en flygning fall. I denna anvisning knappar läggs till Pi, men en förklaring på ledningarna av SenseHat och vilket stift kan användas för lödning, saknar.)
- IMU hanteringen är baserat på ett bra bibliotek: github: richards-tech jag kunde inte hitta en beskrivning av sensor fusion algoritmen som används, men Pitch och rulle vinklar tycktes vara ganska exakt. Yaw returnerar den magnetiska vinkeln, så att den returnerar ett värde även när Pi i fullständig vila position. Temperaturgivaren är vägen avstängd (i mitt fall minst 10 grader). Dokumentationen beskrivs som ett resultat av den värme som produceras av enheten.
Så ser det ut som att huvudprogrammet för SenseHat dataloggning. En kan koden några enkla sprite baserat spel också. (Användbart när gripa grunderna i spelutveckling). Jag är personligen inte verkligen intresserad i loggning enorma mängder av miljödata. Det vinnande bidraget av barnen i Thirsk skolan inspirerade mig mer, så jag förstärkt deras idé mot en live tracker för ISS.