HDR glasögon: från cyborg svetsning hjälmar till Wearable beräkning i vardagen (1 / 6 steg)
Steg 1: Samla en mångfald av olika utsatta poster, sortera dem efter exponering och beräkna comparagrams
Ett enkelt exempel är en uppsättning olika exponerade bilder av samma ämne. Men du kan använda denna filosofi på bara om någon typ av inspelning.
Till exempel i min barndom, i början av ljudinspelning, kom jag ihåg att mest ljudenheter var monofoniska. I våra hushåll hade skivspelaren bara en högtalare i den. Så gjorde radio- och TV-mottagaren. Men som en audio hobby jag hade en stereo bandspelare, och jag riggade även upp en bärbar dator för att spela in stereoljud i slutet av 1970. När inspelning monofoniska material såsom min egen röst, jag ansluten två stereokanalerna parallellt (både matas från samma mikrofon) och den vänstra kanalen mycket tyst och rätt kanal mycket högt. Varför när jag talade den vänstra kanalen aldrig mättade, men rätt kanal gjorde. Men när andra långt ifrån mig talade, vänster kanal var för tyst == förlorade i bakgrundsljud. Den högra kanalen var perfekt. Senare jag kunde kombinera dessa två inspelningar för att få en enda inspelning med en massiv dynamiskt omfång, långt utöver vad någon anordning för ljudinspelning av denna dag kunde producera.
Jag hade upptäckt något nytt: ett sätt att kombinera olika sätt utsatt inspelningar av samma ämnet att få utökat dynamiskt omfång. Jag också tillämpat denna metod fotografi och video, e.g. att kombinera underexponerad och överexponerade videoinspelningar.
Jag var också fascinerad av Charles Wyckoffbilder av kärnvapenexplosioner med på omslaget av tidskriften Life. Jag var fascinerad av Wyckoffs arbete från MIT, så jag tillämpas där och accepterades, där jag blev god vän med Wyckoff, och visade honom min HDR audiovisuella verk.
Dynamiskt omfång jämfört med Dynamage utbud:
Utöver audiovisuellt verk, överväga andra typer av sensorer eller metasensing. Gäller den huvudsakliga principen här när sensorer kan vara överexponerade utan skador, t.ex. när deras dynamiska omfånget är större än deras dynamage sortiment. Till exempel var HDR video inte möjligt tillbaka i gamla dagar när videokameror var lätt skadad vid exponering för alltför stora ljus.
Försök att hitta en situation där en sensor mättar och ger dålig avläsningar, i närvaro av överexponering, men inte skadas av överexponering.
Moderna kameror är så här, liksom många mikrofoner, antenner, sensorer, etc...
På toppen av denna sida är ett exempel bild som jag gjorde från två olika exponerade bilder av samma föremålet. De två bilderna visas under den. Vänstra är tagna med en exponering som är lämplig för ljusa bakgrunden bakom personerna i bilden. En på rätten tas med en exponering som lämpar sig för arkitektoniska detaljer i byggnaden.
Mättnad och cutoff
I vänstra bilden är många detaljer cutoff i skuggområden.
I den högra bilden, är många andra detaljer mättade i områdena höjdpunkt.
Prova några olika sätt att kombinera olika exponerade bilder, för att kombinera dessa två bilder för att få en bild som den överst på denna sida.
Försök fånga några av dina egna datamängder där det finns olikt utsatta poster.
Försöka förstå det matematiska förhållandet mellan dessa olika utsatta poster.
Låt v1 vara den första posten (utan förlust av allmängiltigheten vi kan sortera poster enligt exponering, och så låt oss säga v1 är rekordet med mindre exponering). Låt v2 av ett register över större exponering, med en faktor på några konstant, k. Det finns en underliggande kvantitet, q, som vi försöker mäta, genom vissa sensor svar funktion, f. Så vi har v1= f(q(x,y)), låt oss säga (t.ex. om det är en bild eller en bild som en funktion av (x, y) bildpunktskoordinater), och v2= f(kq(x,y)).
Nu vi vill försöka förstå sambandet mellan v1 och v2, exponerade två olika bilder. Det grundläggande sättet att göra detta är genom något som kallas comparagram, som är ett kraftfullt men ändå enkelt (grundläggande) matematiska verktyg för att jämföra olika exponerade inspelningar av samma ämne.