Informatie

Wat is het equivalent van de sluitertijd in het menselijk oog?


Ik heb net geleerd dat in videocamera's elk frame van de video zijn eigen sluitertijd heeft.

En ik weet hoe framerate in het menselijk oog werkt, nou ja, niet helemaal, vandaar de vraag.

http://en.wikipedia.org/wiki/Frame_rate

Het menselijk oog en zijn herseninterface, het menselijke visuele systeem, kunnen 10 tot 12 afzonderlijke beelden per seconde verwerken en ze afzonderlijk waarnemen.

Hoeveel (of wat is het equivalent van) sluitertijd in die afzonderlijke afbeeldingen?


De lichtreceptor van het oog is een eiwit dat Rhodopsine wordt genoemd. Voor mij is het equivalent van sluitertijd voor het oog de (de)sensibilisatie van rodopsine door fosforylering. Hoe helderder het licht, hoe meer plaatsen op rodopsine worden gefosforyleerd, waardoor de intensiteit van het signaal dat van de fotoreceptor komt via het transducine G-eiwit dat het visuele signaal verder brengt, afneemt.

Dit proces duurt een paar seconden, maar dan is het mogelijk om te zien wanneer je in zonlicht of in een verduisterde kamer stapt.

Dit lijkt meer op een volumeknop dan op een sluitertijd, aangezien hetzelfde signaal met dezelfde snelheid van elke lichtsensor naar buiten komt, maar het heeft een soortgelijk effect - het moduleert de intensiteit van het beeld.


Er is niets te vergelijken met een sluiter van de camera in het oog. Het ooglid is als een zonnekap. Wanneer het ooglid open is, wordt het beeld continu op het netvlies geprojecteerd, in tegenstelling tot een filmcamera. Als de vraag echter gaat over frames per seconde (aantal statische afbeeldingen) die nodig zijn om een ​​gevoel van naadloze beweging te produceren, kan dit artikel van enige hulp zijn. In een videocamera is het in plaats van een sluitertijd het aantal keren dat het beeld op de sensor elektronisch wordt bemonsterd (opgenomen) per seconde. Het oog lijkt meer op een videocamera. Het netvlies heeft staafjes en kegeltjes met variabele 'opfris'-snelheden waardoor het ingewikkelder wordt om exacte cijfers te berekenen.


Niet al je staafjes/kegels vuren op een bepaald moment. Uitzondering is wanneer een felle lichtflits wordt bekeken. De hersteltijd van de resulterende flitsblindheid is vrij traag - seconden. Maar er is wat fotobleking daar, dus misschien is dat niet eerlijk.


Je ogen zijn op veel niveaus heel anders dan een camera. Ten eerste zijn je ogen aan de achterkant afgerond en niet plat zoals bij een camerasensor, al zou Sony daar graag verandering in brengen. Je ogen voegen ook informatie toe die er niet altijd is. Bijvoorbeeld het debat over witte of blauwe jurken. Het behoeft geen betoog dat een perfecte vergelijking niet alleen onmogelijk is, het is ook oneerlijk.

Er zijn echter een paar technische overeenkomsten in de manier waarop camera- en oogboloptiek werken, en we dachten dat het misschien leuk zou zijn om vergelijkbare oogbolspecificaties naast moderne cameraspecificaties te plaatsen om te zien hoeveel een theoretische camera zou kosten. Laten we, om het simpel te houden, elke technische specificatie afzonderlijk bekijken.

(Snelle opmerking: ik ben geen dokter, maar een man met Google.)

Brandpuntsafstand

Als we het hebben over brandpuntsafstand op een camera, hebben we het letterlijk over de afstand van het optische centrum van de lens tot de camerasensor. Dezelfde regel zou in uw oog van toepassing zijn. Dus technisch gezien zou het gemiddelde menselijk oog een brandpuntsafstand van 17 mm hebben.

  • Brandpuntsafstand: 17 mm
  • Vergelijkbare uitrusting:Olympus M.Zuiko 17 mm f/2.8-lens
  • Prijs: $299

Kijkhoek

Terwijl een 17 mm-lens op een full-frame camera een gezichtsveld van ongeveer 93 graden zou hebben, heeft het gemiddelde menselijk oog een gezichtsveld van ongeveer 180 graden wanneer het naar voren kijkt. Met behulp van een eenvoudige kijkhoekcalculator zou de werkelijke beeldhoek gelijk zijn aan die van een 1 mm-lens.

  • Kijkhoek: 180 graden
  • Vergelijkbare uitrusting:Nikkor 6 mm-lens
  • Prijs: $100,000

Gewasfactor

Met de beeldhoek in gedachten heeft onze 17 mm-oogbol een brandpuntequivalent van 1 mm. Dus theoretisch heeft ons oog een negatieve cropfactor van x.05 in vergelijking met een full-frame camera. Onnodig te zeggen dat technologie in het echte leven niet bestaat.

  • Gewasfactor: x.05
  • Vergelijkbare uitrusting:Metabones-snelheidsbooster (x 14)
  • Prijs: $7000

F / stop

Een F-stop is eigenlijk een heel simpele formule:

In een ongelooflijk donkere situatie kan de iris van een oog uitzetten tot ongeveer 8 mm. Dus als we die informatie in een formule zouden zetten waarbij onze brandpuntsafstand de lengte van onze ogen is (ongeveer 17 mm), zouden we een werkelijke f-stop krijgen van ongeveer f/2.1. Dat aantal is indrukwekkend, maar zeker niet wereldschokkend.

  • F / stop: f/2.1 – f/8.3
  • Vergelijkbare uitrusting:Canon EF 35mm f/2 IS USM-lens
  • Prijs: $549

Oplossing

Er wordt geschat dat het gemiddelde menselijk oog op elk moment tot 576 MP aan informatie kan lezen, wat een geheel nieuwe betekenis geeft aan de term retina-display. Helaas kunnen moderne DSLR's nog niet echt foto's maken met zo'n hoge megapixel. In de astronomie is er echter een camera die met 570 MP in de buurt komt.

  • Oplossing: 576MP
  • Vergelijkbare uitrusting:Donkere Energie Camera
  • Prijs: $35,000,000

ISO heeft betrekking op de hoeveelheid stroom die op een bepaald moment naar de sensor van de camera wordt gestuurd. Als je het echter over je ogen hebt, heb je niet echt de mogelijkheid om je gevoeligheid veel verder te verhogen dan die van ISO 1.000 op een camera.

  • ISO: 1 – 1000
  • Vergelijkbare uitrusting:Canon EOS DCS 3
  • Prijs: $16.453 in 1995

Bitdiepte

Er wordt gezegd dat onze ogen tot 10 miljoen verschillende kleuren kunnen waarnemen. Hoewel dat misschien veel lijkt, is het eigenlijk vrij laag in verhouding tot wat huidige camera's kunnen waarnemen. Videocamera's nemen elke dag kleurinformatie op met 8 bits per kanaal, maar sommige camera's kunnen tot 14 bits per kanaal opnemen - dat zijn 4,4 biljoen kleuren!

  • Bitdiepte: 7,5 bits per kanaal
  • Vergelijkbare uitrusting: Dagelijkse DSLR-video
  • Prijs: $1,000

Dynamisch bereik

Dynamisch bereik heeft te maken met het vermogen van je camera om zowel extreem heldere als extreem donkere details tegelijkertijd te verwerken. De meeste professionele camera's hebben een dynamisch bereik van 11-14 stops. Hoe meer stops uw camera heeft, hoe groter het vermogen om contrastrijke beelden op te nemen. Verrassend genoeg is het menselijk oog op het gebied van dynamisch bereik vergelijkbaar met moderne technologie.

  • Dynamisch bereik:10-14 haltes
  • Vergelijkbare uitrusting:Sony a7S
  • Prijs: $2,498

Sluitertijd

Je ogen hebben geen mechanische of radiale sluiter, dus ze lijken meer op een elektronische sluitercamera. Als u de bewegingsonscherpte van uw oog echter wilt vergelijken met een vergelijkbare bewegingsonscherpte van een camera, zwaait u eenvoudig met uw hand in een constante snelheid van uw gezicht. Zie je de bewegingsonscherpte?

Als je de sluitertijd op een camera zou aanpassen aan die van de bewegingsonscherpte in je oog, kom je uit op een sluitertijd van ongeveer 1/100-1/200. In het dagelijks leven zie je waarschijnlijk niet veel bewegingsonscherpte, omdat je ogen eraan gewend zijn bewegende objecten ongelooflijk snel te volgen. Een techniek die hier erg op lijkt, is de manier waarop een autofotograaf een rijdende auto volgt op een racebaan.

  • Sluitertijd: 1/100 – 1/200
  • Vergelijkbare uitrusting: Dagelijkse spiegelreflexcamera
  • Prijs: $1,000

Beelden per seconde

Door onderzoek zijn wetenschappers erachter gekomen dat mensen informatie tot ongeveer 1.000 fps kunnen interpreteren. Hoewel je deze informatie zeker niet in slow motion in je geest kunt afspelen (althans nog niet), heeft het grotere implicaties voor de toekomst van het filmmaken en het aantal FPS-filmmakers dat zou moeten filmen. Dit is de reden waarom een ​​48fps-film zoals de Hobbit voelt zo veel anders dan een film met 24 fps.

  • Beelden per seconde: 1000 fps
  • Vergelijkbare uitrusting:Phantom Flex 4K
  • Prijs: $140,000

Totaal: $ 35.268.799 + belasting

Hoewel het absoluut onmogelijk is om met zekerheid te zeggen wat de werkelijke kosten zouden zijn van een opstelling die equivalent is aan het menselijk oog, als we al onze prijzen bij elkaar zouden optellen, zou onze theoretische camera ongeveer evenveel kosten als De Spongebob-film: Spons uit het water gemaakt in het openingsweekend. (We leven in donkere tijden.)

Meer weten over de vergelijking tussen het menselijk oog en camera's? Bekijk een paar van de volgende berichten:

Vindt u dat dit aantal hoger of lager moet zijn? Zou u uw oogbol verkopen voor $ 35.000.000? Deel je gedachten in de reacties hieronder.


De 180° sluiterregel

De 180-gradenregel is een standaard in de filmindustrie en verklaart de relatie tussen sluitertijd en framesnelheid bij het opnemen van beweging in video. Om beweging na te bootsen zoals het menselijk oog het in het echte leven ervaart, stelt de 180-gradenregel dat de sluitertijd moet worden ingesteld om uw framesnelheid te verdubbelen. Als je mensen hoort praten over "filmische sluitertijden", verwijzen ze naar deze standaard waarbij de sluitertijd is ingesteld op dubbele framesnelheid, of zo dicht mogelijk. (De meeste DSLR's hebben de mogelijkheid om op 1/50e te fotograferen, maar niet op 1/48e, dus als u 24 fps fotografeert, stelt u de sluitertijd in op 1/50e).

De 180°-regel kan worden overtreden om een ​​specifiek filmtijdperk na te bootsen, of worden gebruikt om video doelbewust wankel of ronduit schokkend te maken. Hoe groter de sluiterhoek, van 270° tot 360°, hoe meer bewegingsonscherpte, en hoe smaller de sluiterhoek (minder dan 180°), hoe minder bewegingsonscherpte wordt waargenomen van het ene beeld naar het volgende.

Aangezien de meeste digitale camera's een gordijnsluiter hebben en niet de filmachtige roterende sluiter, komt een sluiterhoek van 180° overeen met fotograferen met een sluitertijd die twee keer zo hoog is als uw framesnelheid, of technisch gezien, 1/[2xfps]. In digitale termen is de sluiterhoek de sluitertijd van de camera ten opzichte van de framesnelheid. Op DSLR's en andere digitale camera's zijn de gebruikelijke sluiterhoeken van 180° 1/50ste van een seconde bij 24 fps, of 1/60ste van een seconde bij 30 fps.

Onthoud dat een korte sluitertijd een donkerdere foto zal produceren met weinig tot geen bewegingsonscherpte (afhankelijk van de snelheid van het onderwerp), terwijl een lange sluitertijd een lichtere foto zal produceren met meer uitgesproken bewegingsonscherpte.


Camera versus ogen: verschillen

Absoluut versus subjectief meten van licht: Simpel gezegd, het menselijk oog is een subjectief apparaat. Dit betekent dat je ogen in harmonie met je hersenen werken om de beelden te creëren die je waarneemt: Je ogen passen de focus aan (door het licht door de lens in je oogbollen te buigen) en vertalen fotonen (licht) in een elektrische impuls die je hersenen kunnen verwerken . Vanaf dat moment draait het allemaal om je brein: het past zijn kleurbalans voortdurend aan de lichtcontext aan. Met andere woorden, onze ogen weten wat moet worden gezien als rood of wit of zwart enz.

Een camera daarentegen is een absoluut meetapparaat — Het meet het licht dat een reeks sensoren raakt, maar de sensor is 'dom' en de geregistreerde signalen moeten bijvoorbeeld worden aangepast aan de kleurtemperatuur van het licht dat de scène verlicht

Lensfocus: In de camera beweegt de lens dichterbij/verder van de film om scherp te stellen. In uw ogen verandert de lens van vorm om scherp te stellen: de spieren in uw ogen veranderen de werkelijke vorm van de lens in uw ogen.

Gevoeligheid voor licht: Een film in een camera is uniform gevoelig voor licht. Het menselijk netvlies is dat niet. Daarom hebben onze ogen met betrekking tot beeldkwaliteit en opnamekracht een grotere gevoeligheid op donkere locaties dan een typische camera.

Er zijn lichtsituaties die een huidige digitale camera niet gemakkelijk kan vastleggen: de foto's worden wazig of in een spervuur ​​van digitale ruis. Als u bijvoorbeeld een fluorescentiebeeld van cellen onder een microscoop bekijkt, is het beeld dat u met uw ogen kunt zien bijna onmogelijk om vast te leggen voor een gewone camera. Dit komt vooral doordat de hoeveelheid licht die de camera (en je ogen) binnenkomt zo laag is.


De camera versus het menselijk oog

Dit artikel begon nadat ik een online discussie had gevolgd over de vraag of een 35 mm- of een 50 mm-lens op een full-frame camera hetzelfde gezichtsveld geeft als normaal menselijk zicht. Deze specifieke discussie dook onmiddellijk in de optische fysica van het oog als camera en lens - een begrijpelijke vergelijking aangezien het oog bestaat uit een frontelement (het hoornvlies), een diafragmaring (de iris en pupil), een lens en een sensor (het netvlies).

Ondanks alle indrukwekkende wiskunde die heen en weer werd gegooid met betrekking tot de optische fysica van de oogbol, leek de discussie niet helemaal logisch logisch te zijn, dus ik heb veel zelf over het onderwerp gelezen.

Er zal geen direct voordeel zijn van dit artikel waardoor je opraakt en betere foto's maakt, maar misschien vind je het interessant. Misschien vind je het ook ongelooflijk saai, dus ik zal je eerst mijn conclusie geven, in de vorm van twee citaten van Garry Winogrand:

Een foto is de illusie van een letterlijke beschrijving van hoe de camera een stukje tijd en ruimte ‘zag’.

Fotografie gaat niet over het gefotografeerde. Het gaat erom hoe dat ding ziet er uit gefotografeerd.

Eigenlijk door al dit onderzoek te doen naar hoe het menselijk oog is Leuk vinden een camera, wat ik echt heb geleerd, is hoe het menselijk zicht is niet zoals een foto. In zekere zin legde het me uit waarom ik een foto zo vaak veel mooier en interessanter vind dan de eigenlijke scène zelf.

Het oog als camerasysteem

Oppervlakkig gezien is het vrij logisch om het oog te vergelijken met een camera. We kunnen de lengte van het oog van voor naar achter meten (ongeveer 25 mm van het hoornvlies tot het netvlies), en de diameter van de pupil (2 mm samengetrokken, 7 tot 8 mm verwijd) en lensachtige getallen uit die metingen berekenen.

U zult echter een aantal verschillende cijfers vinden voor de brandpuntsafstand van het oog. Sommige zijn afkomstig van fysieke metingen van de anatomische structuren van het oog, andere van optometrische berekeningen, sommige houden er rekening mee dat de lens van het oog en de ooggrootte zelf veranderen met de samentrekkingen van verschillende spieren.

Om samen te vatten, echter, een veelgebruikte brandpuntsafstand van het oog is 17 mm (dit wordt berekend op basis van de optometrische dioptriewaarde). De meer algemeen aanvaarde waarde is echter 22 mm tot 24 mm (berekend op basis van fysieke breking in het oog). In bepaalde situaties kan de brandpuntsafstand zelfs langer zijn.

Omdat we de geschatte brandpuntsafstand en de diameter van de pupil kennen, is het relatief eenvoudig om de opening (f-stop) van het oog te berekenen. Bij een brandpuntsafstand van 17 mm en een pupil van 8 mm zou de oogbol moeten functioneren als een f/2.1-lens. Als we de brandpuntsafstand van 24 mm en de pupil van 8 mm gebruiken, zou deze f/3.5 moeten zijn. Er zijn in de astronomie een aantal onderzoeken gedaan om de f-stop van het menselijk oog daadwerkelijk te meten, en het gemeten aantal komt uit op f/3.2 tot f/3.5 (Middleton, 1958).

Op dit punt hebben jullie die tot hier hebben gelezen zich waarschijnlijk afgevraagd: "Als de brandpuntsafstand van het oog 17 of 24 mm is, waarom maakt iedereen dan ruzie over de vraag of 35 mm- of 50 mm-lenzen hetzelfde gezichtsveld hebben als het menselijk oog?"

De reden is dat de gemeten brandpuntsafstand van het oog niet bepalend is voor de gezichtshoek van het menselijk zicht. Ik zal hier hieronder in meer detail op ingaan, maar het belangrijkste punt is dat slechts een deel van het netvlies het hoofdbeeld dat we zien verwerkt. (Het gebied van het hoofdzicht wordt de kegel van visuele aandacht genoemd, de rest van wat we zien is "perifere visie").

Studies hebben de kegel van visuele aandacht gemeten en vonden dat deze ongeveer 55 graden breed was. Op een 35mm full frame camera zorgt een 43mm lens voor een beeldhoek van 55 graden, waardoor de brandpuntsafstand precies dezelfde beeldhoek geeft als wij mensen. Verdomme als dat niet halverwege tussen 35 mm en 50 mm is. Dus het oorspronkelijke argument is beëindigd, de eigenlijke 'normale' lens op een 35 mm spiegelreflex is noch 35 mm noch 50 mm, hij zit er halverwege tussen.

Het oog is Niet een camerasysteem

Nadat ik het antwoord op de oorspronkelijke discussie had gekregen, had ik de zaken met rust kunnen laten en weglopen met nog een beetje vrij nutteloze trivia die ik heb opgeborgen om mijn online vrienden mee te verbazen. Maar NEEEEE. Als ik een hoop werk heb dat gedaan moet worden, merk ik dat ik er bijna altijd voor zal kiezen om nog een paar uur te besteden aan het lezen van meer artikelen over het menselijk gezichtsvermogen.

Het is je misschien opgevallen dat in het bovenstaande gedeelte enkele van de oog-naar-camera-analogen zijn weggelaten, want als je eenmaal voorbij de eenvoudige metingen van diafragma en lens bent, passen de rest van de vergelijkingen niet zo goed.

Denk aan de sensor van het oog, het netvlies. Het netvlies is bijna even groot (32 mm in diameter) als de sensor op een full frame camera (35 mm in diameter). Maar daarna is bijna alles anders.

Het netvlies van een menselijk oog

Het eerste verschil tussen het netvlies en de sensor van je camera is nogal duidelijk: het netvlies is gebogen langs de achterkant van de oogbol, niet vlak zoals de siliconensensor in de camera. De kromming heeft een duidelijk voordeel: de randen van het netvlies bevinden zich ongeveer op dezelfde afstand van de lens als het midden. Bij een platte sensor zijn de randen verder weg van de lens en het centrum dichterbij. Voordeel netvlies — het zou een betere 'hoekscherpte' moeten hebben.

Het menselijk oog heeft ook veel meer pixels dan je camera, ongeveer 130 miljoen pixels (voel je je nu nederig voor 24-megapixel camera's?). Echter, slechts ongeveer 6 miljoen van de pixels van het oog zijn kegeltjes (die kleur zien), de overige 124 miljoen zien alleen zwart-wit. Maar profiteer weer van het netvlies. Grote tijd.

Maar als we verder kijken, worden de verschillen nog groter…

Op een camerasensor is elke pixel uitgezet in een regelmatig rasterpatroon. Elke vierkante millimeter van de sensor heeft precies hetzelfde aantal en hetzelfde patroon van pixels. Op het netvlies bevindt zich een klein centraal gebied, ongeveer 6 mm breed (de macula) dat de dichtste concentratie van fotoreceptoren in het oog bevat. Het centrale deel van de macula (de fovea) is dicht opeengepakt met alleen kegelvormige (kleurgevoelige) cellen. De rest van de macula rond dit centrale 'alleen kleur'-gebied bevat zowel staafjes als kegeltjes.

De macula bevat ongeveer 150.000 'pixels' in elk vierkant van 1 mm (vergelijk dat met 24.000.000 pixels verspreid over een 35 mm x 24 mm sensor in een 5DMkII of D3x) en biedt ons 'centrale zicht' (de hierboven genoemde kegel van 55 graden van visuele aandacht). Hoe dan ook, het centrale deel van ons gezichtsveld heeft veel meer oplossend vermogen dan zelfs de beste camera.

De rest van het netvlies heeft veel minder 'pixels', waarvan de meeste alleen zwart-witdetectie zijn. Het biedt wat we gewoonlijk beschouwen als 'perifere visie', de dingen die we 'in onze ooghoeken' zien. Dit deel voelt bewegende objecten heel goed aan, maar biedt niet genoeg resolutie om bijvoorbeeld een boek te lezen.

Het totale gezichtsveld (het gebied waarin we beweging kunnen zien) van het menselijk oog is 160 graden, maar buiten de kegel van visuele aandacht kunnen we niet echt details herkennen, alleen brede vormen en beweging.

De voordelen van het menselijk oog ten opzichte van de camera nemen een beetje af naarmate we het netvlies verlaten en terugreizen naar de hersenen. De camera stuurt de gegevens van elke pixel van de sensor naar een computerchip voor verwerking tot een afbeelding. Het oog heeft 130 miljoen sensoren in het netvlies, maar de oogzenuw die de signalen van die sensoren naar de hersenen draagt, heeft slechts 1,2 miljoen vezels, dus minder dan 10% van de gegevens van het netvlies wordt op elk moment aan de hersenen doorgegeven. (Dat komt deels doordat de chemische lichtsensoren in het netvlies na prikkeling even tijd nodig hebben om ‘op te laden’. Deels omdat de hersenen toch niet zoveel informatie konden verwerken.)

En natuurlijk verwerken de hersenen de signalen heel anders dan een fotocamera. In tegenstelling tot de intermitterende sluiterklikken van een camera, stuurt het oog de hersenen een constante videofeed die wordt verwerkt tot wat we zien. Een onderbewust deel van de hersenen (de laterale geniculate kern als je het moet weten) vergelijkt de signalen van beide ogen, assembleert de belangrijkste delen in 3D-beelden en stuurt ze naar het bewuste deel van de hersenen voor beeldherkenning en verder verwerken.

Het onderbewuste brein stuurt ook signalen naar het oog, waarbij de oogbol lichtjes in een scanpatroon wordt bewogen, zodat het scherpe zicht van de macula over een interessant object beweegt. In een paar fracties van seconden stuurt het oog meerdere beelden, en de hersenen verwerken ze tot een completer en gedetailleerder beeld.

Het onderbewuste brein verwerpt ook veel van de binnenkomende bandbreedte en stuurt slechts een klein deel van zijn gegevens naar het bewuste brein. Je kunt dit tot op zekere hoogte controleren: je bewuste brein vertelt bijvoorbeeld op dit moment de laterale geniculate nucleus "stuur me alleen informatie vanuit het centrale gezichtsveld, concentreer je op die getypte woorden in het midden van het gezichtsveld, ga van links naar zodat ik ze kan lezen”. Stop even met lezen en probeer zonder uw ogen te bewegen te zien wat zich in uw perifere gezichtsveld bevindt. Een seconde geleden "zag" je dat object niet rechts of links van de computermonitor omdat het perifere zicht niet werd doorgegeven aan het bewuste brein.

Als je je concentreert, zelfs zonder je ogen te bewegen, kun je op zijn minst zien dat het object er is. Als je het echter duidelijk wilt zien, moet je nog een hersensignaal naar het oog sturen, waardoor de kegel van visuele aandacht naar dat object wordt verplaatst. Merk ook op dat je de tekst niet allebei kunt lezen en zie de perifere objecten - de hersenen kunnen niet zoveel gegevens verwerken.

De hersenen zijn niet klaar wanneer het beeld het bewuste deel heeft bereikt (de visuele cortex). Dit gebied is sterk verbonden met de geheugengedeelten van de hersenen, waardoor je objecten in het beeld kunt ‘herkennen’. We hebben allemaal wel eens dat moment meegemaakt waarop we iets zien, maar een seconde of twee niet herkennen wat het is. Nadat we het hebben herkend, vragen we ons af waarom het in de wereld niet meteen duidelijk was. Dat komt omdat het brein een fractie van een seconde nodig had om toegang te krijgen tot de geheugenbestanden voor beeldherkenning. (Als je dit nog niet hebt meegemaakt, wacht dan een paar jaar. Dat zal wel gebeuren.)

In werkelijkheid (en dit is heel duidelijk) is menselijke visie video, geen fotografie. Zelfs wanneer ze naar een foto staren, maken de hersenen meerdere 'momentopnamen' terwijl het het middelpunt van de focus over de foto beweegt, ze stapelt en samenvoegt tot het uiteindelijke beeld dat we waarnemen. Kijk een paar minuten naar een foto en je zult je realiseren dat je oog onbewust over de foto is afgedwaald, een overzicht van het beeld krijgt, je focust op details hier en daar en na een paar seconden besef je er iets van dat waren op het eerste gezicht niet duidelijk.

Dus wat is het punt?

Welnu, ik heb enkele observaties, hoewel ze ver verwijderd zijn van "welke lens heeft het gezichtsveld dat het meest lijkt op het menselijk zicht?". Deze informatie zette me aan het denken over wat me zo gefascineerd maakt door sommige foto's, en niet zozeer door andere. Ik weet niet of een van deze observaties waar is, maar het zijn interessante gedachten (voor mij tenminste). Ze zijn allemaal gebaseerd op één feit: als ik een foto echt mooi vind, kijk ik er een minuut of twee naar, laat mijn menselijke visie het scannen, haal de details eruit of vraag me misschien af ​​welk detail niet zichtbaar is.

Foto's gemaakt met een 'normale' beeldhoek (35 mm tot 50 mm) lijken hun aantrekkingskracht te behouden, ongeacht hun grootte. Zelfs afbeeldingen op webformaat die met deze brandpuntsafstand zijn gemaakt, behouden de essentie van de opname. De onderstaande opname (gemaakt op 35 mm) heeft veel meer details in een grote afbeelding, maar de essentie is duidelijk, zelfs als ze klein is. Misschien is de verwerking van de hersenen comfortabeler bij het herkennen van een beeld dat het in zijn normale gezichtsveld ziet. Misschien komt het doordat wij fotografen de neiging hebben om onbewust de nadruk te leggen op compositie en onderwerpen in een ‘normale’ beeldhoek.

De foto hierboven laat iets anders zien waar ik me altijd al over heb afgevraagd: komt onze fascinatie en liefde voor zwart-witfotografie voor omdat het een van de weinige manieren is waarop de dichte kegel (alleen kleur) receptoren in onze macula worden gedwongen om een ​​grijsschaal te sturen beeld naar onze hersenen?

Misschien houden onze hersenen ervan om alleen naar toon en textuur te kijken, zonder dat kleurgegevens die smalle bandbreedte tussen oogbol en hersenen verstoppen.

Net als 'normale hoek'-opnamen, zien tele- en macro-opnamen er vaak geweldig uit in kleine afdrukken of JPG's op webformaat. Ik heb een 8 × 10 van het oog van een olifant en een macro-afdruk van vergelijkbare grootte van een spin op mijn kantoormuur die er zelfs vanaf de andere kant van de kamer geweldig uitziet. (Ze zien er in ieder geval geweldig uit voor mij, maar je zult merken dat ze in mijn kantoor hangen. Ik heb ze op een paar andere plaatsen in huis opgehangen en kreeg tactvol te horen dat "ze echt niet gaan met het woonkamermeubilair”, dus misschien zien ze er niet voor iedereen zo geweldig uit.)

Er is geen geweldige compositie of andere factoren om die foto's aantrekkelijk voor mij te maken, maar ik vind ze hoe dan ook fascinerend. Misschien omdat zelfs op een klein formaat mijn menselijke visie details op de foto kan zien die ik nooit zou kunnen zien als ik met het 'blote oog' naar een olifant of spin keek.

Aan de andere kant, als ik een goede groothoek- of landschappelijke opname krijg, neem ik nauwelijks de moeite om een ​​afbeelding op webformaat te plaatsen of een kleine letter te maken (en ik ga niet beginnen voor dit artikel). Ik wil dat het GROOT wordt afgedrukt. Ik denk dat het misschien zo is dat mijn menselijke visie door het beeld kan scannen en de kleine details kan opsporen die volledig verloren gaan wanneer het verkleind wordt. En elke keer dat ik een grote afdruk maak, zelfs van een scène waar ik al tientallen keren ben geweest, zie ik dingen op de foto die ik nog nooit heb gezien toen ik er persoonlijk was.

Misschien geeft de 'video' die mijn hersenen maken tijdens het scannen van de afdruk veel meer details en vind ik het prettiger dan de compositie van de foto zou geven als deze klein is afgedrukt (of die ik zag toen ik ter plekke was) .

En misschien verklaart het onbewuste 'scannen' dat mijn visie over een foto maakt, waarom dingen als de 'regel van derden' en selectieve focus mijn aandacht naar bepaalde delen van de foto trekken. Misschien zijn wij fotografen er gewoon achter gekomen hoe de hersenen beelden verwerken en hebben we er door praktische ervaring gebruik van gemaakt, zonder alle wetenschap te kennen die erbij betrokken is.

Maar ik denk dat mijn enige echte conclusie deze is: een foto is NIET precies wat mijn oog en brein ter plekke zagen. Als ik een goede kans maak, is het iets anders en iets beters, zoals wat Winogrand zei in de twee citaten hierboven, en ook in dit citaat:

Je ziet iets gebeuren en je slaat er op los. Of je krijgt wat je zag, of je krijgt iets anders - en wat het beste is, print je.

Over de auteur: Roger Cicala is de oprichter van LensRentals. Dit artikel is oorspronkelijk hier gepubliceerd.


Wat is het equivalent van de sluitertijd in het menselijk oog? - Biologie

De manier waarop het oog het licht focust, is interessant, omdat het grootste deel van de breking die plaatsvindt niet door de lens zelf wordt gedaan, maar door de waterige humor, een vloeistof bovenop de lens. Licht wordt gebroken wanneer het in het oog komt door deze vloeistof, een beetje meer gebroken door de lens, en dan een beetje meer door het glasvocht, de geleiachtige substantie die de ruimte tussen de lens en het netvlies vult.

De lens is van cruciaal belang bij het vormen van een scherp beeld, maar dit is een van de meest verbazingwekkende eigenschappen van het menselijk oog, dat het zo snel kan worden aangepast bij het scherpstellen van objecten op verschillende afstanden. Dit aanpassingsproces staat bekend als accommodatie.

Beschouw de lensvergelijking:

Bij een camera heeft de lens een vaste brandpuntsafstand. Als de objectafstand wordt gewijzigd, wordt de beeldafstand (de afstand tussen de lens en de film) aangepast door de lens te verplaatsen. Met het menselijk oog kan dat niet: de beeldafstand, de afstand tussen de lens en het netvlies, ligt vast. Als de objectafstand wordt gewijzigd (d.w.z. het oog probeert objecten op verschillende afstanden scherp te stellen), wordt de brandpuntsafstand van het oog aangepast om een ​​scherp beeld te creëren. Dit wordt gedaan door de vorm van de lens te veranderen, een spier die bekend staat als de ciliaire spier doet dit werk.

Bijziendheid corrigeren

Iemand die bijziend is, kan alleen scherpe beelden maken van objecten dichtbij. Objecten die verder weg zijn, zien er wazig uit omdat het oog ze naar binnen brengt om scherp te stellen op een punt voor het netvlies.

We hebben een divergerende lens nodig om de lichtstralen net genoeg te divergeren, zodat wanneer de stralen door het oog worden geconvergeerd, ze samenkomen op het netvlies, waardoor een gefocust beeld ontstaat.

Verziendheid corrigeren

Een verziend persoon kan alleen duidelijke beelden maken van objecten die ver weg zijn. Nabije objecten worden achter het netvlies scherpgesteld, waardoor ze er wazig uitzien.

Er wordt gebruik gemaakt van een convergerende lens, waardoor beelden op het netvlies scherp in beeld kunnen worden gebracht.


Wat is het equivalent van de sluitertijd in het menselijk oog? - Biologie

Hoeveel frames per seconde kan het menselijk oog zien?

Hoeveel frames per seconde heb ik nodig om bewegingen vloeiend te laten lijken?

Bij hoeveel frames per seconde stopt de film met flikkeren?

Wat is het kortste frame dat een menselijk oog zou opmerken?

Stel je voor dat je naar een film kijkt van een ongelooflijk langzame mist. Randen en scherpe randen zie je niet. Speel nu de film af met 10 fps. Het zal er vloeibaar uitzien. Waarom? Omdat het verschil van het ene frame naar het andere erg klein is. Het uiterste zou een volledig onbeweeglijke muur zijn: dan zou 1 fps gelijk zijn aan 1000 fps.

Pak nu je hand en beweeg deze langzaam voor je gezicht. Verplaats het dan sneller totdat het wazig is. Hoeveel frames per seconde zie je? Het moet klein zijn, want je ziet alleen een wazige hand zonder elke verandering per milliseconde te kunnen onderscheiden, maar het moeten er veel zijn, omdat je een vloeiende beweging ziet zonder enige onderbreking of sprong. Dus dit is de truc van het oog in beide voorbeelden: Vervaging simuleert vloeiendheid, scherpte simuleert stotteren. (Het is vergelijkbaar met "rotatie simuleert zwaartekracht".)


Voorbeeld bewegingsonscherpte 1: Vastleggen van een live optreden van The Corrs "Wat kan ik doen" bij MTV Unpluged


Voorbeeld van bewegingsonscherpte 2: Vastleggen van "Basisinstinct', waar je een vrouw ziet die een ijspriem in het lichaam van een man steekt terwijl ze op hem zit.

Het is een feit dat het menselijk oog de typische filmbeweging als vloeiend waarneemt met ongeveer 18 fps, vanwege de vervaging.

Als je je bewegende hand heel helder en scherp zou kunnen zien, dan moest je oog er meer snapshots van maken om het er vloeiend uit te laten zien. Als je een film zou hebben met 50 zeer scherpe en haarscherpe beelden per seconde, zou je oog af en toe veel details onderscheiden en had je het gevoel dat de film hapert.


Ook 25 fps maar zonder bewegingsonscherpte: beelden uit het BBC-verhaal over Ed Gein, de moordenaar, wiens zaak Hitchcock inspireerde om "psychose" en Jonathan Demme om " te makenStilte van de lammeren& quot. De muziek is van CNN's "Markt makers& quot (0,52 MB).

Denk maar aan moderne games: heb je ooit Quake met 18 fps gespeeld? Er is geen bewegingsonscherpte in die games, waardoor je veel frames per seconde meer nodig hebt.

Maar je ziet de vlekken en het vuil van enkele frames in een bioscoopfilm, nietwaar? En die films worden afgespeeld met 24 fps. Er is dus een verschil tussen het zien van vloeiende bewegingen en het zien dat er überhaupt iets (vuil) is. Lees verder.

Stel je voor dat je kijkt naar een schijnend witte muur. Nu wordt deze muur 1/25ste van een seconde helemaal zwart. Zou je het merken? Dat zou je zeker doen. 1/50ste van een seconde, nou ja, misschien moeilijker. 1/100ste van een seconde? Erg moeilijk. Denk aan uw 100Hz tv-toestellen. Ze worden flikkervrij genoemd, omdat je bij flikkersnelheden van 100 keer per seconde stopt om de zwartheid van het tv-scherm op te merken, hoewel het tv-scherm niet de hele tijd schijnt, maar 100 keer per seconde pulseert. Helderheid eet duisternis.

Take again "Test 1: Smoothness of motion". You have a fluid film with 24 fps. The film roll has to roll thru the projector. To not see it rolling you have to make the picture black while the film rolls on. You would have to blacken the screen 24 times per second. But 24 black moments are too visible. Thus you have smooth motions but flicker.
The solution is: Show each frame 3 times and make the screen black 3 times per frame. This makes the black moments shorter and more frequent: "Triple the refresh rate". So you see about 72fps in the cinema, where 3 consecutive frames are the same. Strange solution? Solution of an analog world. And an example how "Brightness eats darkness".

Let's do the opposite test to "Sensitivity to darkness". Let's talk about, how sensitive the eye is to brightness.

Imagine yourself in a very dark room. You have been there for hours and it's totally black. Now light flashes right in front of you. Let's say as bright as the sun. Would you see it, when it's only 1/25th of a second? You surely would. 1/100th of a second? Ja. 1/200th of a second? Ja. Tests with Air force pilots have shown, that they could identificeren the plane on a flashed picture that was flashed only for 1/220th of a second.

Dat is identifying. So it's pretty safe to say, that recognizing, that SOME light was there is possible with 1/300th of a second. Now if you take into consideration, that you have two eyes with different angles and different areas of sensitivity (you probably know, that you see TV flickering best, when you don't look directly into the TV screen, but with the sides of your eyes) and you can move/rotate/shake your head and your eyes to a different position, you probably needed flashes as short as 1/500th of second to make sure, nobody sees them in any case.

Now, what happens if I flashed you 1/500th of a second once in a second for 365 days directly into your eye? Would you feel something strange? Would it feel different than without it? Would you notice that something is wrong?

So, we should add a security value, to make sure nobody sees ANYTHING even unconsciously and feels comfortable about it.

Maybe the industry didn't add enough security factor to CDs and that's why many people still feel that analog is sometimes better. It's like in a room full of neon lights. You just know that something isn't right.

The reasons for the results of Test 2 and Test 3 are afterimages. Bright light creates an afterimage in the eye. The same way you see light in your eye seconds AFTER the doctor shined a light into it. This afterlight makes it possible to see what was there seconds ago. The brightness of the afterimage of the cinema canvas produces such afterimages and thus helps the movie to be flickerfree.

So the question "How many frames do I need to make the movie flickerfree" = to not see the blackness between the frames (about 70-100 fps) doesn't answer the question "How short can a bright image be to see it?" = the Airforce question and this doesn't answer the question "How short can a (not bright) image be to see it?".

So the conclusion is: To make movies/Virtual Reality perfect, you'd have to know what you want. To have a perfect illusion of everything that can flash, blink and move you shouldn't go below 500 fps.

  1. If your screen refreshes at 85Hz and your game runs at 50Hz (=50fps): Are you sure that you don't need to synchronize them? Are you sure, you don't need to play with a multiple of 85 to enjoy synchronized refresh updates? So the game running at 85fps may better than at 100fps. Maybe even a TFT display was better. It displays only with about 40fps but progressively.
  2. Even though single eye cells (rods and cones) may have their limitations due to their chemical reaction times and due to the distance to the brain, you cannot be sure how they interact or complement or synchronize. If 1 cell is able to perceive 10fps, 2 cells may be able to perceive 20fps by complementing one another. So don't confuse "The human eye" with "The cell".
  3. Some eye cells are reacting only when a stimulus is moving. Some react when it's moving from A to B, some when it's moving from D to Z. This may complicate frame-based simulation of reality.
  4. Motion of your body could alter the way how you perceive. Do you get headaches after watching 3 movies in the cinema in a row? Maybe that's because you didn't move with the filmed motion? This is the reason for front-passengers' indispositions (= somebody else moved the car) and seasickness (=the sea moved the ship suddenly). Maybe this is the reason why 3D gaming glasses will never work perfectly. And this has nothing to do with frame rates.
  5. When you look straight (= with the center of your eyes) it's not the same as if it was with the sides of your eyes. The sides are more sensitive to brightness and to flickering. The next time you are in the cinema do the following: Look up to the ceiling while the movie is playing. Especially during bright/white scenes you will clearly notice that the movie flickers.
  6. Sensitivity to blue is different than to green: You see green best, even when it's dark, e.g. leaves in a forest at night. So "blue frames per second" may differ from "green frames per second"
  7. Do you like to play Quake? Do you think "More is better"? Maybe that's why you think 200fps is better than 180fps.
  8. Do you think moving in 3D games is stuttering? Maybe your mouse scans motion with too little dpi (Dots Per Inch) or fps (Frames Per Second)?
  9. Do you think it is important that a graphics card can display 250 fps in your favourite game, because that's a feature they write about in PC magazines and on covers?
    Now this is just a figure to show how fast the card is, not to show that you need such a high frame rate. It's like with cars: 100km/h in 5 seconds. When will you ever need to go 100km/h in 5 seconds?

So what is "Enough fps"? I don't know, because nobody went there so far. Maybe 120fps is enough, maybe you will get headaches after 3 hours. Seeing framewise is simply not the way how the eyerain system works. It works with a continuous flow of lightinformation. (Similar to the effects of cameras' flashlights ("red eyes"): flashing is simply not the way how we see). So there are still questions. Maybe you need as much as 4000fps, maybe less, maybe more.

The same question as for fps will arise for resolution. How many pixels can the human eye see? Does 2000x1000 (=Star Wars Episode II resolution) look like reality? Or is it just enough to make a film "cinemable"?


3. SENSITIVITY & DYNAMIC RANGE

Dynamic range* is one area where the eye is often seen as having a huge advantage. If we were to consider situations where our pupil opens and closes for different brightness regions, then yes, our eyes far surpass the capabilities of a single camera image (and can have a range exceeding 24 f-stops). However, in such situations our eye is dynamically adjusting like a video camera, so this arguably isn't a fair comparison.

Eye Focuses on Background Eye Focuses on Foreground Our Mental Image

If we were to instead consider our eye's instantaneous dynamic range (where our pupil opening is unchanged), then cameras fare much better. This would be similar to looking at one region within a scene, letting our eyes adjust, and not looking anywhere else. In that case, most estimate that our eyes can see anywhere from 10-14 f-stops of dynamic range, which definitely surpasses most compact cameras (5-7 stops), but is surprisingly similar to that of digital SLR cameras (8-11 stops).

On the other hand, our eye's dynamic range also depends on brightness and subject contrast, so the above only applies to typical daylight conditions. With low-light star viewing our eyes can approach an even higher instantaneous dynamic range, for example.

*Quantifying Dynamic Range. The most commonly used unit for measuring dynamic range in photography is the f-stop, so we'll stick with that here. This describes the ratio between the lightest and darkest recordable regions of a scene, in powers of two. A scene with a dynamic range of 3 f-stops therefore has a white that is 8X as bright as its black (since 2 3 = 2x2x2 = 8).

Photos on left (matches) and right (night sky) by lazlo and dcysurfer, respectively.

Gevoeligheid. This is another important visual characteristic, and describes the ability to resolve very faint or fast-moving subjects. During bright light, modern cameras are better at resolving fast moving subjects, as exemplified by unusual-looking high-speed photography. This is often made possible by camera ISO speeds exceeding 3200 the equivalent daylight ISO for the human eye is even thought to be as low as 1.

However, under low-light conditions, our eyes become much more sensitive (presuming that we let them adjust for 30+ minutes). Astrophotographers often estimate this as being near ISO 500-1000 still not as high as digital cameras, but close. On the other hand, cameras have the advantage of being able to take longer exposures to bring out even fainter objects, whereas our eyes don't see additional detail after staring at something for more than about 10-15 seconds.


Eagles have high-definition vision

When compared to other creatures, human eyesight does see bright, vivid colour crisply and clearly. But this doesn’t hold a candle to how eagles perceive the world. Many birds of prey can see colours on an even wider spectrum than humans do. Their eyes pick up more shades and contrasts. They can even see ultraviolet (UV) light. The ability to make out UV light helps these birds spot traces left by prey—urine or fur, for example. This make their prey stand out against the uniform colour of a field.


Scientists Discover That the Shape of Light Changes Our Vision

Scientists at the UNIGE have shown that the response of the retina to light depends not only on the intensity of the light perceived by the eye, but also on its temporal shape and the order in which the colors are organized.

Vision is a complex process that has been successfully deciphered by many disciplines – physics, biochemistry, physiology, neurology, etc. The retina captures light, the optic nerve transmits electrical impulses to the brain, which ultimately generates the perception of an image. Although this process takes some time, recent studies have shown that the first stage of vision, the perception of light itself, is extremely fast. But the analysis of this decisive step was carried out on molecules in solution in the laboratory.

Scientists from the University of Geneva (UNIGE), in collaboration with EPFL and the University Hospitals of Geneva (HUG), Switzerland, reproduced the experiment on mice, in order to observe the processing of light by a living organism in all its complexity. This non-invasive study shows that light energy alone does not define the response of the retina. Its shape –short or long– also has an impact on the signal sent to the brain to form an image. This discovery, published in the journal wetenschappelijke vooruitgang, opens up a new field of research into vision, diagnostics, and possibly new curative possibilities.

The cellular mechanism of vision has been successfully studied thanks to the collaboration of several disciplines. “In the eye, the first stage of vision is based on a small molecule – the retinal – which, on contact with light, changes shape,” explains Geoffrey Gaulier, researcher at the Applied Physics Department of the UNIGE Faculty of Science and first author of the study. “When the retinal alters its geometric form, it triggers a complex mechanism that will result in a nerve impulse generated in the optic nerve.”

This process takes some time between the moment the eye perceives the light and the moment the brain decodes it. Physicists looked at the very first molecule in the chain, retinal, to see how long it took to switch its shape. They isolated this molecule in a cuvette and subjected it to laser pulses to test its reaction speed. To their great surprise, the molecule reacted in about 50 femtoseconds!

“By way of comparison, one femtosecond compared to one second is the equivalent of one second compared to the age of the Universe,” points out Jean-Pierre Wolf, professor at the UNIGE Physics Section and the last author of the research. “This is so fast that we wondered whether this speed could be achieved by the molecule only when it was isolated, or whether it possessed the same speed in a living organism in all its complexity.”

Light intensity and shape define the eye’s sensitivity

To study this first stage of vision in detail, the scientists called on biologists, notably Ivan Rodriguez and Pedro Herrera, professors at the UNIGE Faculties of Science and Medicine, respectively, who placed a contact lens and performed an electroretinogram on mice. “This method, which is totally non-invasive, makes it possible to measure the intensity of the signal sent to the optic nerve,” continues Jean-Pierre Wolf. When the light hits the retina, they were able to observe an electrical voltage at the cornea, thanks to an electronic amplifier. And their results showed that this stage took place with the same extreme speed as when the molecule is isolated!

The team continued the study by varying the shape of the pulses over time. “We always send the same energy, the same number of photons, but we change the shape of the light pulse. Sometimes the pulse is short, sometimes long, sometimes sliced, etc,” explains Geoffrey Gaulier. Indeed, changing the shape should not induce any variation in the response of the retina, because until now it was thought that only the number of photons captured by the eye played a role. “But this is not the case!” says the Geneva-based researcher. This result could be explained with the help of computer simulations performed in the group of Ursula Röthlisberger from EPFL.

The scientists observed that the eye did not react in the same way depending on the shape of the light, even though the light energy was identical. “We also discovered that the eye’s reaction differed according to the order in which the colors were varied, for example as in a temporal rainbow, even though they follow each other extremely quickly,” continues Jean-Pierre Wolf. In short, the retina believes that there is more or less light depending on the shape of the light, while the energy is similar, and therefore sends a stronger or weaker current to the brain depending on its response.

This discovery, which was made in the context of a Swiss National Science Foundation (SNSF) Sinergia project, opens up a new field of research into vision. “Now that we know that the shape of light plays a role in perception, we can use this new knowledge to make the eye work differently,” proposes Jean-Pierre Wolf. Areas of investigation into new possibilities for diagnosing or possibly treating eye weaknesses can now be developed.


Bekijk de video: Visus: hoe werkt het oog? (November 2021).