Magazin für Psychologie

Mitmachen
Forschung

Sehen verstehen

Wie unser Gehirn das komplexe Zusammenspiel von Augen und Wahrnehmung meistert
Bilder: Lea Bächlin

Das Sehen ist eine der komplexesten Leistungen unseres Nervensystems. Obwohl es uns so selbstverständlich scheint, ist der Prozess, mit dem wir die Welt wahrnehmen, ein komplexes, dynamisches Zusammenspiel von Augen und Gehirn. Aber was macht das Sehen so einzigartig?

T atsächlich unterscheidet sich das Sehen grundlegend von der Funktionsweise einer Kamera (Marr, 1982). Während eine Kamera die Welt objektiv und detailgenau abbildet, übernimmt unser Sehsystem eine selektive und interpretative Rolle. Es filtert, ergänzt und interpretiert die in unserem Auge eintreffenden Informationen in einem fortlaufenden Prozess. Ein entscheidender Unterschied zwischen dem menschlichen Sehen und einer Kamera liegt in der Auflösung, die unser Auge bietet.

Das menschliche Auge verfügt über einen Bereich mit besonders hoher Sehschärfe: die Fovea centralis (Jonas et al., 1992). Diese kleine Vertiefung in der Netzhaut (Retina) enthält ausschliesslich Zapfen, also Farbrezeptoren. Diese Region macht nur etwa zwei Grad unseres gesamten Gesichtsfeldes aus, was bedeutet, dass wir nur einen winzigen Teil unserer Umwelt in maximaler Schärfe wahrnehmen können. Der Rest unseres Gesichtsfeldes, der von der Peripherie erfasst wird, hat eine deutlich geringere Auflösung und ist weniger farbempfindlich.

Um dennoch ein kohärentes und detailliertes Bild unserer Umgebung zu schaffen, führt unser Sehsystem eine beeindruckende Leistung aus. Unsere Augen bewegen sich kontinuierlich in schnellen Sprüngen hin und her, sogenannten Sakkaden, um verschiedene Teile einer Szene auf die Fovea zu projizieren (Yarbus, 1967). Während dieser Sakkaden sind wir blind für visuelle Informationen, aber unser Gehirn gleicht diesen Verlust geschickt aus, sodass wir die Bewegung nicht bewusst wahrnehmen. Zwischen den Sakkaden bleiben die Augen für wenige hundert Millisekunden fixiert, um die relevanten Details einer Szene zu erfassen. Das Gehirn kombiniert die Informationen dieser Fixationen und konstruiert daraus eine zusammenhängende visuelle Wahrnehmung, die weit über das hinausgeht, was die einzelnen Sinnesorgane liefern können.

Begriffserklärung

Fovea centralis: Die Fovea ist der Bereich der Netzhaut mit der höchsten Sehschärfe. Sie enthält ausschliesslich Zapfen, also Farbrezeptoren, und umfasst nur etwa zwei Grad des Gesichtsfeldes. Obwohl sie einen winzigen Teil des Sichtfelds ausmacht, ist sie entscheidend für das scharfe Sehen und ermöglicht es, kleinste Details zu erkennen. Um ihre begrenzte Reichweite auszugleichen, führt das Auge ständig Sakkaden aus, um verschiedene Teile der Szene zu erfassen. Das Gehirn setzt diese Einzelbilder zu einer umfassenden visuellen Wahrnehmung zusammen.

Blinder Fleck: Der Bereich, an dem der Sehnerv die Netzhaut verlässt. Hier gibt es keine Fotorezeptoren. Das Gehirn gleicht die Lücke durch «Füllen» aus.

Sakkaden: Schnellste Bewegungen der Augen, mit denen sie neue Details erfassen. Zwischen Sakkaden gibt es Fixationen, die wenige Millisekunden dauern.

Die Rolle des Gehirns als Interpretationsinstanz

Das Sehen ist nicht nur ein passiver Prozess der Lichtaufnahme durch unsere Augen, sondern ein aktiver Interpretationsprozess, bei dem das Gehirn eine zentrale Rolle spielt. Tatsächlich sind viele der Informationen, die wir über unsere Umwelt erhalten, nicht direkt durch das Auge verfügbar, sondern werden durch das Gehirn ergänzt (Koch & Crick, 2001). Ein anschauliches Beispiel für diese Ergänzung ist der blinde Fleck – der Bereich auf der Netzhaut, an dem der Sehnerv austritt und entsprechend keine Fotorezeptoren vorhanden sind (Ramachandran, 1992). Obwohl dieser Bereich keine Lichtreize aufnehmen kann, gleicht das Gehirn die Lücke aus, indem es die umliegenden Informationen nutzt, um ein vollständiges Bild zu erzeugen.

Dieser Mechanismus, der als «Füllen» (engl. filling-in) bekannt ist, zeigt, wie stark unsere Wahrnehmung durch neuronale Prozesse geprägt wird. Ein weiteres Beispiel für die aktive Rolle des Gehirns ist die selektive Aufmerksamkeit. Wir richten unsere Wahrnehmung bewusst oder unbewusst auf die foveierten Bereiche, in denen die Sehschärfe am höchsten ist, während periphere Informationen oft unterbewusst verarbeitet werden (Treisman & Gelade, 1980). Dieser Filtermechanismus ist notwendig, um die enorme Datenmenge, die unsere Augen liefern, effizient zu bewältigen. Ohne diese Filterung wäre unser Gehirn mit der Verarbeitung der eintreffenden visuellen Informationen überfordert.

Darüber hinaus beeinflussen unsere Erfahrungen und unser Wissen, wie wir die Welt sehen (Rahman & Sommer, 2008). Visuelle Illusionen verdeutlichen diesen Prozess eindrucksvoll. Sie zeigen, dass unsere Wahrnehmung oft nicht die physikalische Realität widerspiegelt, sondern die Interpretation, die das Gehirn daraus macht. Ein klassisches Beispiel ist die Müller-Lyer-Illusion, bei der Pfeile mit unterschiedlichen Enden – Spitzen gegen innen oder aussen – unsere Einschätzung der Linienlänge beeinflussen (Gregory, 1997). Solche Phänomene verdeutlichen, dass unsere Wahrnehmung ein Produkt von Sinnesinformationen und deren Interpretation durch das Gehirn ist.

Lesen: Ein Meisterwerk der Augenkoordination

Lesen ist ein faszinierendes Beispiel dafür, wie unser Sehsystem die Einschränkungen der Fovea überwindet. Während wir einen Text lesen, fixiert die Fovea einzelne Buchstaben oder Wörter. Gleichzeitig nutzen wir das sogenannte parafoveale Sehen, um Informationen aus den benachbarten Bereichen des Textes zu gewinnen (Pan et al., 2021). Dies ermöglicht uns, grobe Formen oder die Länge von Wörtern zu erfassen, bevor wir sie direkt fixieren.

Diese Vorverarbeitung spielt eine entscheidende Rolle beim Lesefluss. Indem das Gehirn Informationen aus dem Kontext extrapoliert, können wir bekannte Wörter oft schneller erkennen und uns auf den nächsten Fixationspunkt vorbereiten. Studien zeigen, dass geübte Lesende weniger Sakkaden benötigen, da sie effizienter parafoveale Informationen nutzen und präzise Vorhersagen treffen können (Pan et al., 2024).

Interessanterweise beweist das Lesen auch die prädiktive Stärke unseres Gehirns. Bei vertrauten Wörtern oder Satzstrukturen sagt unser Gehirn oft voraus, was als Nächstes kommt (Melcher, 2007). Dies erklärt, warum wir Tippfehler in Texten häufig übersehen – das Gehirn korrigiert diese automatisch basierend auf dem Kontext. Solche Fähigkeiten unterstreichen die beeindruckende Integration von sensorischen und kognitiven Prozessen beim Lesen.

Motorik im visuellen Kortex

Traditionell wurde der Okzipitallappen des Gehirns als rein sensorisches Areal angesehen, das lediglich sensorisch visuelle Informationen verarbeitet. Obwohl die kognitiven Neurowissenschaften sich bereits seit Jahrzehnten der Erforschung der neuronalen Basis höherer Hirnfunktionen widmen, ist bspw. noch immer nicht klar, wie genau neuronale Aktivitätsmuster die Exploration von visuellen Inhalten unterstützen.

Neuere Studien, wie die von Popov et al. (2021), zeigen jedoch, dass der visuelle Kortex auch in die motorische Steuerung der Augen eingebunden ist. Diese Erkenntnisse haben eine Vielzahl neuer Studien inspiriert (siehe z. B. Gehmacher et al., 2024 und Hansen et al., 2024), die neuronale Oszillationen mit Augenbewegungen in Verbindung bringen. Neuronale Oszillationen, also rhythmische Aktivitätsmuster im Gehirn, scheinen eine Schlüsselrolle bei der Koordination von Wahrnehmung und Augenbewegungen zu spielen.

Fazit

Unser Sehsystem ist ein Paradebeispiel für die Dynamik und Anpassungsfähigkeit des menschlichen Gehirns. Es verarbeitet nicht nur die Informationen, die unsere Augen liefern, sondern füllt Lücken, filtert Unwichtiges heraus und interpretiert komplexe Zusammenhänge in Bruchteilen von Sekunden. Die kontinuierliche Forschung in diesem Bereich wird auch in Zukunft faszinierende Einblicke in die Grundlagen der visuellen Wahrnehmung liefern und dazu beitragen, neue Technologien und Therapien zu entwickeln, die unsere Sehfähigkeit und deren Verständnis weiter verbessern.

Zum Weiterlesen

  • Maslund, Richard. (2020). We know it when we see it: What the neurobiology of vision tells us about how we think (1st ed.). Basic Books.
  • Snowden, R., Snowden, R. J., Thompson, P., & Troscianko, T. (2012). Basic vision: An introduction to visual perception. OUP Oxford.

Referenzen

  • Gehmacher, Q., Schubert, J., Kaltenmaier, A., & Weisz, N. (2024). The “Ocular Response Function” for encoding and decoding oculomotor related neural activity. bioRxiv. https://doi.org/10.1101/2024.11.19.624356
  • Gregory, R. L. (1997). Knowledge in perception and illusion. Philosophical Transactions of the Royal Society of London B: Biological Sciences, 352(1358), 1121-1127.
  • Hansen, A., Strzelczyk, D., Troendle, M., Langer, N., & Popov, T. (2024). Modulations of posterior alpha power during working memory co-vary with task-dependent eye movement patterns. Authorea Preprint. https://doi.org/10.22541/au.172466871.17083913/v1
  • Jonas J.B., Schneider U., Naumann G.O. (1992). Count and density of human retinal photoreceptors. Graefes Arch Clin Exp Ophthalmol. 1992;230(6):505-10. doi: 10.1007/BF00181769. PMID: 1427131.
  • Koch, C., & Crick, F. (2001). The zombie within. Nature, 411(6840), 893.
  • Marr, D. (1982). Vision: A Computational Investigation into the Human Representation and Processing of Visual Information. W. H. Freeman.
  • Melcher, D. (2007). Predictive remapping of visual features precedes saccadic eye movements. Nature Neuroscience, 10(7), 903-907. https://doi.org/10.1038/nn1917
  • Pan, Y., Frisson, S. & Jensen, O. Neural evidence for lexical parafoveal processing. Nat Commun 12, 5234 (2021). https://doi.org/10.1038/s41467-021-25571-x
  • Pan, Y., Frisson, S., Federmeier, K. D., & Jensen, O. (2024). Early parafoveal semantic integration in natural reading. eLife, 12, RP91327. https://doi.org/10.7554/eLife.91327.4
  • Popov, T., Miller, G. A., Rockstroh, B., Jensen, O., & Langer, N. (2021). Alpha oscillations link action to cognition: An oculomotor account of the brain’s dominant rhythm. bio-Rxiv. https://doi.org/10.1101/2021.09.24.461634
  • Ramachandran, V. S. (1992). Blind spots. Scientific American, 266(5), 86-91.
  • Rahman, R., & Sommer, W. (2008). Seeing what we know and understand: How knowledge shapes perception. Psychonomic Bulletin & Review, 15(6), 1055-1063. https://doi.org/10.3758/PBR.15.6.1055
  • Treisman, A. M., & Gelade, G. (1980). A feature-integration theory of attention. Cognitive Psychology, 12(1), 97-136.
  • Yarbus, A. L. (1967). Eye Movements and Vision. Springer.