Visuelle Wahrnehmung - Visual perception

Visuelle Wahrnehmung ist die Fähigkeit, die Umgebung durch Farbensehen , skotopisches Sehen und mesopisches Sehen zu interpretieren , wobei Licht im sichtbaren Spektrum verwendet wird, das von den Objekten in der Umgebung reflektiert wird . Dies unterscheidet sich von der Sehschärfe , die sich darauf bezieht, wie klar eine Person sieht (zum Beispiel "20/20 Vision"). Eine Person kann Probleme mit der visuellen Wahrnehmungsverarbeitung haben, selbst wenn sie 20/20 Vision hat.

Die resultierende Wahrnehmung wird auch als Vision , Anblick oder Sehkraft bezeichnet (jeweilige Adjektivform : visuell , optisch oder okulär ). Die verschiedenen physiologischen Komponenten, die am Sehen beteiligt sind, werden zusammenfassend als das visuelle System bezeichnet und stehen im Mittelpunkt vieler Forschungen in der Linguistik , Psychologie , Kognitionswissenschaft , Neurowissenschaft und Molekularbiologie , zusammenfassend als Sehwissenschaft bezeichnet .

Visuelles System

Beim Menschen und einer Reihe anderer Säugetiere dringt Licht durch die Hornhaut in das Auge ein und wird von der Linse auf die Netzhaut , eine lichtempfindliche Membran im Augenhintergrund, fokussiert . Die Netzhaut dient als Wandler für die Umwandlung von Licht in neuronale Signale . Diese Transduktion wird durch spezialisierte photorezeptive Zellen der Netzhaut, auch bekannt als Stäbchen und Zapfen, erreicht, die die Lichtphotonen erkennen und mit der Erzeugung von Nervenimpulsen reagieren . Diese Signale werden vom Sehnerv von der stromaufwärts gelegenen Netzhaut zu den zentralen Ganglien im Gehirn weitergeleitet . Der Nucleus geniculatum laterale , der die Informationen an die Sehrinde übermittelt . Signale von der Netzhaut wandern auch direkt von der Netzhaut zum Colliculus superior .

Der Nucleus geniculatum laterale sendet Signale an den primären visuellen Kortex , auch Striatumortex genannt. Der extrastriatische Kortex , auch visueller Assoziationskortex genannt, ist eine Reihe von kortikalen Strukturen, die sowohl Informationen vom striatischen Kortex als auch untereinander empfangen. Neuere Beschreibungen des visuellen Assoziationskortex beschreiben eine Aufteilung in zwei funktionelle Bahnen, eine ventrale und eine dorsale Bahn. Diese Vermutung ist als die Zwei-Ströme-Hypothese bekannt .

Es wird allgemein angenommen, dass das menschliche Sehsystem für sichtbares Licht im Wellenlängenbereich zwischen 370 und 730 Nanometer (0,00000037 bis 0,00000073 Meter) des elektromagnetischen Spektrums empfindlich ist . Einige Forschungen deuten jedoch darauf hin, dass Menschen Licht mit Wellenlängen von bis zu 340 Nanometern (UV-A) wahrnehmen können, insbesondere junge Menschen. Unter optimalen Bedingungen können sich diese Grenzen der menschlichen Wahrnehmung auf 310 nm ( UV ) bis 1100 nm ( NIR ) erstrecken.

Lernen

Das Hauptproblem bei der visuellen Wahrnehmung besteht darin, dass das, was Menschen sehen, nicht einfach eine Übersetzung von Netzhautreizen (dh dem Bild auf der Netzhaut) ist. So haben sich wahrnehmungsinteressierte Menschen lange Mühe gegeben, zu erklären, was die visuelle Verarbeitung tut, um das tatsächlich Gesehene zu erzeugen.

Frühes Studium

Der visuelle dorsale Strom (grün) und der ventrale Strom (lila) werden angezeigt. Ein Großteil der menschlichen Großhirnrinde ist am Sehen beteiligt.

Es gab zwei große antike griechische Schulen, die eine primitive Erklärung dafür lieferten, wie das Sehen funktioniert.

Die erste war die „ Emissionstheorie “ des Sehens, die behauptete, dass das Sehen auftritt, wenn Strahlen von den Augen ausgehen und von visuellen Objekten aufgefangen werden. Wenn ein Objekt direkt gesehen wurde, geschah dies durch "Strahlen", die aus den Augen kamen und wieder auf das Objekt fielen. Ein gebrochenes Bild wurde aber auch mit "Strahlen" gesehen, die aus den Augen kamen, durch die Luft gingen und nach der Lichtbrechung auf das durch die Bewegung der Strahlen anvisierte sichtbare Objekt fielen aus dem Auge. Diese Theorie wurde von Wissenschaftlern verfochten , die Anhänger waren Euklid ‚s Optik und Ptolemäus ‘ s Optik .

Die zweite Schule befürwortete den sogenannten 'Intromission'-Ansatz, der das Sehen als etwas sieht, das in die Augen eindringt, das repräsentativ für das Objekt ist. Mit ihren Hauptverbreitern Aristoteles ( De Sensu ), Galen ( De Usu Partium Corporis Humani ) und ihren Anhängern scheint diese Theorie einige Berührungspunkte mit modernen Theorien darüber zu haben, was Vision wirklich ist, aber sie blieb nur eine Spekulation ohne jegliche experimentelle Grundlage. (Im achtzehnten Jahrhundert in England, Isaac Newton , John Locke , und andere, trugen die Immission Theorie des Sehens nach vorn durch diese Vision beharren beteiligt , ein Verfahren , bei dem der tatsächlichen körperlichen Strahlen zusammengesetzt Materie gingen von gesehen Gegenständen und der Sehers des Geist eingegeben / sensorium durch die Augenöffnung.)

Beide Denkschulen stützten sich auf das Prinzip, dass „Gleiches nur durch Gleiches erkannt wird“ und damit auf die Vorstellung, dass das Auge aus einem „inneren Feuer“ besteht, das mit dem „äußeren Feuer“ des sichtbaren Lichts interagiert und das Sehen ermöglicht. Platon macht diese Behauptung in seinem Dialog Timaeus (45b und 46b) ebenso wie Empedokles (wie von Aristoteles in seinem De Sensu , DK frag. B17 berichtet).

Leonardo da Vinci : Das Auge hat eine Mittellinie und alles, was durch diese Mittellinie das Auge erreicht, ist deutlich zu sehen.

Alhazen (965 – ca. 1040) führte viele Untersuchungen und Experimente zur visuellen Wahrnehmung durch, erweiterte die Arbeiten von Ptolemäus über das binokulare Sehen und kommentierte die anatomischen Arbeiten von Galen. Er war der erste, der erklärte, dass das Sehen entsteht, wenn Licht auf ein Objekt fällt und dann auf die Augen gelenkt wird.

Leonardo da Vinci (1452–1519) gilt als erster, der die besonderen optischen Eigenschaften des Auges erkannt hat. Er schrieb: "Die Funktion des menschlichen Auges ... wurde von vielen Autoren auf eine bestimmte Weise beschrieben. Aber ich fand es ganz anders." Sein wichtigster experimenteller Befund war, dass es nur eine deutliche und klare Sicht auf die Sehlinie gibt – die optische Linie, die in der Fovea endet . Obwohl er diese Worte nicht wörtlich verwendet hat, ist er tatsächlich der Vater der modernen Unterscheidung zwischen fovealem und peripherem Sehen .

Isaac Newton (1642–1726/27) war der erste, der durch Experimente entdeckte, indem er einzelne Farben des durch ein Prisma fallenden Lichtspektrums isolierte , dass die visuell wahrgenommene Farbe von Objekten aufgrund des Charakters des von den Objekten reflektierten Lichts erschien, und dass diese geteilten Farben nicht in eine andere Farbe umgewandelt werden konnten, was der wissenschaftlichen Erwartung der Zeit widersprach.

Unbewusste Schlussfolgerung

Hermann von Helmholtz wird oft die erste moderne Studie der visuellen Wahrnehmung zugeschrieben. Helmholtz untersuchte das menschliche Auge und kam zu dem Schluss, dass es nicht in der Lage war, ein qualitativ hochwertiges Bild zu erzeugen. Unzureichende Informationen schienen das Sehen unmöglich zu machen. Er kam daher zu dem Schluss, dass das Sehen nur das Ergebnis einer Form von "unbewusster Schlussfolgerung" sein kann, die diesen Begriff 1867 prägte. Er schlug vor, dass das Gehirn Annahmen und Schlussfolgerungen aus unvollständigen Daten auf der Grundlage früherer Erfahrungen macht.

Inferenz erfordert vorherige Erfahrung mit der Welt.

Beispiele für bekannte Annahmen, die auf visuellen Erfahrungen basieren, sind:

  • Licht kommt von oben
  • Objekte werden normalerweise nicht von unten betrachtet
  • Gesichter werden aufrecht gesehen (und erkannt).
  • Nähere Objekte können die Sicht weiter entfernter Objekte blockieren, aber nicht umgekehrt
  • Figuren (dh Vordergrundobjekte) neigen dazu, konvexe Ränder zu haben

Die Untersuchung visueller Täuschungen (Fälle, in denen der Inferenzprozess fehlschlägt) hat viel Einblick in die Annahmen des visuellen Systems geliefert.

Eine andere Art der unbewussten Inferenzhypothese (basierend auf Wahrscheinlichkeiten) wurde kürzlich in sogenannten Bayesschen Studien der visuellen Wahrnehmung wiederbelebt . Befürworter dieses Ansatzes sind der Ansicht, dass das visuelle System eine Form von Bayes-Inferenz durchführt , um eine Wahrnehmung aus sensorischen Daten abzuleiten. Es ist jedoch nicht klar, wie Befürworter dieser Ansicht im Prinzip die relevanten Wahrscheinlichkeiten ableiten, die von der Bayes'schen Gleichung verlangt werden. Auf dieser Idee basierende Modelle wurden verwendet, um verschiedene visuelle Wahrnehmungsfunktionen wie die Wahrnehmung von Bewegung , die Wahrnehmung von Tiefe und die Figur-Grund-Wahrnehmung zu beschreiben . Die „ ganz empirische Theorie der Wahrnehmung “ ist ein verwandter und neuerer Ansatz, der die visuelle Wahrnehmung rationalisiert, ohne sich explizit auf Bayessche Formalismen zu berufen.

Gestalttheorie

Gestaltpsychologen, die hauptsächlich in den 1930er und 1940er Jahren arbeiteten, stellten viele der Forschungsfragen, die heute von Sehwissenschaftlern untersucht werden.

Die Gestaltgesetze der Organisation haben das Studium geleitet, wie Menschen visuelle Komponenten als organisierte Muster oder Ganzes wahrnehmen, anstatt als viele verschiedene Teile. "Gestalt" ist ein deutsches Wort, das zusammen mit "ganze oder aufstrebende Struktur" teilweise "Konfiguration oder Muster" bedeutet. Nach dieser Theorie gibt es acht Hauptfaktoren, die bestimmen, wie das visuelle System Elemente automatisch in Muster gruppiert: Nähe, Ähnlichkeit, Schließung, Symmetrie, gemeinsames Schicksal (dh gemeinsame Bewegung), Kontinuität sowie gute Gestalt (ein regelmäßiges, einfach und geordnet) und Erfahrungen aus der Vergangenheit.

Analyse der Augenbewegung

Augenbewegung erste 2 Sekunden ( Yarbus , 1967)

In den 1960er Jahren ermöglichte die technische Entwicklung die kontinuierliche Erfassung der Augenbewegungen beim Lesen, beim Betrachten von Bildern und später bei der visuellen Problemlösung und mit dem Aufkommen von Headset-Kameras auch beim Autofahren.

Das rechte Bild zeigt, was während der ersten zwei Sekunden der Sichtprüfung passieren kann. Während der Hintergrund unscharf ist, der das periphere Sehen repräsentiert , geht die erste Augenbewegung zu den Stiefeln des Mannes (nur weil sie sehr nahe der Startfixierung sind und einen vernünftigen Kontrast haben). Augenbewegungen dienen der Aufmerksamkeitsselektion , dh der Selektion eines Bruchteils aller visuellen Eingaben für eine tiefere Verarbeitung durch das Gehirn.

Die folgenden Fixierungen springen von Gesicht zu Gesicht. Sie könnten sogar Vergleiche zwischen Gesichtern ermöglichen.

Es kann gefolgert werden , dass das Symbol Gesicht ein sehr attraktives Suchsymbol im peripheren Sichtfeld ist. Das foveale Sehen ergänzt den peripheren ersten Eindruck um detaillierte Informationen .

Es kann auch festgestellt werden, dass es verschiedene Arten von Augenbewegungen gibt: fixierende Augenbewegungen ( Mikrosakkaden , Augendrift und Tremor), Vergenzbewegungen, Sakkadenbewegungen und Verfolgungsbewegungen. Fixationen sind vergleichsweise statische Punkte, an denen das Auge ruht. Das Auge ist jedoch nie ganz still, sondern die Blickposition wird driften. Diese Drifts werden wiederum durch Mikrosakkaden, sehr kleine fixierende Augenbewegungen, korrigiert. Vergenzbewegungen erfordern die Zusammenarbeit beider Augen, damit ein Bild auf den gleichen Bereich beider Netzhäute fällt. Dies führt zu einem einzigen fokussierten Bild. Sakkadenbewegungen sind die Art der Augenbewegung, die Sprünge von einer Position zu einer anderen macht und verwendet wird, um eine bestimmte Szene/ein bestimmtes Bild schnell zu scannen. Schließlich ist die Verfolgungsbewegung eine sanfte Augenbewegung und wird verwendet, um bewegten Objekten zu folgen.

Gesichts- und Objekterkennung

Es gibt beträchtliche Beweise dafür, dass die Gesichts- und Objekterkennung durch unterschiedliche Systeme erreicht wird. Zum Beispiel prosopagnosic zeigen Patienten Defizite in Gesicht, aber nicht Gegenstand Verarbeitung, während Objekt agnosic Patienten (vor allem, Patienten CK ) Defizite bei der Objektbearbeitung mit geschont Gesicht Verarbeitung zeigen. Verhaltenstechnisch hat sich gezeigt, dass Gesichter, nicht aber Objekte, Inversionseffekten unterliegen, was zu der Behauptung führt, dass Gesichter "besonders" seien. Darüber hinaus rekrutieren Gesichts- und Objektverarbeitung unterschiedliche neuronale Systeme. Insbesondere haben einige argumentiert, dass die offensichtliche Spezialisierung des menschlichen Gehirns für die Gesichtsverarbeitung keine echte Domänenspezifität widerspiegelt, sondern eher einen allgemeineren Prozess der Diskriminierung auf Expertenebene innerhalb einer bestimmten Reizklasse, obwohl letztere Behauptung Gegenstand erheblicher Debatte . Mit fMRT und Elektrophysiologie beschrieben Doris Tsao und Kollegen Hirnregionen und einen Mechanismus zur Gesichtserkennung bei Makaken.

Dem inferotemporalen Kortex kommt eine Schlüsselrolle bei der Erkennung und Differenzierung verschiedener Objekte zu. Eine Studie des MIT zeigt, dass Teilbereiche des IT-Cortex für verschiedene Objekte verantwortlich sind. Durch selektives Abschalten der neuralen Aktivität vieler kleiner Bereiche des Kortex wird das Tier abwechselnd nicht in der Lage, zwischen bestimmten bestimmten Objektpaaren zu unterscheiden. Dies zeigt, dass der IT-Cortex in Regionen unterteilt ist, die auf unterschiedliche und besondere visuelle Merkmale reagieren. In ähnlicher Weise sind bestimmte bestimmte Flecken und Regionen des Kortex stärker an der Gesichtserkennung beteiligt als an der Erkennung anderer Objekte.

Einige Studien zeigen tendenziell, dass anstelle des einheitlichen globalen Bildes einige besondere Merkmale und interessierende Bereiche der Objekte Schlüsselelemente sind, wenn das Gehirn ein Objekt im Bild erkennen muss. Auf diese Weise ist das menschliche Sehvermögen anfällig für kleine besondere Veränderungen des Bildes, wie beispielsweise das Unterbrechen der Kanten des Objekts, das Modifizieren der Textur oder jede kleine Veränderung in einem entscheidenden Bereich des Bildes.

Studien an Menschen, deren Sehvermögen nach langer Blindheit wiederhergestellt wurde, zeigen, dass sie Objekte und Gesichter (im Gegensatz zu Farbe, Bewegung und einfachen geometrischen Formen) nicht unbedingt erkennen können. Einige vermuten, dass Blindheit in der Kindheit verhindert, dass sich ein Teil des visuellen Systems, der für diese Aufgaben auf höherer Ebene erforderlich ist, richtig entwickelt. Die allgemeine Überzeugung, dass eine kritische Phase bis zum Alter von 5 oder 6 Jahren dauert, wurde durch eine Studie aus dem Jahr 2007 in Frage gestellt, die ergab, dass ältere Patienten diese Fähigkeiten durch jahrelange Exposition verbessern könnten.

Die kognitiven und computergestützten Ansätze

In den 1970er Jahren entwickelte David Marr eine mehrstufige Sehtheorie, die den Sehprozess auf verschiedenen Abstraktionsebenen analysierte. Um sich auf das Verständnis spezifischer Probleme des Sehens zu konzentrieren, identifizierte er drei Analyseebenen: die rechnerische , die algorithmische und die implementierende Ebene. Viele Visionswissenschaftler, darunter Tomaso Poggio , haben sich diese Analyseebenen zu eigen gemacht und sie verwendet, um das Sehen aus einer rechnerischen Perspektive weiter zu charakterisieren.

Die Rechenebene befasst sich auf einer hohen Abstraktionsebene mit den Problemen, die das visuelle System überwinden muss. Die algorithmische Ebene versucht, die Strategie zu identifizieren, die verwendet werden kann, um diese Probleme zu lösen. Schließlich versucht die Implementierungsebene zu erklären, wie Lösungen für diese Probleme in neuronalen Schaltkreisen realisiert werden.

Marr schlug vor, dass es möglich sei, das Sehen auf jeder dieser Ebenen unabhängig zu untersuchen. Marr beschrieb das Sehen als den Übergang von einem zweidimensionalen visuellen Array (auf der Netzhaut) zu einer dreidimensionalen Beschreibung der Welt als Ausgabe. Zu seinen Visionsstadien gehören:

  • Eine 2D- oder Urskizze der Szene, basierend auf der Merkmalsextraktion grundlegender Komponenten der Szene, einschließlich Kanten, Regionen usw. Beachten Sie die Ähnlichkeit im Konzept mit einer Bleistiftskizze, die schnell von einem Künstler als Abdruck gezeichnet wurde.
  • Eine 2 12 D-Skizze der Szene, in der Texturen anerkannt werden usw. Beachten Sie die Ähnlichkeit des Konzepts mit der Phase beim Zeichnen, in der ein Künstler Bereiche einer Szene hervorhebt oder schattiert, um Tiefe zu verleihen.
  • Ein 3D-Modell , bei dem die Szene in einer kontinuierlichen, dreidimensionalen Karte visualisiert wird.

Die 2 12 D-Skizze von Marr geht davon aus, dass eine Tiefenkarte erstellt wird und dass diese Karte die Grundlage der 3D-Formwahrnehmung ist. Sowohl die stereoskopische als auch die bildliche Wahrnehmung sowie die monokulare Betrachtung machen jedoch deutlich, dass die Wahrnehmung der 3D-Form der Wahrnehmung der Tiefe von Punkten vorausgeht und nicht darauf beruht. Es ist nicht klar, wie eine vorläufige Tiefenkarte im Prinzip aufgebaut sein könnte und wie damit die Frage der Schwarz-Grund-Organisation oder Gruppierung beantwortet würde. Die von Marr übersehene Rolle von perzeptuellen Organisationsbeschränkungen bei der Erzeugung von 3D-Formwahrnehmungen aus binokular betrachteten 3D-Objekten wurde empirisch für den Fall von 3D-Drahtobjekten nachgewiesen, z. B. Für eine ausführlichere Diskussion siehe Pizlo (2008).

Ein neueres, alternatives Framework schlägt vor, dass Vision statt aus den folgenden drei Phasen besteht: Kodierung, Auswahl und Dekodierung. Die Codierung dient dazu, visuelle Eingaben abzutasten und darzustellen (zB um visuelle Eingaben als neurale Aktivitäten in der Netzhaut darzustellen). Auswahl oder Aufmerksamkeitsauswahl ist die Auswahl eines winzigen Bruchteils der Eingabeinformationen zur weiteren Verarbeitung, z. B. durch Verschieben des Blicks auf ein Objekt oder einen visuellen Ort, um die visuellen Signale an diesem Ort besser zu verarbeiten. Die Dekodierung besteht darin, die ausgewählten Eingangssignale abzuleiten oder zu erkennen, z. B. das Objekt im Blickzentrum als das Gesicht einer Person zu erkennen. In diesem Rahmen beginnt die Aufmerksamkeitsselektion im primären visuellen Kortex entlang der Sehbahn, und die Aufmerksamkeitsbeschränkungen erzwingen eine Dichotomie zwischen dem zentralen und peripheren Gesichtsfeld für die visuelle Erkennung oder Entschlüsselung.

Transduktion

Transduktion ist der Prozess, durch den Energie von Umweltreizen in neuronale Aktivität umgewandelt wird. Die Netzhaut enthält drei verschiedene Zellschichten: Photorezeptorschicht, bipolare Zellschicht und Ganglienzellschicht. Die Photorezeptorschicht, in der die Transduktion stattfindet, ist am weitesten von der Linse entfernt. Es enthält Photorezeptoren mit unterschiedlichen Empfindlichkeiten, die als Stäbchen und Zapfen bezeichnet werden. Die Zapfen sind für die Farbwahrnehmung verantwortlich und gehören zu drei verschiedenen Typen, die als rot, grün und blau bezeichnet werden. Stäbchen sind für die Wahrnehmung von Objekten bei schwachem Licht verantwortlich. Photorezeptoren enthalten in sich eine spezielle Chemikalie namens Photopigment, die in die Membran der Lamellen eingebettet ist; ein einzelner menschlicher Stab enthält ungefähr 10 Millionen davon. Die Photopigmentmoleküle bestehen aus zwei Teilen: einem Opsin (einem Protein) und einem Retinal (einem Lipid). Es gibt 3 spezifische Photopigmente (jedes mit eigener Wellenlängenempfindlichkeit), die über das gesamte Spektrum des sichtbaren Lichts reagieren. Wenn die entsprechenden Wellenlängen (diejenigen, für die das spezifische Photopigment empfindlich ist) auf den Photorezeptor treffen, teilt sich das Photopigment in zwei Teile, was ein Signal an die bipolare Zellschicht sendet, die wiederum ein Signal an die Ganglienzellen sendet, deren Axone sich bilden die Sehnerv und übertragen die Information an das Gehirn. Wenn ein bestimmter Zapfentyp fehlt oder abnormal ist, tritt aufgrund einer genetischen Anomalie eine Farbsehschwäche auf , die manchmal als Farbenblindheit bezeichnet wird.

Gegnerprozess

Die Transduktion beinhaltet chemische Botschaften, die von den Photorezeptoren an die Bipolarzellen an die Ganglienzellen gesendet werden. Mehrere Photorezeptoren können ihre Informationen an eine Ganglienzelle senden. Es gibt zwei Arten von Ganglienzellen: rot/grün und gelb/blau. Diese Neuronen feuern ständig – auch wenn sie nicht stimuliert werden. Das Gehirn interpretiert verschiedene Farben (und bei vielen Informationen ein Bild), wenn sich die Feuerrate dieser Neuronen ändert. Rotes Licht stimuliert den roten Zapfen, der wiederum die rot-grüne Ganglienzelle stimuliert. Ebenso stimuliert grünes Licht den grünen Zapfen, der die grün/rote Ganglienzelle stimuliert und blaues Licht stimuliert den blauen Zapfen, der die blau/gelbe Ganglienzelle stimuliert. Die Feuerrate der Ganglienzellen wird erhöht, wenn sie von einem Zapfen signalisiert wird, und verringert (gehemmt), wenn sie von dem anderen Zapfen signalisiert wird. Die erste Farbe im Namen der Ganglienzelle ist die Farbe, die sie erregt und die zweite die Farbe, die sie hemmt. Dh: Ein roter Kegel würde die rot/grüne Ganglienzelle erregen und der grüne Kegel würde die rot/grüne Ganglienzelle hemmen. Dies ist ein gegnerisches Verfahren . Wenn die Feuerrate einer rot/grünen Ganglienzelle erhöht wird, würde das Gehirn wissen, dass das Licht rot ist, wenn die Rate verringert wird, würde das Gehirn wissen, dass die Farbe des Lichts grün ist.

Künstliche visuelle Wahrnehmung

Theorien und Beobachtungen der visuellen Wahrnehmung waren die Hauptinspirationsquelle für Computer Vision (auch Machine Vision oder Computational Vision genannt). Spezielle Hardwarestrukturen und Softwarealgorithmen geben Maschinen die Möglichkeit, die Bilder einer Kamera oder eines Sensors zu interpretieren.

Zum Beispiel verwendet der 2022 Toyota 86 das Subaru EyeSight- System für die Fahrerassistenztechnologie .

Siehe auch

Sehstörungen oder Sehstörungen

Verwandte Disziplinen

Verweise

Weiterlesen

Externe Links