Waiting
Elaborazione accesso...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

Visualeyes: ein modulares Softwaresystem für oculomotorius Experimentieren

Published: March 25, 2011 doi: 10.3791/2530

ERRATUM NOTICE

Summary

Neuronale Steuerung und kognitive Prozesse durch Augenbewegungen untersucht werden. Die Visualeyes Software ermöglicht es dem Bediener, Reize auf zwei Computer-Bildschirme unabhängig voneinander mit Hilfe eines einfachen, benutzerdefinierten Skriptsprache programmieren. Das System kann Tandemaugenbewegungen (Sakkaden und glatten Streben) oder gegenüberliegende Augenbewegungen (Konvergenz) oder eine beliebige Kombination stimulieren.

Abstract

Augenbewegungsstudien haben ein starkes Fundament bildet ein Verständnis, wie das Gehirn visuelle Informationen übernimmt sowohl in der normalen und dysfunktionale Gehirn zur Verfügung gestellt. 1 jedoch Entwicklung einer Plattform zur Förderung und Speicherung von Augenbewegungen können erhebliche Programmierung, Zeit und Kosten zu verlangen. Viele Systeme bieten nicht die Flexibilität, um zahlreiche Stimuli für eine Vielzahl von experimentellen Anforderungen programmieren. Allerdings hat die Visualeyes-System eine flexible Architektur, sodass der Bediener jede Vorder- und Hintergrundreiz Programm ein oder zwei Bildschirme für Tandem- oder entgegenAugenBewegungen wählen und stimulieren das linke und rechte Auge unabhängig. Dieses System kann die Programmierung der Entwicklungszeit benötigt, um ein Augenbewegungsstudie deutlich zu reduzieren. 1) die Augenbewegungserfassungseinrichtung, um die Augenbewegung Antworten erhalten, 2) die Visual Software in LabView geschrieben, um eine Reihe von Stimuli zu erzeugen: der Visual Systems wird in drei Teilen erläutertund speichern Antworten als Textdateien und 3) Offline-Datenanalyse. Einem Limbus-Tracking-System, eine Sklera Suchspule oder einem Videobild-System: Die Augenbewegungen können durch verschiedene Arten von Instrumenten, wie aufgezeichnet. Typische Augenbewegung Reize wie Sakkaden Schritten gier Rampen und konvergente Schritte mit den entsprechenden Antworten angezeigt. In diesem Video-Bericht zeigen wir die Flexibilität eines Systems zahlreiche visuelle Reize und Rekordaugenbewegungen, die von Grundlagenforschern und Klinikern genutzt werden kann, gesunde sowie klinischen Populationen zu untersuchen, um zu erstellen.

Protocol

Ein Überblick über die wichtigsten Elemente erforderlich, um einen Augenbewegungs Experiment durchzuführen ist in Abbildung 1 dargestellt Jeder Block in dem Ablaufdiagramm wird unten im Detail diskutiert werden.

1. INSTRUMENTATION SET-UP:

  1. Jede Art von Augenbewegung Monitor kann für dieses System verwendet werden. Wir werden eine Infrarot-Limbus-Tracking und ein Videoüberwachungssystem zu demonstrieren.
  2. Bei Tandem-Tracking-Bewegungen wie Sakkaden oder glatten Streben kann ein einzelner Computer zur Visualisierung verwendet werden. Um gegnerische Augenbewegungen wie Konvergenz oder das Zusammenwirken von Konvergenz mit Tandem-Version Bewegungen (dh gier mit ruckartige Stimuli) eine Haploskop ist mit zwei Computer-Monitoren für die visuelle Anzeige benötigt zu studieren, siehe Abbildung 2.

2. KALIBRIERUNG:

  1. Kalibrierung wird benötigt, um einen Satz von Metriken in eine andere umzuwandeln. Augenbewegungen sind typischerweise in Grad (°) der Drehung in Figur 3. Allerdings Computer m dargestellt deutetonitors verwenden im Vergleich zu Vision Forscher, die oft bezeichnen die visuelle Reize in Grad Pixelwerte. Daher wird eine Umwandlung benötigt, um die Pixelwerte in Grad um. Man kann Trigonometrie verwenden zu berechnen, wo die physikalischen Ziele setzen, um die visuelle Displays kalibrieren. Zum Beispiel, wenn der Reiz auf dem Bildschirm ausgerichtet mit einem 2 ° physikalischen Ziel (siehe Bild 2), dann in einen 2 ° Stimulus entspricht, dass Pixelwert.
  2. Um das System zu kalibrieren, muss der Bediener Pixel2Deg.vei im Visualeyes Verzeichnis zu öffnen. Zunächst definieren Sie den Monitor kalibrieren mit dem Stretch-Modus ein. Geben Nummer 1 für das linke Auge zu überwachen und die Nummer 2 für das rechte Auge Monitor. Dann starten Sie das Programm und verschieben Sie die grüne Linie Reiz, bis die grüne Linie oben auf dem physikalischen Ziel überlagert. Geben Sie die bekannte Position des Zielobjekts in Grad und drücken Sie die Schaltfläche Speichern. Klicken Sie dann auf der grünen Linie. Der Grad und die Pixelwert wird auf dem Display in t angezeigt werdener unten links Ecke. Der Betreiber sollte ein Minimum von drei Kalibrierungspunkte.
  3. Nach dem Speichern alle Kalibrierungspunkte, öffnen Sie die D2P Ausgabedatei im Visualeyes Verzeichnis, um die Kalibrierungspunkte zu erhalten. Zeichnen Sie die Kalibrierungspunkte, um eine lineare Regressionsgleichung zu erreichen. Verwenden Sie die Gleichung, um die Anfangs- und Endposition der visuelle Reiz der Bediener wünscht, in Pixelwerte programmieren zu berechnen. Ein Beispiel für das linke und das rechte Auge Kalibrierungskurve unter Verwendung von fünf Kalibrierungspunkte für eine Konvergenz Stimulus erhaltene Produkt wird in 4 gezeigt.
  4. Wiederholen Sie die Schritte 2.2 und 2.3 für die anderen Monitor, wenn der Reiz erfordert einen zusätzlichen Monitor.

3. VISUAL SOFTWARE:

  1. Definieren Sie einen Reiz: Der Betreiber muss die Anfangs- und Endposition der linke und rechte Auge Reiz vor dem Experiment zu definieren. Öffnen Sie zunächst eine neue Textdatei und in der ersten Zeile, definieren Sie die Anfangszeit und Positionswerte of Stimulus. Vier Parameter definiert werden müssen 1) Zeit (Sekunden), 2) die horizontale Position (Pixel), 3) die vertikale Position (Pixel), und 4) die Drehrichtung (°) durch einen Streifen getrennt sind. Ebenso definieren die vier Parameter der Endzeit und die Position der Impulse. Speichern Sie den Reiz in der Visualeyes Verzeichnis als stimulus_name.vei (VEI = Visualeyes Input) Datei und wiederholen Sie diesen Schritt für das andere Auge Reiz.
    1. Einer abrupten Stufe oder eine kontinuierliche Rampen: Die Bewegung des Stimulus kann in zwei Arten von Bewegung verallgemeinert werden. Ein Schritt kann der Reiz plötzlich bewegen oder springen von der Ausgangsposition in die Endposition. Die Betreiber sollten beachten, dass die Veränderung in der Zeit von 0,001 Sekunden für einen Schritts. In der nächsten Zeile festzulegen, wie lange der Reiz in der Ausgangslage sowie die endgültige Position befinden soll. Reize werden mit Hilfe von vier Felder in einer Zeile definiert. Ein Beispiel für eine ruckartige Schritt smooth pursuit Rampe, konvergenten Schritt und konvergente Rampe in gezeigtTabelle 1.
    2. Für Anregungen, können Sie einen einzelnen Reiz wie eine Stufe oder eine Folge von visuellen Aufgaben wie eine mehrere Schritte.
  2. Sparen Stimulus in Stimuli Bibliothek: Es gibt mehrere Standardeinstellungen im dc1.txt (linkes Auge Stimulus / Monitor) und dc2.txt (rechtes Auge Stimulus / Monitor) Dateien im Visualeyes Verzeichnis. Die erste Zeile ist der Prozentsatz des Bildschirms in der horizontalen Richtung. In der zweiten Zeile ist der Prozentsatz des Bildschirms in der vertikalen Richtung. Das dritte ist das Hintergrundbild und der vierte ist der Vorder- oder Zielbild. Die fünfte Zeile zeigt den Computer im unabhängigen Modus arbeiten. Die 6. bedeutet die Monitor (1 ist das rechte Auge und das linke Auge ist 2). Die 7. Zeile ist das Seitenverhältnis des Monitors. Die restlichen Zeilen sind verschiedene Arten von Stimuli der Betreiber innerhalb einer experimentellen Sitzung.
    1. Öffnen Sie die dc1.txt und dc2.txt vom Visualeyes directory. Diese beiden Dateien enthalten die Bibliothek Impulse für das linke Auge und das rechte Auge auf. In der letzten Zeile schreiben Sie den Dateinamen der Reiz, der von Schritt 3.1 erzeugt wurde. Die Profilnummer bezieht sich auf die m-ten Zeile, die dem Reiz Dateinamen. Beispielsweise ist in Figur 1 ist die Profilnummer des Stimulus 8.
  3. Man kann vor, um 3,2 wiederholen 3,1 bis so viele Reize, die für ein Experiment benötigt erstellen.
  4. Schreiben Script für das Versuchsprotokoll: Öffnen Sie eine Textdatei, die experimentelle Protokoll Befehle eingeben. Diese Datei wird als die Skriptdatei, die bedeutet, dass die Visualeyes-System gelesen und jeden Befehl ausführen aus dem Skript in dieser Datei. Die Fähigkeit, eine Script-Datei für eine experimentelle Protokoll erstellen kann der Benutzer wiederholt experimentellen Sitzungen mit dem gleichen Protokoll zu führen. Ferner können zahlreiche Schriften geschrieben werden, um die Art und Reihenfolge der experimentellen Befehle variieren. Diese Dateiin die Visualeyes Verzeichnis als script_name.ves Datei gespeichert werden. (VES = Visualeyes Script)
    1. Die Visualeyes Funktionen haben Eingabe- und Ausgabeargumente. In Tabelle 2 sind alle Funktionen, die in der Visualeyes Software.
      1. ExpTrial: Diese Funktion wird verwendet, um den Reiz, der in der Stimulus-Bibliothek aus Schritt 3.2 gespeichert wurden, aufrufen. Die Länge der Daten, die Zeit ist, wird es der Funktion, um den Stimulus auszuführen. Die tempfile.lwf ermöglicht Visual Software, um die ankommenden Daten und gibt es in einen Ausgangspuffer vorübergehend zu speichern. Wenn die tempfile.lwf nicht definiert ist, während der Ausführung dieser Funktion wird es keine ankommenden Daten für die Digitalisierung zu speichern.
      2. LogFile: Diese Funktion gibt Zeichenketten oder die von ExpTrial definiert in den out.txt Datei in der Visualeyes Verzeichnis Eingangspuffer. Wenn das Experiment beendet ist, muss der Bediener den Namen des out.txt Datei in einen anderen Namen ändern. Andernfalls werden die Daten, die während der nächsten experim überschriebenEintr.
      3. TriggerWait: Diese Funktion wartet auf das Thema, um einen Auslöseknopf, um den ExpTrial beginnen und Digitalisierung der Daten drücken. Dies ist ein Kanal auf dem digitalen Erfassungskarte, das wartet auf das Signal von einem digitalen Hoch (5 V) zu niedrigen (0 V).
      4. RandomDelay: Diese Funktion erzeugt eine zufällige Verzögerung, um eine Vorhersage oder Vorfreude auf den nächsten Reiz zu verhindern.
      5. WaveMSD: Diese Funktion berechnet den Mittelwert und Standardabweichung der Daten.

4. Setzen Sie die Augenbewegungen MONITOR & RUN EXPERIMENT:

  1. Verschiedene Augenbewegungen überwacht wie die Hornhaut-Reflexion Videobilderzeugungssystem, Limbus-Tracking-System oder Lederhaut Suchspule kann zur Erfassung und Aufzeichnung der Augenbewegungen werden.
  2. Bevor ein Thema teilnehmen können, muss das Experiment erklärt werden und das Thema zu lesen und unterzeichnen eine Einverständniserklärung vom Institutional Review Board genehmigt.
  3. Der Betreiber must stellen Sie die Augenbewegung Monitor zu diesem Thema. Zuerst wird die Versuchsperson gebeten, auf einem Ziel zu fixieren. Der Bediener stellt den Augenbewegungsmonitor, die anatomischen Eigenschaften des Auges zu erfassen, wie den Limbus (Grenze zwischen der Iris und der Lederhaut) oder der Pupille und der Hornhautreflexion in Abhängigkeit von dem Augenbewegungsmonitor verwendet.
  4. Sobald der Augenbewegung Monitor ordnungsgemäß über das Thema angepasst, sollte der Betreiber überprüfen, ob die Augenbewegung Monitor ist die Erfassung der Augenbewegungen, indem er das Thema zu konvergenten oder ruckartige Bewegungen zu machen.
  5. Öffnen Sie das Programm ReadScript.vei in der Visualeyes Verzeichnis. Auf der rechten oberen Ecke, geben Sie den Dateinamen der Versuchsprotokoll Skript-Datei aus Schritt 3.4 erstellt. Führen Sie dann den ReadScript.vei Programm, indem Sie den roten Pfeil auf der linken oberen Ecke.
  6. Geben Sie dem Thema der Auslösetaste und erklären, dass, wenn die Person den Knopf drückt, wird die Datenerfassung zu beginnen. Ein weiterer Acquire.vei Datei wird automatisch lich auf dem Bildschirm erscheinen, die die ankommenden Daten zu zeichnen wird. Die Daten werden bei 500 Hz abgetastet.
  7. Wenn das Experiment beendet ist, wird der ReadScript.vei automatisch. Zu diesem Zeitpunkt gehen in die Visualeyes Verzeichnis und finden Sie die Out1.txt Datei. Benennen Sie die Datei sonst beim nächsten Mal der Bediener läuft das Experiment, wird die Datei überschrieben.

5. OFFLINE-Datenanalyse:

  1. Der Bediener kann die Daten durch den Einsatz verschiedener Software-Pakete (zB Matlab oder Excel) analysiert. Latenz, Spitzengeschwindigkeit, oder die Amplitude von Interesse, je nach Studie.
    1. Ein Beispiel einer Matlab Analysecode wird im Visual Verzeichnis vorgesehen Sakkaden Vergenz Schritte und Vergenz Rampen plotten. Beispiele für die Ensemble Sakkade Vergenz Schritt und Vergenz Rampenposition Spuren mit den entsprechenden Geschwindigkeitsantworten werden in 5 gezeigt.

6. Repräsentative Ergebnisse:

t "> Beispiele des Ensembles von Augenbewegungen aufgezeichnet mit dem Visualeyes-System ist in Abbildung 5. Typische 10 ° Sakkaden sind in Plot 4A gezeigt. Antisakkaden sind ruckartige Reaktionen, wenn die Person sagte, eine Sakkade in die entgegengesetzte Richtung zu machen . der visuelle Reiz und sind im Grundstück 4B gezeigt Dies ist eine kognitiv anspruchsvolle Aufgabe, daher kann man beobachten, dass die Latenzzeit oder die Zeit, um die Bewegung zu beginnen, wird mehr für Antisakkaden (Grundstück 4B) im Vergleich zu Sakkaden in Richtung einer visuellen Reiz auch prosaccades genannt (Grundstück 4A). Vergence Antworten auf 4 ° Schritten in Grundstück 4C und Konvergenz Antworten auf 5 ° / s Rampen gezeigt Reize werden in Handlung 4D gezeigt. Jede Spur ist eine individuelle Augenbewegung, wo die obere Reihe ist Position in Grad als bezeichnet Funktion der Zeit. Die Augenbewegungen sind in den Einheiten von Grad, Meter Winkel oder Prisma Dioptrien kalibriert. Unsere Forschung nutzt Grad der Drehung. Die untere Reihe ist die Geschwindigkeit in ° / s als Funktion der Zeit einer aufgetragend ist die Geschwindigkeit der Bewegung. Die Skala für jedes Ensemble Daten variiert abhängig von der Bewegung.

Figur 1
Abbildung 1. Flussdiagramm der Schlüsselelemente, um eine okulomotorischen Experiment durchzuführen. Beispiele für Schritte, um einen Anreiz mit dem Visualeyes Software erzeugen und führen ein Experiment für die Offline-Datenanalyse gezeigt. Teil A zeigt die Pixel2Deg.vei Fenster. Teil B zeigt die vier Parameter benötigt, um einen Anreiz zu definieren. Teil C ist die Bibliothek Reize, wo die schwarze Textzeilen innerhalb des Stimulus-Bibliothek sind beispiels Reize Dateien und der rote Text definiert jede Zeile. Teil D ist ein Beispiel eines experimentellen Skript Protokoll.

Abbildung 2
Abbildung 2. Visualeyes-System Haploskop Versuchsaufbau. Drei CRT-Monitore werden verwendet: 1) Eine Steuertafel erforderlich ist, um Impulse zu sehen eind Antworten 2) einem CRT-Monitor für das rechte Auge (RE) visueller Reize und 3) einem CRT-Monitor das linke Auge (LE) visuelle Reize. Ein halbdurchlässigen Spiegel 30 cm entfernt von den zwei visuelle Reize CRT-Monitore platziert. Dies ist, um sicherzustellen, dass die Reize auf den CRT-Monitore auf den halbversilberten Spiegel (50% Transmission und 50% Reflexion Spiegel) projiziert. Der Spiegel kann der Gegenstand auf Reize von den Computer-Bildschirme auf Ziele in gemessenen Abständen von dem Thema, das für die Kalibrierung erforderlich ist, befindet sich übereinander zu sehen. Mit einem Haploskop wird die Unterkunft Nachfrage für beide Augen konstant gehalten. Der Abstand zwischen den Augen einer Person und dem Spiegel ist 10 cm. Das System kann angepasst werden, um verschiedene interPupillenAbstände (IPD) unterzubringen, aber für diese Demonstration wir die IPD nehmen bis 6 cm betragen.

Figur 3
Abbildung 3. Die Berechnung der Sakkadische (links) und Vergent (rechts) moserung von Zielen A nach B gezeigt. IPD ist die Interpupillenabstand.

4
Abbildung 4. Kalibrierkurve des linken Auges (oben Grundstück) und das rechte Auge (unten Grundstück) Stimulus. Eine ähnliche Vorgehensweise würde für Sakkaden oder smooth pursuit Stimuli durchgeführt werden.

Abbildung 5
Abbildung 5. Beispiele für Sakkaden (A) Antisakkaden (B), Konvergenz Schritte (C) und Konvergenz Rampen (D) mit dem Visualeyes System und unter Verwendung eines kundenspezifischen MATLAB-Programm. Ensemble Position Spuren (° als Funktion der Zeit in Sekunden) in der oberen Reihe, wobei jedes farbige Linie steht für eine andere Augenbewegungen aufgezeichnet. Die entsprechenden Geschwindigkeitsbahnen (° / s als Funktion der Zeit in sec).

0,5
Stimulus Typ Stimulus_Name_Left Eye.vei Stimulus_Name_Right_Eye.vei
Zeit (s) x-Position (Pixel) y-Position (Pixel) Rotation (°) Zeit (s) x-Position (Pixel) y-Position (Pixel) Rotation (°)
Glatte Pursuit Ramp 0 100 0 0 0 100 0 0
10 200 0 0 10 200 0 0
Sakkaden Schritt 0 100 0 0 0 100 0 0
100 0 0 0,5 100 0 0
0,501 200 0 0 0,501 200 0 0
3 200 0 0 3 200 0 0
Konvergenz Ramp 0 452 0 0 0 973 0 0
10 370 0 0 10 1044 0 0
Konvergenz Schritt 0 452 0 0 0 973 0
0,5 452 0 0 0,5 973 0 0
0,501 416 0 0 0,501 1002 0 0
3 416 0 0 3 1002 0 0

Tabelle 1 Ein Beispiel für Glatte Pursuit Rampe, Sakkadische Schritt, Vergence Ramp und Vergenz Schritt Stimuli

Funktion Syntax
ExpTrial Output Buffer # = ExpTrial ("Länge der Daten: LE Profil: RE Profil");
Beispiel: 2 = ExpTrial ("13: 3: 3");
Output Buffer # = Exo Trial ("Länge der Daten: LE Profil: RE Profil:. tempfile LWB");
Beispiel: 2 = ExpTrial ("13: 3: 3: templfile.lwf");
LogFile Output Buffer # = Protokolldatei ("TEXT");
Beispiel: 0 = Protokolldatei ("Versuch 1");
0 = Protokolldatei (Input Buffer #);
Beispiel: 0 = Protokolldatei (2);
TriggerWait 0 = TriggerWait (Pufferanzahl);
Beispiel: 0 = TriggerWait (0);
RandomDelay 0 = RandomDelay ("t2: t1");
Beispiel: 0 = RandomDelay ("2000: 500");
WaveMSD Output Buffer # = WaveMSD (Input Buffer #);

Tabelle 2. Funktionen verwendet, um die Versuchsprotokoll in der Visualeyes Programm schreiben

Subscription Required. Please recommend JoVE to your librarian.

Discussion

Kritische Schritte:

Augenbewegungen überwacht muss ordnungsgemäß auf dem Thema angepasst werden. Zum Beispiel arbeiten die Augenbewegung Aufzeichnung Monitore in einem Bereich und muss auf das Thema eingestellt werden. Wenn die Augenbewegung des Patienten geht über den Bereich, dann wird das System gesättigt. Nach Sättigung, ist die Augenbewegung Signal nicht gültig. Die Kalibrierung ist auch kritisch in Augenbewegungsaufzeichnung. Alle Augenbewegungen überwacht messen ein analoges Signal, das digitalisiert wird und muss die Einheiten häufig in der Augenbewegung Forschungs wie Grad der Drehung verwendet umgewandelt werden. Linearität des Systems durch drei oder mehr Kalibrierungspunkte beurteilt ist auch wichtig, festzustellen, ob die Umwandlung des Signals in Grad unter Verwendung einer einfachen linearen Transformation oder braucht eine komplexe Transformation erfolgen. Es ist auch wichtig anzumerken, daß die richtige Anordnung der Computer-Monitoren und den physikalischen Ziel benötigt wird, um die visuellen Stimuli auf dem Computer ausrichtenBildschirm, wenn in einem Haploskop Einstellung verwendet.

Darüber hinaus sind auch die Anweisungen, um die Themen unerlässlich. Zum Beispiel für Video oder Limbus-Tracking-Systeme ein Blinzeln in Signalverlust zur Folge haben; jedoch kann der Bediener nicht ein Thema zu bitten, nicht für eine lange Dauer zu blinken. Anleitungen zum Thema kann zu erleichtern, wenn die Betreiber möchte das Thema zu einem neuen Ziel schauen, um blinkt während der Datenerfassung zu vermeiden. Ein weiteres Beispiel für die Bedeutung der Befehle wird in einer im Vergleich zu einer prosaccade antisaccade Experiment dargestellt. Für prosaccades Gegenstand schaut Ziel Vergleich zu einem Experiment, bei dem antisaccade Gegenstand schaut in die entgegengesetzte Richtung des Stimulus vorbei.

Mögliche Änderungen:

Die Stärke der VisualEyess Systems ist seine Flexibilität. Mehrere Studien haben ihre eigene Software zu Sakkaden Reize stimulieren veröffentlicht. 2,3,4,5 Es gibt jedoch viele andere types von Augenbewegungsstudien, die man sich wünschen kann, zu untersuchen, wie smooth pursuit oder Konvergenzbewegungen. Die Visualeyes-System erlaubt es, jeden Monitor unabhängig zu programmieren, so dass der Bediener Sakkaden, smooth pursuit oder konvergenten Reize oder eine beliebige Kombination der drei (Sakkaden mit konvergenten Reize zum Beispiel) zu programmieren. Der Hintergrund ist ein statisches Bild, das derzeit nicht bewegt, aber die nächste Generation der Visualeyes Software ermöglicht das Hintergrundbild zu bewegen. Das Vordergrundbild kann horizontal, vertikal oder bewegt werden, drehen. Das Standardbild ist eine Zeile, sondern kann zu einer Verteilung der Gaußfunktion (DOG) Stimulus eine akkommodierende Stimulus oder ein beliebiges anderes Bild weiter zu reduzieren geändert werden. Weiterhin ermöglicht die Fähigkeit, Computerbildschirme programmieren unabhängig für mehr Flexibilität. Beispielsweise wird phoria routinemßig als klinischer Parameter gemessen wird, sondern kann gewünscht sein, um es mit einem Augenbewegungsüberwachungs aufzuzeichnen. Phoria ist die Ruheposition eines verschlossenen Auge while das andere Auge hat einen Reiz. Wir haben dieses Verfahren zur Messung von Winkelfehlsichtigkeit mit dem Visualeyes System validiert. 6,7,8

Anwendungen und Bedeutung:

Augenbewegungsforschung können wichtige Informationen zum Grundlagenforscher und Kliniker werden. Es kann auch ein Werkzeug, um neurologische Erkrankungen, traumatische Gehirnverletzung 9 Muskeldystrophie 10 bis Alzheimer 11 bis Schizophrenie. 12 überwachen Es kann Einblick für Kraft Lernen, 13 Aufmerksamkeit Mechanismen 14 oder Speicher 15 bereitzustellen, um einige Anwendungen zu nennen. Außerdem profitiert sie von einem starken Fundament der Neurophysiologie von Einzelzellableitungen in nicht-menschlichen primates1 und kann mit funktionellen MRT gekoppelt werden, um gleichzeitig die Gehirnfunktion zu untersuchen, um visuelle Netzwerke, Konnektivität und Wechselwirkungen zu verstehen. 16

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

Keine Interessenskonflikte erklärt.

Acknowledgments

Diese Arbeit wurde teilweise durch eine CAREER Award von der National Science Foundation (BES-0.447.713), und aus einem Zuschuss von Essilor International unterstützt.

References

  1. Leigh, R. J., Zee, D. S. The Neurology of Eye Movements. , 4th edn, Oxford University Press. (2006).
  2. Pruehsner, W. R., Enderle, J. D. The operating version of the Eye Tracker, a system to measure saccadic eye movements. Biomed Sci Instrum. 38, 113-118 (2002).
  3. Pruehsner, W. R., Liebler, C. M., Rodriguez-Campos, F., Enderle, J. D. The Eye Tracker System--a system to measure and record saccadic eye movements. Biomed Sci Instrum. 39, 208-213 (2003).
  4. Rufa, A. Video-based eye tracking: our experience with Advanced Stimuli Design for Eye Tracking software. Ann N Y Acad Sci. 1039, 575-579 (2005).
  5. Cornelissen, F. W., Peters, E. M., Palmer, J. The Eyelink Toolbox: eye tracking with MATLAB and the Psychophysics Toolbox. Behav Res Methods Instrum Comput. 34, 613-617 (2002).
  6. Han, S. J., Guo, Y., Granger-Donetti, B., Vicci, V. R., Alvarez, T. L. Quantification of heterophoria and phoria adaptation using an automated objective system compared to clinical methods. Ophthalmic Physiol Opt. 30, 95-107 (2010).
  7. Kim, E. H., Granger-Donetti, B., Vicci, V. R., Alvarez, T. L. The Relationship between Phoria and the Ratio of Convergence Peak Velocity to Divergence Peak Velocity. Invest Ophthalmol Vis Sci. , (2010).
  8. Lee, Y. Y., Granger-Donetti, B., Chang, C., Alvarez, T. L. Sustained convergence induced changes in phoria and divergence dynamics. Vision Res. 49, 2960-2972 (2009).
  9. Maruta, J., Suh, M., Niogi, S. N., Mukherjee, P., Ghajar, J. Visual tracking synchronization as a metric for concussion screening. J Head Trauma Rehabil. 25, 293-305 (2010).
  10. Osanai, R., Kinoshita, M., Hirose, K. Eye movement disorders in myotonic dystrophy type 1. Acta Otolaryngol Suppl. , 78-84 (2007).
  11. Kaufman, L. D., Pratt, J., Levine, B., Black, S. E. Antisaccades: a probe into the dorsolateral prefrontal cortex in Alzheimer's disease. A critical review. J Alzheimers Dis. 19, 781-793 (2010).
  12. Hannula, D. E. Use of Eye Movement Monitoring to Examine Item and Relational Memory in Schizophrenia. Biol Psychiatry. , (2010).
  13. Schubert, M. C., Zee, D. S. Saccade and vestibular ocular motor adaptation. Restor Neurol Neurosci. 28, 9-18 (2010).
  14. Noudoost, B., Chang, M. H., Steinmetz, N. A., Moore, T. Top-down control of visual attention. Curr Opin Neurobiol. 20, 183-190 (2010).
  15. Herwig, A., Beisert, M., Schneider, W. X. On the spatial interaction of visual working memory and attention: evidence for a global effect from memory-guided saccades. J Vis. 10, (2010).
  16. McDowell, J. E., Dyckman, K. A., Austin, B. P., Clementz, B. A. Neurophysiology and neuroanatomy of reflexive and volitional saccades: evidence from studies of humans. Brain Cogn. 68, 255-270 (2008).

Tags

Neuroscience Ausgabe 49 Eye Movement Recording Neurowissenschaft visuelle Stimulation Sakkaden Vergenz Smooth Pursuit Zentralsicht Achtung Heterophorie

Erratum

Formal Correction: Erratum: VisualEyes: A Modular Software System for Oculomotor Experimentation
Posted by JoVE Editors on 05/11/2011. Citeable Link.

A correction was made to VisualEyes: A Modular Software System for Oculomotor Experimentation. There was an error in the authors, Eun H. Kim and Tara L. Alvarez, names. The author's names have been corrected to:

Eun H. Kim and Tara L. Alvarez

instead of:

Eun Kim and Tara Alvarez

Visualeyes: ein modulares Softwaresystem für oculomotorius Experimentieren
Play Video
PDF DOI

Cite this Article

Guo, Y., Kim, E. H., Alvarez, T. L.More

Guo, Y., Kim, E. H., Alvarez, T. L. VisualEyes: A Modular Software System for Oculomotor Experimentation. J. Vis. Exp. (49), e2530, doi:10.3791/2530 (2011).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter