Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Behavior

Volledig geautomatiseerde leg tracking in vrij bewegende insecten met behulp van Feature Learning Leg Segmentation and Tracking (FLLIT)

Published: April 23, 2020 doi: 10.3791/61012

Summary

We beschrijven gedetailleerde protocollen voor het gebruik van FLLIT, een volledig geautomatiseerde machine learning-methode voor het volgen van beenklauwen bij het vrij bewegende Drosophila melanogaster en andere insecten. Deze protocollen kunnen worden gebruikt om kwantitatief te meten subtiele loopbewegingen in wilde type vliegen, mutant vliegen en vliegen modellen van neurodegeneratie.

Abstract

Het Drosophila-model is van onschatbare waarde geweest voor de studie van de neurologische functie en voor het begrijpen van de moleculaire en cellulaire mechanismen die ten grondslag liggen aan neurodegeneratie. Terwijl vliegtechnieken voor de manipulatie en studie van neuronale subsets steeds geavanceerder zijn geworden, is de rijkdom van de resulterende gedragsfenotypes niet op een vergelijkbaar detail vastgelegd. Om subtiele vliegbeenbewegingen te kunnen bestuderen ter vergelijking tussen mutanten, is de mogelijkheid vereist om bewegingen van hoge snelheden en snelle benen automatisch te meten en te kwantificeren. Daarom ontwikkelden we een machine-learning algoritme voor geautomatiseerde leg claw tracking in vrij lopende vliegen, Feature Learning-based Limb segmentation and Tracking (FLLIT). In tegenstelling tot de meeste deep learning-methoden is FLLIT volledig geautomatiseerd en genereert het zijn eigen trainingssets zonder dat gebruikersaantekeningen nodig zijn, met behulp van morfologische parameters die in het leeralgoritme zijn ingebouwd. Dit artikel beschrijft een diepgaand protocol voor het uitvoeren van ganganalyse met behulp van FLLIT. Het beschrijft de procedures voor camera setup, arena bouw, video-opname, been segmentatie en been klauw tracking. Het geeft ook een overzicht van de gegevens geproduceerd door FLLIT, die ruwe bijgehouden lichaam en been posities in elk videoframe, 20 gang parameters, 5 percelen en een bijgehouden video omvat. Om het gebruik van FLLIT aan te tonen, kwantificeren we relevante zieke gangparameters in een vliegmodel van Spinocerebellar ataxie 3.

Introduction

In de afgelopen decennia, neurodegeneratieve ziekten en bewegingsstoornissen zijn gegroeid vaker in onze vergrijzende bevolking. Hoewel ons begrip van vele neurodegeneratieve ziekten is gevorderd op moleculair en cellulair niveau, fundamentele kenmerken van de getroffen neuronale circuits onderliggende ziekte blijven slecht begrepen. Onlangs ontwikkelde gedragstrackingtools1,2,3,4 stellen ons nu in staat om bewegingsafwijkingen in dierziektemodellen te bestuderen om moleculaire, cellulaire en circuitdysregulatie onderliggende ziekte te identificeren.

Moleculaire trajecten die betrokken zijn bij vele neurodegeneratieve ziekten worden bewaard in de fruitvlieg Drosophila melanogaster, en Drosophila ziekte modellen hebben geholpen om fundamentele mechanismen die ten grondslag liggen neurodegeneratie5op te helderen,6. We hebben onlangs aangetoond dat vliegmodellen van de ziekte van Parkinson (PD) en Spinocerebellar ataxie 3 (SCA3) vertonen verschillende, geconserveerde gang handtekeningen die lijken op die van de respectieve menselijke ziekten1, waaruit blijkt dat de vlieg model kan worden gebruikt om circuit mechanismen onderliggende beweging disfunctie in specifieke bewegingsstoornissen te begrijpen. De rijke en voortdurend groeiende arsenaal van instrumenten in de vlieg model voor gerichte manipulatie en visualisatie van neuronen op de enkele gen en eencellige niveau7,8,9,,10 maakt de vlieg een ideaal model een om de relatie tussen ziekte trajecten, neuronale circuits en gedragsfefetypische manifestatie in vivo sonde. Om nauwkeurige, geautomatiseerde insectenganganalyse mogelijk te maken, hebben we onlangs een machine learning-methode ontwikkeld, Feature Learning-based LImb-segmentatie en T-racking(FLLIT)1.

FLLIT bestaat uit een volledig geautomatiseerd multi-stage algoritme dat eerst de beenpixels segmentert, die vervolgens worden gebruikt om de bijbehorende beenklauwen te lokaliseren en te volgen. FLLIT maakt gebruik van een stimulerend algoritme voor segmentatie, in tegenstelling tot deep learning-algoritmen die in recent werk2,3wordengebruikt . Er zijn een aantal overeenkomsten met convolutional neurale netwerken in dat voor beide kaders, functie extractie wordt automatisch gedaan door het leren van convolutional kernels. De eerste stap in FLLIT omvat het gebruik van morfologische bewerkingen (rand en skeletonization) om automatisch te genereren positieve (pixels op de benen) en negatieve (achtergrond of pixels op de fly body) training monsters met veel vertrouwen. FLLIT is dus volledig geautomatiseerd en vereist geen geannoteerde trainingsmonsters van de gebruiker. Met behulp van de bovenstaande trainingsmonsters wordt vervolgens een classificatie getraind in het kader van een stimulerend algoritme. Een ensemble van zwakke classifiers wordt iteratief geleerd, met elk bestaande uit een set convolutional kernels voor functieextractie en een beslissingsboom. De uiteindelijke geleerde classificatie wordt vervolgens gebruikt voor beensegmentatie en is in staat om moeilijker te onderscheiden moeilijke regio's / harde monsters beter dan morfologische bewerkingen, het produceren van een algemene veel nauwkeuriger segmentatie voor het bijhoudenvan 1. Vanuit de gesegmenteerde poten lokaliseren we de tips en volgen we ze met behulp van het Hongaarse algoritme: door tips over frames te matchen zodat de som van de afstand die door elke tip wordt verplaatst, wordt geminimaliseerd. FLLIT kan occlusiegevallen verwerken door de laatst geziene locatie (in fly centered coördinaten) te onthouden, zodat een beentip wordt hersteld zodra deze niet langer onder occlusie is.

We hebben eerder aangetoond dat FLLIT kan automatisch en nauwkeurig volgen beenbewegingen en analyseren gang in een ongemarkeerde, vrij bewegende vlieg of spin van high-speed video1; FLLIT moet dus in grote lijnen van toepassing zijn op geleedpotige leg tracking. Door machine learning-trainingssets te extraheren met behulp van morfologische parameters, traint FLLIT zichzelf automatisch om insectenpoten te segmenteren en te volgen zonder de noodzaak van moeizame handmatige annotatie, wat nodig is voor de meeste deep learning-methoden. FLLIT is dus volledig geautomatiseerd. Na legsegmentatie en tracking produceert FLLIT automatisch ruwe bijgehouden lichaams- en beenposities in elk videoframe, 20 loopparameters, 5 plots en een bijgehouden video voor loopanalyse en visualisatie van loopbewegingen. Dit protocol biedt een stapsgewijze handleiding voor het gebruik van FLLIT.

Protocol

1. Systeeminstelling

  1. Zorg ervoor dat het opnamestation een hogesnelheidscamera en een podium eroverheen heeft om de arenakamer vast te houden (Figuur 1). Pas de camera aan om minimaal 250 frames per seconde (fps) op te nemen, met een dienovereenkomstig snelle sluitertijd (in dit geval wordt de opname uitgevoerd met 1000 fps met een sluitertijd van 1 ms).
    OPMERKING: Controleer of de video geschikt is voor tracking door ervoor te zorgen dat er minimale of geen bewegingsonscherpte van bewegende benen in alle frames is. Als het bewegende been zo wazig is dat een menselijke annotator het niet kan volgen, moet de opnamesnelheid van de camera en/of sluitertijd worden verhoogd.
  2. Plaats de infrarood LED-lampjes aan de bovenkant van het podium met een diffuser (doorschijnend vel) tussen de camera en het monster(figuur 1A,B).
  3. Maak de opnamekamer door een 1,6 mm dikke acrylplaat te snijden. Gebruik in dit experiment een gezichtsveld van 11 mm x 11 mm. Plaats de kamer tussen twee glazen platen (figuur 1C).

2. Voorbereiding van vliegen voor opname

  1. Breng de vliegen worden opgenomen in een nieuw voedselflesje 24 uur voor de opname.
    LET OP: Gebruik geen CO2 (meestal gebruikt om de vliegen te verdoven bij de eerste inzameling) op de vliegen minder dan 24 uur voor de opname.
  2. Ongeveer 40 minuten voor de opname, breng de vliegen in lege flesjes en houd op ijs voor 5-7 min.
  3. Veeg ondertussen de arena en heldere glazen glijbanen af met water en een doekje.
    LET OP: Gebruik geen ethanol om de kamers en de glijbanen schoon te maken.
  4. Bereid de opnamekamer voor. Bevestig een van de microscopischkleine glazen dia's onder de kamer met tape.
  5. Wanneer de vliegen zijn verdoofd op ijs, breng een vlieg in elke kamer met behulp van een schone borstel.
    OPMERKING: Zowel mannelijke als vrouwelijke vliegen kunnen worden gebruikt in deze setup, en, voor zover mogelijk, vliegen van beide geslachten moeten worden geanalyseerd om seks-specifieke bias te voorkomen.
  6. Beveilig de kamer met een andere microscopische glazen schuif met tape(figuur 1C).
  7. Houd de chambered vliegen op kamertemperatuur voor 15 - 20 min voor acclimatisatie.

3. Generatie van video's voor FLLIT-analyse

OPMERKING: Deze stap is specifiek voor de gebruikte videocamera. In dit geval wordt een commercieel beschikbare videocamera gebruikt (zie Tabel van materialen).

  1. Zet de krachtbron aan. Wacht tot de groene LED op stroom en de oranje LED voor de ethernet-interface verbinding te stabiliseren. Schakel de stroom in voor de infrarood-LED. Zorg ervoor dat de spanning op 12,5 V blijft.
  2. Open de Viewer-toepassing op het aangesloten computersysteem.
  3. Wijzig de opnameframesnelheid naar 1000 fps. Stel de sluitertijd in op 1/1000 s (1 ms).
  4. Plaats de kamer met de vlieg op LIVE de opnamearena en selecteer de LIVE-knop. Zorg ervoor dat de camera is gericht op de beentips wanneer de vlieg rechtop op de vloer van de kamer loopt; de beentips moeten scherp zijn.
  5. Klik op Opnemen ( figuur2).
  6. Neem de vlieg lopen, ervoor te zorgen dat:
    De vlieg liep in een relatief rechte baan zonder het aanraken van de rand van de arena.
    De vlieg liep minstens drie passen per been.
    De vlieg pauzeert niet tijdens de wandeling.
    De gelopen afstand is gelijk aan ten minste één lichaamslengte.

    OPMERKING: Het netjes aftrekken van de achtergrond is essentieel voor nauwkeurige segmentatie. De geautomatiseerde achtergrond aftrekken algoritme in dienst van FLLIT vereist dat de afgebeelde vlieg beweegt ten minste een lichaamslengte in de verte.
  7. Klik op Rec gedaan om de opname te stoppen(figuur 2).
  8. Snijd de video bij om ervoor te zorgen dat de opname slechts een rechte loop van de vlieg omvat (zoals beschreven in stap 3.6).
  9. Klik op Opslaan ( figuur2). Sla de bestanden op in de indeling '.mraw' of '.tiff' in de respectievelijke mappen.
    OPMERKING: '.mraw'-indeling biedt meer flexibiliteit om de bestandsnaam (indien nodig) te wijzigen en voor de opslag van video's in vergelijking met '.tiff'-bestandsindeling.

4. Installatie van het FLLIT-programma

LET OP: Up-to-date instructies zijn te vinden op: https://github.com/BII-wushuang/FLLIT/blob/master/Compiled/Readme.pdf

  1. FLLIT downloaden op elk besturingssysteem
    1. Download FLLIT via de volgende Github-link: https://github.com/BII-wushuang/FLLIT/archive/master.zip. Haal de inhoud van het zip-bestand eruit.
    2. Voorbeeldgegevenssets downloaden via de volgende Google Drive-koppeling: https://bit.ly/2EibvNY. Maak een mapGegevens onder FLLIT-master/Compiled en plaats gegevenssetmappen in deze gegevensmap.
  2. Installeer FLLIT in Ubuntu
    1. Navigeer naar de map FLLIT/Compiled.
    2. Klik met de rechtermuisknop en selecteer Openen in Terminal.
    3. Geef de volgende opdracht uit om de MATLAB-runtimebibliotheken te downloaden en te installeren op $HOME/MCR:
      bash MCR_2016a.sh
    4. Nadat de matlab runtime-bibliotheken zijn geïnstalleerd, geeft u de volgende opdracht uit om ervoor te zorgen dat uitvoerbare rechten aan FLLIT worden toegekend:
      chmod +x FLLIT
    5. Open een terminal in de map FLLIT/Compiled en geef de volgende opdracht uit om FLLIT uit te voeren:
      bash run_FLLIT.sh $HOME/MCR/v901
  3. FLLIT installeren in Windows
    1. Voor 7 en 10th Home Edition installeer je Docker Toolbox op:
      (https://github.com/docker/toolbox/releases/download/v19.03.1/DockerToolbox-19.03.1.exe).
    2. Installeer Docker Desktop voor Windows voor Windows op: (https://download.docker.com/win/stable/Docker\%20Desktop\%20Installer.exe).
    3. Installeer VcXSrV (https://sourceforge.net/projects/vcxsrv) eerst om de uitvoering van GUI-toepassingen in een Docker-container op Windows mogelijk te maken. Configureer bij het starten van VcXsrv de instellingen zoals in figuur S1.
      OPMERKING: Controleer of Docker en VcXsrv worden uitgevoerd voordat u Met FLLIT begint.
    4. Dubbelklik op FLLIT.bat om FLLIT uit te voeren.
      OPMERKING: Wanneer u voor de eerste keer wordt uitgevoerd, duurt het enige tijd om de Docker-afbeelding uit dockerhub te halen.
  4. FLLIT installeren in MacOS
    1. Docker Desktop voor MacOS downloaden op https://download.docker.com/mac/stable/Docker.dmg
    2. Installeer socat door een terminal te openen en de volgende opdracht uit te geven:
      brew install socat brew install socat brew install socat brew install
    3. Begin socat met:
      socat TCP-LISTEN:6000,reuseaddr,fork UNIX-CLIENT:\"$DISPLAY\" & disown
    4. Installeer XQuartz (https://www.xquartz.org) om de uitvoering van GUI-toepassingen in een Docker-container op MacOS mogelijk te maken. Start XQuartz en wijzig de voorkeuren door het tabblad Verbindingen toestaan van netwerkclients op het tabblad Beveiliging te controleren zoals weergegeven in figuur S2.
      OPMERKING: Zorg ervoor dat Docker, socat en XQuartz allemaal actief zijn voordat u met FLLIT begint.
    5. Open een terminal in de map FLLIT/Compiled en voer FLLIT uit met de volgende opdracht:
      bash FLLIT_Mac.sh
      OPMERKING: Wanneer u voor de eerste keer wordt uitgevoerd, duurt het enige tijd om de Docker-afbeelding uit dockerhub te halen.

5. Het uitvoeren van FLLIT voor geautomatiseerde leg tracking

  1. Segmentatie
    1. Converteer de video in afzonderlijke TIFF-bestanden en kopieer naar de FLLIT-gegevensmap.
    2. Voer FLLIT uit (In Ubuntu klikt u met de rechtermuisknop om FLLIT in Terminal te openen).
    3. Selecteer de map met de frame-voor-frame TIFF-afbeeldingen van de video die moet worden bijgehouden en klik op de knop Toevoegen.
    4. Kies in het pop-upvenster 0 voor het uitvoeren van alleen beensegmentatie, of 1 om beentracking met beensegmentatie op te nemen.
    5. Klik op Gereed om segmentatie en tracking van de geselecteerde video te starten.
  2. Bijhouden
    1. Als u de nauwkeurigheid van het bijhouden wilt controleren en foutcorrecties wilt uitvoeren (indien aanwezig), klikt u op Gegevensmap selecteren. Selecteer de map die moet worden bijgehouden en klik op Openen.
    2. Klik op View Tracking.
      OPMERKING: Controleer of de viewermodus geselecteerd blijft tijdens het bekijken van de bijgehouden beenposities. Anders worden eerdere correcties overbereden.
    3. Controleer de etikettering voor alle poten in het eerste frame
      LET OP: Aangezien de beenetiketten worden geplaatst op basis van de positie op het scherm, als de vlieg rechtop loopt, is de rechterzijde van de vlieg voorzien van l1 (voorbeen), L2 (middenbeen), L3 (achterbeen) en de linkerzijde van de vlieg is gelabeld als R1 (voorbeen), R2 (middenbeen), R3 (achterbeen), respectievelijk (figuur 3). Als de vlieg ondersteboven loopt, worden de beenlabels correct geannoteerd.
    4. Als een been ten onrechte is gelabeld en een correctie vereist is, klikt u op Weergave onderbreken,gevolgd door Voorspelling aanpassen (figuur 3).
    5. Van het rechter paneel onder de leiding Been aan te passen,selecteer het been dat correctie vereist.
    6. Dubbelklik op de juiste positie voor dit been in het afbeeldingsvenster, klik op Opslaanen sluit af. Als u naar het vorige frame of het volgende frame wilt gaan, klikt u op Weergave onderbreken, gevolgd door respectievelijk de vooruit- en achterwaartse en I> knoppen(figuur 3).
    7. Als u onjuist bijgehouden video's wilt corrigeren, opent u de map Gegevens van de video die opnieuw moet worden bijgehouden en selecteert u Handmatig bijhouden starten.
    8. Klik op de knop Bijhouden, die vervolgens het label wijzigt in Initial.
    9. Klik op Voorspelling aanpassen en corrigeer de beenlabels door op elke beentip te dubbelklikken en deze vervolgens met het juiste beenlabel toe te wijsen. Klik op Opslaan en afsluiten.
    10. Klik op Hervatten om tracking te starten.
  3. Gegevensverwerking en videogeneratie
    1. Klik op gegevensproces. Typ in het pop-upvenster het aantal frames per seconde (fps) waar de video's zijn opgenomen (bijvoorbeeld 1.000 fps).
    2. Gebruik de volgende vergelijking om het werkelijke gezichtsveld van de vastgelegde video te berekenen, zodat gangparameters in millimeters kunnen worden gemeten:

      Equation 1

      OPMERKING: Als de werkelijke kamergrootte bijvoorbeeld 7 mm is, is de breedte van het beeldframe 137 mm, is de breedte van de kamer in het beeldkader op het computerscherm 81 mm en was de breedte van het gezichtsveld 11,83 mm (Figuur S3).
    3. Als u de trackingresultaten wilt bekijken, gaat u naar de map Bijhouden onder de map Resultaten.
    4. Als u een video van de bijgehouden vlieg wilt genereren, selecteert u Video maken. De video wordt opgeslagen in dezelfde map Resultaten als die van de geanalyseerde originele videogegevens.
      OPMERKING: De frames Start (eerste) en Eind (laatste) van de video kunnen worden geselecteerd.
  4. Normalisatie tot lichaamslengte van elke vlieg.
    OPMERKING: Aangezien elke vlieg enigszins kan verschillen in grootte, moeten bepaalde gangparameters worden genormaliseerd tot de lichaamslengte van elke vlieg om vergelijkingen te vergemakkelijken (bijvoorbeeld, paslengte kan langer zijn bij grotere vliegen en korter bij kleinere vliegen).
    1. Open drie stilstaande beelden van de video van elke vlieg (meestal eerst, midden en laatste frames) met behulp van beeldsoftware.
    2. Vergroot elk afbeeldingskader tot 800% en label de voorste pixel van het hoofd en de meest pixel van de buik op de middellijn met behulp van een heldere kleur (bijvoorbeeld geel).
    3. Open de gelabelde afbeeldingen in ImageJ.
    4. Gebruik Schaal instellen om de schaal dienovereenkomstig in te voeren: Afstand instellen in pixels: 512; Bekende afstand: Werkelijk gezichtsveld (mm) zoals gemeten in stap 5.3.2.; Lengte-eenheid: mm.
    5. Teken een rechte lijn tussen de gelabelde kop en buik tip pixels om de lichaamslengte te verkrijgen.
    6. Open Set Scale opnieuw om de waarde te verkrijgen in een bekende afstand, dat is de lichaamslengte in mm.
    7. Neem een gemiddelde van de lengte bepaald in elk van de drie beelden om de gemiddelde lichaamsgrootte in mm te verkrijgen.

Representative Results

Na legsegmentatie, tracking en gegevensverwerking genereert FLLIT automatisch ruwe gegevens voor de posities van het lichaam en elke legclaw, 20 gangparameters, 5 plots en een bijgehouden video(tabel 1).

Hier demonstreren we deze analyses aan de hand van een vliegmodel van Spinocerebellar ataxie 3 (SCA3). De pan-neuronale driver Elav-GAL4 werd gebruikt om ofwel de full-length wildtype menselijke SCA3 rijden met 27 glutamines in de polyQ tract (UAS-SCA3-flQ27), of een full-length mutant menselijke SCA3 met 84 glutamines in de polyQ tract (UAS-SCA3-flQ84)11. SCA3 wordt gekenmerkt door een ataxic gang met lichaam veering, grillige voet plaatsing en korte, lurching stappen12,13 (Tabel 2). Om gang van gemuteerde SCA3-vliegen te karakteriseren en te onderzoeken of ze een vergelijkbare gang vertonen als die van menselijke patiënten, analyseerden we relevante gangparameters gegenereerd door FLLIT, namelijk: Aantal lichaamswisselingen, voetafdrukken, overlap en grootte van het beendomein, en beenpaslengten (Tabel 2).

We vonden dat SCA3-Q84 vliegen tentoongesteld meer bochten (Figuur 4A,A'),grillige voet plaatsing zoals tentoongesteld door lage voetafdruk regelmatigheid (vergrote standaardafwijkingen van de AEP14) (Figuur 4B), verhoogde been domein overlap (Figuur 4C-D),vergroot been domeinen in lengte en gebied(Figuur 4E, F), en verminderde paslengte ( Figuur4G).

FLLIT genereert ook een video met de bijgehouden vlieg en benen in de arena-gecentreerde en lichaam-gecentreerde uitzichten, lichaam traject en richting, en verticale en laterale verplaatsingen van elk been (Figuur 5). De bijgehouden video's maken het mogelijk om naast elkaar te vergelijken met beenbewegingen in verschillende vliegen. Representatieve video's van Elav-GAL4>SCA3-flQ27 (Video 1) en Elav-GAL4>SCA3-flQ84 (Video 2) vliegen tonen aan dat in vergelijking met Elav-GAL4>UAS-SCA3-flQ27 vliegen (Figuur 5A), Elav-GAL4>UAS-SCA3-flQ84 vliegen (Figuur 5B) vertonen onregelmatig, kruisende beendomeinen van verschillende grootte, indicatief voor een lurching, ataxic gang.

Figure 1
Figuur 1. Opstelling van het opnamestation en de arena. Opnames van de (A) voor- en (B) zijaanzicht. (C) Een voorbeeld van een arena die wordt gebruikt voor het maken van vliegopnames voor FLLIT-tracking. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 2
Figuur 2: Bekijk het actieve venster tijdens de fly gang opname met behulp van een dubbele hoofd camera, die het mogelijk maakt gelijktijdige opname van twee vliegen. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 3
Figuur 3: Actief FLLIT-venster met het knoppaneel en gelabelde poten na segmentatie en tracking. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 4
Figuur 4: Representatieve fllit-gegenereerde gegevens voor relevante gangparameters van vliegen die wildtype (SCA3-flQ27) versus mutant (SCA3-flQ84) SCA3. (A) Aantal bochten in het lichaamstraject uitdrukken. (B) Middenbeen voetafdruk regelmaat genormaliseerd tot lichaamslengte. (C-C") Doorkruisde beendomeinen van elk been. (D) Domein overlap tussen de benen. (E) Middenbeen domein lengte genormaliseerd tot lichaamslengte. fF) Domeingebied voor het middenbeen genormaliseerd tot lichaamslengte2. (G) Middenbeen paslengte genormaliseerd tot lichaamslengte. Klik hier om een grotere versie van dit cijfer te bekijken.

Figure 5
Figuur 5: Momentopname van representatieve fllit-gegenereerde video's. (A) Elav-GAL4>UAS-SCA3-flQ27 en (B) Elav-GAL4>UAS-SCA3-flQ84 vliegen. Klik hier om een grotere versie van dit cijfer te bekijken.

Video 1
Video 1: Representatieve video van een vlieg die pan-neuronale wilde mens full-length SCA3 uitdrukt (Elav-GAL4>UAS-SCA3-flQ27). Klik hier om deze video te bekijken. (Klik met de rechtermuisknop om te downloaden.)

Video 2
Video 2: Representatieve video van een vlieg die pan-neuronale mutant menselijke lange SCA3(Elav-GAL4>UAS-SCA3-flQ84)uitdrukt. Klik hier om deze video te bekijken. (Klik met de rechtermuisknop om te downloaden.)

Supplemental Figure 1
Aanvullende figuur 1: configuraties voor VcXSrv. Klik hier om een grotere versie van dit cijfer te bekijken.

Supplemental Figure 2
Aanvullende figuur 2: Configuratie voor Xquartz. Klik hier om een grotere versie van dit cijfer te bekijken.

Supplemental Figure 3
Aanvullend figuur 3: Afbeelding geëtiketteerd met de afmetingen die nodig zijn voor de berekening van het gezichtsveld. Klik hier om een grotere versie van dit cijfer te bekijken.

Categorie Parameters Beschrijving Bestand/plot (indien van toepassing)
Ruwe gegevens Lichaamspositie Positionele coördinaten van de body centroid in elk frame Eerste twee kolommen van CoM.csv
Lichaamstraject Draaihoek van de lichaamsas in graden (ten opzichte van de y-as) Derde kolom van CoM.csv
Arena-gecentreerde beenklauw
Posities
Positionele coördinaten van elke beenklauw in elk frame op basis van arenacoördinaten trajectory.csv
Lichaam-gecentreerde beenklauw
Posities
Positionele coördinaten van elke beenklauw in elk frame
gebaseerd op arenacoördinaten
norm_trajectory.csv
De motie van het lichaam Lichaamslengte (mm) Lengte van het monsterdier geschat in elk frame (voorste-meest positie op het hoofd naar posterior-meest
positie op de vleugels)
bodylength.csv
Ogenblikkelijke lichaamssnelheid
(mm/s)
Ogenblikkelijke snelheid van het lichaam (centroid) in het monsterdier BodyVelocity.csv; BodyVelocity.pdf
Keerpunten van het lichaam
Traject
Om de keerpunten te lokaliseren, wordt het traject gereduceerd tot een stuk-lineaire curve met behulp van de Dougl asâASPeucker
algoritme, waarna een draaigebeurtenis wordt geïdentificeerd als een hoek > 50 deg tussen twee naburige
lineaire segmenten die het vereenvoudigde traject vormen
BodyTrajectory.pdf
Individuele pasparameters Pasduur (ms) De duur van een pasevenement StrideParameters.csv
Pasperiode (ms) De duur van de ene pas gebeurtenis naar de volgende
Pasverplaatsing (mm) Verplaatsing van de beenklauw tijdens een pasgebeurtenis
Het belooppad van de pas behandeld (mm) Totaal pad dat door de beenklauw tijdens een pasgebeurtenis wordt behandeld
Voorste extreme positie
mm)
Landingspositie (ten opzichte van het lichaam) van een beenklauw aan het einde van een pasgebeurtenis
Achterste extreme positie (mm) Startpositie (ten opzichte van het lichaam) van een beenklauw aan het begin van een pasgebeurtenis
Pasamplitude (mm) Verplaatsing langs de bewegingsrichting voor een pasgebeurtenis
Lineaire houding (mm) Gedefinieerd als de afwijking van het paspad van een curve gladgestreken (met intervallen van 20 ms) de overeenkomstige voorste
en achterste extreme posities van de pas
Pasrek (mm) Afstand van de beenklauwpositie van het lichaamscentrum in het midden van een pasgebeurtenis
Beenbeweging Beensnelheid (mm/s) De momentane snelheid van elk been LegSpeed.csv; Gait.pdf
Gang-index Dit meet het type gangcoördinatie dat het (zesbenige) monsterdier tijdens zijn beweging tentoonstelt. Een gang
index van 1 komt overeen met een statief gang, _1 komt overeen met een tetrapod gang, terwijl 0 vormt een niet-canonieke gang.
In onze implementatie wordt de gangindex verkregen door een voortschrijdend gemiddelde over een venster van 120 ms
GaitIndex.csv; GaitIndex.pdf
Bewegingspercentage Percentage van de tijd dat een been in beweging is LegParameters.csv
Gemiddelde pasperiode (ms) Gemiddelde duur van de ene stap gebeurtenis naar de volgende LegParameters.csv
Regelmaat voetafdruk (mm) Gemeten als de standaarddeviaties van de achterste en LegParameters.csv
voorste extreme posities van een been
Beentraject domeingebied
(mm2)
Het gebied van de minimale bolle romp die de gehele beenbaan in het lichaam-gecentreerde referentiekader bevat LegParameters.csv; LegDomain.pdf
Lengte en breedte van de
beenbaansdomein (mm)
Verkregen via de maximale geprojecteerde afstand van de klauwposities op de belangrijkste (domeinlengte) en
(domeinbreedte) hoofdassen
LegParameters.csv
Kruising van beendomein/overlapping
(mm2)
Het snijpunt/overlap tussen elke mogelijke LegDomainOverlap.csv
Breedte van de houding (mm) Gemiddelde afstand tussen de AEP en PEP van de linker- en middenbenen StanceWidth.csv

Tabel 1: Gangparameters gegenereerd door FLLIT.

Gangfunctie
Gang kenmerken van Spinocerebellar ataxie 3 (SCA3) Veering Veering Grillige voet plaatsing en been kruising over Lurching stappen Korte stappen
Meetparameter Aantal gebeurtenissen voor lichaamswendingen Regelmaat voor voetafdruk Grootte van beendomeinen, mate van domeinoverlap Paslengte
FLLIT-bestand BodyTrajectory.pdf LegParameters.csv LegDomainOverlap.csv StrideParameters.csv

Tabel 2: Tabel met kenmerkende SCA3-gangfuncties bij menselijke patiënten met hun bijbehorende FLLIT-parameters en uitvoerbestanden.

Discussion

In dit manuscript beschrijven we in detail de stappen die betrokken zijn bij het gebruik van FLLIT, een geautomatiseerd machine-learning programma1, om gang te analyseren in vrij wandelen Drosophila. Na tracking en data-analyse genereert FLLIT automatisch ruwe gegevens voor de positionele informatie van het lichaam en de beenklauwen, waardoor twintig lichaams- en loopfuncties worden geproduceerd, evenals een video van de bijgehouden vlieg om gangvisualisatie mogelijk te maken.

Er zijn nu een aantal methoden voor been beweging tracking van Drosophila en andere dieren1,2,3,4,14,15,16, waardoor onderzoekers een breed scala aan opties, afhankelijk van de doelstellingen van het experiment. Sommige van deze zijn voet afdrukken op basis van benaderingen, die zeer nauwkeurig zijn, maar die alleen klauw contactpunten met de detectie oppervlak4,,14rapporteren . Aan de andere kant, recente deep learning benaderingen2,3,16 zijn zeer veelzijdig, waardoor analyse van gedrag dat het bijhouden van beengewrichten en andere lichaamsdelen in elk dier vereisen, met het voorbehoud dat de algoritmen eerst moeten worden getraind met gebruiker geannoteerde datasets. Een derde type benadering maakt gebruik van morfologie of op beeldcontrast gebaseerde methoden1,15,17 om de omtrek van elk been te vinden om klauwposities te identificeren. In het algemeen gaan deze methoden slecht om met gedrag ingewanten waarbij de benen elkaar kruisen (bijvoorbeeld tijdens het verzorgen). FLLIT combineert de tweede en derde benadering, met behulp van morfologische parameters om een stimulerend algoritme voor beensegmentatie te trainen. Hierdoor kan FLLIT de moeizame taak van gebruikersannotatie omzeilen om de trainingsgegevensset te genereren, terwijl de nauwkeurigheid wordt verbeterd met behulp van machine learning. Toekomstige verbeteringen aan FLLIT zal moeten worden behandeld met gevallen waar benen over kruisen, om analyse van meer complex gedrag mogelijk te maken.

FLLIT is robuust tot kleine veranderingen in verlichting, opnameresolutie en framesnelheid1. De framesnelheid van opgenomen video's mag echter niet onder de 250 fps komen en FLLIT draait optimaal voor video's die met 1000 fps zijn opgenomen. Als er bewegingsonscherpte in de beelden, zodanig dat het een uitdaging is voor een menselijke annotator om de beenpositie te identificeren, zal FLLIT niet in staat zijn om nauwkeurig te identificeren been tips in die frames. In het licht hiervan is het essentieel dat de camera scherp op de beenuiteinden gericht is. Om segmentatieartefacten te voorkomen, moet de arena grondig worden gereinigd en mag deze niet worden verplaatst tijdens de opname. Voor nauwkeurige achtergrondaftrekking en schone segmentatie moet de vlieg tijdens de opname ten minste één lichaamslengte bewegen, zonder te pauzeren. Na automatische segmentatie en tracking moet de etikettering van alle poten worden gecontroleerd. Als de vlieggang niet ten onrechte wordt bijgehouden of bijgehouden, moet het bestand handmatig worden bijgehouden met de optie Handmatig bijhouden starten (stap 5.2.7 – 5.2.10).

Neurodegeneratieve ziekten en bewegingsstoornissen komen steeds vaker voor in onze vergrijzende samenlevingen. Vliegmodellen van neurodegeneratie zijn bestudeerd voor meer dan 2 decennia, waarin vooruitgang zijn geboekt met betrekking tot de moleculaire en cellulaire aspecten van de ziekte pathofysiologie. Echter, specifieke gedragsgevolgen van de ziekte zijn technisch moeilijk te beoordelen. Zo waren er bijvoorbeeld rapporten van trillende bewegingen in de vlieg gemaakt18,19, deze waren tot voor kort niet kwantitatief bestudeerd1. De klimtest is een nuttige en kwantitatieve, maar relatief grove maatregel6. Dit technische tekort heeft ook de analyse van de bewegingen met hoge resolutie in andere diermodellen belemmerd. De komst van nieuwe instrumenten voor gedragsanalyse, vandaar, heeft beloofd om het gebied van bewegingswanorde te verjongen om onderzoekers toe te laten om te bestuderen hoe de moleculaire en cellulaire mechanismen van neuromusculaire ziekten tot specifieke gedragsresultaten in dierlijke modellen leiden. In dit document en in ons vorige werk1,toonden we met behulp van FLLIT dat vliegmodellen van SCA3 vertonen een hyperkinetische ataxic gang, terwijl PD vliegen modellen vertonen een hypokinetische rigide gang, samenvattende bewegingskenmerken van de respectieve menselijke ziekten1. Gang analyse stelde ons ook in staat om verschillende neuronale populaties die ten grondslag liggen aan specifieke beweging disfuncties te identificeren. In de toekomst zal gedetailleerde bewegingsanalyse, gecombineerd met de krachtige beeldvorming en functionele hulpmiddelen die beschikbaar zijn in de vlieg, ons in staat stellen om nieuw inzicht te krijgen in mechanismen van motorische disfunctie, waardoor ons begrip van neurodegeneratieve ziekten met betrekking tot circuitmechanismen wordt verlicht.

FLLIT moet op grote schaal van toepassing zijn op het bestuderen van gang in andere kleine geleedpotigen, zoals eerder werd aangetoond zeer nauwkeurig te zijn voor het bijhouden van spinbeenbewegingen1. Terwijl we ons hier richten op het gebruik van gedetailleerde beweging fenotypering voor het kwantificeren van pathogene gang en de onderliggende circuits, vooruitgang in beweging tracking hebben al een revolutie, en zal blijvende invloed hebben op, het begrip van de normale wandelen coördinatie en gang en de onderliggende circuits, vooral in talloze verschillende takken van de evolutionaire boom.

Disclosures

De auteurs hebben niets te onthullen.

Acknowledgments

De auteurs willen Moumita Chatterjee en Alice Liu bedanken voor technische ondersteuning, en het Bloomington Drosophila Stock Centre (Indiana, USA) voor het ter beschikking stellen van de Drosophila stammen gebruikt in dit werk. Dit werk werd ondersteund door het Institute of Molecular and Cell Biology, Singapore; het Bioinformatics Institute, Singapore; het Agentschap voor de Gemeenschappelijke Raad voor Wetenschapstechnologie en Onderzoek (subsidienummer 15302FG149 aan SA en LC); het Clinical Research Flagship Programme (Parkinson's Disease) beheerd door de National Medical Research Council van het Singaporese ministerie van Volksgezondheid (subsidienummer NMRC/TCR/013-NNI/2014 aan SA), de Universiteit van Alberta (opstartsubsidie voor LC) en de Natural Sciences and Engineering Research Council of Canada (NSERC) Discovery Grant (subsidienummer RGPIN-2019-04575 naar LC).

Materials

Name Company Catalog Number Comments
Acrylic Sheets Dama 1.6 mm thickness, Clear sheets Singapore, Singapore
Clear Glass slides Biomedia BMH 880101 Singapore, Singapore
High speed camera Photron Fastcam MC2.1 Tokyo, Japan. A shutter speed of 1 msec or faster is ideal to reduce motion blur of captured images
Infra Red LED Any - Generic from hardware store 940nm Infrared Light Board Singapore, Singapore
Kimwipe Kimberly Clark 34155-01LS Irving, Texas, USA

DOWNLOAD MATERIALS LIST

References

  1. Wu, S., et al. Fully automated leg tracking of Drosophila neurodegeneration models reveals distinct conserved movement signatures. PLoS Biology. 17 (6), 3000346 (2019).
  2. Mathis, A., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning. Nature Neuroscience. 19, 1281-1289 (2018).
  3. Pereira, T. D., et al. Fast animal pose estimation using deep neural networks. Nature Methods. 16 (1), 117-125 (2019).
  4. Machado, A. S., Darmohray, D. M., Fayad, J., Marques, H. G., Carey, M. R. A quantitative framework for whole-body coordination reveals specific deficits in freely walking ataxic mice. eLife. 4, (2015).
  5. Lu, B., Vogel, H. Drosophila models of neurodegenerative diseases. Annual Reviews in Pathology. 4, 315-342 (2009).
  6. McGurk, L., Berson, A., Bonini, N. M. Drosophila as an In Vivo Model for Human Neurodegenerative Disease. Genetics. 201 (2), 377-402 (2015).
  7. Dionne, H., Hibbard, K., Cavallaro, A., Kao, J. -C., Rubin, G. M. Genetic reagents for making split-GAL4 lines in Drosophila. bioRxiv. , (2017).
  8. Cande, J., et al. Optogenetic dissection of descending behavioral control in Drosophila. eLife. 7, (2018).
  9. Nern, A., Pfeiffer, B. D., Rubin, G. M. Optimized tools for multicolor stochastic labeling reveal diverse stereotyped cell arrangements in the fly visual system. Proceedings of the National Academy of Sciences of the United States of America. 112 (22), 2967-2976 (2015).
  10. Xie, T., et al. A Genetic Toolkit for Dissecting Dopamine Circuit Function in Drosophila. Cell Reports. 23 (2), 652-665 (2018).
  11. Warrick, J. M., et al. Ataxin-3 suppresses polyglutamine neurodegeneration in Drosophila by a ubiquitin-associated mechanism. Molecular Cell. 18 (1), 37-48 (2005).
  12. Ebersbach, G., et al. Comparative analysis of gait in Parkinson's disease, cerebellar ataxia and subcortical arteriosclerotic encephalopathy. Brain. 122 (7), 1349-1355 (1999).
  13. Stolze, H., et al. Typical features of cerebellar ataxic gait. Journal of Neurology, Neurosurgery and Psychiatry. 73 (3), 310-312 (2002).
  14. Mendes, C. S., Bartos, I., Akay, T., Marka, S., Mann, R. S. Quantification of gait parameters in freely walking wild type and sensory deprived Drosophila melanogaster. eLife. 2, 00231 (2013).
  15. DeAngelis, B. D., Zavatone-Veth, J. A., Clark, D. A. The manifold structure of limb coordination in walking Drosophila. eLife. 8, (2019).
  16. Gunel, S., et al. DeepFly3D, a deep learning-based approach for 3D limb and appendage tracking in tethered, adult Drosophila. eLife. 8, (2019).
  17. Isakov, A., et al. Recovery of locomotion after injury in Drosophila melanogaster depends on proprioception. The Journal of Experimental Biology. 219, Pt 11 1760-1771 (2016).
  18. Aw, S. S., Lim, I. K. H., Tang, M. X. M., Cohen, S. M. A Glio-Protective Role of mir-263a by Tuning Sensitivity to Glutamate. Cell Reports. 19 (9), 1783-1793 (2017).
  19. Eberl, D. F., Duyk, G. M., Perrimon, N. A genetic screen for mutations that disrupt an auditory response in Drosophila melanogaster. Proceedings of the National Academy of Sciences of the United States of America. 94 (26), 14837-14842 (1997).

Tags

Gedrag Probleem 158 Drosophila,insect machinelearning tracking loopanalyse neurodegeneratie
Volledig geautomatiseerde leg tracking in vrij bewegende insecten met behulp van Feature Learning Leg Segmentation and Tracking (FLLIT)
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Banerjee, A., Wu, S., Cheng, L., Aw, More

Banerjee, A., Wu, S., Cheng, L., Aw, S. S. Fully Automated Leg Tracking in Freely Moving Insects using Feature Learning Leg Segmentation and Tracking (FLLIT). J. Vis. Exp. (158), e61012, doi:10.3791/61012 (2020).

Less
Copy Citation Download Citation Reprints and Permissions
View Video
Waiting X
Simple Hit Counter