Flaskehals for mobilnettet 3D elektronmikroskopi er funksjonen utvinning (segmentering) i svært komplekse 3D tetthetskart. Vi har utviklet et sett av kriterier, som gir veiledning om hvilke segmentering tilnærming (manuell, semi-automatisert, eller automatisert) er best egnet for ulike datatyper, og dermed gi et utgangspunkt for effektiv segmentering.
Moderne 3D elektronmikros tilnærminger har nylig tillates enestående innsikt i 3D ultrastructural organisering av celler og vev, slik at visualisering av store makromolekylære maskiner, slik som adhesjons komplekser, så vel som høyere-ordens strukturer, slik som cytoskjelettet og cellulære organeller i sitt respektive celler og vev sammenheng. Gitt den iboende kompleksitet cellulære volumer, er det nødvendig først å trekke ut de funksjoner av interesse for å tillate visualisering, kvantifisering, og derfor forståelse av deres 3D organisasjon. Hvert datasett er definert av forskjellige egenskaper, for eksempel, signal-til-støy-forhold, skarphet (skarphet) av data, heterogenitet av sine funksjoner, crowded av funksjoner, nærvær eller fravær av karakteristiske figurer som gir mulighet for enkel identifisering, og den prosent av hele volumet at en bestemt region av interesse okkuperer. Alle disse karakteristika må vurderesnår de bestemmer seg for hvilken tilnærming å ta for segmentering.
De seks forskjellige 3D ultrastructural datasett presenteres ble innhentet av tre forskjellige bilde tilnærminger: harpiks innebygd farget electron tomography, fokusert ion Sprede- og serie blokk ansikt-scanning elektronmikroskopi (FIB-SEM, SBF-SEM) av mildt farget og sterkt farget prøver , henholdsvis. For disse datasettene, har fire forskjellige segmenterings tilnærminger lagt til grunn: (1) fullt manuell modellbygging fulgt utelukkende av visualisering av modellen, (2) manuell sporing segmentering av dataene etterfulgt av overflaten rendering, (3) semi-automatisert tilnærminger fulgt ved overflaten rendering, eller (4) automatiserte spesialdesignede segmenteringsalgoritmer fulgt av overflategjengivelse og kvantitativ analyse. Avhengig av den kombinasjon av data satte karakteristikker, ble det funnet at vanligvis en av disse fire kategoriske tilnærminger gir bedre resultater enn de andre, men avhengig av den nøyaktige sekvens av kriterier, more enn en tilnærming kan være vellykket. Basert på disse dataene, foreslår vi en triage ordning som kategoriserer både objektive data sett egenskaper og subjektive personlige kriterier for analyse av de ulike datasett.
Tradisjonelt elektronmikroskopi (EM)-feltet har blitt delt inn i 1) strukturbiologi gren ved hjelp av høy og super-høy oppløsning TEM, vanligvis kombinert med implisitte eller eksplisitte data i snitt for å undersøke den tredimensjonale (3D) struktur av makromolekylære komplekser med en definert sammensetning og vanligvis en relativt liten størrelse på 1-4, og 2) cellebilde gren i hvilken hele cellulære natur er visualisert 1,5,6. Mens den strukturelle biologi grenen har gjennomgått en spektakulær utvikling i løpet av de siste fire tiårene, ble cellebiologi gren stort sett begrenset til to dimensjoner, ofte på mindre enn optimalt bevarte prøver. Bare med bruk av elektron tomografi i det siste tiåret har celle biologiske ultrastructural bildebehandling ekspandert inn i den tredje dimensjonen 5,7, hvor typisk snitt kan ikke utføres som den cellulære natur, og dermed de funksjoner av interesse, er vanligvis unik.
Selv visualisert cellulære scener er ofte imponerende for øyet, effektiv utvinning av funksjonene i interesse og påfølgende kvantitativ analyse av slike svært komplekse cellulære volumer sakker akterut, delvis fordi den presise proteinsammensetningen er vanligvis ukjent, derfor gjør det utfordrende å tolke disse mobil 3D-volumer. Til denne datoen, er omfattende biologisk kompetanse ofte nødvendig for å tolke komplekse tomograms, eller til og med å identifisere viktige områder og viktige komponenter i 3D-volumet. Som en ytterligere komplikasjon, er visualisering av 3D-volumer bemerkelsesverdig ikke-triviell. 3D-volumer kan bli tenkt på og dermed visualiseres som stabler av 2D-bilder. Slice-by-slice inspeksjon av sekvensielle 2D-bilder reduserer kompleksiteten, men det er også grenser har utvinning og dermed kvantitativ analyse til de to dimensjonene. Men for de fleste 3D-objekter, skildringen av 3D volumer som bare en bunke med påfølgende fly fører til en ufullstendig end skjevt perspektiv i et bestemt system 3D natur. Alternative moduser av visuell inspeksjon krever enten volumgjengivelse eller overflaterendering, som-gitt ofte tett natur av en mobil volum kan lett føre til en hindret visning av nestede gjenstander eller overmanne en bruker helt, og dermed gjør interaktiv manuell segmentering vanskelig.
For å bøte på disse barrierene, et stort utvalg av automatisert funksjon utvinning (segmentering) tilnærminger har blitt utviklet som er typisk enten tetthets eller gradient-basert 8-10. Men disse metodene har en tendens til å segmentere hele volumet uavhengig av hvilke områder eller funksjoner er av interesse for den sakkyndige, selv om noen nyere metoder kan målrette en bestemt funksjon av interesse som actinfilamenter 11. I tillegg kan de programmer som utfører automatisert segmentering noen ganger resultere i produksjon av et stort antall undermengder (for eksempel ved anvendelse av vannskillet immersion segmentering) som ofte trenger å bli slått sammen manuelt tilbake inn innbefattende hele funksjonen av interesse eller underkastes ytterligere segmentering. Dette gjelder særlig for kompliserte og fylt datasett, og dermed mest gjengivelsesdatamaskinalgoritmer er ute av stand til å trekke ut bare de funksjoner av interesse med nøyaktighet, og betydelig innsats for konservering av en ekspert er ofte nødvendig for å produsere en ønsket segmentert volum.
Videre er tilpassede løsninger til en svært spesifikk problem ofte publisert som en vitenskapelig møte papir, med liten eller ingen vekt på å gjøre dem bred og omfattende verktøy tilgjengelig for forskere som ikke har inngående kjennskap til fagområdene matematikk, informatikk og / eller datagrafikk. En passelig programmering programvare-miljøet, som inneholder en rekke bildeanalyse biblioteker, kan være et kraftig verktøysett som tillater brukere å effektivt skrive sine egne moduler for nøyaktig segmentering. Men denne tilnærmingen krever extensive trening og en bakgrunn i informatikk for å dra nytte av sine mange funksjoner eller muligheter for bildeanalyse. Man kan arbeide innenfor en så allsidig programvaremiljø for enkelte datasett der funksjonene er mer sparsom, for eksempel, ved å utnytte kraftige form baserte tilnærminger som er avhengige av den unike geometrien "maler" for å skille objekter av interesse fra sine omgivelser 12,13 .
En rettferdig rekke datagrafikk visualiserings pakker finnes for interaktiv manuell segmentering og modellbygging. Noen pakker er kommersielt tilgjengelig, mens andre er av akademisk opprinnelse og distribueres gratis, for eksempel: University of California San Francisco Chimera 14, University of Colorado imod 15, og University of Texas Austin VolumeRover 16. Men det store omfanget og kompleksiteten av funksjoner og muligheter disse programmene besitter brattere læringskurve for each. Enkelte visualiseringsprogrammer gir enkle geometriske modeller, for eksempel baller og pinner i ulike størrelser, som kan plasseres inn i tetthetskart for å skape en forenklet modell av komplekse 3D-volumet. Disse modellene da tillate enkle geometriske og volumetriske målinger og derfor gå utover bare "pent bilde". En slik manuell sporing av objekter fungerer godt for volumer hvor bare et lite antall objekter må spores og ekstrahert. Men den siste utviklingen av store volum 3D ultrastructural avbildning ved hjelp av enten fokusert ion stråle scanning elektronmikroskopi (FIB-SEM) 17-20 eller serie blokk ansiktet scanning elektronmikroskopi (SBF-SEM) 21 presenterer den ekstra komplikasjon at størrelsen på 3D-data sett kan variere fra gigabyte til titalls og hundrevis av gigabyte, og selv de terabyte. Derfor så store 3D-volumer er nærmest utilgjengelige til manuell funksjon utvinning, og dermed effektiv brukerstyrt semi-automatisert feature utvinning vil være en av flaskehalsene for effektiv analyse av 3D-volumer i overskuelig fremtid.
Presenteres her er fire forskjellige segmenterings tilnærminger som rutinemessig brukes på et stort spekter av biologiske bildetyper. Disse metodene blir så sammenlignet for deres effektivitet for ulike typer datasett, slik at en samling til en guide for å hjelpe biologer bestemme hva som kan være den beste segmentering tilnærming for effektiv funksjon utvinning av egne data. Som beskrevet brukermanualer er tilgjengelig for de fleste av programmene som er beskrevet, er målet ikke å gjøre potensielle brukere kjent med noen av disse spesielle pakker. I stedet er målet å demonstrere de respektive styrker og begrensninger av disse ulike segmentering strategier ved å bruke dem til seks eksempel datasett med ulike egenskaper. Gjennom denne sammenligningen, har et sett av kriterier blitt utviklet som enten er basert på de objektive bilde kjennetegn ved3D datasett, for eksempel data kontrast, sprøhet, crowded og kompleksitet, eller stammer fra subjektive betraktninger, slik som den ønskede mål for segmentering, morfologi av de funksjoner å være segmentert, befolkningstetthet av funksjonene av interesse, noe som betyr at den brøkdel av volumet okkupert av funksjon av interesse, og hvordan en går optimalt med begrensede ressurser som tid og tilgjengelighet av ansatte. Disse forskjellige datasett eksempel illustrerer hvordan disse objektive og subjektive kriterier kan påføres etter hverandre i en rekke kombinasjoner, hvorved en sammenkobling av visse egenskapsuttrekking tilnærminger med visse typer datasett. De oppgitte vil forhåpentligvis hjelpe nybegynnere anbefalinger møtt med et stort utvalg av segmenteringsalternativer å velge den mest effektive segmentering tilnærming for sin egen 3D-volumet.
Mens fokuset i denne artikkelen er funksjonen utvinning, oppmerksomhet til datainnsamling og pre-prosessering av data er avgjørende for effektive segmentation. Ofte farging av prøver kan være ujevn, og derfor bør potensielle fargings gjenstander bli vurdert i segmenter prosedyren. Imidlertid flekken gir vanligvis høyere signal-til-støy, og derfor krever mindre filtrering og matematisk behandling av cellevolum, noe som potensielt kan også resultere i gjenstander. De respektive rå bilde datasett må erverves til de riktige innstillingene for kontrast og kamera pixel, justert, og bygd om til et 3D-volum. For tomograms, er innrettet bilder rekonstrueres ved bruk av typisk vektet tilbake-projeksjon, og deretter datasettet blir vanligvis utsatt for denoising algoritmer slik som ikke-lineær anisotrop diffusjon 22, bilateral filtrering 23 eller rekursiv medianfiltrering 24. FIB-SEM og SBF-SEM bildebehandling data er justert ved kryss samkjøre sammenhengende skiver i XY utnytte programmer som ImageJ 25. Kontrastforsterkning og filtrering kan brukes for å øke funksjoneneinteresse og dermed til de-støy bildestabelen. Filtrering kan utføres enten på hele volumet før subvolume valg eller på de valgte subvolumes, som filtrering tilnærminger kan være beregningsmessig kostbart. Ned-sampling av dataene (binning), som noen ganger benyttes for støyreduksjon og / eller fil størrelsesreduksjon, anbefales bare hvis data har blitt betydelig oversampled sammenlignet med den forventede oppløsning.
Etter støyreduksjon, kan de behandlede bilder da bli segmentert etter ulike metoder, og fokus i denne studien er på følgende fire: (1) manuell abstrahert modell generasjon gjennom å skape en ball-og-stick modell, (2) manuell sporing av funksjoner av interesse, (3) automatisert terskel-baserte tetthet, og (4) skreddersydd automatisert segmentering via et skript for prosjektspesifikke segmentering. Boundary segmentering 8 og oppslukende vannskille segmentering 10 er bedre alternativer til enkel terskling, men thei hører hjemme i samme kategori, og er ikke tatt med eksplisitt i denne diskusjonen.
Manuell sporing av tettheter krever skisserte funksjoner av interesse, skjære-by-slice, som tillater oppbevaring av den opprinnelige tetthet av respektive sub-mobilnettet områder. Denne fremgangsmåten tillater maksimal kontroll av segmenteringsprosessen, men det er en omstendelig og arbeidskrevende prosess.
Automatiserte terskel-baserte (og relatert) tetthet segmentering tilnærminger er halvautomatisk, der en algoritme velger piksler basert på et sett av brukerdefinerte parametere. Flere akademiske (gratis) visualiserings pakker, slik som UCSF Chimera, imod, Fiji 26, og VolumeRover er tilgjengelige, så vel som kommersielle (krever betalingslisenser) pakker, og begge typer typisk omfatte en eller flere av disse segmenterings tilnærminger. Programvarepakker som brukes i dette arbeidet for å illustrere disse ulike metodene omfatter både kommersielle programmer og akademiske åpne sOurce programmer for manuelt generere en abstrakt modell, så vel som manuelle og automatiserte tetthet segmentering. Imidlertid kan åpen kildekode noen ganger tilby mer avanserte alternativer gjennom muligheten for tilpasning.
En sammenligning av disse teknikkene ved hjelp av ulike typer datasett førte til følgende presentasjon av regler og veiledning om hvordan å nærme segmentering av ulike biologiske data 3D-volumer, noe som så vidt vi vet ennå ikke er publisert. Dermed er dette den første systematisk sammenligning av de ulike tilnærminger og deres nytte på datasett med varierende egenskaper for brukere med forskjellige mål.
Effektive strategier for utvinning av relevante funksjoner fra 3D EM volumene er sterkt behov for å holde tritt med data tsunamien som nylig har rammet biologisk avbildning. Mens data kan genereres på flere timer eller dager, det tar mange måneder å analysere 3D-volumer i dybden. Derfor er det klart at den bildeanalyse har blitt flaskehalsen for vitenskapelige oppdagelser; uten tilstrekkelige løsninger for disse problemene, bildebehandling forskere blitt ofre for sin egen suksess. Dette er delvis på grunn av den høye kompleksiteten av dataene og også makromolekylært trengsel som vanligvis finnes i biologiske celler, der proteiner og proteinkomplekser tangere hverandre og i hovedsak fremstår som en kontinuerlig gradient av gråtoner tettheter. Problemet kompliseres av prøveopparbeidelse og bilde småfeil, og i noen tilfeller image gjenoppbygging gjenstander, som fører til mindre enn perfekt volumetriske data som kan utgjøre utfordringer for fullt automatisert tilnærminges. Mest betydningsfulle, er imidlertid det faktum at ekspertene i prøveopparbeidelse, bildebehandling, og den biologiske tolkningen er sjelden godt bevandret i beregningsvitenskap, og dermed krever veiledning om hvordan du effektivt nærmer funksjonen utvinning og analyse. Derfor, gjennom bruk av ulike eksempler, forklarer protokollen hvordan å forberede data for segmentering, samt fremgangsmåten for manuell abstrahert modell generasjon, automatisert tetthet basert segmentering, manuell sporing av funksjoner av interesse, og skreddersydd automatisert segmentering. De manuelle og automatiske metoder som er beskrevet i fremgangsmåten kan bli funnet i et stort utvalg av segmenterings programvare, hvorav noen er nevnt her, men andre utføre lignende funksjoner og er like godt egnet.
Resultatene viser at effektiviteten av hver av de 3D segmenterings tilnærminger varierer for hver forskjellig type datasett. Selv om de ulike tilnærminger produsert kvalitativt similar 3D-gjengivelser som sluttproduktet, hvor mye tid og krefter brukt på hver under segmentering prosessen variert betydelig. Anbefalingene for riktig bildeegenskaper og personlige mål per segmentering tilnærming er oppsummert i figur 5, som er nærmere forklart i de følgende fire deler. Disse kriterier ble anvendt på de seks datasett, som vist i beslutningsflytdiagram på figur 6.. Selv om figurene 5 og 6 er bare ment å gi en begrunnelse for hver datapost, og hvor hvert av kriteriene ble veiet i beslutningsprosessen, de gir ikke en idiotsikker veiledning, men snarere et utgangspunkt. Det er rett og slett for mange kriterier som påvirker beslutningsprosessen: noen er objektive kriterier, for eksempel data sett egenskaper, mens andre er mer subjektive kriterier, som for eksempel ønsket mål. Det er trygt å si at datasett som viser en høy level av kontrast med skarpe skarpe grenser, har funksjoner som er godt atskilt og relativt homogen (ikke altfor variert), og er behandlet med sikte på å vise en tetthet modell for et stort antall gjenstander, vil automatiserte tilnærminger være overlegen, om ikke for det faktum at manuelle metoder ville bare være ressurs (tid) -prohibitive. På den annen side, dersom kontrasten er lav, er den data uklar og således krever en ekspert kjenner til objektene er overfylt, og funksjonene viser en høy mangfold og er således heterogen, kan man ikke har noe annet valg enn manuell egenskapsuttrekking / segmentering.
Manuell Abstracted Model Generation
Manuell abstrahert modell tracing er spesielt effektiv i å segmentere lineære elementer, som gir frø poeng (baller) som kan bli automatisk koblet (pinner). Slike baller og pinner-modeller kan være svært kraftig for å måle lengden ennd orientering av en slik modell, og tilveiebringe en tilstrekkelig abstrahert modell for både kvalitativ undersøkelse og kvantitativ analyse. Manuell abstrahert modell generasjon er ofte brukt når minimere ressurser brukt på analyse er viktigere enn absolutt troskap til figurer av de opprinnelige dataene. Det er mest vellykket med lineære og homogene funksjoner av interesse (f.eks filamenter, rør). Kontrast data, skarphet, og folkemengden ikke spille en viktig rolle i å bestemme denne metoden suksess, så lenge det menneskelige øyet kan gjenkjenne objektet av interesse. Noen ganger kan slike modeller kan også bli brukt som et skjelett for å segmentere 3D-kartet i en sone rundt skjelettet. Selv om modellen er abstrakt snarere enn en refleksjon av eksakte tettheter, representerer den en skeletonized versjon av 3D-tetthet og dermed tillater ryddig visualisering og kvalitativ analyse. Kvantitative målinger som lengde kan også bestemmes fra det omtrentlige modell. For eneksempel på programvare med manuell abstrahert modell generasjon, kan du gå Chimera detaljerte bruksanvisningen online på http://www.cgl.ucsf.edu/chimera/current/docs/UsersGuide/index.html .
Manuell Sporing av funksjoner av interesse
Manuell pensel tracing fungerer godt med nesten alle dataegenskaper, men det er også den mest tidkrevende metode. Til tider er det eneste teknikk for å ekstrahere en funksjon av interesse fra et komplekst bilde sett inneholdende et stort utvalg av funksjoner, for eksempel den tynne og uoversiktlig cellemembranen. Et nyttig verktøy tilgjengelig i enkelte programmer gir mulighet for interpolering mellom midlertidig segmentert skiver når funksjonen av renteendringer jevnt. Manuell tracing kan brukes mest effektivt hvis dataene er skarp og har middels til høy kontrast, men det kan også benyttesfor mer utfordrende datasett, så lenge brukeren er kjent med gjenstand for interesse. Dataene kompleksitet kan variere fra diskrete objekter til komplekse og overfylte datasett, hvor objekter er tett pakket. I sistnevnte tilfelle, kan manuell segmentering være det eneste valget, som automatiske tilnærminger ofte sliter med å segmentere ønsket volum og trekke for mye eller for lite. Vanskelige har morfologi, slik som convoluted ark eller volumer, også kan ekstraheres ved denne metoden. Imidlertid bør brukeren huske på at et datasett med flere vanskelige egenskaper kan bare segmentert hvis befolkningstettheten av funksjonene i interessen er lav, da segmentering av høye befolkningstettheten i de funksjoner av interesse blir tids uoverkommelige. For et eksempel på programvare med manuell sporing, kan du gå Amira detaljert bruksanvisning online på http://www.vsg3d.com/sites/default/files/Amira_Users_GuidE.pdf.
Automatisert Density-basert segmentering
I motsetning til den manuelle teknikker, automatiserte metoder er generelt mindre tidkrevende, noe som er en viktig faktor å vurdere når segmentere en stor stabel av bilder. Imidlertid kan enkle terskelverdier ikke være så nøyaktig, og mye mer tid kan bli brukt på raffinering og konservering av automatisk segmentert volum. Automatisert tetthet-basert segmentering fungerer best på datasett som viser et stort antall lignende funksjoner av interesse som alle krever segmentering. Hvis dataene er mer komplekse, kan disse automatiserte teknikker fortsatt tjene som et første skritt, men vil trolig kreve noe manuell inngripen ned linjen for å angi en subvolume inneholder funksjonen av interesse. Denne strategien fungerer vanligvis godt på lineære morfologi eller convoluted volumer, men det er sjelden vellykket med tynne convoluted ark somcellemembraner. Minimal brukerinngripen med automatiserte tilnærminger muliggjør segmentering gjennom store eller små volumer, mens expending noen bruker ressurser som tid i retur for high fidelity. For et eksempel på programvare med automatiserte tetthet basert segmentering, kan du gå Amira detaljert bruksanvisning online på http://www.vsg3d.com/sites/default/files/Amira_Users_Guide.pdf .
Skreddersydd Automated Segmentering
Skreddersydd automatisert segmentering gjør at strøm tilpasning av algoritmer for et bestemt datasett, men det er ofte spesifikke for datasettet eller datatype, passende for et begrenset antall har egenskaper, og kan ikke generaliseres enkelt. Prosedyren vist frem her skiller seg fra de generelle automatiserte segmenterings tilnærminger, for eksempel vannskille nedsenking og andre nivå sett metoder, som er avhengige av en programmert fastsettelse av kritiske frø poeng, etterfulgt av rask marsj kube ekspansjon fra disse frø poeng. En variant av dette temaet er grensen segmentering, hvor gradient vektor informasjon informerer har grenser. I kontrast til den tilpassede skriptet som er brukt her er basert på en opplærings stadium hvor brukeren spor noen eksempler manuelt. Gjennom maskinlæring, vil spesifikke algoritmer oppdage og deretter lære å selvstendig gjenkjenne egenskaper og dataegenskaper konsekvent funnet i spor. En ekspert bruker kan omskolere algoritmer og forbedre nøyaktigheten av segmentering ved å inkludere mer eksempel spor å gi et større sett over funksjonskriterier. Samlet sett kan Terskelverdier og relaterte tilnærminger, eller til og med kundetilpassede tilnærminger ikke være så nyttig å trekke ut en enkelt funksjon av interesse fra et bilde med komplekse mangfoldet av organeller eller figurer, som curation kan være like arbeidskrevende som manuell sporing.
">Strategier for Triaging data og velge en Segmentering Approach
Gitt de subjektive og objektive kriterier som er presentert i figur 4, og oppsummering av egnede datasett i figur 5, kan beslutnings ordningen vist i figur 6 bistå en effektiv vurdering av funksjon ekstraksjon strategier for et stort utvalg av datasettene. Datasettene blir triaged i fire påfølgende beslutninger, som hver kan omfatte hvilket som helst av de fire respektive mål, så vel som de fire utvalgte kriterier introdusert i figur 4. Som et eksempel, er det rasjonelt for triaging hver av de seks data Figur 6 sett vist i figur 3. Utvilsomt, for hvert datasett er det ikke en eneste unik bane, men snarere ulike veier gjennom denne matrisen følgende ulike kriterier for beslutninger som kan føre to den samme eller forskjellig innstilling for data segmentering. Mens hver datasett vil ha sitt eget sett av egenskaper, som ikke kan forutses, er seks eksempler gitt, hver forbundet med en forklaring av begrunnelsen bak den foretrukne funksjonen utvinning / segmentering tilnærming. De fleste har også et forslag til en alternativ beslutningsrute som enten resulterer i bruk av den samme eller en annen tilnærming segmentering (figur 6).
Den kinocilium er en skarp datasett med klart definerte grenser, noe som gjør automatiserte tilnærminger mer sannsynlig å lykkes. Alle funksjoner av interesse er godt atskilt, igjen favoriserer en automatisert tilnærming. I tillegg er funksjoner av interesse er lik hverandre, noe som gjør det til en relativt homogen datasett ideelt for skreddersydd segmentering. Til slutt, var målet å trekke ut hele funksjonen, favoriserer en semi-automatisert tilnærming. Som en konsekvens av dette, ble det konkludert at en automatisert terskling (solid grønn linje), samt en spesialdesignet (f.eks forme overvåket segmentering) tilnærming (stiplet grønn linje) er både sannsynlig å gjøre det bra på dette datasettet.
Lignende kriterier, selv om det er lagt inn i en annen rekkefølge i beslutnings nettverk, gjelder for tilfelle av bakterier. En skreddersydd tilnærming anbefales blant annet fordi dette datasettet var veldig stort; dermed begrensede ressurser forby en arbeidskrevende manuell inngripen / segmentering tilnærming. Mens thresholding ville gitt akseptable resultater, den spesialdesignede tilnærming var i stand til å utføre studiens hovedmål å skille roundish bakterielle figurer fra de ekstracellulære metallforekomster, som ligger enten i mellom bakterier eller rett ved siden av bakterier, og derfor skreddersydd tilnærming ble foretrukket.
For stereocilia datasett, var det første hensynet ønsket mål: målet kan enten være å vise hele tettheteller for å lage geometriske modeller. Volumet av interesse var en overfylt område, og målet var å segmentere et stort antall gjenstander som separerte objekter for å deretter utføre kvantitativ volumetrisk analyse, inkludert lengder, tall, avstander, orientering, etc. Det var nyttig at objekter av interesse var hovedsakelig lineær, og dette gjorde geometrisk modell tracing metoden for valg. Men hvis i stedet målet har vært å vise fullstendig tetthet, og den lineære funksjonen morfologi, så vel som relativt høye kontrast med skarpt definerte grenser ville gjøre en automatisert terskling protokoll bart.
Cellemembranene og mitokondrier data tilfeller er utfordrende for automatiserte tilnærminger på grunn av sine kategorier av funksjonen morfologi: convoluted ark og volumer, henholdsvis. Målet er å spore cellen eller mitokondriene disposisjon nøyaktig, men det er kun begrensede ressurser til å gjøre det. I tillegg funksjonene i interest er komplekse og kan ikke være lett oppdages automatisk eller form-kodet, selv for mitokondriene datasett tilpasset scripting tilnærming tatt for bakterier kan muligens brukes med ytterligere tilpasning. Heldigvis membranen og mitokondrier seg selv bare utgjør en liten brøkdel av hele volumet, og følgelig er en grei riktignok tidkrevende metode manuell tracing. Manuell tracing er også den foretrukne metode for slike datasett når kontrasten er heller lav, og grensene er ganske uklar. Som et resultat, selv om de utgjør en vesentlig del av datasettene, må slike innviklede plater være manuelt spores, ganske enkelt på grunn av mangel av et bedre alternativ.
Anlegget datasett stilt sine egne utfordringer fordi målet var å segmentere alle objekter, som er tett plassert og utgjør en overfylt natur. Viser tettheten som-er ville muliggjøre målinger om form og organisering av objekter, men because manuelt segmentere hvert trådformede objektet er for kostbart, automatisk thresholding ble ansatt i stedet.
De ulike trinn og tilsvarende resultater i å skape en 3D-modell har blitt vist her, men enda viktigere, til dataegenskaper og personlige kriterier funnet å være avgjørende for den beste veien for segmentering har også blitt belyst. De viktigste egenskapene til bildet selve dataene inkluderer det som er beskrevet her som kontrast, folkemengden, skarphet, og antall ulike former eller funksjoner (for eksempel organeller, filamenter, membraner). Subjektive kriterier for å vurdere omfatter det ønskede målet for segmentering (måle / telling, skeletonized representasjon av dataene / viser volumer i 3D-gjengivelser), morfologiske egenskaper av funksjonen av interesse (lineær, langstrakt, i et nettverk, kompleks, korrugert), tettheten funksjoner av interesse i forhold til hele volumet (brøkdel av de objektene som erviktig og må pakkes ut), og balansere avveininger av å bruke ressurser til segmentering troskap av de opprinnelige dataene og den synkende avkastning på investeringen resulterer i inkrementelle forbedringer for vesentlig høyere allokering av ressurser.
Feltet av bildesegmentering har betydelig modnet de siste årene, men det er ingen sølvkule, ingen algoritme eller program som kan gjøre alt. Datasett størrelser har vokst fra hundrevis av megabyte til rutinemessig titalls gigabyte, og de er nå i ferd med å overgå terabyte, noe som gjør manuell segmentering nær umulig. Dermed mer ressurser må være investert i de smarte og tidsbesparende funksjon utvinning tilnærminger som etterligner den menneskelige beslutningsprosessen. Slike forsøk må kombineres med (1) geografisk informasjonssystem (GIS) baserte semantiske hierarkiske databaser (ligner på Google Earth), (2) data abstraksjon teknikker (dvs. overgangenfra en voksel til geometrisk / volumetrisk representasjon) kompatibelt med dataassistert konstruksjon (DAK) programvare for å redusere mengden av data, og dermed muliggjør visning av større volum 35, (3) simuleringsteknikker, slik de ofte anvendes i ingeniørdisipliner, samt (4) avansert animasjon og lage film evner, inkludert fly-through animasjoner (tilsvarende det som er utviklet for spillindustrien).
Åpenbart effektiv egenskapsuttrekking og segmentering ligger til grunn for denne kommende revolusjon innen cellulær høy oppløsning avbildning, og samtidig bedre metoder vil alltid være behov for, de prinsipper som er presentert her, så vel som eksempler på hva tilnærming ble tatt for forskjellige datatyper , vil gi noen verdifull informasjon for å gjøre en beslutning om hvilken tilnærming å ta.
The authors have nothing to disclose.
We would like to acknowledge and thank Tom Goddard at University of California San Francisco for his endless help with Chimera, Joel Mancuso and Chris Booth at Gatan, Inc. for their help with SBF-SEM data collection of bacteria dataset, Doug Wei at Zeiss, Inc. for his help with the FIB-SEM data collection of epithelial cell dataset, Kent McDonald at University of California Berkeley Electron Microscopy Lab for advice on sample preparation, TEM imaging and tomography, Roseann Csencsits at Lawrence Berkeley National Laboratory for her help taking the cryo-TEM image, Elena Bosneaga for cryo-sectioning of the plant dataset, Jocelyn Krey at Oregon Health and Science University for the dissection of utricle tissue, David Skinner at National Energy Research Scientific Computing Center (NERSC) and Jitendra Malik at University of California Berkeley for their advice in software infrastructure, and Pablo Arbelaez at University of California Berkeley for his codes contributions to the custom-tailored script presented in this article.
Research was supported by the U.S. Department of Energy, Office of Science under contract No. DE-AC02-05CH11231 [David Skinner], as well as U.S. National Institutes of Health (NIH) grant No. P01 GM051487 [M.A.] for the inner ear hair cell project and microscopy instrumentation use.
Material Name | Company | Comments | |
Amira | FEI Visualization Sciences Group | http://www.vsg3d.com/amira/overview | |
Chimera | UCSF | http://www.cgl.ucsf.edu/chimera/ | |
Fiji/ImageJ | National Institute of Health | http://fiji.sc/Fiji, http://rsbweb.nih.gov/ij/ | |
IMOD | Boulder Laboratory for 3D Electron Microscopy of Cells | http://bio3d.colorado.edu/imod/ | |
Photoshop | Adobe | http://www.adobe.com/products/ photoshopfamily.html | |
MATLAB | MathWorks | http://www.mathworks.com/ | |
VLFeat | VLFeat | http://www.vlfeat.org/ |