Summary

Databases voor het efficiënt beheren van middelgrote, lage snelheid, multidimensionale data in weefsel engineering

Published: November 22, 2019
doi:

Summary

Veel onderzoekers genereren “middelgrote”, lage-snelheid, en multidimensionale gegevens, die efficiënter kunnen worden beheerd met databases in plaats van spreadsheets. Hier bieden we een conceptueel overzicht van databases, waaronder het visualiseren van multidimensionale gegevens, het koppelen van tabellen in relationele database structuren, het in kaart brengen van semi-geautomatiseerde gegevens pijpleidingen en het gebruik van de database om gegevens betekenis te verhelderiseren.

Abstract

De wetenschap vertrouwt op steeds complexere gegevenssets voor de voortgang, maar veelgebruikte methoden voor gegevensbeheer, zoals spreadsheet Programma’s, zijn ontoereikend voor de groeiende schaal en complexiteit van deze informatie. Hoewel databasebeheersystemen het potentieel hebben om deze problemen op te lossen, worden ze niet vaak gebruikt buiten bedrijfs-en informatica velden. Toch, veel onderzoek labs al genereren “medium sized”, lage snelheid, multidimensionale gegevens die veel baat kunnen hebben bij het implementeren van soortgelijke systemen. In dit artikel geven we een conceptueel overzicht waarin wordt uitgelegd hoe databases functioneren en de voordelen die ze bieden in weefsel engineering toepassingen. Structurele fibroblast-gegevens van personen met een Lamin-A/C-mutatie werden gebruikt om voorbeelden te illustreren binnen een specifieke experimentele context. Voorbeelden zijn het visualiseren van multidimensionale gegevens, het koppelen van tabellen in een relationele databasestructuur, het toewijzen van een semi-geautomatiseerde gegevenspijplijn om onbewerkte gegevens om te zetten in gestructureerde indelingen en de onderliggende syntaxis van een query uit te leggen. Uitkomsten van het analyseren van de gegevens werden gebruikt voor het maken van plots van verschillende regelingen en betekenis werd aangetoond in cel organisatie in uitgelijnde omgevingen tussen de positieve controle van Hutchinson-Gilford Progeria, een bekende laminopathie, en alle andere experimentele groepen. In vergelijking met spreadsheets waren database-methoden enorm tijd efficiënt, eenvoudig te gebruiken na het instellen, toegestaan voor onmiddellijke toegang tot originele bestandslocaties en verhoogde data-rigor. In reactie op de National Institutes of Health (NIH) nadruk op experimentele rigor, is het waarschijnlijk dat veel wetenschappelijke velden uiteindelijk zullen databases als gebruikelijk gebruiken als gevolg van hun sterke vermogen om effectief te organiseren complexe gegevens.

Introduction

In een tijdperk waar wetenschappelijke vooruitgang sterk wordt gedreven door technologie, is het hanteren van grote hoeveelheden gegevens een integraal facet geworden van onderzoek in alle disciplines. De opkomst van nieuwe gebieden zoals computationele biologie en genomics onderstrepen hoe kritisch het proactieve gebruik van technologie is geworden. Deze trends zijn zeker door te gaan door de wet van Moore en gestage vooruitgang opgedaan bij technologische vooruitgang1,2. Een gevolg hiervan is echter de stijgende hoeveelheden gegenereerde gegevens die de capaciteiten van eerder levensvatbare organisatie methoden overtreffen. Hoewel de meeste academische laboratoria voldoende rekenkundige middelen hebben om complexe datasets te verwerken, missen veel groepen de technische expertise die nodig is om aangepaste systemen te bouwen die geschikt zijn voor het ontwikkelen van behoeften3. Het hebben van de vaardigheden om dergelijke gegevenssets te beheren en bij te werken blijft cruciaal voor een efficiënte workflow en uitvoer. Het overbruggen van de kloof tussen gegevens en expertise is belangrijk voor het efficiënt verwerken, opnieuw bijwerken en analyseren van een breed spectrum van veelzijdige gegevens.

Schaalbaarheid is een essentiële overweging bij het verwerken van grote gegevenssets. Big Data, bijvoorbeeld, is een bloeiende onderzoeksruimte waarbij nieuwe inzichten worden onthuld uit de verwerking van gegevens die worden gekenmerkt door enorme volumes, grote heterogeniteit en hoge generatie snelheden, zoals audio en video4,5. Met behulp van geautomatiseerde methoden van organisatie en analyse is verplicht voor dit veld voor het afhandelen van torrents van gegevens op de juiste manier. Veel technische termen die in Big data worden gebruikt, zijn echter niet duidelijk gedefinieerd en kunnen verwarrend zijn; bijvoorbeeld, “hoge snelheid” gegevens wordt vaak geassocieerd met miljoenen nieuwe inzendingen per dag, terwijl “lage snelheid” gegevens kunnen slechts honderden inzendingen per dag, zoals in een academische Lab-instelling. Hoewel er nog veel spannende bevindingen te ontdekken zijn met behulp van Big Data, vereisen de meeste academische laboratoria niet de reikwijdte, kracht en complexiteit van dergelijke methoden om hun eigen wetenschappelijke vragen5aan te pakken. Hoewel het onbetwisbaar is dat wetenschappelijke gegevens steeds complexer worden naarmate tijd6, veel wetenschappers blijven gebruiken methoden van organisatie die niet meer voldoen aan hun groeiende gegevensbehoeften. Handige spreadsheet Programma’s worden bijvoorbeeld vaak gebruikt om wetenschappelijke gegevens te ordenen, maar ten koste van onschaalbaar, foutgevoelig en tijd inefficiënt op de lange termijn7,8. Omgekeerd zijn databases een effectieve oplossing voor het probleem omdat ze schaalbaar, relatief goedkoop en gemakkelijk te gebruiken zijn bij het hanteren van gevarieerde datasets van lopende projecten.

Directe problemen die zich voordoen bij het overwegen van schema’s van de gegevens organisatie zijn kosten, toegankelijkheid en tijd investeringen voor training en gebruik. Vaak gebruikt in zakelijke instellingen, database-Programma’s zijn zuiniger, hetzij relatief goedkoop of gratis, dan de financiering die nodig is om het gebruik van Big data-systemen te ondersteunen. In feite bestaat er een verscheidenheid aan zowel commercieel verkrijgbare als open source software voor het maken en onderhouden van databases, zoals Oracle database, MySQL en Microsoft (MS) Access9. Veel onderzoekers zouden ook worden aangemoedigd om te leren dat verschillende MS Office Academic-pakketten worden geleverd met MS Access inbegrepen, waardoor kostenoverwegingen verder worden geminimaliseerd. Bovendien, bijna alle ontwikkel ontwikkelaars bieden uitgebreide documentatie online en er is een overvloed aan gratis online bronnen zoals Codecademy, W3Schools, en SQLBolt om onderzoekers te helpen begrijpen en gebruik maken van gestructureerde query language (SQL)10,11,12. Net als elke programmeertaal, het leren gebruiken van databases en code met behulp van SQL kost tijd om te beheersen, maar met de ruime beschikbare middelen is het proces eenvoudig en zeker de moeite waard de inspanning geïnvesteerd.

Databases kunnen krachtige tools zijn voor het vergroten van de toegankelijkheid van gegevens en het gemak van aggregatie, maar het is belangrijk om te onderscheiden welke gegevens het meest baat hebben bij een grotere controle van de organisatie. Multi-dimensionaliteit verwijst naar het aantal voorwaarden waaraan een meting kan worden gegroepeerd, en databases zijn het meest krachtig bij het beheren van veel verschillende omstandigheden13. Omgekeerd is informatie met een lage dimensionaliteit het eenvoudigst te hanteren met een spreadsheetprogramma; een gegevensset met jaren en een waarde voor elk jaar heeft bijvoorbeeld slechts één mogelijke groepering (metingen tegen jaren). Hoge dimensionale gegevens zoals van klinische instellingen zou een grote mate van handmatige organisatie nodig om effectief te handhaven, een vervelend en foutgevoelig proces buiten het bestek van spreadsheet Programma’s13. Niet-relationele (NoSQL)-databases voldoen ook aan verschillende rollen, voornamelijk in toepassingen waar gegevens niet goed worden geordend in rijen en kolommen14. Deze organisatorische schema’s zijn niet alleen vaak open source, maar ook grafische associaties, time series-gegevens of op documenten gebaseerde gegevens. NoSQL blinkt uit in schaalbaarheid beter dan SQL, maar kan geen complexe query’s maken, dus relationele databases zijn beter in situaties waarin consistentie, standaardisatie en onregelmatige grootschalige gegevenswijzigingen zijn vereist15. Databases kunnen het best effectief groeperen en opnieuw bijwerken van gegevens in de grote reeks conformaties die vaak nodig zijn in wetenschappelijke instellingen13,16.

De belangrijkste bedoeling van dit werk is daarom de wetenschappelijke gemeenschap te informeren over het potentieel van databases als schaalbare gegevensbeheersystemen voor “middelgrote”, lage snelheidsgegevens en om een algemene template aan te bieden met behulp van specifieke voorbeelden van door patiënten geproduceerde cellijn experimenten. Andere soortgelijke toepassingen zijn georuimtelijke gegevens van rivier bedden, vragenlijsten uit longitudinale klinische studies en microbiële groeiomstandigheden in groeimedia17,18,19. Dit werk benadrukt veelvoorkomende overwegingen voor en het nut van het samenstellen van een database in combinatie met een gegevenspijplijn nodig om onbewerkte gegevens te converteren naar gestructureerde indelingen. De basisprincipes van database-interfaces en codering voor databases in SQL worden geleverd en geïllustreerd met voorbeelden zodat anderen de kennis kunnen verkrijgen die van toepassing is op het bouwen van basis raamwerken. Tot slot demonstreert een experimentele gegevensset van een sample hoe gemakkelijk en effectief databases kunnen worden ontworpen om veelzijdige gegevens op verschillende manieren te aggregeren. Deze informatie biedt context, commentaar en sjablonen voor het assisteren van collega-wetenschappers op het pad naar het implementeren van databases voor hun eigen experimentele behoeften.

Voor het maken van een schaalbare database in een onderzoek laboratorium setting, gegevens van experimenten met behulp van menselijke fibroblast cellen werd verzameld in de afgelopen drie jaar. De primaire focus van dit protocol is het rapporteren over de organisatie van computer software om de gebruiker in staat te stellen gegevens te aggregeren, bij te werken en te beheren op de meest kosten-en tijd efficiënte manier, maar de relevante experimentele methoden zijn ook beschikbaar voor Context.

Experimentele Setup
Het experimentele protocol voor het voorbereiden van monsters is eerder20,21beschreven en wordt hier kort gepresenteerd. Constructies werden bereid door spin-coating rechthoekige glazen dekstroken met een 10:1 mengsel van Polydimethylsiloxaan (PDMS) en Uithardings middel, vervolgens toepassen 0,05 mg/mL fibronectin, in ongeorganiseerde (isotrope) of 20 μm lijnen met 5 μm gap micro patroon regelingen (lijnen). Fibroblast cellen werden gesest bij passage 7 (of passage 16 voor positieve controles) op de dekstroken bij optimale dichtheden en links om te groeien voor 48 h met media die na 24 uur worden veranderd. De cellen werden vervolgens vastgesteld met 4% Paraformaldehyde (PFA) oplossing en 0,0005% nonionische oppervlakteactieve stof, gevolgd door de dekstroken worden immunogekleurd voor celkernen (4 ‘, 6 ‘-diaminodino-2-fenylinodole [DAPI]), actine (Alexa Fluor 488 phalloidin), en fibronectin (polycloncal konijn anti-menselijke fibronectin). Een secundaire vlek voor fibronectin met behulp van geit anti-konijn IgG antilichamen (Alexa Fluor 750 geit anti-konijn) werd toegepast en conserveringsmiddel werd gemonteerd op alle dekstroken om fluorescerende vervaging te voorkomen. Nagellak werd gebruikt voor het afdichten van dekglaasjes op Microscoop dia’s dan links te drogen voor 24 h.

Fluorescentie beelden werden verkregen zoals hierboven beschreven20 met behulp van een 40x olie onderdompeling doel in combinatie met een digitale charge gekoppeld apparaat (CCD) camera gemonteerd op een omgekeerde gemotoriseerde Microscoop. Tien willekeurig geselecteerde weergavevelden werden voor elke afdek op 40x vergroting afgebeeld, wat overeenkomt met een resolutie van 6,22 pixels/μm. Op maat gemaakte codes werden gebruikt om verschillende variabelen te kwantificeren uit de afbeeldingen die de kernen beschrijven, actine filamenten en fibronectine; corresponderende waarden, evenals organisatie-en geometrie parameters, werden automatisch opgeslagen in gegevensbestanden.

Cellijnen
Uitgebreidere documentatie over alle Sample Data cellijnen kan gevonden worden in eerdere publicaties20. Om kort te beschrijven, werd het verzamelen van gegevens goedgekeurd en werd geïnformeerde toestemming gegeven in overeenstemming met UC Irvine institutioneel Review Board (IRB # 2014-1253). Menselijke fibroblast cellen werden verzameld uit drie families van verschillende variaties van de Lamin A/C (lmna) genmutatie: heterozygoot lmna Splice-site Mutatie (C. 357-2a > G)22 (familie A); Lmna -nonsense-Mutatie (c. 736 c > T, pQ246X) in Exon 423 (Family B); en Lmna missense Mutatie (c. 1003c > T, pR335W) in Exon 624 (familie c). Fibroblast cellen werden ook verzameld van andere individuen in elk gezin als verwante mutatie-negatieve controles, aangeduid als “controles”, en anderen werden gekocht als niet-gerelateerde mutatie-negatieve controles, aangeduid als “donoren”. Als positieve controle werden fibroblast cellen van een individu met Hutchinson-Gliford Progeria (HGPS) aangekocht en gekweekt uit een huid biopsie van een 8-jarige vrouwelijke patiënt met HGPS die een Lmna G608G Point mutatie25bezit. In totaal werden fibroblasten van 22 individuen getest en gebruikt als gegevens in dit werk.

Gegevenstypen
Fibroblast-gegevens vielen in een van de twee categorieën: cellulaire kernen-variabelen (d.w.z. percentage van dysmorfe kernen, gebied van kernen, kernen-excentricatie)20 of structurele variabelen die voortvloeien uit de oriënterende-orde parameter (OOP)21,26,27 (d.w.z. actine OOP, fibronectin OOP, kernen OOP). Deze parameter is gelijk aan de maximale eigenwaarde van de gemiddelde orde tensor van alle oriëntatie vectoren, en wordt gedetailleerd gedefinieerd in eerdere publicaties26,28. Deze waarden worden samengevoegd in een verscheidenheid van mogelijke conformaties, zoals waarden tegen leeftijd, geslacht, ziektestatus, aanwezigheid van bepaalde symptomen, enz. Voorbeelden van hoe deze variabelen worden gebruikt, vindt u in de sectie resultaten.

Voorbeeldcodes en-bestanden
De voorbeeldcodes en andere bestanden op basis van de bovenstaande gegevens kunnen worden gedownload met dit papier en hun namen en typen worden samengevat in tabel 1.

Protocol

Opmerking: Zie de tabel met materialen voor de softwareversies die in dit protocol worden gebruikt. 1. Evalueer of de gegevens baat zouden hebben bij een database-organisatieschema Download de voorbeeldcodes en databases (Zie aanvullende coderings bestanden, die worden samengevat in tabel 1). Gebruik Figuur 1 om te evalueren of de gegevensset van belang is “multidimensionaal”.Opmerking: <st…

Representative Results

Multi dimensionaliteit van de gegevensIn de context van de hier gepresenteerde voorbeeldgegevens worden de onderwerpen, beschreven in de sectie methoden, werden onderverdeeld in groepen van individuen uit de drie families met de hartziekte-veroorzakende Lmna -Mutatie (“patiënten”), verwante niet-mutatie negatieve controles (“controles”), niet-gerelateerde niet-mutatie negatieve controles (“donoren”) en een individu met Hutchinson-Gilford Progeria syndroom (hgps) als een positieve controle<s…

Discussion

Technische bespreking van het Protocol
De eerste stap bij het overwegen van het gebruik van databases is om te evalueren als de gegevens zouden profiteren van een dergelijke organisatie.

De volgende essentiële stap is het maken van een automatische code die de minimale invoer van de gebruiker wordt gevraagd en de structuur van de tabelgegevens genereren. In het voorbeeld heeft de gebruiker de categorie van het gegevenstype (celkernen of structurele metingen), de onderwerpa…

Divulgazioni

The authors have nothing to disclose.

Acknowledgements

Dit werk wordt ondersteund door de National Heart, Lung, en Blood Institute bij de National Institutes of Health, subsidie nummer R01 HL129008. De auteurs bedanken vooral de familieleden van de Lmna -genmutatie voor hun deelname aan de studie. Ook willen we Linda McCarthy bedanken voor haar hulp bij celcultuur en het onderhouden van de Lab Spaces, nasam chokr voor haar deelname aan celbeeldvorming en de kernen data-analyse, en Michael A. grosberg voor zijn pertinente advies bij het opzetten van onze initiële Microsoft Access-database en het beantwoorden van andere technische vragen.

Materials

4',6'-diaminodino-2-phenylinodole (DAPI) Life Technologies, Carlsbad, CA
Alexa Fluor 488 Phalloidin Life Technologies, Carlsbad, CA
Alexa Fluor 750 goat anti-rabbit Life Technologies, Carlsbad, CA
digital CCD camera ORCAR2 C10600-10B Hamamatsu Photonics, Shizuoka Prefecture, Japan
fibronectin Corning, Corning, NY
IX-83 inverted motorized microscope Olympus America, Center Valley, PA
Matlab R2018b Mathworks, Natick, MA
MS Access Microsoft, Redmond, WA
paraformaldehyde (PFA) Fisher Scientific Company, Hanover Park, IL
polycloncal rabbit anti-human fibronectin Sigma Aldrich Inc., Saint Louis, MO
polydimethylsiloxane (PDMS) Ellsworth Adhesives, Germantown, WI
Prolong Gold Antifade Life Technologies, Carlsbad, CA
rectangular glass coverslips Fisher Scientific Company, Hanover Park, IL
Triton-X Sigma Aldrich Inc., Saint Louis, MO

Riferimenti

  1. Cavin, R. K., Lugli, P., Zhirnov, V. V. Science and engineering beyond Moore’s law. Proceedings of the IEEE. 100, 1720-1749 (2012).
  2. Mast, F. D., Ratushny, A. V., Aitchison, J. D. Systems cell biology. The Journal of Cell Biology. 206 (6), 695-706 (2014).
  3. Barone, L., Williams, J., Micklos, D. Unmet needs for analyzing biological big data: A survey of 704 NSF principal investigators. PLoS Computational Biology. 13 (10), 1005755 (2017).
  4. Gandomi, A., Haider, M. Beyond the hype: Big data concepts, methods, and analytics. International Journal of Information Management. 35 (2), 137-144 (2015).
  5. Siddiqa, A., et al. A survey of big data management: Taxonomy and state-of-the-art. Journal of Network and Computer Applications. 71, 151-166 (2016).
  6. Anderson, C. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired Magazine. , (2008).
  7. Broman, K. W., Woo, K. H. Data Organization in Spreadsheets. The American Statistician. 72 (1), 2-10 (2018).
  8. Lee, H., et al. How I do it: a practical database management system to assist clinical research teams with data collection, organization, and reporting. Academic Radiology. 22 (4), 527-533 (2015).
  9. Bassil, Y. A comparative study on the performance of the Top DBMS systems. Journal of Computer Science & Research. 1 (1), 20-31 (2012).
  10. . Learn SQL – Codeacademy Available from: https://www.codecademy.com/learn/learn-sql (2018)
  11. . SQL Tutorial – w3schools.com Available from: https://www.w3schools.com/sql (2018)
  12. . Introduction to SQL – SQLBolt Available from: https://sqlbolt.com (2018)
  13. Pedersen, T. B., Jensen, C. S. Multidimensional database technology. Computer. 34 (12), 40-46 (2001).
  14. Győrödi, C., Gyorodi, R., Sotoc, R. A Comparative Study of Relational and Non-Relational Database Models in a Web- Based Application. International Journal of Advanced Computer Science and Applications. 6 (11), 78-83 (2015).
  15. Nayak, A., Poriya, A., Poojary, D. Type of NOSQL databases and its comparison with relational databases. International Journal of Applied Information Systems. 5 (4), 16-19 (2013).
  16. Lei, C., Feng, D., Wei, C., Ai-xin, Z., Zhen-hu, C. The application of multidimensional data analysis in the EIA database of electric industry. Procedia Environmental Sciences. 10, 1210-1215 (2011).
  17. Soranno, P. A., et al. Building a multi-scaled geospatial temporal ecology database from disparate data sources: fostering open science and data reuse. GigaScience. 4, 28 (2015).
  18. Edwards, P. Questionnaires in clinical trials: guidelines for optimal design and administration. Trials. 11, 2 (2010).
  19. Richards, M. A., et al. MediaDB: A Database of Microbial Growth Conditions in Defined Media. PLoS ONE. 9 (8), 103548 (2014).
  20. Core, J. Q., et al. Age of heart disease presentation and dysmorphic nuclei in patients with LMNA mutations. PLoS ONE. 12 (11), 0188256 (2017).
  21. Drew, N. K., Johnsen, N. E., Core, J. Q., Grosberg, A. Multiscale Characterization of Engineered Cardiac Tissue Architecture. Journal of Biomechanical Engineering. 138 (11), 111003 (2016).
  22. Zaragoza, M. V., et al. Exome Sequencing Identifies a Novel LMNA Splice-Site Mutation and Multigenic Heterozygosity of Potential Modifiers in a Family with Sick Sinus Syndrome, Dilated Cardiomyopathy, and Sudden Cardiac Death. PLoS ONE. 11 (5), 0155421 (2016).
  23. Zaragoza, M., Nguyen, C., Widyastuti, H., McCarthy, L., Grosberg, A. Dupuytren’s and Ledderhose Diseases in a Family with LMNA-Related Cardiomyopathy and a Novel Variant in the ASTE1 Gene. Cells. 6 (4), 40 (2017).
  24. Zaragoza, M. V., Hakim, S. A., Hoang, V., Elliott, A. M. Heart-hand syndrome IV: a second family with LMNA-related cardiomyopathy and brachydactyly. Clinical Genetics. 91 (3), 499-500 (2017).
  25. Eriksson, M., et al. Recurrent de novo point mutations in lamin A cause Hutchinson-Gilford progeria syndrome. Nature. 423 (6937), 293-298 (2003).
  26. Drew, N. K., Eagleson, M. A., Baldo, D. B., Parker, K. K., Grosberg, A. Metrics for Assessing Cytoskeletal Orientational Correlations and Consistency. PLoS Computational Biology. 11 (4), 1004190 (2015).
  27. Hamley, I. W. . Introduction to Soft Matter: Synthetic and Biological Self-Assembling Materials. , (2013).
  28. Grosberg, A., Alford, P. W., McCain, M. L., Parker, K. K. Ensembles of engineered cardiac tissues for physiological and pharmacological study: Heart on a chip. Lab Chip. 11 (24), 4165-4173 (2011).
  29. Hey, T., Trefethen, A., Berman, F., Fox, G., Hey, A. J. G. The Data Deluge: An e-Science Perspective. Grid Computing: Making the Global Infrastructure a Reality. , (2003).
  30. Wardle, M., Sadler, M. How to set up a clinical database. Practical Neurology. 16 (1), 70-74 (2016).
  31. Kerr, W. T., Lau, E. P., Owens, G. E., Trefler, A. The future of medical diagnostics: large digitized databases. The Yale Journal of Biology and Medicine. 85 (3), 363 (2012).
  32. Laulederkind, S. J., et al. The Rat Genome Database curation tool suite: a set of optimized software tools enabling efficient acquisition, organization, and presentation of biological data. Database. 2011, (2011).
  33. Harris, P. A., et al. Research electronic data capture (REDCap)–a metadata-driven methodology and workflow process for providing translational research informatics support. Journal of Biomedical Informatics. 42 (2), 377-381 (2009).
  34. Panko, R. R. What we know about spreadsheet errors. Journal of Organizational and End User Computing (JOEUC). 10 (2), 15-21 (1998).
  35. Ziemann, M., Eren, Y., El-Osta, A. Gene name errors are widespread in the scientific literature. Genome Biology. 17 (1), 177 (2016).
  36. Enhancing Reproducibility through Rigor and Transparency. NIH Available from: https://grants.nih.gov/reproducibility/index.htm (2018)
  37. Hofseth, L. J. Getting rigorous with scientific rigor. Carcinogenesis. 39 (1), 21-25 (2017).
  38. . SQL Training and Tutorials – Lynda.com Available from: https://www.lynda.com/SQL-training-tutorials/446-0.html (2018)
check_url/it/60038?article_type=t

Play Video

Citazione di questo articolo
Ochs, A. R., Mehrabi, M., Becker, D., Asad, M. N., Zhao, J., Zaragoza, M. V., Grosberg, A. Databases to Efficiently Manage Medium Sized, Low Velocity, Multidimensional Data in Tissue Engineering. J. Vis. Exp. (153), e60038, doi:10.3791/60038 (2019).

View Video