Summary

יישום של פילוח תמונות רפואיות מבוססות למידה עמוקה באמצעות טומוגרפיה ממוחשבת מסלולית

Published: November 30, 2022
doi:

Summary

פרוטוקול סגמנטציה של אובייקטים עבור תמונות טומוגרפיה ממוחשבת מסלולית (CT) מוצג. השיטות לתיוג האמת הקרקעית של מבנים מסלוליים באמצעות רזולוציית-על, חילוץ נפח העניין מתמונות CT, ומידול סגמנטציה מרובת תוויות באמצעות U-Net רציף דו-ממדי עבור תמונות CT מסלוליות מוסברות ללמידה מפוקחת.

Abstract

לאחרונה, מודלים של סגמנטציה מבוססת למידה עמוקה יושמו באופן נרחב בתחום העיניים. מחקר זה מציג את התהליך השלם של בניית מודל סגמנטציה של טומוגרפיה ממוחשבת מסלולית (CT) המבוסס על U-Net. עבור למידה מפוקחת, נדרש תהליך עתיר עבודה וגוזל זמן. השיטה של תיוג עם רזולוציית-על כדי להסוות ביעילות את האמת הקרקעית על תמונות CT מסלוליות הוא הציג. כמו כן, היקף העניין נחתך כחלק מהעיבוד המקדים של מערך הנתונים. לאחר מכן, לאחר חילוץ נפחי העניין של המבנים המסלוליים, המודל לפילוח מבני המפתח של ה- CT המסלולי נבנה באמצעות U-Net, עם פרוסות דו-ממדיות עוקבות המשמשות ככניסות ושני זיכרונות קצרים קונבולוציוניים דו-כיווניים לטווח ארוך לשימור המתאמים בין הפרוסות. מחקר זה מתמקד בעיקר בפילוח של גלגל העין, עצב הראייה והשרירים החוץ-עיניים. הערכת הסגמנטציה חושפת את היישום הפוטנציאלי של סגמנטציה לתמונות CT מסלוליות בשיטות למידה עמוקה.

Introduction

המסלול הוא חלל קטן ומסובך של כ 30.1 ס”מ3 המכיל מבנים חשובים כגון גלגל העין, עצבים, שרירים חוץ עיניים, רקמות תומכות, וכלי ראייה ותנועות גלגל העין1. גידולים מסלוליים הם גידולי רקמה לא תקינים במסלול, וחלקם מאיימים על הראייה או על תנועת גלגל העין של החולים, מה שעלול להוביל לתפקוד לקוי קטלני. כדי לשמר את תפקוד הראייה של המטופלים, על הרופאים להחליט על דרכי הטיפול בהתבסס על מאפייני הגידול, וביופסיה כירורגית היא בדרך כלל בלתי נמנעת. אזור קומפקטי וצפוף זה מקשה לעתים קרובות על קלינאים לבצע ביופסיה מבלי לפגוע במבנה התקין. ניתוח תמונה מבוסס למידה עמוקה של פתולוגיה לקביעת מצב המסלול יכול לסייע במניעת פגיעה מיותרת או נמנעת ברקמות המסלול במהלך ביופסיה2. אחת השיטות לניתוח תמונה עבור גידולים מסלוליים היא זיהוי גידולים וסגמנטציה. עם זאת, איסוף כמויות גדולות של נתונים עבור תמונות CT המכילות גידולים מסלוליים מוגבל בשל שכיחותם הנמוכה3. השיטה היעילה האחרת לאבחון גידול חישובי4 כוללת השוואת הגידול למבנים הרגילים של המסלול. מספר תמונות ה-CT המסלוליות במבנים רגילים גדול יחסית לזה שבגידולים. לכן, סגמנטציה של מבנים מסלוליים נורמליים היא הצעד הראשון להשגת מטרה זו.

מחקר זה מציג את כל התהליך של פילוח מבנה מסלולי מבוסס למידה עמוקה, כולל איסוף הנתונים, עיבוד מקדים ומידול לאחר מכן. המחקר נועד להוות משאב עבור קלינאים המעוניינים להשתמש בשיטה הנוכחית כדי ליצור ביעילות מערך נתונים מוסווה ועבור רופאי עיניים הזקוקים למידע על עיבוד מקדים ומידול עבור תמונות CT מסלוליות. מאמר זה מציג שיטה חדשה לסגמנטציה של מבנה מסלולי ו- U-Net רציף, מודל סגמנטציה דו-ממדי רציף המבוסס על פתרון למידה עמוקה מייצג ב- U-Net לסגמנטציה של תמונות רפואיות. הפרוטוקול מתאר את ההליך המפורט של סגמנטציה מסלולית, כולל (1) כיצד להשתמש בכלי מיסוך לאמת הקרקעית של סגמנטציה של מבנה מסלול, (2) השלבים הנדרשים לעיבוד מקדים של תמונות מסלול, ו-(3) כיצד לאמן את מודל הסגמנטציה ולהעריך את ביצועי הסגמנטציה.

ללמידה מפוקחת, ארבעה רופאי עיניים מנוסים שהוסמכו במשך למעלה מ-5 שנים הוסיפו הערות ידניות למסכות גלגל העין, עצב הראייה והשרירים החוץ-עיניים. כל רופאי העיניים השתמשו בתוכנת המיסוך (MediLabel, ראו טבלת החומרים), המשתמשת בסופר-רזולוציה למיסוך יעיל בסריקות CT. לתוכנת המיסוך יש את התכונות החצי אוטומטיות הבאות: (1) SmartPencil, שמייצר אשכולות מפת סופר פיקסלים עם ערכים דומים של עוצמת תמונה5; (2) SmartFill, המייצר מסכות סגמנטציה על ידי חישוב פונקציית האנרגיה של החזית והרקע השוטפים 6,7; ו-(3) תיקון אוטומטי, שהופך את גבולות מסיכות הסגמנטציה לנקיים ותואמים לתמונה המקורית. תמונות לדוגמה של התכונות החצי-אוטומטיות מוצגות באיור 1. השלבים המפורטים של מיסוך ידני מסופקים בסעיף הפרוטוקול (שלב 1).

השלב הבא הוא עיבוד מראש של סריקות CT מסלוליות. כדי להשיג את נפחי העניין המסלוליים (VOIs), מזוהים אזורי המסלול שבהם נמצאים גלגל העין, השריר והעצב בתנאים רגילים, ואזורים אלה נחתכים. למערך הנתונים יש רזולוציה גבוהה, עם רזולוציית ווקסל של <1 מ"מ במישור ועובי פרוסה, כך שמדלגים על תהליך האינטרפולציה. במקום זאת, חיתוך החלון מתבצע ברמת חיתוך 48 HU וחלון 400 HU. לאחר החיתוך וגזירת החלון, נוצרות שלוש פרוסות טוריות של ה- VOIs של המסלול עבור קלט מודל הסגמנטציה8. סעיף הפרוטוקול (שלב 2) מספק פרטים על שלבי העיבוד מראש.

U-Net9 הוא מודל סגמנטציה נפוץ לתמונות רפואיות. ארכיטקטורת U-Net כוללת מקודד, המחלץ את התכונות של התמונות הרפואיות, ומפענח, המציג את התכונות המפלות באופן סמנטי. בעת שימוש ב- U-Net לסריקות CT, השכבות הקונבולוציוניות מורכבות ממסננים תלת-ממדיים10,11. זהו אתגר מכיוון שחישוב מסנני תלת-ממד דורש קיבולת זיכרון גדולה. כדי להפחית את דרישות הזיכרון עבור U-Net תלת-ממדי, הוצע SEQ-UNET8, שבו קבוצה של פרוסות דו-ממדיות עוקבות משמשות ב- U-Net. כדי למנוע אובדן של קורלציות מרחביות-טמפורליות בין פרוסות התמונה הדו-ממדית של סריקת ה-CT התלת-ממדית, שני זיכרונות קצרי טווח קונבולוציוניים דו-כיווניים (C-LSTMs)12 משמשים ב-U-Net בסיסי. C-LSTM הדו-כיווני הראשון מחלץ את המתאמים הבין-פרוסתיים בקצה המקודד. C-LSTM הדו-כיווני השני, לאחר הפלט של המפענח, הופך את מידע הסגמנטציה הסמנטית בממדי רצף הפרוסה לסגמנטציה של תמונה אחת. הארכיטקטורה של SEQ-UNET מוצגת באיור 2. קודי היישום זמינים ב- github.com/SleepyChild1005/OrbitSeg, והשימוש בקודים מפורט בסעיף הפרוטוקול (שלב 3).

Protocol

העבודה הנוכחית בוצעה באישור המועצה לביקורת מוסדית (IRB) של המרכז הרפואי הקתולי, והפרטיות, הסודיות והאבטחה של המידע הרפואי היו מוגנות. נתוני ה-CT המסלוליים נאספו (מנבדקים אנושיים שלא זוהו) מבתי חולים המסונפים למכללה לרפואה, האוניברסיטה הקתולית של קוריאה (CMC; בית החולים סנט מרי בסיאול, בית החולים יאואידו סנט מרי, בית החולים טג’און סנט מרי ובית החולים סנט וינסנט). סריקות ה-CT המסלוליות התקבלו מינואר 2016 עד דצמבר 2020. מערך הנתונים הכיל 46 סריקות CT מסלוליות מגברים ונשים קוריאנים בגילאי 20 עד 60 שנה. סביבת זמן הריצה (RTE) מסוכמת בטבלה משלימה 1. 1. מיסוך גלגל העין, עצב הראייה והשרירים החוץ-עיניים בסריקות CT מסלוליות הפעל את תוכנת המיסוך.הערה: תוכנת מיסוך (MediLabel, ראה טבלת חומרים) היא תוכנה לתיוג תמונות רפואיות לסגמנטציה, הדורשת מעט לחיצות ובעלת מהירות גבוהה. טען את ה- CT המסלולי על ידי לחיצה על סמל הקובץ הפתוח ובחירת קובץ ה- CT היעד. לאחר מכן, סריקות ה- CT מוצגות על המסך. הסוו את גלגל העין, עצב הראייה והשרירים החוץ-עיניים באמצעות פיקסלים-על.הפעל את SmartPencil על ידי לחיצה על אשף SmartPencil ב- MediLabel (וידאו 1). שלוט ברזולוציה של מפת הסופר-פיקסלים במידת הצורך (לדוגמה, 100, 500, 1,000 ו-2,000 פיקסלים-על). לחץ על אשכול הסופר-פיקסלים של גלגל העין, עצב הראייה והשרירים החוץ-עיניים במפת הסופר-פיקסלים, שם מקובצים פיקסלים בעלי ערכי עוצמת תמונה דומים. מקד את המסכות באמצעות פונקציות התיקון האוטומטי ב-MediLabel.לחץ על אשף SmartFill לאחר מיסוך חלק מהפיקסלים העליונים בפרוסות (וידאו 2). לחץ על תיקון אוטומטי סמל, וודא שתוויות המסיכה המתוקנות מחושבות (וידאו 3). חזור על שלב 1.3 ושלב 1.4 עד להשלמת העידון של המיסוך. שמור את התמונות עם המסיכה. 2. עיבוד מקדים: חיתוך חלון וחיתוך ה- VOIs חלץ את ה- VOIs עם preprocessing_multilabel.py (הקובץ ניתן להורדה מ- GitHub).רוץ preprocessing_multilabel.py. בדוק את הסריקות והמסיכות, שנחתכו ונשמרו בתיקיה VOIs. הפוך את ה- VOIs לקבוצה של שלוש פרוסות CT רציפות עבור הקלט ל- SEQ-UNET עם builder_multilabel.py (הקובץ ניתן להורדה מ- GitHub).רוץ sequence_builder_multilabel.py. ודאו שגודל הפרוסות והמסיכות ישתנה ל- 64 פיקסלים על 64 פיקסלים במהלך שינוי הצורה. במהלך הטרנספורמציה, בצע חיתוך עם רמת החיתוך של 48 HU וחלון 400 HU. בדוק את סריקות ה- CT שעברו טרנספורמציה שנשמרו (קובץ nii) ואת המסיכות (קובץ nii) בתיקיית הסריקה ובתיקיית המסיכה תחת תיקיות מעובדות מראש, בהתאמה. 3. ארבעה אימותים צולבים של מודל הסגמנטציה המסלולית בנה את המודל בהתאם לשלבים הבאים.רוץ main.py. בעת הפעלת main.py, תן את מספר הקיפול של ארבעת האימותים הצולבים על ידי “-fold num x”, כאשר x הוא 0, 1, 2 או 3. בעת ריצה main.py, השתמש בתקופה, שהיא מספר איטרציות האימון, כאופציה, כגון “-epoch x”, כאשר x הוא מספר התקופה. מספר ברירת המחדל הוא 500. בעת הפעלת main.py, הגדר את גודל האצווה, שהוא מספר דוגמאות האימון באימון יחיד. מספר ברירת המחדל הוא 32. בשנת main.py, טען את סריקות ה- CT והמסכות, ואתחל את ה- SEQ-UNET עם הפרמטרים שהוכשרו מראש באמצעות ערכת הנתונים LIDC-IDRI (להורדה מארכיון הדמיית הסרטן). בשנת main.py, לבצע את הבדיקה של המודל לאחר אימון. חשב את מדדי ההערכה, ציון הקוביות ודמיון אמצעי האחסון, ושמור אותם בתיקיית המדדים. בדוק את התוצאות בתיקיה המקוטעת.

Representative Results

לצורך ההערכה הכמותית אומצו שני מדדי הערכה, ששימשו במטלת פילוח תמונת ה-CT. אלה היו שני מדדי דמיון, כולל ציון קוביות (DICE) ודמיון נפח (VS)13: קוביות (%) = 2 × TP/(2 × TP + FP + FN)לעומת (%) = 1 − | FN − FP|/(2 × TP + FP + FN) כאשר TP, FP ו- FN מציינים את הערכים החיוביים האמיתיים, חיוביים כוזבים ושליליים כוזבים, בהתאמה, כאשר תוצאת הסגמנטציה ומסיכת הסגמנטציה ניתנות. הביצועים של SEQ-UNET עבור סגמנטציה של מבנה מסלולי הוערכו על ידי ארבעה אימותים צולבים. התוצאות מוצגות בטבלה 1. פילוח גלגל העין באמצעות SEQ-UNET השיג ציון קוביות של 0.86 ו- VS של 0.83. הפילוח של השרירים החוץ-עיניים ועצב הראייה השיג ציוני קוביות נמוכים (0.54 ו-0.34, בהתאמה). ציון הקוביות של סגמנטציית גלגל העין היה מעל 80% מכיוון שהיה בו חלק גדול מה-VOIs וההטרוגניות הקטנה בין סריקות CT. ציוני הקוביות של השרירים החוץ-עיניים ועצב הראייה היו נמוכים יחסית מכיוון שהם הופיעו לעתים רחוקות בנפח ה-CT ונמצאו במספר קטן יחסית של פרוסות ה-CT. עם זאת, ציוני הדמיון החזותי של השרירים החוץ-עיניים ועצב הראייה (0.65 ו-0.80, בהתאמה) היו גבוהים יותר מציוני הקוביות שלהם. תוצאה זו מצביעה על כך שהספציפיות של הסגמנטציה הייתה נמוכה. בסך הכל, ציון הקוביות והדמיון החזותי של SEQ-UNET לסגמנטציה של כל תת-המבנים המסלוליים היו 0.79 ו-0.82, בהתאמה. דוגמאות לתוצאות החזותיות של סגמנטציה של מבנה מסלולי מוצגות באיור 3. באיור 3A-C, כחול הוא תוצאת הפילוח החזויה, ואדום הוא מסכת האמת הקרקעית. באיור 3D, אדום, ירוק וכתום הם גלגל העין, שריר הראייה וסגמנטציה של עצבים, בהתאמה. איור 1: תכונות מיסוך חצי אוטומטיות. מיסוך גלגל העין, השרירים החוץ-עיניים ועצב הראייה בסריקות CT מסלוליות באמצעות (A) SmartPencil, (B) SmartFill ו-(C) תיקון אוטומטי. המסיכה של גלגל העין מסומנת על-ידי SmartPencil, המחשבת את פיקסלי-העל של הפרוסות, והמסיכה נוצרת על-ידי לחיצה על פיקסלי-העל. לאחר לחיצה על חלק מהפיקסלים של גלגל העין, ניתן לחשב את מסיכת גלגל העין כולה באמצעות SmartFill. במקרה של מיסוך עצב הראייה, עידון המיסוך נעשה על ידי תיקון אוטומטי. גלגלי עיניים המסומנים בצבע כחול מוצגים ב-(A) וב-(B). אנא לחץ כאן כדי להציג גרסה גדולה יותר של נתון זה. איור 2: ארכיטקטורת SEQ U-Net. פרוסות דו-ממדיות עוקבות כקלט ופלט; שני C-LSTMs דו-כיווניים מוחלים על סוף בלוקי הקידוד והפענוח המבוססים על ארכיטקטורת U-Net. אנא לחץ כאן כדי להציג גרסה גדולה יותר של נתון זה. איור 3: תוצאות סגמנטציה של המבנים המסלוליים. (A) גלגל העין (תווית 1), (B) שריר הראייה (תווית 2), (C) עצב הראייה (תווית 3) ו-(D) ריבוי תוויות (תוויות 1, 2 ו-3). התמונה השמאלית היא ה- VOI של המסלול, התמונה המרכזית היא הסגמנטציה החזויה, והתמונה הימנית היא אמת הקרקע. ב-(A), (B) ו-(C), כחול הוא תוצאת הפילוח החזויה, ואדום הוא מסכת האמת הקרקעית. ב-(D), אדום, ירוק וכתום הם גלגל העין, השריר החוץ-עיני וסגמנטציה של עצב הראייה, בהתאמה. הסגמנטציה החזויה הראתה ביצועים גבוהים (DICE: 0.86 לעומת 0.82) במקרה של גלגל העין, אך ביצועים נמוכים במקרה של שריר השריר החוץ-עיני (DICE: 0.54 לעומת 0.65) ועצב הראייה (DICE: 0.34 לעומת 0.8). אנא לחץ כאן כדי להציג גרסה גדולה יותר של נתון זה. ריבוי תוויות תווית 1 (גלגל העין) תווית 2 (שריר חוץ-עיני) תווית 3 (עצב אופטי) קוביות לעומת קוביות לעומת קוביות לעומת קוביות לעומת סק-אונט 0.79 0.82 0.86 0.83 0.54 0.65 0.34 0.8 טבלה 1: תוצאות פילוח עבור ציון הקוביות ודמיון חזותי. גלגל העין, שבו יש מספר גדול יחסית של פרוסות, היה מקוטע היטב עם DICE של 0.8, אבל שריר החוץ עיני ועצב הראייה, אשר יש מספר קטן של פרוסות וצורת קו, היו מפולחים חלקית עם ערכי DICE של 0.54 ו 0.34, בהתאמה. וידאו 1: אשף SmartPencil בתוכנת המיסוך. הדגמה של ביאור פיקסלים מרובים למיסוך גלגל העין. משימות המיסוך מופעלות בלחיצה אחת על פיקסלי-על מקובצים באשכולות. אנא לחץ כאן כדי להוריד סרטון זה. וידאו 2: אשף מילוי חכם בתוכנת המיסוך. הדגמה של ביאור פיקסלים מרובים למיסוך גלגל העין. לאחר בחירת פיקסלים מסוימים באזור הביאורים, פונקציה זו יוצרת מסיכות סגמנטציה מלאות בעוצמות דומות לפיקסלים שנבחרו. אנא לחץ כאן כדי להוריד סרטון זה. סרטון 3: תיקון אוטומטי בתוכנת המיסוך. הדגמה של תיקון אוטומטי של פיקסל רעול פנים באמצעות אלגוריתם רשת עצבית קונבולוציונית מאומן מראש. אנא לחץ כאן כדי להוריד סרטון זה. טבלה משלימה 1: סביבת זמן ריצה (RTE) של מיסוך, עיבוד מקדים ומידול סגמנטציה. אנא לחץ כאן כדי להוריד טבלה זו.

Discussion

ניתוח תמונות רפואיות מבוססות למידה עמוקה נמצא בשימוש נרחב לזיהוי מחלות. בתחום רפואת העיניים נעשה שימוש במודלים של זיהוי וסגמנטציה ברטינופתיה סוכרתית, גלאוקומה, ניוון מקולרי תלוי גיל ורטינופתיה של פגות. עם זאת, מחלות נדירות אחרות מלבד אלה ברפואת עיניים לא נחקרו בשל הגישה המוגבלת למערכי נתונים ציבוריים פתוחים גדולים לניתוח למידה עמוקה. כאשר מיישמים שיטה זו במצבים שבהם אין מערך נתונים ציבורי זמין, שלב המיסוך, שהוא משימה עתירת עבודה וגוזלת זמן, הוא בלתי נמנע. עם זאת, שלב המיסוך המוצע (סעיף הפרוטוקול, שלב 1) מסייע ליצור מיסוך בדיוק גבוה תוך זמן קצר. באמצעות פיקסלים-על ומילוי מבוסס-רשת עצבית, המקבצים פיקסלים הדומים במאפייני תמונה ברמה נמוכה, קלינאים יכולים לתייג את המסיכות על-ידי לחיצה על קבוצות הפיקסלים במקום להצביע על הפיקסלים הספציפיים. כמו כן, פונקציות התיקון האוטומטיות מסייעות לחדד את תהליכי המסכה. היעילות והאפקטיביות של שיטה זו יסייעו ליצור יותר תמונות מוסוות במחקר הרפואי.

בין האפשרויות הרבות בעיבוד מקדים, חילוץ VOIs וגזירת חלונות הן שיטות יעילות. כאן, חילוץ VOIs וגזירת חלונות מוצגים בשלב 2 של הפרוטוקול. כאשר הרופאים מכינים את מערך הנתונים, חילוץ ה- VOI ממערך הנתונים הנתון הוא השלב החשוב ביותר בתהליך מכיוון שרוב מקרי הפילוח מתמקדים באזורים קטנים וספציפיים בתמונה הרפואית כולה. לגבי ה- VOIs, אזורי גלגל העין, עצב הראייה והשרירים החוץ-עיניים נחתכים בהתאם למיקום, אך לשיטות יעילות יותר לחילוץ VOIs יש פוטנציאל לשפר את ביצועי הסגמנטציה14.

לצורך הפילוח, SEQ-UNET מועסק במחקר. לתמונות הרפואיות התלת-ממדיות יש נפחים גדולים, ולכן מודלים של רשתות עצביות עמוקות דורשים קיבולות זיכרון גדולות. ב- SEQ-UNET, מודל הסגמנטציה מיושם עם מספר קטן של פרוסות כדי להקטין את גודל הזיכרון הנדרש מבלי לאבד את התכונות של המידע התלת-ממדי.

המודל אומן עם 46 VOIs, וזה לא מספר גדול לאימון מודל. בשל המספר הקטן של מערכי נתוני האימון, הביצועים של פילוח עצב הראייה והשרירים החוץ-עיניים מוגבלים. העברת למידה15 והתאמת תחום8 יכולות לספק פתרון לשיפור ביצועי הסגמנטציה.

כל תהליך הסגמנטציה שהוצג כאן אינו מוגבל לסגמנטציה של CT מסלולי. שיטת ההתוויה היעילה מסייעת ליצור מערך נתונים חדש של תמונה רפואית כאשר תחום היישום ייחודי לתחום המחקר. ניתן להחיל את קודי הפייתון של GitHub הנוגעים למידול טרום-עיבוד וסגמנטציה על תחומים אחרים עם שינוי אזור החיתוך, רמת חיתוך החלון ופרמטרי העל של המודל, כגון מספר הפרוסות העוקבות, ארכיטקטורות U-Net וכן הלאה.

Disclosures

The authors have nothing to disclose.

Acknowledgements

עבודה זו נתמכה על ידי קרן המחקר הלאומית של קוריאה (NRF), מענק במימון משרד המדע והתקשוב של קוריאה (MSIT) (מספר: 2020R1C1C1010079). עבור מערך הנתונים של CMC-ORBIT, מועצת הביקורת המוסדית המרכזית (IRB) של המרכז הרפואי הקתולי סיפקה אישור (XC19REGI0076). עבודה זו נתמכה על ידי קרן המחקר של אוניברסיטת הונגיק לשנת 2022.

Materials

GitHub link github.com/SleepyChild1005/OrbitSeg
MediLabel INGRADIENT (Seoul, Korea) a medical image labeling software promgram for segmentation with fewer click and higher speed
SEQ-UNET downloadable from GitHub
SmartFil wizard in MediLabel 
SmartPencil  wizard in MediLabel 

References

  1. Li, Z., et al. Deep learning-based CT radiomics for feature representation and analysis of aging characteristics of Asian bony orbit. Journal of Craniofacial Surgery. 33 (1), 312-318 (2022).
  2. Hamwood, J., et al. A deep learning method for automatic segmentation of the bony orbit in MRI and CT images. Scientific Reports. 11, 1-12 (2021).
  3. Kim, K. S., et al. Schwannoma of the orbit. Archives of Craniofacial Surgery. 16 (2), 67-72 (2015).
  4. Baur, C., et al. Autoencoders for unsupervised anomaly segmentation in brain MR images: A comparative study. Medical Image Analysis. 69, 101952 (2021).
  5. Trémeau, A., Colantoni, P. Regions adjacency graph applied to color image segmentation. IEEE Transactions on Image Processing. 9 (4), 735-744 (2000).
  6. Boykov, Y. Y., Jolly, M. -. P. Interactive graph cuts for optimal boundary & region segmentation of objects in ND images. Proceedings of Eighth IEEE International Conference on Computer Vision. International Conference on Computer Vision. 1, 105-122 (2001).
  7. Rother, C., Kolmogorov, V., Blake, A. "GrabCut" interactive foreground extraction using iterated graph cuts. ACM Transactions on Graphics. 23 (3), 309-314 (2004).
  8. Suh, S., et al. Supervised segmentation with domain adaptation for small sampled orbital CT images. Journal of Computational Design and Engineering. 9 (2), 783-792 (2022).
  9. Ronneberger, O., Fischer, P., Brox, T. U-net: Convolutional networks for biomedical image segmentation. International Conference on Medical Image Computing and Computer-Assisted Intervention.Medical Image Computing and Computer-Assisted Intervention – MICCAI. , 234-241 (2015).
  10. Qamar, S., et al. A variant form of 3D-UNet for infant brain segmentation. Future Generation Computer Systems. 108, 613-623 (2020).
  11. Nguyen, H., et al. Ocular structures segmentation from multi-sequences MRI using 3D UNet with fully connected CRFS. Computational Pathology and Ophthalmic Medical Image Analysis. , 167-175 (2018).
  12. Liu, Q., et al. Bidirectional-convolutional LSTM based spectral-spatial feature learning for hyperspectral image classification. Remote Sensing. 9 (12), 1330 (2017).
  13. Yeghiazaryan, V., Voiculescu, I. D. Family of boundary overlap metrics for the evaluation of medical image segmentation. Journal of Medical Imaging. 5 (1), 015006 (2018).
  14. Zhang, G., et al. Comparable performance of deep learning-based to manual-based tumor segmentation in KRAS/NRAS/BRAF mutation prediction with MR-based radiomics in rectal cancer. Frontiers in Oncology. 11, 696706 (2021).
  15. Christopher, M., et al. Performance of deep learning architectures and transfer learning for detecting glaucomatous optic neuropathy in fundus photographs. Scientific Reports. 8, 16685 (2018).

Play Video

Cite This Article
Chung, Y. W., Kang, D. G., Lee, Y. O., Cho, W. Application of Deep Learning-Based Medical Image Segmentation via Orbital Computed Tomography. J. Vis. Exp. (189), e64500, doi:10.3791/64500 (2022).

View Video