Journal Search Engine
Search Advanced Search Adode Reader(link)
Download PDF Export Citaion korean bibliography PMC previewer
ISSN : 1225-1577(Print)
ISSN : 2384-0900(Online)
The Korean Journal of Oral and Maxillofacial Pathology Vol.43 No.3 pp.73-80
DOI : https://doi.org/10.17779/KAOMP.2019.43.3.001

Effect of Training and Testing Condition of Convolutional Neural Network on evaluating Osteoporosis

Jae-Yun Kim1), Jae-Seo Lee2), Byung-Cheol Kang2), Hyongsuk Kim3), Shyam Adhikari3), Liu Liu4), Suk-Ja Yoon2)*
1)School of Dentistry, Chonnam National University
2)Department of Oral and Maxillofacial Radiology, School of Dentistry, Dental Science Research Institute, Chonnam National University
3)Chonbuk National University Electronic engineering
4)Jiangsu Key Laboratory of Oral Diseases, Nanjing Medical University; Department of Oral and Maxillofacial Radiology, Hospital of Stomatology, Nanjing Medical University
Correspondence: k-Ja Yoon, Department of Oral and Maxillofacial Radiology, School of Dentistry, Chonnma National University, 33 Yongbongro Bukgu Gwangju, 61186 South Korea Tel: +82-62-530-5680, Fax: +82-62-530-5848 E-mail: yoonfr@chonnam.ac.kr
May 8, 2019 May 17, 2019 June 7, 2019

Abstract


This study aimed to test a convolutional neural network (CNN) in two different settings of training and testing data. Panoramic radiographs were selected from 1170 female dental patients (mean age 49.19 ± 21.91 yr). The cortical bone of the mandible inferior border was evaluated for osteoporosis or normal condition on the panoramic radiographs. Among them, 586 patients (mean age 27.46 ± 6.73 yr) had normal condition, and osteoporosis was interpreted on 584 patients (mean age 71.00 ± 7.64 yr). Among them, one data set of 569 normal patients (mean age 26.61 ± 4.60 yr) and 502 osteoporosis patients (mean age 72.37 ± 7.10 yr) was used for training CNN, and the other data set of 17 normal patients (mean age 55.94 ± 4.0 yr) and 82 osteoporosis patients (mean age 62.60 ± 5.00 yr) for testing CNN in the first experiment, while the latter was used for training CNN and the former for testing CNN in the second experiment. The error rate was 15.15% in the first experiment and 5.14% in the second experiment. This study suggests that age-matched training data make more accurate testing results.



합성곱신경망의 학습 및 테스트자료에 따른 골다공증 판독에 미치는 영향

김 재윤1), 이 재서2), 강 병철2), 김 형석3), Shyam Adhikari3), Liu Liu4), 윤 숙자2)*
1)전남대학교 치의학전문대학원
2)전남대학교 치의학연구소, 치의학전문대학원 구강악안면방사선학교실
3)전북대학교 전자공학부
4)난징의과대학교, 구강악안면방사선학교실, 난징구강병원

초록


    Ⅰ. INTRODUCTION

    골 흡수를 일으키는 질환은 다양하다. 특히 피질골의 흡수 를 일으키는 주요 질병으로는 부갑상선기능항진증1), 만성신 장질환2), 전신홍반루푸스3) 등이 있으나 그 중 가장 흔한 질환 은 골다공증이다4). 우리나라의 골다공증의 연도별 환자수는 2013년 805,304명에서 2017년 906,631 약 12% 증가하였다. 골다공증을 가진 환자는 2017년 기준 여성 환자는 850,800명 으로서 남성 55,831명에 비해 많으며, 60-69세가 312,731명으 로 가장 많고 70-79세가 275,383명으로 다음으로 많은 주로 노년층의 질환이다5). 골밀도의 증가는 사춘기 전후 가장 왕성 하게 증가하고 30대 초반의 경우 최고조에 이른 후 골밀도는 점차 감소한다. 여성의 경우는 폐경 이후 급속도로 감소하는 경향이 있다. 과거에는 이러한 폐경 후 골밀도 감소가 골다공 증을 유발시킨다고 생각되어졌다. 그러나 최근 연구들에 따르 면 폐경 전의 최대 골밀도 성장이 이루어지지 않았을 경우 골 다공증이 발생할 위험이 크다고 말하고 있다6,7). 따라서 골다 공증은 초기진단이 중요하다. 골다공증을 예방하기 위한 진단 방법으로는 dual energy X-ray absorptiometry(DEXA)를 주로 이용하는데 이러한 진단방법은 검사를 위한 특별한 기기가 필 요하며, 전문적 기사를 요구한다는 단점이 있다8). 한편, 파노 라마방사선사진의 경우 한국의 경우 2017년에 대략 1100만장 의 촬영이 이루어진다5). 지난 연구들에 따르면 파노라마방사 선사진의 하악 피질골의 변화를 이용하여 골다공증을 진단하 는 것은 매우 유용하다는 연구들이 있다9,10). 이에 따라 본 연 구에서는 합성곱신경망(convolutional neural network: CNN) 을 이용하여 파노라마방사선사진에서 골다공증을 판독에 이 용하여 보고자 한다.

    인공지능은 현재 의학기술에 도입되고 있다. 몇몇 기관에서 는 이미 수술용 로봇과 수술 보조용 로봇을 이용하여 수술이 진행되고 있다. 수술용 로봇의 경우에는 입력된 알고리즘에 따 라서 직접적으로 수술을 관장하는 인공지능의 경지까지 이르 고 있다. 실제로 2017년 11월 중국의 샤오이라는 로봇이 국가 의사 면허 시험을 통과한 사례도 있었다11). 또한 IBM의 슈퍼컴 퓨터 ‘왓슨’은 몇 분 만에 질병을 진단하고 최신의 의학지식을 도입하여 환자들에게 맞는 처치방법을 권해주는 시스템도 존 재한다. 인공지능이라는 신기술이 의료 산업에 자연스럽게 녹 아들고 있다. 이러한 현상에 대해 비관적인 예측도 많다. ‘인공 지능이 인간을 대체하여 의사라는 직업이 사라질 것이다.’ 라 는 경고도 있었다12). 그러나 진료에 있어서 책임을 가지고 궁 극적인 판단을 내리는 것은 인간 의사이며, 인공지능은 필요한 정보를 제공하는 도움의 역할을 감당하게 될 것으로 생각된다.

    영상 판독 분야에 현재 인공지능이 어느 정도 도입되고 있 는 상태이다. 여러 가지 인공지능 기술이 있으나 CNN 과 퍼 지신경망(Fuzzy Neural Networks: FNN) 에 대해서 이 논문에 서 다루어 보고자 한다.

    CNN은 학습하기 위해 주어진 이미지들을 각각 레이어화 한다. 이러한 레이어들 사이에서 여러 이미지의 특징을 인식 해 내고 이러한 이미지들의 특징을 추출하며 스스로 학습한 다. 학습된 데이터들을 가지고 사진을 분석해내는 기술을 뜻 한다13). FNN은 CNN과 조금 다른 방식의 판독을 이용한다. FNN은 규칙을 입력하고 이러한 규칙에 따라서 이미지를 분석 해내는 방식이다. 따라서 FNN은 규칙을 입력해야 분석할 수 있다는 점에서 스스로 학습해내는 CNN과의 차이점을 가진 다. 의학 분야에서는 실제로 폐결절14,15), 유방암15,16) 등을 전 산화단층촬영(computed tomogrpahy : CT)에서 CNN 으로 사 용하는 사례들이 적용되고 있으며, CT 상에서 보이는 종양과 뇌허혈을 FNN 으로 진단하는 사례들이 적용되고 있다17).

    치과에서는 현재 FNN 을 통해 파노라마방사선사진을 이용하 여 전신질환인 골다공증을 진단하는 사례들이 존재한다. 방사선 사진에서 보여지는 골밀도를 척도로 FNN의 알고리즘을 이용하 여 골다공증이 존재하는지를 분석하는 시스템이다18,19). 그러나 CNN을 치과 방사선사진 판독에 이용한 연구는 현재 거의 없다.

    이 연구는 CNN을 치과용 진단 영상에서 하악 피질골 변화 의 진단에 도입하기 위한 연속적인 연구의 일환으로서 시행되 었다. 이 연구는 연속적인 연구 중의 하나로 Lee 등20)의 연구 에서 CNN이 골다공증 진단에 있어 매우 높은 민감도, 특이도 를 높이는 것을 확인하였다. 이 연구의 목적은 CNN의 학습과 테스트를 위한 집단에 따라서 두 가지 방법으로 구분하여 CNN의 테스트 결과가 두 가지 방법 간에 차이가 있는지를 확인하고자 하였다.

    Ⅱ. MATERIALS and METHODS

    1. 연구대상

    이 연구는 2009년부터 2017년에 전남대학교 치과병원에 방 문한 1170명(평균나이 49.19 ± 21.91세, 최소 21세, 최대 84 세) 의 여성 환자의 파노라마방사선사진을 대상으로 하였다.

    연구대상에서 병적 골 변화 또는 하악의 수술 병력이 있거 나, 골다공증을 제외한 다른 전신질환은 있는 환자는 연구 대 상에서 제외되었다. 또한 환자의 움직임이 있거나 두부의 위치 가 올바르지 않은 상태에서 촬영된 것은 제외되었다. 방사선사 진은 디지털 파노라마방사선사진촬영장비 Kodak 8000C(Care stream Health Inc., Rochester, NY)로 73 kVp 와 12mA 13.2s 의 조건에서 촬영되었다.

    이 연구는 임상시험심사위원회의 승인(CNUDH-2017-014) 을 받고 진행되었다.

    2. 파노라마방사선사진을 이용한 골다공증의 판독

    모든 파노라마방사선사진은 2명의 10년 이상 경력의 구강 악안면 방사선학 전문의가 파노라마방사선사진에서 골다공증 여부를 판독하였고, 모든 이미지는 PiviewStar PACS(Infinitt, Seoul, Korea)와 해상도 2048 × 2560의 LCD 모니터(IF2105MP: WIDE, Seoul, Korea)로 평가되었다.

    파노라마방사선사진에서 하악 피질골의 변연의 골 변화는 아래와 같이 세 가지로 분류하였다21).

    C1(normal) : 골내 피질골 변연이 평평하고 예리한 모양, C2(mild to moderate cortex bone erosion : 골내 변연 또는 골내 피질 잔존골이 반달 형태의 결손이 있는 경우, C3(Severe) : 피질골이 명확한 다공성이 관찰될 경우로 나뉜다(Fig. 1).

    이 중 C2, C3 는 골 흡수가 있는 것으로 판독되었다. 또한 C1에서 두께가 매우 얇은 경우 역시 골 흡수가 있다고 판독되 었다22). 위 연구에서 두 명의 구강악안면방사선학 전문의가 각각 판독을 시행하고, 두 판독결과를 대조하여 동의가 이루 어진 경우를 최종 진단으로 채택하였다. 골다공증과 정상군 사이에서 판독이 명확하지 않거나 두 전문의가 동의하지 않을 경우는 연구대상에서 제외하였다20).

    3. 인공지능 CNN의 학습 및 테스트

    CNN을 골다공증군과 정상군의 파노라마방사선사진으로 학 습 시킨 후 CNN의 골다공증 판독능력을 테스트 하였다. 파일 크기는 2628x1244 의 원본사진 크기를 33x12까지 낮추었다. CNN의 학습 및 테스트를 거쳐 파노라마방사선사진에서 상하 악 치조골을 포함한 관심영역을 설정하였다(Fig. 2). CNN은 AlexNet 구조13)를 사용하였으며NVDIA GTX980 GPU를 이용 한 Theano22)로 학습시켰다. 또한 인공지능 네트워크에 필요 한 값 θ에는 Xavier23) 초기화방법을 사용하였다.

    CNN은 각각의 방사선사진을 layer로 1단계로 분류해내었 다. 이렇게 분류된 layer에 Max pooling 과정을 거쳤다. Max pooling은 layer에 출력 데이터에서 특정 데이터를 강조하는 용도로 사용되었다. 이렇게 특정 강조된 pooling data에 대해 다시 한번 2단계의 layer 를 추출해내었다. 또한 Max pooling 과정을 통해 특정 데이터 강조영상을 얻어내었다. 이렇게 5단 계의 과정을 거쳐 마지막 출력층에서 분류(classification) 프로 그램 Softmax를 사용하여 최종적으로 골다공증과 정상으로 분류하였다20,23,24)(Fig. 2).

    4. 데이터의 학습과 테스트에 따른 실험1과 2(Experiment 1 and 2)

    1170명의 여성 환자(평균 나이 49.19 ± 21.93세)를 선정하 였다. 환자들 중 586명(평균 나이 27.46 ± 6.73세) 은 골다공 증이 없는 정상군이였으며 골다공증을 가진 골다공증군은 584명(평균 나이 71.00 ± 7.64세)이었다.

    실험1 에서는 정상군 569명(평균 나이 26.61 ± 4.60세, 최 소 21세, 최대 39세)과 골다공증군 502명(평균 나이 72.37 ± 7.10세, 최소 52세, 최대 84세)으로 학습시켰고 정상군 17명 (평균 나이 55.94 ± 4.03세, 최소 50세, 최대 63세) 와 골다공 증군 82명(평균 나이 62.60 ± 5.00세, 최소 53세, 최대 70세) 으로 테스트하였다. 실험2에서는 실험1에서 사용된 학습군 (Training)과 테스트군(Testing)을 바꾸어서 사용하였다. 실험 1,2에서 사용한 학습군과 테스트군으로 사용된 정상군과 골다 공증군에 대한 평균 나이의 통계적 유의성을 평가하였다. 정 상군 569명과 골다공증군 502명의 평균 나이는 정상군의 경 우가 통계적으로 유의하게 낮았다(p<0.001). 또한 정상군 17 명과 골다공증군 82명은 정상군의 평균 나이가 통계적으로 유 의하게 낮았다(p< 0.001)(Table. 1).

    Ⅲ. RESULTS

    1. 실험1

    정상군 569명(평균 나이 26.61 ± 4.60세)과 골다공증군 502 명(평균 나이 72.37 ± 7.10세)의 파노라마방사선사진 1071 장 을 AlexNet13) 구조의 CNN에 학습데이터로 사용하였다. 또한 정 상군 17명(평균 나이 55.94 ± 4.03세)와 골다공증군 82명(평균 나이 62.60 ± 5.00세) 의 파노라마방사선사진 99장을 무작위로 테스트하였다. 테스트 결과 CNN이 82명의 골다공증군에서 75명 을 골다공증으로 판정하였으며, 17명의 정상군에서 정상으로 판 정한 경우는 9명이었다. 민감도는 0.9146, 특이도는 0.5294, 정 확도는 84.84%, 오류율은 15.15%를 보였다(Table 2, 4).

    2. 실험2

    실험1의 학습데이터와 테스트데이터를 역으로 활용하여 학 습 및 테스트하였다. 정상군 17명(평균 나이 55.94 ± 4.03세)와 골다공증군 82명(평균 나이 62.60 ± 5.00세) 99명 파노라마방 사선사진 정보를 DCNN 에 입력하여 학습시켰다. 그 후 정상군 569명(평균 나이 26.61 ± 4.60세)과 골다공증군 502명(평균 나 이 72.37 ± 7.10세)의 파노라마방사선사진 1071 장을 무작위로 테스트하였다. 테스트 결과 CNN이 502명의 골다공증군에서 474명을 골다공증으로 판정하였으며, 569명의 정상군에서 542 명을 정상으로 판정하였다. 민감도는 0.9442, 특이도는 0.9525, 정확도는 94.86%, 오류율은 5.14%를 보였다(Table 3, 4).

    Ⅳ. DISCUSSION

    이 연구는 CNN을 치과용 진단 영상에서 하악 피질골 변화 의 진단에 도입하기 위한 연속적인 연구의 일환으로서 시행되 었다. 연구의 목적은 CNN의 학습과 테스트를 위한 집단에 따 라서 CNN의 테스트 결과가 차이를 보이는지를 확인하고자 하 였다. 이 연구를 통해 테스트 결과의 향상을 위해 어떠한 학습 데이터 조건을 준비하는 것이 좋은지를 확인하고자 하였다.

    보건의료빅데이터 시스템에 따르면 우리나라의 골다공증의 연도별 환자수는 2013년 805,304명에서 2017년 906,631 약 12% 증가하였다. 데이터에 따르면 대부분의 환자가 50세 이후 골다공증으로 진단되었다. 그 중 골다공증에 의한 골절을 동반 한 환자의 경우 2017년에 55,602명에 이른다. 일반적으로 대퇴 골절 후 1년 내 사망률은 15-20%에 이른다5). 골다공증 진단에 있어 이용하는 골밀도 측정방법으로는 DEXA와 정량적 초음파 (quantitative ultrasound, QUS)방법을 주로 사용하는데 중심 성 DEXA 의 기기는 정확도는 높으나 가격이 높은 편이며 큰 공간을 차지하고, 전문적 기사를 요구한다. 말단골 DEXA의 경 우에는 간편하나 말단골에서만 이용가능하다는 단점을 가진 다. QUS 기기는 초음파를 이용하기 때문에 방사선 노출은 가 지지 않지만 정확도가 떨어진다는 단점을 지닌다6,25-27). 이러한 점들에서 치과적 영역에서의 파노라마방사선사진에서의 하악 피질골 변화의 진단은 간편하고 치과 영역에서 보편적으로 이 용하는 파노라마방사선사진촬영장비 이외의 추가 기기를 요 구하지 않는다는 점과 함께 치과적 문제와 더불어 의과적 문 제도 진단할 수 있다는 장점을 지닌다. 위의 실험과 같이 오류 를 낮춘 인공지능을 통한 판독이 현실화 된다면 각각의 방사 선 판독 전문의에서 나타나는 개개인의 주관적 견해의 차이를 줄일 수 있을 뿐만 아니라, 많은 양의 방사선사진을 판독하는 데 소모되는 시간의 절약을 가져올 수 있을 것이다.

    AlexNet13) 구조의 CNN은 한 장의 그림을 여러 layer 로 분 류하여 Max pooling 이라는 과정을 거쳐 강조하는 과정을 지 나게 되고 이 강조된 그림을 layer로써 사용하여 강조하는 이러 한 일련의 과정을 거쳐 스스로 학습하여 주어진 사진을 분석하 는 인공지능 방식이다. CNN 은 sampling 에 대해 Filter를 거쳐 특징이 있는지 없는 지로 분석한 후 Activation function에서 ReLU라는 함수를 통하여 결과 값에 가까워질수록 1에 수렴하 는지를 확인한다. 이러한 과정을 거치고 Max pooling이라는 단계를 거치는데 이 단계는 특징을 Activation된 map에서 가 장 큰 값을 하나씩 뽑아내는 과정이다13). 이 과정에서 가장 큰 값만을 뽑아내기 때문에 사진 전체를 인식해야하는 범위에 서 사이즈를 줄일 수 있기 때문에 컴퓨터에 주어지는 부하가 감소한다. 또한 이 과정에서 오버피팅(overfitting)을 줄일 수 있다. 오버피팅이란 sample 데이터에 대해 100% 학습되어 있 다는 뜻이다. CNN 에 주어진 학습데이터(sample) 과 똑같은 데이터(sample) 이 주어졌을 경우 100%의 정확도를 보이지만 그 이외의 데이터를 넣게 되면 급격한 정확도가 떨어지는데 이러한 과정도 Max pooling을 통해 방지할 수 있다28).

    이러한 CNN과 FNN을 이용한 방식들이 실제적으로 medical 영상분야에서는 다양하게 이용되고 있다. 실제로 여러 유방암 의 CT 사진을 양성과 악성종양으로 나누어 학습시키고 520명 의 환자(양성 275명, 악성종양 245명)를 대상으로 테스트 한 결과 정확도는 75%이상의 값이 나타났고15), 폐결절도 마찬가 지로 양성과 악성종양으로 나누어 학습시켰을 때 1010명의 환 자에 대해 정확도 76% 이상의 값들이 나타남을 볼 수 있었다 14). FNN을 이용하여 방사선 파노라마방사선사진에서 골다공 증을 감지하는 방식은 45-92세의 141명의 여성 환자를 대상으 로 파노라마방사선사진에서 관심영역을를 좌 우측 하악골의 하연으로 선택하였을 때 각각의 골격영상과 골소주들을 분석 해내 96%이상의 정확도를 보이는 진단의 정확성을 나타낼 수 있음을 보였다19). 또한 다른 연구에서는 1710명의 17-82세 환 자를 대상으로 FNN으로 심질환을 예측 하는 시스템을 이용하 여 79% 정확성을 나타냄을 볼 수 있었다19). 이러한 바와 같이 의료분야에서도 인공지능의 흐름이 진행됨에 따라 꼭 인공지 능이 의사를 대체한다는 목적보다는 진료의 정확도를 높이고, 진료의 효율성을 높이며, 진료의 접근성 및 간편성을 위하여 필요하다고 생각되어진다.

    학습군에 방사선사진을 입력하게 되면 CNN 은 스스로 그 방사선사진 속에서 일정한 규칙성을 찾아 판단한다. 따라서 더 많은 양의 학습 데이터가 주어 졌을 때 더 좋은 결과가 나올 것으로 예상했었다. 그러나 결과는 예측과는 상이하게 나타났다. 실험2에서 적은 양의 데이터에서 민감도, 특이도, 정확도 모두 높게 나타났다. 이의 원인은 실험1의 학습군에서 주어진 환자의 연령에서 오는 차이 때문이라고 생각된다. 실 험1의 학습군에서 주어졌던 정상군 569명의 평균 연령은 26.61세로써 CNN에서는 평균연령 26.61세의 환자를 학습하 였기 때문에 Sample data 인 평균연령 정상군 17명(55.94세) 와 골다공증군 82명(62.60세)의 테스트 데이터와는 차이가 많 았을 것이다. 평균연령이 높은 환자에게는 치아수의 변화, 그 에 따른 하악각의 위치 및 치조골 높이의 변화 과두의 높이 변화, 골밀도의 차이 등이 나타날 수 있다29). 이에 따라 CNN 의 정상군에서 주어지는 학습데이터와 테스트데이터에서의 정상군의 차이가 있었을 것으로 보여진다. 위 실험 데이터에 서 보이듯 17명의 정상군을 골다공증으로 오진단한 경우가 47.06%을 나타냈다(Table 2-4).

    우리는 연속적인 연구 중 하나인 Lee 등20)의 연구에서 파노 라마방사선사진에서 하악의 치조골 하방만 국한하여 학습 및 테스트하였고, 그 결과 92.5 %의 accuracy 를 얻었다. 그러나 이렇게 영역을 하악 치조골 하방으로 국한시키기 위해서는 이 연구에서 사용한 상하악을 포함한 ROI 보다 더 많은 시간이 필요하다는 단점이 있다.

    본 연구의 한계점은 DEXA 등의 정량적 골다공증 데이터가 없이 파노라마방사선사진만을 사용한 것이다. 그러나 실제 치 과에서는 파노라마방사선사진만을 사용하여 치과의사가 판독 해야하므로 이번 연구가 임상에서의 실제를 반영한다고 생각 한다. 또한 환자 수가 적었다. 의료 데이터를 한번에 대량으로 얻기는 어렵기 때문에 대량의 데이터를 얻기 위해서는 다기관 의 협력 연구가 필요할 것이다.

    결론적으로 본 연구는 CNN의 학습과 테스트의 조건에 따 라 CNN의 판독결과가 차이를 보이는지를 확인하고자 시행되 었다. 연령대가 차이가 나는 두 그룹으로 학습한 경우보다 차 이가 별로 나지 않는 두 그룹으로 sample을 학습시킨 결과 더 정확한 판독능력을 보였다. 본 연구에서는 학습데이터의 수가 적더라도 연령대를 맞추어 주는 것이 좋은 결과를 얻는 다는 것을 알게 되었다.

    Figure

    KAOMP-43-3-73_F1.gif

    Shape of mandibular cortex margin for interpreting panoramic radiographs for osteoporosis21).

    C1 : Even and sharp endosteal cortical margin on both sides

    C2 : Endosteal margin with semi-lunar defects or endosteal cortical residue

    C3 : Cortical layer exhibiting heavy endosteal residues and obvious porosity

    KAOMP-43-3-73_F2.gif

    Architect of the convolutional neural network (CNN) in this study.

    Table

    Grouping of the data used for experiment 1 and 2

    Testing results in experiment 1

    Sensitivity, specificity, accuracy, and error in experiment 1 and 2

    Testing results in experiment 2

    Reference

    1. Kaji H, Yamauchi M, Nomura R, Sugimoto T: Two-year longitudinal changes in forearm cortical bone geometry in postmenopausal women with mild primary hyperparathyroidism without parathyroidectomy. Exp Clin Endocrinol Diabetes. 2009;117:633-636.
    2. Nickolas TL, Stein EM, Dworakowski E, Nishiyama KK, Komandah-Kosseh M, Zhang CA, McMahon DJ, Liu XS, Boutroy S, Cremers S, Shane E: Rapid cortical bone loss in patients with chronic kidney disease. J Bone Miner Res. 2013;28:1811-1820.
    3. Zhu TY, Griffith JF, Qin L, Hung VW, Fong TN, Au SK, Tang XL, Kun EW, Kwok AW, Leung PC, Li EK, Tam LS: Cortical thinning and progressive cortical porosity in female patients with systemic lupus erythematosus on long-term glucocorticoids: a 2-year case-control study. Osteoporos Int. 2015;26:1759-1771.
    4. Chen H1, Zhou X, Fujita H, Onozuka M, Kubo KY: Age-related changes in trabecular and cortical bone microstructure. Int J Endocrinol. 2013;2013:213234.
    5. Hearthcare Bigdata hub, Health care, Statistical information: http://opendata.hira.or.kr/op/opc/olapMfrnIntrsIlnsInfo.do
    6. Kim BT, Mosekilde L, Duan Y, Zhang XZ, Tornvig L, Thomsen JS, Seeman E: The structural and hormonal basis of sex differences in peak appendicular bone strength in rats. J Bone Miner Res. 2003;18:150-155.
    7. Heaney RP, Abrams S, Dawson-Hughes B, Looker A, Marcus R, Matkovic V, Weaver C: Peak bone mass. Osteoporos Int. 2000;11:985-1009.
    8. Park YS: Diagnosis and treatment of osteoporosis. J korean Med assoc. 2012;55:1084-1094.
    9. Taguchi A, Tsuda M, Ohtsuka M, Kodama I, Sanada M, Nakamoto T, Inagaki K, Noguchi T, Kudo Y, Suei Y, Tanimoto K, Bollen AM: Use of dental panoramic radiographs in identifying younger postmenopausal women with osteoporosis. Osteoporos Int. 2006;17:387-394.
    10. Taguchi A: Triage screening for osteoporosis in dental clinics using panoramic radiographs. Oral Dis. 2010;16:316-327.
    11. Park YS, Jerome G: State of the future 2018, Seoul:Business books; 2016:242-245
    12. Klaus S: The Fourth Industrial Revolution. Seoul:Newpresent; 2016:46-47.
    13. Krizhevsky A, Sutskever I, Hinton GE: Imagenet classification with deep convolutional neural networks. Adv Neural Inf Process Syst 2012;1097–1105.
    14. Hua KL, Hsu CH, Hidayati SC, Cheng WH, Chen YJ: Computer-aided classification of lung nodules on computed tomography images via deep learning technique. Onco Targets Ther. 2015;4:2015-2022.
    15. Cheng JZ, Ni D, Chou YH, Qin J, Tiu CM, Chang YC, Huang CS, Shen D, Chen CM: Computer-Aided Diagnosis with Deep Learning Architecture: Applications to Breast Lesions in US Images and Pulmonary Nodules in CT Scans. Sci Rep. 2016;15:24454.
    16. Cireşan DC, Giusti A, Gambardella LM, Schmidhuber J: Mitosis detection in breast cancer histology images with deep neural networks. Med Image Comput Comput Assist Interv. 2013;16:411-418.
    17. Sawagashira T, Hayashi T, Hara T, Katsumata A, Muramatsu C, Zhou X, Iida Y, Katagi K, Fujita H: An automatic detection method for carotid artery calcifications using top-hat filter on dental panoramic radiographs. Conf Proc IEEE Eng Med Biol Soc. 2011;2011:6208-6211.
    18. Arifin AZ, Taguchi A, Nakamoto T, Ohtsuka M, Tsuda M, Kudo Y, Tanimoto K: Use of Fuzzy Neural Network in Diagnosing Postmenopausal Women with Osteoporosis Based on Dental Panoramic Radiographs. Journal of Advanced Computational Intelligence and Intelligent Informatics. 2007;11: 1049-1058.
    19. Kavitha MS, Ganesh Kumar P, Park SY, Huh KH, Heo MS, Kurita T, Asano A, An SY, Chien SI: Automatic detection of osteoporosis based on hybrid genetic swarm fuzzy classifier approaches. Dentomaxillofac Radiol. 2016;45:20160076.
    20. Lee JS, Adhikari S, Liu L, Jeong HG, Kim H, Yoon SJ: Osteoporosis detection in panoramic radiographs using a deep convolutional neural network-based computer-assisted diagnosis system: a preliminary study. Dentomaxillofac Radiol. 2018;13:20170344.
    21. Klemetti E, Kolmakov S, Kröger H: Pantomography in assessment of the osteoporosis risk group. Scand J Dent Res. 1994;102:68-72.
    22. Bergstra J, Breuleux O, Bastien F, Lamblin P, Pascanu R, Desjardins G: Theano: A CPU and GPU mathcompiler in Python. Proc 9th Python in Science Conf. 2010;2010:1-7
    23. Glorot X, Bengio Y. Understanding the difficulty of training deep feedforward neural networks. Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics; 2010; 2010. p.249-56.
    24. Oquab M, Bottou L, Laptev I, Sivic J: Learning and transferring mid-level image representations using convolutional neural networks. Proceedings of the IEEE conference on computer vision and pattern recognition. 2014;2014.1717-1724.
    25. Lee JG, Jun S, Cho YW, Lee H, Kim GB, Seo JB, Kim N: Deep Learning in Medical Imaging: General Overview. Korean J Radiol. 2017;18:570-584.
    26. Lee YK, Yoon BH, Koo KH: Epidemiology of osteoporosis and osteoporotic fractures in South Korea. Endocrinol Metab (Seoul). 2013;28:90-93.
    27. Mithal A DV, Lau E,. The Asian Audit. Epidemiology, costs and burden of osteoporosis in Asia.: International Osteoporosis Foundation.; 2009.
    28. Srivastava N, Hinton GE, Krizhevsky A, Sutskever I, Salakhutdinov R:` Dropout: a simple way toprevent neural networks from overfitting. Journal of Machine Learning Research. 2014;15:1929-1958.
    29. Kavitha MS, Asano A, Taguchi A, Kurita T, Sanada M: Diagnosis of osteoporosis from dental panoramic radiographs using the support vector machine method in a computer-aided system. BMC Med Imaging. 2012;12:1.
    오늘하루 팝업창 안보기 닫기