AI in de neonatale zorg

Nick
Seeuws

Geboortes zijn een spanned moment. Na een lange tijd haar kindje mee te dragen kan een moeder eindelijk haar baby aanschouwen en vastnemen. Maar wat als de baby te vroeg komt?

Vroegtijdige geboortes gaan gepaard met grote risico’s voor een baby. Ziekenhuizen maken vaak gebruik van gespecialiseerde afdelingen om deze risico’s in te perken en de kleinsten onder ons van de beste zorg te kunnen voorzien. Specialisten in deze afdelingen zijn, onder andere, geïnteresseerd in de slaappatronen van pasgeborenen. Deze slaappatronen bevatten immers zeer veel informatie over de ontwikkeling van de hersenen. Slaappatronen kunnen herkend worden via de hersengolven, gemeten met zogenaamde elektro-encefalografie (EEG). Het grote voordeel van EEG is dat de baby buiten het dragen van een gekke muts met sensoren geen last ondervindt van metingen.

Een groot nadeel daarentegen van slaappatronen opvolgen via EEG is de complexiteit van de taak. Zelfs voor experten met jarenlange ervaring is het niet makkelijk om op een eenduidige manier de signalen te interpreteren. Aangezien pasgeboren baby’s ook nog eens het grootste deel van hun dag al slapend doorbrengen, en dus voor zeer lange tijd opgemeten worden, zorgt dit voor een immense last voor verzorgende artsen en maakt het continue opvolging quasi onmogelijk. EEG interpreteren met artificiële intelligentie kan een significante tijdswinst betekenen voor artsen en nieuwe mogelijkheden bieden om de hersenontwikkeling van pasgeborenen op te volgen.

De techniek bij uitstek uit het domein van de artificiële intelligentie om zulke complexe taken te automatiseren is deep learning. Deze techniek biedt enorm veel mogelijkheden en een hoge graad van flexibiliteit maar heeft een niet te verwaarlozen nadeel. Een standaard deep learning algoritme heeft een gigantische nood aan voorbeelden om van te leren. Deze beperking zorgt ervoor dat deep learning het originele probleem niet oplost: artsen moeten nog altijd uren en uren aan EEG signalen verwerken en interpreteren. Dit thesisonderzoek bekijkt methodes om dit grote nadeel te verhelpen.

Kunnen we een computer de karakteristieken en eigenschappen van EEG-signalen aanleren? Dit is de centrale vraag van dit thesisonderzoek. Door een algoritme een grote hoeveelheid signalen te laten bekijken kunnen we dit algoritme automatisch laten zoeken naar de belangrijkste karakteristieken en variaties in de signalen. Vervolgens kan het algoritme de opgedane kennis over EEG-signalen gebruiken om de beperkte set aan aangeduide slaappatronen beter te benutten.

Er is echter niets wat ons tegenhoudt om deze beide stappen te combineren. Een algoritme kan in één keer opnames verwerken met annotaties van artsen en ruwe opnames met enkel de EEG-signalen. Deze geïntegreerde aanpak blijkt te leiden naar betere resultaten dan een algoritme in twee stappen.

Kunnen we een computer de karakteristieken en eigenschappen van EEG-signalen aanleren? De geïntegreerde aanpak, waarin het algoritme tegelijk slaapstadia leert herkennen en eigenschappen van een signaal identificeert, leidt met ongeveer honderd uur aan extra ruwe opnames tot betere resultaten dan de huidige methodes. Deze verbeterde resultaten hinten naar een beter begrip van een EEG-signaal. Deep learning voor automatische opvolging van prematuren wint hierdoor aan relevantie. De resultaten van dit thesisonderzoek tonen aan dat de techniek inzetbaar is met een minimum aan input van artsen zolang er genoeg ruwe opnames voorhanden zijn.

Bibliografie

  1. Chiara Nosarti, Kie Woo Nam, Muriel Walshe, Robin M Murray, Marion Cuddy, Larry Rifkin, and Matthew PG Allin. Preterm birth and structural brain alterations in early adulthood. NeuroImage: Clinical, 6:180–191, 2014.

  2. [2]  Rita H Pickler, Jacqueline M McGrath, Ms Barbara A Reyna, Nancy McCain, Ms Mary Lewis, Ms Sharon Cone, Paul Wetzel, and Al Best. A model of neurodevelopmental risk and protection for preterm infants. The Journal of perinatal & neonatal nursing, 24(4):356, 2010.

  3. [3]  Mark S Scher. Ontogeny of eeg-sleep from neonatal through infancy periods. Sleep medicine, 9(6):615–636, 2008.

  4. [4]  Anneleen Dereymaeker, Kirubin Pillay, Jan Vervisch, Maarten De Vos, Sabine Van Huffel, Katrien Jansen, and Gunnar Naulaers. Review of sleep-eeg in preterm and term neonates. Early human development, 113:87–103, 2017.

  5. [5]  Alexandra Piryatinska, Gyorgy Terdik, Wojbor A Woyczynski, Kenneth A Loparo, Mark S Scher, and Anatoly Zlotnik. Automated detection of neonate eeg sleep stages. Computer methods and programs in biomedicine, 95(1):31–46, 2009.

  6. [6]  Ninah Koolen, Lisa Oberdorfer, Zsofia Rona, Vito Giordano, Tobias Werther, Katrin Klebermass-Schrehof, Nathan Stevenson, and Sampsa Vanhatalo. Auto- mated classification of neonatal sleep states using eeg. Clinical Neurophysiology, 128(6):1100–1108, 2017.

  7. [7]  Anneleen Dereymaeker, Kirubin Pillay, Jan Vervisch, Sabine Van Huffel, Gunnar Naulaers, Katrien Jansen, and Maarten De Vos. An automated quiet sleep detection approach in preterm infants as a gateway to assess brain maturation.International journal of neural systems, 27(06):1750023, 2017.

  8. [8]  Amir Hossein Ansari, Ofelie De Wel, Mario Lavanga, Alexander Caicedo, An- neleen Dereymaeker, Katrien Jansen, Jan Vervisch, Maarten De Vos, Gunnar Naulaers, and Sabine Van Huffel. Quiet sleep detection in preterm infants using deep convolutional neural networks. Journal of neural engineering, 15(6):066006, 2018.

    57

Bibliography

Afbeelding verwijderd.

  1. [9]  Diederik P Kingma and Max Welling. Auto-encoding variational bayes. arXiv preprint arXiv:1312.6114, 2013.

  2. [10]  Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde- Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. Generative adversarial nets. In Advances in neural information processing systems, pages 2672–2680, 2014.

  3. [11]  T. Hastie, R. Tibshirani, and J.H. Friedman. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. Springer series in statistics. Springer, 2009.

  4. [12]  Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Deep Learning. MIT Press, 2016. http://www.deeplearningbook.org.

  5. [13]  Laurens van der Maaten and Geoffrey Hinton. Visualizing data using t-sne. Journal of machine learning research, 9(Nov):2579–2605, 2008.

  6. [14]  Volodymyr Mnih, Koray Kavukcuoglu, David Silver, Andrei A Rusu, Joel Veness, Marc G Bellemare, Alex Graves, Martin Riedmiller, Andreas K Fidjeland, Georg Ostrovski, et al. Human-level control through deep reinforcement learning.Nature, 518(7540):529, 2015.

  7. [15]  Du Tran, Lubomir Bourdev, Rob Fergus, Lorenzo Torresani, and Manohar Paluri. Learning spatiotemporal features with 3d convolutional networks. In Proceedings of the IEEE international conference on computer vision, pages 4489–4497, 2015.

  8. [16]  Dumitru Erhan, Yoshua Bengio, Aaron Courville, Pierre-Antoine Manzagol, Pascal Vincent, and Samy Bengio. Why does unsupervised pre-training help deep learning? Journal of Machine Learning Research, 11(Feb):625–660, 2010.

  9. [17]  Tianqi Chen and Carlos Guestrin. Xgboost: A scalable tree boosting system. In Proceedings of the 22nd acm sigkdd international conference on knowledge discovery and data mining, pages 785–794. ACM, 2016.

  10. [18]  Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, and Andrew Rabi- novich. Going deeper with convolutions. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 1–9, 2015.

  11. [19]  Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770–778, 2016.

  12. [20]  O. Ronneberger, P. Fischer, and T. Brox. U-net: Convolutional networks for biomedical image segmentation. Medical Image Computing and Computer- Assisted Intervention, 9351:234–241, 2015.

58

Bibliography

Afbeelding verwijderd.

[21]

[22] [23] [24]

[25]

[26]

[27]

[28]

[29]

[30]

[31]

[32]

Jost Tobias Springenberg, Alexey Dosovitskiy, Thomas Brox, and Martin Ried- miller. Striving for simplicity: The all convolutional net. arXiv preprint arXiv:1412.6806, 2014.

Kurt Hornik. Approximation capabilities of multilayer feedforward networks. Neural networks, 4(2):251–257, 1991.

Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014.

Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift. arXiv preprint arXiv:1502.03167, 2015.

Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Rus- lan Salakhutdinov. Dropout: a simple way to prevent neural networks from overfitting. The Journal of Machine Learning Research, 15(1):1929–1958, 2014.

A.H. Ansari, O. De Wel, K. Pillay, A. Dereymaeker, K. Jansen, S. Van Huffel, G. Naulaers, and M. De Vos. A convolutional neural network outperforming state-of-the-art sleep staging algorithms for both preterm and term infants. Internal Report 19-65, ESAT-STADIUS, KU Leuven (Leuven,Belgium), 2019.

Qin Lin, Shu-qun Ye, Xiu-mei Huang, Si-you Li, Mei-zhen Zhang, Yun Xue, and Wen-Sheng Chen. Classification of epileptic eeg signals with stacked sparse autoencoder based on deep learning. In International Conference on Intelligent

Computing, pages 802–810. Springer, 2016.

Junhua Li, Zbigniew Struzik, Liqing Zhang, and Andrzej Cichocki. Feature learning from incomplete eeg with denoising autoencoder. Neurocomputing, 165:23–31, 2015.

Yuanfang Ren and Yan Wu. Convolutional deep belief networks for feature extraction of eeg signal. In 2014 International Joint Conference on Neural Networks (IJCNN), pages 2850–2853. IEEE, 2014.

Yunchen Pu, Zhe Gan, Ricardo Henao, Xin Yuan, Chunyuan Li, Andrew Stevens, and Lawrence Carin. Variational autoencoder for deep learning of images, labels and captions. In Advances in neural information processing systems, pages 2352–2360, 2016.

Alec Radford, Luke Metz, and Soumith Chintala. Unsupervised representation learning with deep convolutional generative adversarial networks. arXiv preprint arXiv:1511.06434, 2015.

Honglak Lee, Roger Grosse, Rajesh Ranganath, and Andrew Y Ng. Convolu- tional deep belief networks for scalable unsupervised learning of hierarchical representations. In Proceedings of the 26th annual international conference on machine learning, pages 609–616. ACM, 2009.

59

Bibliography

Afbeelding verwijderd.

  1. [33]  Harri Valpola. From neural pca to deep unsupervised learning. In Advances in Independent Component Analysis and Learning Machines, pages 143–171. Elsevier, 2015.

  2. [34]  Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, and Xi Chen. Improved techniques for training gans. In Advances in neural information processing systems, pages 2234–2242, 2016.

  3. [35]  Durk P Kingma, Shakir Mohamed, Danilo Jimenez Rezende, and Max Welling. Semi-supervised learning with deep generative models. In Advances in neural information processing systems, pages 3581–3589, 2014.

  4. [36]  Antti Rasmus, Mathias Berglund, Mikko Honkala, Harri Valpola, and Tapani Raiko. Semi-supervised learning with ladder networks. In Advances in Neural Information Processing Systems, pages 3546–3554, 2015.

  5. [37]  Takeru Miyato, Shin-ichi Maeda, Shin Ishii, and Masanori Koyama. Virtual adversarial training: a regularization method for supervised and semi-supervised learning. IEEE transactions on pattern analysis and machine intelligence, 2018.

  6. [38]  Perumpillichira J Cherian, Renate M Swarte, and Gerhard H Visser. Technical standards for recording and interpretation of neonatal electroencephalogram in clinical practice. Annals of Indian Academy of Neurology, 12(1):58, 2009.

  7. [39]  Casper Kaae Sønderby, Tapani Raiko, Lars Maaløe, Søren Kaae Sønderby, and Ole Winther. Ladder variational autoencoders. In Advances in neural information processing systems, pages 3738–3746, 2016.

  8. [40]  Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Advances in neural information processing systems, pages 3104–3112, 2014.

  9. [41]  https://github.com/mcgibbon. Implementation for mini-batch discrimination for keras. https://github.com/keras-team/keras/pull/3677. Accessed: 2019- 05-28.

  10. [42]  François Chollet et al. Keras. https://keras.io, 2015.

  11. [43]  Martín Abadi, Ashish Agarwal, Paul Barham, Eugene Brevdo, Zhifeng Chen, Craig Citro, Greg S. Corrado, Andy Davis, Jeffrey Dean, Matthieu Devin, Sanjay Ghemawat, Ian Goodfellow, Andrew Harp, Geoffrey Irving, Michael Isard, Yangqing Jia, Rafal Jozefowicz, Lukasz Kaiser, Manjunath Kudlur, Josh Levenberg, Dandelion Mané, Rajat Monga, Sherry Moore, Derek Murray, Chris Olah, Mike Schuster, Jonathon Shlens, Benoit Steiner, Ilya Sutskever, Kunal Talwar, Paul Tucker, Vincent Vanhoucke, Vijay Vasudevan, Fernanda Viégas, Oriol Vinyals, Pete Warden, Martin Wattenberg, Martin Wicke, Yuan Yu, and Xiaoqiang Zheng. TensorFlow: Large-scale machine learning on heterogeneous systems, 2015. Software available from tensorflow.org.

60

[44] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay. Scikit-learn: Machine learning in Python. Journal of Machine Learning Research, 12:2825–2830, 2011.

[45] Matthew D Zeiler and Rob Fergus. Visualizing and understanding convolutional networks. In European conference on computer vision, pages 818–833. Springer, 2014.

Download scriptie (3.66 MB)
Universiteit of Hogeschool
KU Leuven
Thesis jaar
2019
Promotor(en)
Sabine Van Huffel; Gunnar Naulaers