<!DOCTYPE article
PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.4 20190208//EN"
       "JATS-journalpublishing1.dtd">
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" article-type="EDITORIAL" dtd-version="1.4" xml:lang="en">
 <front>
  <journal-meta>
   <journal-id journal-id-type="publisher-id">Automation and modeling in design and management</journal-id>
   <journal-title-group>
    <journal-title xml:lang="en">Automation and modeling in design and management</journal-title>
    <trans-title-group xml:lang="ru">
     <trans-title>Автоматизация и моделирование в проектировании и управлении</trans-title>
    </trans-title-group>
   </journal-title-group>
   <issn publication-format="print">2658-3488</issn>
   <issn publication-format="online">2658-6436</issn>
  </journal-meta>
  <article-meta>
   <article-id pub-id-type="publisher-id">53174</article-id>
   <article-categories>
    <subj-group subj-group-type="toc-heading" xml:lang="ru">
     <subject>МАТЕМАТИЧЕСКОЕ И КОМПЬЮТЕРНОЕ МОДЕЛИРОВАНИЕ</subject>
    </subj-group>
    <subj-group subj-group-type="toc-heading" xml:lang="en">
     <subject>MATHEMATICAL AND COMPUTER MODELING</subject>
    </subj-group>
    <subj-group>
     <subject>МАТЕМАТИЧЕСКОЕ И КОМПЬЮТЕРНОЕ МОДЕЛИРОВАНИЕ</subject>
    </subj-group>
   </article-categories>
   <title-group>
    <article-title xml:lang="en">APPLYING NEURAL NETWORK-OUTPUT MODELS FOR PROCESSING AND ANALYSING MEDICAL DATA</article-title>
    <trans-title-group xml:lang="ru">
     <trans-title>ПРИМЕНЕНИЕ НЕЙРОСЕТЕВЫХ МОДЕЛЕЙ ДЛЯ ОБРАБОТКИ И АНАЛИЗА МЕДИЦИНСКИХ ДАННЫХ</trans-title>
    </trans-title-group>
   </title-group>
   <contrib-group content-type="authors">
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Гергет</surname>
       <given-names>Ольга Михайловна</given-names>
      </name>
      <name xml:lang="en">
       <surname>Gerget</surname>
       <given-names>Olga Mikhailovna</given-names>
      </name>
     </name-alternatives>
     <email>gerget@tpu.ru</email>
     <bio xml:lang="ru">
      <p>доктор технических наук;</p>
     </bio>
     <bio xml:lang="en">
      <p>doctor of technical sciences;</p>
     </bio>
     <xref ref-type="aff" rid="aff-1"/>
    </contrib>
    <contrib contrib-type="author">
     <name-alternatives>
      <name xml:lang="ru">
       <surname>Игнатишина</surname>
       <given-names>Фаина Александровна</given-names>
      </name>
      <name xml:lang="en">
       <surname>Ignatishina</surname>
       <given-names>Faina Alexandrovna</given-names>
      </name>
     </name-alternatives>
     <xref ref-type="aff" rid="aff-2"/>
    </contrib>
   </contrib-group>
   <aff-alternatives id="aff-1">
    <aff>
     <institution xml:lang="ru">Томский политехнический университет</institution>
    </aff>
    <aff>
     <institution xml:lang="en">Tomsk Polytechnic university</institution>
    </aff>
   </aff-alternatives>
   <aff-alternatives id="aff-2">
    <aff>
     <institution xml:lang="ru">Национальный исследовательский Томский политехнический университет</institution>
     <country>Россия</country>
    </aff>
    <aff>
     <institution xml:lang="en">Национальный исследовательский Томский политехнический университет</institution>
     <country>Russian Federation</country>
    </aff>
   </aff-alternatives>
   <pub-date publication-format="print" date-type="pub" iso-8601-date="2022-09-30T00:17:20+03:00">
    <day>30</day>
    <month>09</month>
    <year>2022</year>
   </pub-date>
   <pub-date publication-format="electronic" date-type="pub" iso-8601-date="2022-09-30T00:17:20+03:00">
    <day>30</day>
    <month>09</month>
    <year>2022</year>
   </pub-date>
   <volume>2022</volume>
   <issue>3</issue>
   <fpage>24</fpage>
   <lpage>33</lpage>
   <history>
    <date date-type="received" iso-8601-date="2022-09-28T00:00:00+03:00">
     <day>28</day>
     <month>09</month>
     <year>2022</year>
    </date>
   </history>
   <self-uri xlink:href="https://naukaru.ru/en/nauka/article/53174/view">https://naukaru.ru/en/nauka/article/53174/view</self-uri>
   <abstract xml:lang="ru">
    <p>В настоящее время применение алгоритмов машинного обучения в решении медицинских задач, связанных с диагностикой и прогнозированием медицинских показателей, позволило получить хороший результат. В рамках проведенного исследования разработаны нейросетевые модели для определения типа сахарного диабета и степени когнитивных нарушений. Обозначена проблема обучения глубоких нейронных сетей, и предложено решение на основе применения в качестве целевой функции кросс-энтропии, что дало возможность снизить зависимость величины коррекции веса от значений производных. В качестве исходной выборки выступают обезличенные результаты МРТ головного мозга пациентов из 5 групп с учетом типа сахарного диабета пациентов и наличия когнитивных нарушений. Рассмотрены две нейросетевые модели, которые представляют собой ансамбль, и представлены метрики, позволяющие оценить работу каждой сети отдельно, а также результаты работы, полученные на основе ансамблирования нейросетей. При разработке нейросетевых моделей был использован язык программирования Python</p>
   </abstract>
   <trans-abstract xml:lang="en">
    <p>At present, using machine learning algorithms in solving medical tasks related to diagnosing and predicting medical indicators makes it possible to obtain a good result. As part of the study, neural network models are developed to determine the type of diabetes mellitus and the degree of cognitive impairment. The problem of training deep neural networks is outlined, and the solution is proposed based on using cross-entropy as an objective function, which makes it possible to reduce the dependence of the weight correction value on the values of derivatives.&#13;
The initial sample is depersonalized MRI results of patients’ brain from 5 groups, taking into account the type of diabetes mellitus and the presence of cognitive impairment.&#13;
The article considers two neural network models, which are an ensemble, and presents metrics that allow one to evaluate the performance of each network separately, as well as the results of the work obtained on the basis of the ensemble of neural networks. When developing neural network models, the Python programming language is used</p>
   </trans-abstract>
   <kwd-group xml:lang="ru">
    <kwd>нейронная сеть</kwd>
    <kwd>сахарный диабет</kwd>
    <kwd>когнитивные нарушения</kwd>
    <kwd>статистика</kwd>
    <kwd>выявление закономерностей</kwd>
    <kwd>машинное обучение</kwd>
   </kwd-group>
   <kwd-group xml:lang="en">
    <kwd>neural network</kwd>
    <kwd>diabetes mellitus</kwd>
    <kwd>cognitive impairment</kwd>
    <kwd>statistics</kwd>
    <kwd>pattern detection</kwd>
    <kwd>machine learning</kwd>
   </kwd-group>
  </article-meta>
 </front>
 <body>
  <p>Введение Сегодня обработка и анализ большого количества разнородной цифровой информации неразрывно связаны и с такой областью, как медицина. В связи с этим существует необходимость разработки новых методов, учитывающих специфику медицинских данных, а именно вариабельность показателей, неполнота или неточность описания, малый объем выборок, ограниченное время на принятие решений и т.д. Как показывают исследования [2, 12] решение задачи диагностической классификации успешно осуществляется с помощью технологии машинного обученияМашинное обучение позволяет повысить точность диагностики, производительность, появляется возможность автоматизировать процесс обработки и анализа большого количества информации. Однако не всегда необходимо прибегать к сложным алгоритмам вроде сверточных нейронных сетей, которые лучше подходят для работы с изображениями. Для решения некоторых задач достаточно применять более легкие и быстрые архитектуры, которые при правильном подборе параметров способны показать хорошие результаты.  Материалы и методы для решения задачи В статье для решения задачи медицинской диагностики приведена разработанная рекуррентная нейронная сеть, посредством которой возможно учесть временную характеристику данных. Однако основной проблемой рекуррентных нейронных сетей является затухание локального градиента.Обучение глубоких и динамических нейронных сетей сопряжено со схожими проблемами. Это происходит из-за того, что динамическая сеть в процессе развертывания дополняется новыми слоями, количество которых зависит от длительности входного сигнала.Несмотря на наличие множества эвристик, направленных на упрощение процесса обучения, алгоритм обратного распространения менее эффективен при обучении сетей, у которых имеется несколько скрытых слоев. В работах [14, 15] математически показана сходимость алгоритма обратного распространения для любой сети при условии бесконечно малого изменения весов. На практике же эффект обучения не доходит до дальних слоев сети в связи с обращением градиентов в ноль.Модификация алгоритма обучения нейронной сети, заключавшаяся в изменении целевой функции на кросс-энтропию, позволила повысить точность тестирования по сравнению с нейросетевой моделью, где в качестве целевой функции выступает MSE. Известной проблемой использования сигмоидальных активационных функций при обучении является то, что при приближении выходных значений нейрона к единице частные производные стремятся к нулю. Отсюда может возникнуть парадокс, противоречащий биологической природе обучения: чем выше значение ошибки, тем меньшей будет коррекция веса.Для решения вышеописанной проблемы приведем следующую целевую функцию (1):                                                                          (1)где  – соответствующие желаемые отклики;  – выходное значение, где аргумент функции f – активационный потенциал нейрона, соответствующий i-му примеру из выборки;  – набор обучающих векторов. Два свойства данной функции позволяют рассматривать ее в качестве целевой:1) функция является строго положительной;2) при выходных значениях, близких к желаемым откликам сети, значение функции будет стремиться к нулю.Этими же свойствами обладает и квадратическая целевая функция. Покажем, что использование (1) решает проблему замедления скорости обучения. Для этого найдем частную производную целевой функции по весу:                                                                                         (2)Проводя вычисления в (2), получим:                                                                         (3)В случае логистической активационной функции (3) примет вид:                                                                                                         (4)Таким образом, коррекция веса не зависит от значения производной активационной функции по коррекции веса, т.е. чем большей будет ошибка обучения, тем большей будет коррекция веса.В работе оптимизация параметров выполнялась с помощью метода Adadelta:                                                                                                                                                                                                        (5)где θ – настраиваемый параметр; g – производная целевой функции по отношению к настраиваемому параметру; RMS – корень суммы предыдущих значений g.Adadelta принадлежит к семейству адаптивных алгоритмов обучения (AdaGrad, AdaMax, Adam, RMSprop), базирующихся на понятии «момента» обучения, и определяющих коэффициент коррекции веса индивидуально для каждого весового коэффициента.  Описание исходных данных и подбор гиперпараметров Для более точной оценки влияния изменения гиперпараметров на величину ошибок на этапе проверки используется кросс-валидация. С целью проведения кросс-валидации на изначальной выборке, состоящей из N элементов, формируется N новых, путем выделения одной строки в качестве тестового набора, в то время как остальные N-1 представляют обучающую выборку. На каждой выборке производится обучение модели и вычисляется средняя ошибка по всем выборкам. Подбирая гиперпараметры нейронной сети и отслеживая данную ошибку, формируем наилучшую модель.Исходные деперсонализированные данные представляют из себя результаты МРТ головного мозга пациентов. Данные предоставлены отделением рентгенологии СибГМУ для выявления взаимосвязи между наличием сахарного диабета и отклонения в головном мозге пациента.Обучающая выборка включает 14 показателей 1320 пациентов, которые отнесены к разным группам с учетом типа сахарного диабета и когнитивных нарушений. Представим описание пациентов в исследуемых группах:1) пациенты с сахарным диабетом 1 типа с когнитивными нарушениями, 450 пациентов;2) пациенты с сахарным диабетом 1 типа без когнитивных нарушений, 200 пациентов;3) пациенты с сахарным диабетом 2 типа с когнитивными нарушениями, 420 пациентов;4) пациенты с сахарным диабетом 2 типа без когнитивных нарушений, 190 пациентов;5) контрольная группа, включающая пациентов, для которых показатели получены в пределах нормы, 60 пациентов.Гиперпараметры влияют на качество работы нейронной сети, но определяются до начала обучения и никак не изменяются в процессе. Гиперпараметры влияют друг на друга, поэтому подбор оптимальной их комбинации вручную достаточно сложный процесс.Keras Tuner – оптимизатор гиперпараметров, разработанный командой Google специально для keras в составе TensorFlow [1]. Данная библиотека распространяется бесплатно. Для более точной оценки влияния изменения гиперпараметров на величину ошибок на этапе проверки в работе использована кросс-валидация. Оптимизация гиперпараметров нейросетевой модели осуществлялась посредством подбора активационных функций, количества скрытых слоев, количества нейронов в скрытых слоях, активационных функций выходного слоя и размера батча. Нейросетевая модель для определения типа сахарного диабета Ансамбль – алгоритм, состоящий из нескольких алгоритмов машинного обучения. Процесс построения ансамбля называется ансамблированием.В данной работе ансамбль состоит из двух нейросетевых моделей, одна из которых отвечает за классификацию типа сахарного диабета, а вторая – за определение степени когнитивных нарушений. Обе модели на вход получают спектры, а на выходе дают два числа – тип сахарного диабета и степень когнитивных нарушений.На первом шаге подбор параметров осуществлялся на основе экспериментов. В качестве оптимизатора выбран алгоритм Adadelta. Функцией ошибок была выбрана бинарная перекрестная энтропия, т.к. она лучше других подходит для решения задач бинарной классификации.В табл. 1 приведены результаты подбора гиперпараметров нейронной сети с использованием кросс-валидации. Таблица 1Результаты подбора гиперпараметров модели, определяющей тип сахарного диабета, эмпирическим путёмTable 1Empirical hyperparameter fitting for a type of diabetes mellitus classification modelКоличество скрытых слоёвАктивационная функция скрытых слоевАктивационная функция выходКоличество нейронов в скрытых слояхРазмер батчаСредняя ошибка3ReLUReLU5, 5, 5301,993ReLUReLU5, 5, 5201,53ReLUReLU5, 5, 5152,143ReLUReLU5, 5, 5101,443ReLUReLU5, 5, 5352,743ReLUReLU5, 5, 5501,853ReLUReLU5, 5, 4101,463ReLUReLU5, 5, 3102,173ReLUReLU7, 5, 3101,793ReLUReLU7, 5, 4101,83ReLUReLU7, 4, 3102,323ReLUReLU7, 7, 7100,413ReLUReLU7, 4, 2101,783ReLUELU7, 7, 7101,313ReLUSeLU7, 7, 7101,633ReLUReLU7, 7, 7101,614ReLUELU7, 7, 7, 5101,433ELUELU7, 7, 7101,78 На основе проведенного анализа построена нейронная сеть, неизменными параметрами для создания которой являлись: 3 скрытых слоя по 7 нейронов каждый с активационной функцией ReLU, на выходном слое активационная функция – ELU и размером батча равном 10.Выбор оптимальных гиперпараметров осуществлялся с использованием библиотеки keras tuner. Одной из наилучших оказалась моделей, состоящая из 5 скрытых слоев, которые содержат 10, 4, 9, 6 и 10 нейронов; активационная функция выходного слоя – ELU; активационная функция скрытых слоев Tanh; размер батча 10. Сравнение полученных моделей В ходе работы были отобраны две нейросетевых модели для классификации типа сахарного диабета. После обучения обоих моделей проведена проверка на тестовой выборке. Для определения того, какая модель лучше справляется с поставленной задачей классификации построены матрицы ошибок.На рис. 1 представлена матрица ошибок для модели, гиперпараметры которой подобраны эмпирически.Рис. 1. Матрица ошибок модели с эмпирически подобранными гиперпараметрамиFig. 1. Confusion matrix of a model with empirically fitted hyperparameters На рис. 2 представлена матрица ошибок для модели, гиперпараметры которой подбирались с использованием библиотеки Кeras Тuner.Рис. 2. Матрица ошибок модели с гиперпараметрами, подобранными с использованием Keras TunerFig. 2. Confusion matrix of a model with hyperparamters fitted using Keras tuner Исходя из полученных результатов, можно сделать вывод о том, что с задачей классификации обе модели справляются одинаково успешно.В качестве другой метрики для сравнения были выбраны функции ошибок на этапе обучения и на этапе проверки. На рис. 3, а представлен график функций ошибок для модели, полученной с использованием кросс-валидации. На рис. 3, б представлен график функций ошибок для модели, полученной с использованием библиотеки Keras Tuner.         а)                                                                                          б)Рис. 3. График ошибок по эпохам модели с:а – эмпирически подобранными гиперпараметрами; б – гиперпараметрами подобранными с помощью Keras TunerFig. 3. Plot of errors by epochs of a model with:a – empirically fitted hyperparameters; b – hyperparameters fitted using Keras Tuner Из рис. 3 видно, что обе модели не подвержены переобучению. Однако стоит отметить, что для достижения одного уровня точности, второй модели требуется меньшее число эпох. В результате для дальнейшего использования была выбрана модель, построенная с использованием библиотеки Keras Tuner. Таблица 2Результаты подбора гиперпараметров модели, определяющей степень когнитивных нарушений, эмпирическим путёмTable 2Empirical hyperparameter fitting for the degree of cognitive impairment classification modelКоличество скрытых слоёвАктивационная функция скрытых слоевАктивационная функция выходКоличество нейронов в скрытых слояхРазмер батчаСредняя ошибка3relusoftmax5,5,5200,833relusoftmax5,5,5300,863relusoftmax5,5,5350,913relusoftmax5,5,5400,913relusoftmax5,5,5150,843relusoftmax5,5,5100,763relusoftmax5,5,5450,943relusoftmax5,4,4100,803relusoftmax7,5,4100,803relusoftmax10,7,5100,693relusoftmax5,5,5100,723relusoftmax7,7,7100,643relusigmoid7,7,7100,693relusoftmax7,7,7100,653selusoftmax7,7,7100,593elusoftmax7,7,7100,623sigmoidsoftmax7,7,7100,903tanhsoftmax7,7,7100,654selusoftmax7,7,7,7100,524selusoftmax7,7,7,5100,555selusoftmax10,7,7,7,5100,515selusoftmax7,7,7,7,7100,555selusoftmax7,7,7,7,5100,53 В результате построена нейронная сеть, неизменными параметрами для создания которой являлись: 5 скрытых слоев, содержащих 10, 7, 7, 7 и 5 нейронов соответственно, с активационной функцией SELU для скрытых слоев и Softmax на выходе; размер батча был равен 10.Выбор оптимальных гиперпараметров осуществлялся с использованием библиотеки Keras Tuner. Одной из наилучших является модель, состоящая из 3 скрытых слоев, которые содержат 7, 14 и 12 нейронов, имеют активационную функцию выходного слоя – Softmax и для скрытых слоев – ELU и размер батча 10. Сравнение полученных моделей В результате работы получены две нейросетевых модели для классификации степени когнитивных нарушений. После обучения обоих моделей было проведена их проверка на тестовой выборке. Для определения того, какая модель лучше справляется с поставленной задачей классификации построены матрицы ошибок. На рис. 4 представлена матрица ошибок для модели, гиперпараметры которой подобраны эмпирически.Рис. 4. Матрица ошибок модели с эмпирически подобранными гиперпараметрамиFig. 4. Confusion matrix of a model with empirically fitted hyperparameters На рис. 5 представлена матрица ошибок для модели, гиперпараметры которой подбирались с использованием библиотеки keras tuner.Рис. 5. Матрица ошибок модели с гиперпараметрами, подобранными с использованием Keras TunerFig. 5. Confusion matrix of a model with hyperparamters fitted using Keras tuner Исходя из полученных результатов, можно сделать вывод, что с задачей классификации обе модели справляются одинаково успешно. В качестве другой метрики для сравнения были выбраны функции ошибок на этапе обучения и на этапе проверки. На рис. 6, а представлен график функций ошибок для модели, полученной с использованием кросс-валидации. На рис. 6, б представлен график функций ошибок для модели, гиперпараметры которой подбирались с использованием библиотеки keras tuner.           а)                                                                                          б)Рис. 6. График ошибок по эпохам модели с:а – эмпирически подобранными гиперпараметрами; б – гиперпараметрами подобранными с помощью Keras TunerFig. 6. Plot of errors by epochs of a model with:а – empirically fitted hyperparameters; b – hyperparameters fitted using Keras Tuner  Как видно из графиков ошибка на этапе проверки меньше у первой модели, что говорит о лучшем качестве. В результате для дальнейшего использования была выбрана модель, построенная на основе эмпирического анализа. Результат работы ансамбля В результате работы были отобраны лучшие модели для классификации типа сахарного диабета и определения степени когнитивных нарушений, которые легли в основу ансамбля. Для определения качества совместной работы двух ансамблированных нейросетей построены матрицы ошибок, которые представлены на рис. 7 и рис. 8.Рис. 7. Матрица ошибок при классификации типа сахарного диабета ансамблированной моделиFig. 7. Confusion matrix of the ensembled model for the type of diabetes mellitus classification Рис. 8. Матрица ошибок при определении степени когнитивных нарушений ансамблированной моделиFig. 8. Confusion matrix of the ensembled model for the degree of cognitive impairment classification Матрицы ошибок показывают, что ансамблированные нейронные сети работают с такой же точностью, как по отдельности. Однако позволяют решить сразу несколько задач. Заключение В результате проведено исследование, связанное с подбором гиперпараметров на основе эмпирического подхода и с использованием библиотеки Keras Tuner. Как итог была создана архитектура нейронной сети, включающая ансамбль из двух нейросетевых моделей и позволяющая осуществить классификацию по типу сахарного диабета и степени когнитивных нарушений с точностью 94 %, что было протестировано на тестовой выборке.Разработанная нейросетевая модель позволяет по результатам МРТ определить тип сахарного диабета больного и наблюдаемую у него степень когнитивных нарушений. </p>
 </body>
 <back>
  <ref-list>
   <ref id="B1">
    <label>1.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Keras Tuner [Электронный ресурс] // GitHub. URL: https://github.com/keras-team/keras-tuner/ (дата обращения 08.03.2022 г.).</mixed-citation>
     <mixed-citation xml:lang="en">Tuner K. GitHub [Internet] [cited 2022 Mar 08]. Available from: https://github.com/keras-team/keras-tuner/.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B2">
    <label>2.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Gerget O.M. Bionic models for identification of biological systems. Journal of Physics: Conference Series, 2016, vol. 803, no. 12017.</mixed-citation>
     <mixed-citation xml:lang="en">Gerget O.M. Bionic Models for Identification of Biological Systems. Journal of Physics: Conference Series. 2016;803(12017).</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B3">
    <label>3.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Вьюгин В.В. Математические осно-вы машинного обучения и прогнозирования / Вьюгин В.В. - Москва: МЦНМО, 2014. - 304 с.</mixed-citation>
     <mixed-citation xml:lang="en">Vyugin V.V. Mathematical Foundations of Machine Learning and Forecasting. Moscow: MCCME; 2014.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B4">
    <label>4.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Chollet F. Deep Learning with Python. Shelter Island, Manning Publications Co, 2018. 386 p.</mixed-citation>
     <mixed-citation xml:lang="en">Chollet F. Deep Learning with Python. Shelter Island, Manning Publications Co; 2018.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B5">
    <label>5.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Бейли. Н. Математика в биологии и медицине / Бейли Н. - Москва: Мир, 1970. - 392 с.</mixed-citation>
     <mixed-citation xml:lang="en">Bailey. N. Mathematics in Biology and Medicine. Moscow: Mir; 1970.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B6">
    <label>6.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Власов В.В. Введение в доказательную медицину / Власов В.В. - Моква: Медиа Сфера, 2001. - 392с.</mixed-citation>
     <mixed-citation xml:lang="en">Vlasov V.V. Introduction to Evidence-Based Medicine. Moscow: Media Sphere; 2001.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B7">
    <label>7.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Gulli A., Kapoor A., Pal S. Deep Learning with TensorFlow 2 and Keras. Birmingham, Packt Publishing Ltd, 2017. 647 p.</mixed-citation>
     <mixed-citation xml:lang="en">Gulli A., Kapoor A., Pal S. Deep Learning with TensorFlow 2 and Keras. Birmingham: Packt Publishing Ltd; 2017.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B8">
    <label>8.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Moolayil J. Learn Keras for Deep Neu-ral Networks. Vancouver, Apress, 2019. 192 p.</mixed-citation>
     <mixed-citation xml:lang="en">Moolayil J. Learn Keras for Deep Neural Networks. Vancouver: Apress; 2019.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B9">
    <label>9.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Загоруйко Н.Г. Логика эмпириче-ских исследований / Загоруйко Н.Г., Самохвалов К.Ф., Свириденко Д.И. - Новосибирск: Наука, 1985</mixed-citation>
     <mixed-citation xml:lang="en">Zagoruiko N.G., Samokhvalov K.F., Sviridenko D.I. Logic of Empirical Research. Novosibirsk: Nauka, 1985.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B10">
    <label>10.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Giussani A. Applied Machine Learning with Python. Borgoricco, Logo, 2020. 204 p.</mixed-citation>
     <mixed-citation xml:lang="en">Giussani A. Applied Machine Learning with Python. Borgoricco: Logo; 2020.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B11">
    <label>11.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Журавлев У.И. Об алгебраическом подходе к решению задач распознавания и классификации Нейронные сети / Журавлев У.И. // Проблемы кибернетики. - 1978. - № 33. - С. 5-68.</mixed-citation>
     <mixed-citation xml:lang="en">Zhuravlev U.I. On the Algebraic Approach to Solve the Problems of Recognition and Classification. Problems of Cybernetics. 1978;33:5-68.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B12">
    <label>12.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Raschka S., Mirjalili V. Python Ma-chine Learning. Birmingham, Packt Publishing Ltd., 2015. 622 p.</mixed-citation>
     <mixed-citation xml:lang="en">Raschka S., Mirjalili V. Python Machine Learning. Birmingham: Packt Publishing Ltd.; 2015.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B13">
    <label>13.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Mosca, A. Adapting Resilient Propagation for Deep Learning / A. Mosca, G. Magoulas // UK workshop on Computational Intelligence. - Exeter: Springer. - 2015.</mixed-citation>
     <mixed-citation xml:lang="en">Mosca A, Magoulas G. Adapting Resilient Propagation for Deep Learning. In: UK Work-shop on Computational Intelligence. Exeter: Springer; 2015.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B14">
    <label>14.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Mandic, D.  Recurrent Neural Net-works for Prediction: Learning Algorithms, Architectures and Stability/Mandic, D. &amp; Chambers, J.- Wiley. - 2001</mixed-citation>
     <mixed-citation xml:lang="en">Mandic, D., Chambers, J. Recurrent Neural Networks for Prediction: Learning Algorithms, Architectures and Stability. Wiley; 2001.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B15">
    <label>15.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Ксенофонтов В.В. Нейронные сети / Ксенофонтов В.В. // Проблемы науки. - 2020. - № 11. - С. 28-29.</mixed-citation>
     <mixed-citation xml:lang="en">Ksenofontov V.V. Neural Networks. Science Problems. 2020;11:28-29.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B16">
    <label>16.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Алёшин Н.А. Рекурентные нейронные сети / Алёшин Н.А., Жогаль С.П. // WORLD SCIENCE: PROBLEMS AND INNOVATIONS: сб. статей. - Пенза, 2021. - С. 10-12.</mixed-citation>
     <mixed-citation xml:lang="en">Alyoshin NA, Zhogal SP. Recurrent Neural Networks. In: Proceedings of the Conference: World Science: Problems and Innovations; Penza: 2021. p. 10-12.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B17">
    <label>17.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Руднева А.А. Искусственный интеллект и нейронные сети / Руднева А.А. // Информационные технологии в строительных, социальных и экономических системах - 2020. - № 1. - С. 48-50.</mixed-citation>
     <mixed-citation xml:lang="en">Rudneva A.A. Artificial Intelligence and Neural Networks Information Technologies in Building, Social and Economic Systems. 2020;1:48-50.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B18">
    <label>18.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Шинелев И.Н. Использование искусственных нейронных сетей в медицине / Шинелев И.Н., Тарасов И.Е. // ИТ-Стандарт - 2020. - № 4. - С. 38-43.</mixed-citation>
     <mixed-citation xml:lang="en">Shinelev I.N., Tarasov I.E. The Use of Artificial Neural Networks in Medicine. IT Stan-dard. 2020;4:38-43.</mixed-citation>
    </citation-alternatives>
   </ref>
   <ref id="B19">
    <label>19.</label>
    <citation-alternatives>
     <mixed-citation xml:lang="ru">Елизарова М.И. Искусственный интеллект в медицине / Елизарова М.И., Уразова К.М., Ермашов С.Н., Пронькин Н.Н. // International journal of professional science - 20211. - № 5. - С. 81-85.</mixed-citation>
     <mixed-citation xml:lang="en">Elizarova M.I., Urazova K.M., Ermashov S.N., Pronkin N.N. Artificial Intelligence in Medicine. International Journal of Professional Science. 2021;5:81-85.</mixed-citation>
    </citation-alternatives>
   </ref>
  </ref-list>
 </back>
</article>
