All issues
- 2026 Vol. 18
- 2025 Vol. 17
- 2024 Vol. 16
- 2023 Vol. 15
- 2022 Vol. 14
- 2021 Vol. 13
- 2020 Vol. 12
- 2019 Vol. 11
- 2018 Vol. 10
- 2017 Vol. 9
- 2016 Vol. 8
- 2015 Vol. 7
- 2014 Vol. 6
- 2013 Vol. 5
- 2012 Vol. 4
- 2011 Vol. 3
- 2010 Vol. 2
- 2009 Vol. 1
-
Подходы к обработке изображений в системе поддержки принятия решений центра автоматизированной фиксации административных правонарушений дорожного движения
Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 405-415В статье предлагается ряд подходов к обработке изображений в системе поддержки принятия решений (СППР) центра автоматизированной фиксации административных правонарушений дорожного движения (ЦАФАП). Основной задачей данной СППР является помощь человеку-оператору в получении точной информации о государственном регистрационном знаке (ГРЗ) и модели транспортного средства (ТС) на основании изображений, полученных с комплексов фотовидеофиксации (ФВФ). В статье предложены подходы к распознаванию ГРЗ и марки/модели ТС на изображении, основанные на современных нейросетевых моделях. Для распознавания ГРЗ использована нейросетевая модель LPRNet с дополнительно введенным Spatial Transformer Layer для предобработки изображения. Для автоматического определения марки/модели ТС на изображении использована нейросетевая архитектура ResNeXt-101-32x8d. Предложен подход к формированию обучающей выборки для нейросетевой модели распознавания ГРЗ, основанный на методах компьютерного зрения и алгоритмах машинного обучения. В данном подходе использован алгоритм SIFT для нахождения ключевых точек изображения с ГРЗ и вычисления их дескрипторов, а для удаления точек-выбросов использован алгоритм DBSCAN. Точность распознавания ГРЗ на тестовой выборке составила 96 %. Предложен подход к повышению производительности процедур дообучения и распознавания марки/модели ТС, основанный на использовании новой архитектуры сверточной нейронной сети с «заморозкой» весовых коэффициентов сверточных слоев, дополнительным сверточным слоем распараллеливания процесса классификации и множеством бинарных классификаторов на выходе. Применение новой архитектуры позволило на несколько порядков уменьшить время дообучения нейросетевой модели распознавания марки/модели ТС с итоговой точностью классификации, близкой к 99 %. Предложенные подходы были апробированы и внедрены в СППР ЦАФАП Республики Татарстан.
Ключевые слова: система поддержки принятия решений, изображение, компьютерное зрение, нейронные сети.
Approaches for image processing in the decision support system of the center for automated recording of administrative offenses of the road traffic
Computer Research and Modeling, 2021, v. 13, no. 2, pp. 405-415We suggested some approaches for solving image processing tasks in the decision support system (DSS) of the Center for Automated Recording of Administrative Offenses of the Road Traffic (CARAO). The main task of this system is to assist the operator in obtaining accurate information about the vehicle registration plate and the vehicle brand/model based on images obtained from the photo and video recording systems. We suggested the approach for vehicle registration plate recognition and brand/model classification on the images based on modern neural network models. LPRNet neural network model supplemented by Spatial Transformer Layer was used to recognize the vehicle registration plate. The ResNeXt-101-32x8d neural network model was used to classify for vehicle brand/model. We suggested the approach to construct the training set for the neural network of vehicle registration plate recognition. The approach is based on computer vision methods and machine learning algorithms. The SIFT algorithm was used to detect and describe local features on images with the vehicle registration plate. DBSCAN clustering was used to detect and delete outliers in such local features. The accuracy of vehicle registration plate recognition was 96% on the testing set. We suggested the approach to improve the efficiency of using the ResNeXt-101-32x8d model at additional training and classification stages. The approach is based on the new architecture of convolutional neural networks with “freezing” weight coefficients of convolutional layers, an additional convolutional layer for parallelizing the classification process, and a set of binary classifiers at the output. This approach significantly reduced the time of additional training of neural network when new vehicle brand/model classification was needed. The final accuracy of vehicle brand/model classification was 99% on the testing set. The proposed approaches were tested and implemented in the DSS of the CARAO of the Republic of Tatarstan.
-
Применение алгоритма Random Forest для построения локального оператора, уточняющего результаты расчетов в задачах внешней аэродинамики
Компьютерные исследования и моделирование, 2021, т. 13, № 4, с. 761-778При моделировании турбулентных течений неизбежно приходится сталкиваться с выбором между точностью и скоростью проведения расчетов. Так, DNS- и LES-модели позволяют проводить более точные расчеты, но являются более вычислительно затратными, чем RANS-модели. Поэтому сейчас RANS- модели являются наиболее часто используемыми при проведении практических расчетов. Но и расчеты с применением RANS-моделей могут быть значительно вычислительно затратными для задач со сложной геометрией или при проведении серийных расчетов по причине необходимости разрешения пристенного слоя. Существуют подходы, позволяющие значительно ускорить вычисления для RANS-моделей. Например, пристеночные функции или методы, основанные на декомпозиции расчетной области. Тем не менее они неизбежно теряют в точности за счет упрощения модели в пристенной области. Для того чтобы одновременно получить и вычислительно эффективную и более точную модель, может быть построена суррогатная модель на основании упрощенной модели и с использованием знаний о предыдущих расчетах, полученных более точной моделью, например из некоторых результатов серийных расчетов.
В статье строится оператор перехода, позволяющий по результатам расчетов менее точной модели получить поле течения как при применении более точной модели. В данной работе результаты расчетов, полученные с помощью менее точной модели Спаларта–Аллмараса с применением пристенной декомпозиции, уточняются на основании расчетов схожих течений, полученных с помощью базовой модели Спаларта–Аллмараса с подробным разрешением пристенной области, с помощью методов машинного обучения. Оператор перехода от уточняемой модели к базовой строится локальным образом. То есть для уточнения результатов расчета в каждой точке расчетной области используются значения переменных пространства признаков (сами переменные поля и их производные) в этой точке. Для построения оператора используется алгоритм Random Forest. Эффективность и точность построенной суррогатной модели демонстрируется на примере двумерной задачи сверхзвукового турбулентного обтекания угла сжатия при различных числах Рейнольдса. Полученный оператор применяется к решению задач интерполяции и экстраполяции по числу Рейнольдса, также рассматривается топологический случай — интерполяция и экстраполяция по величине угла сжатия $\alpha$.
Ключевые слова: пристенная декомпозиция, пристенные функции, вычислительная аэродинамика, случайный лес, машинное обучение, турбулентность.
Application of Random Forest to construct a local operator for flow fields refinement in external aerodynamics problems
Computer Research and Modeling, 2021, v. 13, no. 4, pp. 761-778Numerical modeling of turbulent flows requires finding the balance between accuracy and computational efficiency. For example, DNS and LES models allow to obtain more accurate results, comparing to RANS models, but are more computationally expensive. Because of this, modern applied simulations are mostly performed with RANS models. But even RANS models can be computationally expensive for complex geometries or series simulations due to the necessity of resolving the boundary layer. Some methods, such as wall functions and near-wall domain decomposition, allow to significantly improve the speed of RANS simulations. However, they inevitably lose precision due to using a simplified model in the near-wall domain. To obtain a model that is both accurate and computationally efficient, it is possible to construct a surrogate model based on previously made simulations using the precise model.
In this paper, an operator is constructed that allows reconstruction of the flow field obtained by an accurate model based on the flow field obtained by the simplified model. Spalart–Allmaras model with approximate nearwall domain decomposition and Spalart–Allmaras model resolving the near-wall region are taken as the simplified and the base models respectively. The operator is constructed using a local approach, i. e. to reconstruct a point in the flow field, only features (flow variables and their derivatives) at this point in the field are used. The operator is constructed using the Random Forest algorithm. The efficiency and accuracy of the obtained surrogate model are demonstrated on the supersonic flow over a compression corner with different values for angle $\alpha$ and Reynolds number. The investigation has been conducted into interpolation and extrapolation both by $Re$ and $\alpha$.
-
Анализ прогностических свойств тремора земной поверхности с помощью разложения Хуанга
Компьютерные исследования и моделирование, 2024, т. 16, № 4, с. 939-958Предлагается метод анализа тремора земной поверхности, измеряемого средствами космической геодезии с целью выделения прогностических эффектов активизации сейсмичности. Метод иллюстрируется на примере совместного анализа совокупности синхронных временных рядов ежесуточных вертикальных смещений земной поверхности на Японских островах для интервала времени 2009–2023 гг. Анализ основан на разбиении исходных данных (1047 временных рядов) на блоки (кластеры станций) и последовательном применении метода главных компонент. Разбиение сети станций на кластеры производится методом k-средних из критерия максимума псевдо-статистики. Для Японии оптимальное число кластеров было выбрано равным 15. К временным рядам главных компонент от блоков станций применяется метод разложения Хуанга на последовательность независимых эмпирических мод колебаний (Empirical Mode Decomposition, EMD). Для обеспечения устойчивости оценок волновых форм EMD-разложения производилось усреднение 1000 независимых аддитивных реализаций белого шума ограниченной амплитуды. С помощью разложения Холецкого ковариационной матрицы волновых форм первых трех EMD-компонент в скользящем временном окне определены индикаторы аномального поведения тремора. Путем вычисления корреляционной функции между средними индикаторами аномального поведения и выде- лившейся сейсмической энергии в окрестности Японских островов установлено, что всплески меры ано- мального поведения тремора предшествуют выбросам сейсмической энергии. Целью статьи является про- яснение распространенных гипотез о том, что движения земной коры, регистрируемые средствами космической геодезии, могут содержать прогностическую информацию. То, что смещения, регистрируемые геодезическими методами, реагируют на последствия землетрясений, широко известно и многократно демонстрировалось. Но выделение геодезических эффектов, предвещающих сейсмические события, является значительно более сложной задачей. В нашей статье мы предлагаем один из методов обнаружения прогностических эффектов в данных космической геодезии.
Ключевые слова: тремор земной поверхности, кластерный анализ, метод главных компонент, разложение Хуанга, мера аномального поведения временных рядов, корреляционная функция.
Analysis of predictive properties of ground tremor using Huang decomposition
Computer Research and Modeling, 2024, v. 16, no. 4, pp. 939-958A method is proposed for analyzing the tremor of the earth’s surface, measured by means of space geodesy, in order to highlight the prognostic effects of seismicity activation. The method is illustrated by the example of a joint analysis of a set of synchronous time series of daily vertical displacements of the earth’s surface on the Japanese Islands for the time interval 2009–2023. The analysis is based on dividing the source data (1047 time series) into blocks (clusters of stations) and sequentially applying the principal component method. The station network is divided into clusters using the K-means method from the maximum pseudo-F-statistics criterion, and for Japan the optimal number of clusters was chosen to be 15. The Huang decomposition method into a sequence of independent empirical oscillation modes (EMD — Empirical Mode Decomposition) is applied to the time series of principal components from station blocks. To provide the stability of estimates of the waveforms of the EMD decomposition, averaging of 1000 independent additive realizations of white noise of limited amplitude was performed. Using the Cholesky decomposition of the covariance matrix of the waveforms of the first three EMD components in a sliding time window, indicators of abnormal tremor behavior were determined. By calculating the correlation function between the average indicators of anomalous behavior and the released seismic energy in the vicinity of the Japanese Islands, it was established that bursts in the measure of anomalous tremor behavior precede emissions of seismic energy. The purpose of the article is to clarify common hypotheses that movements of the earth’s crust recorded by space geodesy may contain predictive information. That displacements recorded by geodetic methods respond to the effects of earthquakes is widely known and has been demonstrated many times. But isolating geodetic effects that predict seismic events is much more challenging. In our paper, we propose one method for detecting predictive effects in space geodesy data.
-
Оптимизация размера классификатора при сегментации трехмерных точечных образов древесной растительности
Компьютерные исследования и моделирование, 2025, т. 17, № 4, с. 665-675Появление технологий лазерного сканирования произвело настоящую революцию в лесном хозяйстве. Их использование позволило перейти от изучения лесных массивов с помощью ручных измерений к компьютерному анализу точечных стереоизображений, называемых облаками точек.
Автоматическое вычисление некоторых параметров деревьев (таких как диаметр ствола) по облаку точек требует удаления точек листвы. Для выполнения этой операции необходима предварительная сегментация стереоизображения на классы «листва» и «ствол». Решение этой задачи зачастую включает использование методов машинного обучения.
Одним из самых популярных классификаторов, используемых для сегментации стереоизображений деревьев, является случайный лес. Этот классификатор достаточно требователен к объему памяти. В то же время размер модели машинного обучения может быть критичным при необходимости ее пересылки, что требуется, например, при выполнении распределенного обучения. В данной работе ставится цель найти классификатор, который был бы менее требовательным по памяти, но при этом имел бы сравнимую точность сегментации. Поиск выполняется среди таких классификаторов, как логистическая регрессия, наивный байесовский классификатор и решающее дерево. Кроме того, исследуется способ уточнения сегментации, выполненной решающим деревом, с помощью логистической регрессии.
Эксперименты проводились на данных из коллекции университета Гейдельберга. Было показано, что классификация с помощью решающего дерева, корректируемая с помощью логистической регрессии, способна давать результат, лишь немного проигрывающий результату случайного леса по точности, затрачивая при этом меньше времени и оперативной памяти. Разница в сбалансированной точности составляет не более процента на всех рассмотренных облаках, при этом суммарный размер и время предсказания классификаторов решающего дерева и логистической регрессии на порядок меньше, чем у случайного леса.
Classifier size optimisation in segmentation of three-dimensional point images of wood vegetation
Computer Research and Modeling, 2025, v. 17, no. 4, pp. 665-675The advent of laser scanning technologies has revolutionized forestry. Their use made it possible to switch from studying woodlands using manual measurements to computer analysis of stereo point images called point clouds.
Automatic calculation of some tree parameters (such as trunk diameter) using a point cloud requires the removal of foliage points. To perform this operation, a preliminary segmentation of the stereo image into the “foliage” and “trunk” classes is required. The solution to this problem often involves the use of machine learning methods.
One of the most popular classifiers used for segmentation of stereo images of trees is a random forest. This classifier is quite demanding on the amount of memory. At the same time, the size of the machine learning model can be critical if it needs to be sent by wire, which is required, for example, when performing distributed learning. In this paper, the goal is to find a classifier that would be less demanding in terms of memory, but at the same time would have comparable segmentation accuracy. The search is performed among classifiers such as logistic regression, naive Bayes classifier, and decision tree. In addition, a method for segmentation refinement performed by a decision tree using logistic regression is being investigated.
The experiments were conducted on data from the collection of the University of Heidelberg. The collection contains hand-marked stereo images of trees of various species, both coniferous and deciduous, typical of the forests of Central Europe.
It has been shown that classification using a decision tree, adjusted using logistic regression, is able to produce a result that is only slightly inferior to the result of a random forest in accuracy, while spending less time and RAM. The difference in balanced accuracy is no more than one percent on all the clouds considered, while the total size and inference time of the decision tree and logistic regression classifiers is an order of magnitude smaller than of the random forest classifier.
-
Сейсмические волновые поля в сферически-симметричной Земле с высокой детальностью. Аналитическое решение
Компьютерные исследования и моделирование, 2025, т. 17, № 5, с. 903-922Получено аналитическое решение для сейсмических волновых полей в сферически-симметричной Земле. В случае произвольной слоистой среды решение, в которое входят функции Бесселя, строится с помощью дифференциальной прогонки. Для устойчивого вычисления волновых полей используется асимптотика функций Бесселя. Показано, что классическая асимптотика в случае высоких частот дает погрешность в решении. Для эффективного вычисления решения без погрешностей с высокой детальностью используется оригинальная асимптотика. Создана программа, позволяющая проводить расчеты для высокочастотных (1 герц и выше) телесейсмических волновых полей в дискретном (слоистом) шаре планетарных размеров. Расчеты можно осуществлять даже на персональных компьютерах с распараллеливанием OpenMP.
В работе Бурмина (2019 г.) предложена сферически-симметричная модель Земли. Она характеризуется тем, что в ней внешнее ядро обладает вязкостью и, следовательно, эффективным модулем сдвига, отличным от нуля. Для этой модели Земли проведен расчет с высокой детальностью с несущей частотой в 1 герц. В результате аналитического расчета обнаружено, что впереди PKP-волн возникают высокочастотные колебания небольшой амплитуды, так называемые предвестники. Аналитический расчет показал, что теоретические сейсмограммы для этой модели Земли во многом похожи на экспериментальные данные. При этом ключевым моментом сравнения является возникновение предвестников впереди PKP-волн. Это подтверждает правильность идей, положенных в основу ее построения.
Ключевые слова: радиально-симметричная Земля, аналитическое решение, новая асимптотика, дифференциальная прогонка, устойчивое вычисление решения, телесейсмические волновые поля, модель Земли, модуль сдвига, предвестники PKP-волн.
Seismic wave fields in spherically symmetric Earth with high details. Analytical solution
Computer Research and Modeling, 2025, v. 17, no. 5, pp. 903-922An analytical solution is obtained for seismic wave fields in a spherically symmetric Earth. In the case of an arbitrary layered medium, the solution, which includes Bessel functions, is constructed by means of a differential sweep method. Asymptotic of Bessel functions is used for stable calculation of wave fields. It is shown that the classical asymptotic in the case of a sphere of large (in wavelengths) dimensions gives an error in the solution. The new asymptotic is used for efficient calculation of a solution without errors with high detail. A program has been created that makes it possible to carry out calculations for high-frequency (1 hertz and higher) teleseismic wave fields in a discrete (layered) sphere of planetary dimensions. Calculations can be carried even out on personal computers with OpenMP parallelization.
In the works of Burmin (2019) proposed a spherically symmetric model of the Earth. It is characterized by the fact that in it the outer core has a viscosity and, therefore, an effective shear modulus other than zero. For this model of the Earth, a highly detailed calculation was carried out with a carrier frequency of 1 hertz. As a result of the analytical calculation, it was found that highfrequency oscillations of small amplitude, the so-called “precursors”, appear ahead of the PKP waves. An analytical calculation showed that the theoretical seismograms for this model of the Earth are in many respects similar to the experimental data. This confirms the correctness of the ideas underlying its construction.
-
Использование сервис-контейнеров Docker для создания систем поддержки принятия врачебных решений (СППВР) на базе веб-браузера
Компьютерные исследования и моделирование, 2026, т. 18, № 1, с. 133-147В статье представлена технология построения систем поддержки принятия врачебных решений (СППВР), основанная на сервис-контейнерах с использованием Docker и веб-интерфейсе, работающем непосредственно в браузере без установки специализированного программного обеспечения на рабочую станцию врача. Предложена модульная архитектура, где для каждого прикладного модуля формируется самостоятельный сервис-контейнер, объединяющий мини-веб-сервер, пользовательский интерфейс и вычислительные компоненты обработки медицинских изображений. Взаимодействие между браузером и серверной частью реализовано через постоянное двунаправленное соединение по веб-сокетам с бинарной сериализацией сообщений в формате MessagePack, что обеспечивает малые задержки и эффективную передачу больших объeмов данных. Для локального хранения изображений и результатов анализа применены средства браузера (IndexedDB) с оболочкой Dexie.js, что ускоряет повторный доступ к данным. Трeхмерная визуализация и базовые операции с DICOM-данными реализованы с использованием библиотек Three.js и AMI.js: такая связка обеспечивает интеграцию интерактивных элементов, возникающих в контексте задачи (аннотации, ориентиры, метки, 3D-модели), в трeхмерные медицинские изображения.
Серверные компоненты и функциональные модули собраны в виде набора взаимодействующих контейнеров, управляемых средствами Docker. Рассмотрены выбор базовых образов, подходы к минимизации контейнеров до уровня исполняемых файлов без внешних зависимостей, организация многоступенчатой сборки, включающей отдельный «сборочный» контейнер. Описан сервис-хаб, выполняющий запуск прикладных контейнеров по обращению пользователя, проксирование запросов, управление сессиями и перевод контейнера из общего режима в монопольный при начале вычислений. Приведены примеры прикладных модулей (оценка фракционного резерва кровотока, расчeт количественного отношения потока, расчет смыкания створок аортального клапана), показана интеграция React-интерфейса и трeхмерной сцены, а также представлены политика версионирования, автоматизированные проверки воспроизводимости результатов и порядок развeртывания на целевой площадке.
Продемонстрировано, что контейнеризация обеспечивает переносимость и воспроизводимость программной среды, изоляцию зависимостей и масштабирование, а браузерный интерфейс — доступность, снижение требований к инфраструктуре и интерактивную визуализацию медицинских данных в реальном времени. Отмечены технические ограничения (зависимость от версий библиотек визуализации и форматов данных) и представлены практические меры их преодоления.
Ключевые слова: системы поддержки принятия врачебных решений (СППВР), zero-footprint-приложения, сервис-контейнеры, веб-приложение.
Using Docker service containers to build browser-based clinical decision support systems (CDSS)
Computer Research and Modeling, 2026, v. 18, no. 1, pp. 133-147The article presents a technology for building clinical decision support systems (CDSS) based on service containers using Docker and a web interface that runs directly in the browser without installing specialized software on workstation of a clinician. A modular architecture is proposed in which each application module is packaged as an independent service container combining a lightweight web server, a user interface, and computational components for medical image processing. Communication between the browser and the server side is implemented via a persistent bidirectional WebSocket connection with binary message serialization (MessagePack), which provides low latency and efficient transfer of large data. For local storage of images and analysis of results, browser facilities (IndexedDB with the Dexie.js wrapper) are used to speed up repeated data access. Three-dimensional visualization and basic operations with DICOM data are implemented with Three.js and AMI.js: this toolchain supports the integration of interactive elements arising from the task context (annotations, landmarks, markers, 3D models) into volumetric medical images.
Server components and functional modules are assembled as a set of interacting containers managed by Docker. The paper discusses the choice of base images, approaches to minimizing containers down to runtime-only executables without external utilities, and the organization of multi-stage builds with a dedicated build container. It describes a hub service that launches application containers on user request, performs request proxying, manages sessions, and switches a container from shared to exclusive mode at the start of computations. Examples of application modules are provided (fractional flow reserve estimation, quantitative flow ratio computation, aortic valve closure modeling), along with the integration of a React-based interface with a three-dimensional scene, a versioning policy, automated reproducibility checks, and the deployment procedure on the target platform.
It is demonstrated that containerization ensures portability and reproducibility of the software environment, dependency isolation and scalability, while the browser-based interface provides accessibility, reduced infrastructure requirements, and interactive real-time visualization of medical data. Technical limitations are noted (dependence on versions of visualization libraries and data formats) together with practical mitigation measures.
-
Модель деформации полимерных нанокомпозитов на основе клеточных автоматов
Компьютерные исследования и моделирование, 2014, т. 6, № 1, с. 131-136Данная статья посвящена моделированию процесса деформации полимерных нанокомпозитов, содержащих «жесткие» и «мягкие» включения, с использованием клеточных автоматов и параллельных вычислений. В статье описан алгоритм расчета по модели, приведены сравнения с экспериментальными данными и описан программный комплекс для проведения численного эксперимента.
Deformation model of polymer nanocomposites based on cellular automata
Computer Research and Modeling, 2014, v. 6, no. 1, pp. 131-136Views (last year): 3. Citations: 2 (RSCI).This paper discusses the modeling of the deformation of polymer nanocomposites containing "hard" and "soft" inclusions, using cellular automata and parallel computing. The paper describes an algorithm based on the model, a comparison with experimental data is shown, software for the numerical experiment is described.
-
Использование метода нормированного размаха при анализе речевых патологий неврологического генеза
Компьютерные исследования и моделирование, 2014, т. 6, № 5, с. 775-791На основании модификации алгоритма вычисления нормированного размаха предлагается способ определения показателя Хёрста, а также оценки характерного времени, в течение которого показатель Хёрста остается постоянным. Разработан подход к упрощению автоматизации вычисления показателя Хёрста и увеличения его точности. Показатель Хёрста и характерное время вычислены для рядов мощностей речевых сигналов с различными моторными патологиями (афазии, дизартрии). Проведен их статистический анализ, произведена оценка корреляции между показателем Хёрста и характерным временем. Обсуждается возможность использования результатов в диагностике речевых патологий.
Ключевые слова: показатель Хёрста, нелинейная динамика, афазия, дизартрия, рандомизационный тест, диагностика.
R/S method application in neurological speech disorders analyses
Computer Research and Modeling, 2014, v. 6, no. 5, pp. 775-791Views (last year): 2. Citations: 2 (RSCI).Based on modified rescaled range scale computation algorithm, the technique of Hurst exponent and its characteristic time estimation is proposed. The approach of increase the accuracy and simplification automatic Hurst exponent calculation is developed. The Hurst exponent and characteristic time is calculated for power time sets of speech signals with various motor pathologies (aphasias and dysarthrias). Results is statistically analyzed, the correlation between Hurst exponent and characteristic time is estimated.
-
Анализ респираторных реакций человека в условиях измененной газовой среды на математической модели
Компьютерные исследования и моделирование, 2017, т. 9, № 2, с. 281-296Цель работы — обоснование и разработка методики прогноза динамики респираторных реакций человека на основе математического моделирования. Для достижения этой цели были поставлены и решены следующие задачи: разработаны и обоснованы общая структура и формализованное описание модели респираторной системы; построен и программно реализован алгоритм модели газообмена организма; проведены вычислительный эксперимент и проверка модели на адекватность на основе литературных данных и собственных экспериментальных исследований.
В данном варианте в комплексную модель вошел новый модифицированный вариант частной модели физико-химических свойств крови и кислотно-щелочного баланса. При разработке модели в основу формализованного описания была положена концепция разделения физиологической системы регуляции на активные и пассивные подсистемы регуляции. Разработка модели проводилась поэтапно. Комплексная модель газообмена состояла из следующих частных моделей: базовой биофизической модели системы газообмена; модели физико-химических свойств крови и кислотно-щелочного баланса; модели пассивных механизмов газообмена, разработанной на основе уравнений материального баланса Гродинза Ф.; модели химической регуляции, разработанной на основе многофакторной модели Грея Д.
При программной реализации модели расчеты выполнялись в среде программирования MatLab. Для решения уравнений использовался метод Рунге–Кутты–Фехлберга. При этом предполагается, что модель будет представлена в виде компьютерной исследовательской программы, позволяющей реализовать различные гипотезы о механизме наблюдаемых процессов. Рассчитаны предполагаемые величины основных показателей газообмена в условиях гиперкапнии и гипоксии. Результаты расчетов, как по характеру, так и количественно, достаточно хорошо согласуются с данными, полученными в исследованиях на испытателях. Проведенная проверка на адекватность подтвердила, что погрешность вычислений находится в пределах погрешности данных медико-биологических экспериментов. Модель можно использовать при теоретическом прогнозировании динамики респираторных реакций организма человека в условиях измененной газовой среды.
Ключевые слова: математическая модель, минутный объем дыхания, имитация, регуляция, дыхание, респираторная система, гипоксия, гиперкапния.
The analysis of respiratory reactions of the person in the conditions of the changed gas environment on mathematical model
Computer Research and Modeling, 2017, v. 9, no. 2, pp. 281-296Views (last year): 5.The aim of the work was to study and develop methods of forecasting the dynamics of the human respiratory reactions, based on mathematical modeling. To achieve this goal have been set and solved the following tasks: developed and justified the overall structure and formalized description of the model Respiro-reflex system; built and implemented the algorithm in software models of gas exchange of the body; computational experiments and checking the adequacy of the model-based Lite-ture data and our own experimental studies.
In this embodiment, a new comprehensive model entered partial model modified version of physicochemical properties and blood acid-base balance. In developing the model as the basis of a formalized description was based on the concept of separation of physiologically-fi system of regulation on active and passive subsystems regulation. Development of the model was carried out in stages. Integrated model of gas exchange consisted of the following special models: basic biophysical models of gas exchange system; model physicochemical properties and blood acid-base balance; passive mechanisms of gas exchange model developed on the basis of mass balance equations Grodinza F.; chemical regulation model developed on the basis of a multifactor model D. Gray.
For a software implementation of the model, calculations were made in MatLab programming environment. To solve the equations of the method of Runge–Kutta–Fehlberga. It is assumed that the model will be presented in the form of a computer research program, which allows implements vat various hypotheses about the mechanism of the observed processes. Calculate the expected value of the basic indicators of gas exchange under giperkap Britain and hypoxia. The results of calculations as the nature of, and quantity is good enough co-agree with the data obtained in the studies on the testers. The audit on Adek-vatnost confirmed that the error calculation is within error of copper-to-biological experiments. The model can be used in the theoretical prediction of the dynamics of the respiratory reactions of the human body in a changed atmosphere.
-
Биогидрохимический портрет Белого моря
Компьютерные исследования и моделирование, 2018, т. 10, № 1, с. 125-160Биогидрохимический портрет Белого моря построен с помощью расчетов на CNPSi-модели по систематизированным среднемноголетним наблюдениям (среднемесячные гидрометеорологические, гидрохимические и гидробиологические параметры морской среды). Также в расчетах использована уточненная информация о выносе в морские акватории биогенных веществ со стоком основных рекритоков (Нива, Онега, Северная Двина, Мезень, Кемь, Кереть). Параметры морской среды — значения температуры, освещенности, прозрачности, биогенной нагрузки. Для девяти районов моря (заливы Кандалакшский, Онежский, Двинский, Мезенский, Соловецкие о-ва, Бассейн, Горло, Воронка, губа Чупа) характеристики портрета моря включают: изменение в течение года концентраций органических и минеральных соединений биогенных элементов (С, N, P, Si), биомассы организмов низших трофических звеньев (гетеротрофные бактерии, диатомовый фитопланктон, растительноядный и хищный зоопланктон) и другие показатели (скорости изменения концентраций веществ и биомасс организмов, внутренние и внешние потоки веществ, балансы отдельных веществ и биогенных элементов в целом). Расчетные по среднемноголетним данным показатели состояния морской среды (температура воды, соотношения минеральных фракций N < P) и доминирующего диатомового фитопланктона в море (обилие, продукция, биомасса, содержание хлорофилла а) сравнивали с результатами отдельных съемок (за 1972–1991 и 2007–2012 гг.) по районам моря. При очевидных отличиях способов оценки значений показателей (по наблюдениям — аналитические методы, а при расчетах на модели — вычисления по соответствующим уравнениям) отмечена близость расчетных показателей состояния фитопланктона приведенным в литературе данным по фитопланктону Белого моря. Так, литературные оценки годовой продукции диатомовых водорослей в Белом море находятся в пределах 1.5–3 млн т С (при продолжительности вегетации 180 сут), а по расчетам она составляет ~2 и 3.5 млн т С при принимаемых периодах вегетации в 150 и 180 сут соответственно.
Ключевые слова: экосистема Белого моря, биогенные вещества (БВ), гетеротрофный бактериопланктон, диатомовый фитопланктон, растительноядный и хищный зоопланктон, детрит, трофическая цепь, CNPSi-модель биотрансформации БВ, экологический портрет Белого моря, сравнение наблюдаемых и расчетных показателей диатомовых водорослей (обилие, продукция, биомасса, хлорофилл а).
Biohydrochemical portrait of the White Sea
Computer Research and Modeling, 2018, v. 10, no. 1, pp. 125-160The biohydrochemical portrait of the White Sea is constructed on the CNPSi-model calculations based on long-term mean annual observations (average monthly hydrometeorological, hydrochemical and hydrobiological parameters of the marine environment) as well as on updated information on the nutrient input to the sea with the runoff of the main river tributaries (Niva, Onega, Northern Dvina, Mezen, Kem, Keret). Parameters of the marine environment are temperature, light, transparency, and biogenic load. Ecological characteristics of the sea “portrait” were calculated for nine marine areas (Kandalaksha, Onega, Dvinsky, Mezensky Bays, Solovetsky Islands, Basin, Gorlot, Voronka, Chupa Bay), these are: the concentration changes of organic and mineral compounds of biogenic elements (C, N, P, Si), the biomass of organisms of the lower trophic level (heterotrophic bacteria, diatomic phytoplankton, herbivorous and predatory zooplankton) and other ones (rates of substance concentration and organism biomass changes, internal and external substance flows, balances of individual substances and nutrients as a whole). Parameters of the marine environment state (water temperature, ratio of mineral fractions N < P) and dominant diatom phytoplankton in the sea (abundance, production, biomass, chlorophyll content a) were calculated and compared with the results of individual surveys (for 1972–1991 and 2007–2012) of the White Sea water areas. The methods for estimating the values of these parameters from observations and calculations differ, however, the calculated values of the phytoplankton state are comparable with the measurements and are similar to the data given in the literature. Therefore, according to the literature data, the annual production of diatoms in the White Sea is estimated at 1.5–3 million tons C (at a vegetation period of 180 days), and according to calculations it is ~2 and 3.5 million tons C for vegetation period of 150 and 180 days respectively.
Keywords: White Sea ecosystem, nutrients, heterotrophic bacterioplankton, diatom phytoplankton, herbivorous and predatory zooplankton, detritus, trophic chain, CNPSi-model of nutrient biotransformation, ecological portrait of the White Sea, the comparison of the observed and calculated parameters of diatoms (abundance, products, biomass, chlorophyll a).Views (last year): 15. Citations: 1 (RSCI).
Indexed in Scopus
Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU
The journal is included in the Russian Science Citation Index
The journal is included in the RSCI
International Interdisciplinary Conference "Mathematics. Computing. Education"




