All issues
- 2026 Vol. 18
- 2025 Vol. 17
- 2024 Vol. 16
- 2023 Vol. 15
- 2022 Vol. 14
- 2021 Vol. 13
- 2020 Vol. 12
- 2019 Vol. 11
- 2018 Vol. 10
- 2017 Vol. 9
- 2016 Vol. 8
- 2015 Vol. 7
- 2014 Vol. 6
- 2013 Vol. 5
- 2012 Vol. 4
- 2011 Vol. 3
- 2010 Vol. 2
- 2009 Vol. 1
-
Техника проведения расчетов динамики показателей олигополистических рынков на основе операционного исчисления
Компьютерные исследования и моделирование, 2019, т. 11, № 5, с. 949-963В настоящее время наиболее распространенный подход к расчету оптимальных по Нэшу–Курно стратегий участников олигополистических рынков, а следовательно и показателей таких рынков, связан с использованием линейных динамических игр с квадратичными критериями и решением обобщенных матричных уравнений Риккати.
Другой подход к исследованию оптимальных разомкнутых (open-loop) стратегий участников олигополистических рынков, развиваемый автором, основан на использовании операционного исчисления (в частности, Z-преобразования). Этот подход позволяет получить экономически приемлемые решения для более широкого диапазона изменения параметров используемых моделей, чем при применении методов, основанных на решении обобщенных матричных уравнений Риккати. Метод отличается относительной простотой вычислений и необходимой для экономического анализа наглядностью. Одним из его достоинств является то, что во многих важных для экономической практики случаях он, в отличие от традиционного подхода, обеспечивает возможность проведения расчетов с использованием широко распространенных электронных таблиц, что позволяет проводить исследование перспектив развития олигополистических рынков широкому кругу специалистов и потребителей.
В статье рассматриваются практические аспекты определения оптимальных по Нэшу–Курно стратегий участников олигополистических рынков на основе операционного исчисления, в частности техника проведения расчетов оптимальных по Нэшу–Курно стратегий в среде Excel. В качестве иллюстрации возможностей предлагаемых методов расчета исследуются примеры, близкие к практическим задачам прогнозирования показателей рынков высокотехнологичной продукции.
Полученные автором для многочисленных примеров и реальных экономических систем результаты расчетов, как с использованием полученных соотношений на основе электронных таблиц, так и с использованием расширенных уравнений Риккати, оказываются весьма близкими. В большинстве рассмотренных практических задач отклонение рассчитанных в соответствии с двумя подходами показателей, как правило, не превышает 1.5–2 %. Наибольшая величина относительных отклонений (до 3–5 %) наблюдается в начале периода прогнозирования. В типичных случаях период сравнительно заметных отклонений составляет 3–5 моментов времени. После переходного периода наблюдается практически полное совпадение значений искомых показателей при использовании обоих подходов.
Ключевые слова: олигополистические рынки, операционное исчисление, обобщенные матричные уравнения Риккати, электронные таблицы, факторизация.
Studying indicators of development of oligopolistic markets on the basis of operational calculus
Computer Research and Modeling, 2019, v. 11, no. 5, pp. 949-963The traditional approach to computing optimal game strategies of firms on oligopolistic markets and of indicators of such markets consists in studying linear dynamical games with quadratic criteria and solving generalized matrix Riccati equations.
The other approach proposed by the author is based on methods of operational calculus (in particular, Z-transform). This approach makes it possible to achieve economic meaningful decisions under wider field of parameter values. It characterizes by simplicity of computations and by necessary for economic analysis visibility. One of its advantages is that in many cases important for economic practice, it, in contrast to the traditional approach, provides the ability to make calculations using widespread spreadsheets, which allows to study the prospects for the development of oligopolistic markets to a wide range of professionals and consumers.
The article deals with the practical aspects of determining the optimal Nash–Cournot strategies of participants in oligopolistic markets on the basis of operational calculus, in particular the technique of computing the optimal Nash–Cournot strategies in Excel. As an illustration of the opportinities of the proposed methods of calculation, examples close to the practical problems of forecasting indicators of the markets of high-tech products are studied.
The results of calculations obtained by the author for numerous examples and real economic systems, both using the obtained relations on the basis of spreadsheets and using extended Riccati equations, are very close. In most of the considered practical problems, the deviation of the indicators calculated in accordance with the two approaches, as a rule, does not exceed 1.5–2%. The highest value of relative deviations (up to 3–5%) is observed at the beginning of the forecasting period. In typical cases, the period of relatively noticeable deviations is 3–5 moments of time. After the transition period, there is almost complete agreement of the values of the required indicators using both approaches.
-
Высокопроизводительная идентификация моделей кинетики гидридного фазового перехода
Компьютерные исследования и моделирование, 2020, т. 12, № 1, с. 171-183Гидриды металлов представляют собой интересный класс соединений, способных обратимо связывать большое количество водорода и потому представляющих интерес для приложений энергетики. Особенно важно понимание факторов, влияющих на кинетику формирования и разложения гидридов. Особенности материала, экспериментальной установки и условий влияют на математическое описание процессов, которое может претерпевать существенные изменения в ходе обработки экспериментальных данных. В статье предложен общий подход к численному моделированию формирования и разложения гидридов металлов и решения обратных задач оценки параметров материала по данным измерений. Модели делятся на два класса: диффузионные, принимающие во внимание градиент концентрации водорода в решетке металла, и модели с быстрой диффузией. Первые более сложны и имеют форму неклассических краевых задач параболического типа. Описан подход к сеточному решению таких задач. Вторые решаются сравнительно просто, но могут сильно меняться при изменении модельных предположений. Опыт обработки экспериментальных данных показывает, что необходимо гибкое программное средство, позволяющее, с одной стороны, строить модели из стандартных блоков, свободно изменяя их при необходимости, а с другой — избегать реализации рутинных алгоритмов, причем приспособленное для высокопроизводительных систем различной парадигмы. Этим условиям удовлетворяет представленная в работе библиотека HIMICOS, протестированная на большом числе экспериментальных данных. Она позволяет моделировать кинетику формирования и разложения гидридов металлов (и других соединений) на трех уровнях абстракции. На низком уровне пользователь определяет интерфейсные процедуры, такие как расчет слоя по времени на основании предыдущего слоя или всей предыстории, вычисление наблюдаемой величины и независимой переменной по переменным задачи, сравнение кривой с эталонной. При этом могут использоваться алгоритмы, решающие краевые задачи параболического типа со свободными границами в весьма общей постановке, в том числе с разнообразными квазилинейными (линейными по производной) граничными условиями, а также вычисляющие расстояние между кривыми в различных метрических пространствах и с различной нормировкой. Это средний уровень абстракции. На высоком уровне достаточно выбрать готовую модель для того или иного материала и модифицировать ее применительно к условиям эксперимента.
Ключевые слова: гидриды металлов, моделирование кинетики фазового перехода, численное моделирование химической кинетики.
High-throughput identification of hydride phase-change kinetics models
Computer Research and Modeling, 2020, v. 12, no. 1, pp. 171-183Metal hydrides are an interesting class of chemical compounds that can reversibly bind a large amount of hydrogen and are, therefore, of interest for energy applications. Understanding the factors affecting the kinetics of hydride formation and decomposition is especially important. Features of the material, experimental setup and conditions affect the mathematical description of the processes, which can undergo significant changes during the processing of experimental data. The article proposes a general approach to numerical modeling of the formation and decomposition of metal hydrides and solving inverse problems of estimating material parameters from measurement data. The models are divided into two classes: diffusive ones, that take into account the gradient of hydrogen concentration in the metal lattice, and models with fast diffusion. The former are more complex and take the form of non-classical boundary value problems of parabolic type. A rather general approach to the grid solution of such problems is described. The second ones are solved relatively simply, but can change greatly when model assumptions change. Our experience in processing experimental data shows that a flexible software tool is needed; a tool that allows, on the one hand, building models from standard blocks, freely changing them if necessary, and, on the other hand, avoiding the implementation of routine algorithms. It also should be adapted for high-performance systems of different paradigms. These conditions are satisfied by the HIMICOS library presented in the paper, which has been tested on a large number of experimental data. It allows simulating the kinetics of formation and decomposition of metal hydrides, as well as related tasks, at three levels of abstraction. At the low level, the user defines the interface procedures, such as calculating the time layer based on the previous layer or the entire history, calculating the observed value and the independent variable from the task variables, comparing the curve with the reference. Special algorithms can be used for solving quite general parabolic-type boundary value problems with free boundaries and with various quasilinear (i.e., linear with respect to the derivative only) boundary conditions, as well as calculating the distance between the curves in different metric spaces and with different normalization. This is the middle level of abstraction. At the high level, it is enough to choose a ready tested model for a particular material and modify it in relation to the experimental conditions.
-
Анализ алгоритмов совместной глобальной локализации устройств смешанной реальности на основе регистрации облаков точек
Компьютерные исследования и моделирование, 2023, т. 15, № 3, с. 657-674Современные подходы локализации и построения карты для устройств дополненной (AR) и смешанной (MR) реальности основаны на извлечении локальных признаков с камеры. Наряду с этим современные устройства AR/MR позволяют строить трехмерную сетку окружающего пространства. Однако существующие методы не решают задачу глобальной совместной локализации устройства из-за применения разных дескрипторов для вычисления признаков с изображений. Используя карту пространства из трехмерной сетки, мы можем решить проблему совместной глобальной локализации устройств AR/MR. Этот подход не зависит от типа дескрипторов функций и алгоритмов локализации и картографирования, используемых на борту устройства AR/MR. Сетку можно свести к облаку точек, которое состоит только из вершин сетки. Мы предлагаем подход для совместной локализации устройств AR/MR с использованием облаков точек, которые не зависят от алгоритмов на борту устройства. Мы проанализировали различные алгоритмы регистрации облаков точек и обсудили их ограничения для задачи совместной глобальной локализации устройств AR/MR в помещении.
Ключевые слова: совместная локализация, дополненная и смешанная реальность, регистрация облаков точек.
Analysis of mixed reality cross-device global localization algorithms based on point cloud registration
Computer Research and Modeling, 2023, v. 15, no. 3, pp. 657-674State-of-the-art localization and mapping approaches for augmented (AR) and mixed (MR) reality devices are based on the extraction of local features from the camera. Along with this, modern AR/MR devices allow you to build a three-dimensional mesh of the surrounding space. However, the existing methods do not solve the problem of global device co-localization due to the use of different methods for extracting computer vision features. Using a space map from a 3D mesh, we can solve the problem of collaborative global localization of AR/MR devices. This approach is independent of the type of feature descriptors and localisation and mapping algorithms used onboard the AR/MR device. The mesh can be reduced to a point cloud, which consists of only the vertices of the mesh. We propose an approach for collaborative localization of AR/MR devices using point clouds that are independent of algorithms onboard the device. We have analyzed various point cloud registration algorithms and discussed their limitations for the problem of global co-localization of AR/MR devices indoors.
-
Актуальные проблемы компьютерного моделирования тромбоза, фибринолиза и тромболизиса
Компьютерные исследования и моделирование, 2024, т. 16, № 4, с. 975-995Система гемостаза представляет собой одну из ключевых защитных систем организма, которая присутствует практически во всех его жидких тканях, но наиболее важна в крови. Она активируется при различных повреждениях стенки сосуда, и взаимодействие ее специализированных клеток и гуморальных систем приводит сначала к формированию гемостатического сгустка, останавливающего потерю крови, а затем к постепенному растворению этого сгустка. Образование гемостатического тромба — уникальный с точки зрения физиологии процесс, так как за время порядка минуты система гемостаза образует сложные структуры, имеющие пространственный масштаб от микрометров (в случае повреждения микрососудов или стыков между отдельными эндотелиальными клетками) до сантиметра (в случае повреждения крупных магистральных артерий). Гемостатический ответ зависит от множества скоординированных и параллельно идущих процессов, включающих адгезию тромбоцитов, их активацию, агрегацию, секрецию различных гранул, изменение формы, состава внешней части липидного бислоя, контракцию тромба и образование фибриновой сети в результате работы каскада свертывания крови. Компьютерное моделирование представляет собой мощный инструмент для исследования этой сложной системы и решения практических задач в этой области на разных уровнях организации: от внутриклеточной сигнализации в тромбоцитах, моделирования гуморальных систем свертывания крови и фибринолиза и до разработки многомасштабных моделей тромбообразования. Проблемы, связанные с компьютерным моделированием биологических процессов, можно разделить на две основные категории: отсутствие адекватного физико-математического описания имеющихся в литературе экспериментальных данных из-за сложности биологических систем (проблема отсутствия адекватной теоретической модели биологических процессов) и проблема высокой вычислительной сложности некоторых моделей, которая не позволяет применять их для исследования физиологически интересных сценариев. Здесь мы рассмотрим как некоторые принципиальные проблемы в области моделирования свертывания крови, которые до сих пор остаются нерешенными, так и прогресс в экспериментальных исследованиях гемостаза и тромбоза, ведущий к пересмотру многих ранее принятых представлений, что необходимо отразить в новых компьютерных моделях этих процессов. Особое внимание будет уделено нюансам артериального, венозного и микрососудистого тромбоза, а также проблемам фибринолиза и тромболизиса. В обзоре также кратко обсуждаются основные типы используемых математических моделей, их сложность с точки зрения вычислений, а также принципиальные вопросы, связанные с возможностью описания процессов тромбообразования в артериях.
Ключевые слова: гемостаз, тромбоз, компьютерное моделирование, фибринолиз, тромболизис, тромбоциты, тромбин, каскадсв ертывания.
Current issues in computational modeling of thrombosis, fibrinolysis, and thrombolysis
Computer Research and Modeling, 2024, v. 16, no. 4, pp. 975-995Hemostasis system is one of the key body’s defense systems, which is presented in all the liquid tissues and especially important in blood. Hemostatic response is triggered as a result of the vessel injury. The interaction between specialized cells and humoral systems leads to the formation of the initial hemostatic clot, which stops bleeding. After that the slow process of clot dissolution occurs. The formation of hemostatic plug is a unique physiological process, because during several minutes the hemostatic system generates complex structures on a scale ranging from microns for microvessel injury or damaged endothelial cell-cell contacts, to centimeters for damaged systemic arteries. Hemostatic response depends on the numerous coordinated processes, which include platelet adhesion and aggregation, granule secretion, platelet shape change, modification of the chemical composition of the lipid bilayer, clot contraction, and formation of the fibrin mesh due to activation of blood coagulation cascade. Computer modeling is a powerful tool, which is used to study this complex system at different levels of organization. This includes study of intracellular signaling in platelets, modelling humoral systems of blood coagulation and fibrinolysis, and development of the multiscale models of thrombus growth. There are two key issues of the computer modeling in biology: absence of the adequate physico-mathematical description of the existing experimental data due to the complexity of the biological processes, and high computational complexity of the models, which doesn’t allow to use them to test physiologically relevant scenarios. Here we discuss some key unresolved problems in the field, as well as the current progress in experimental research of hemostasis and thrombosis. New findings lead to reevaluation of the existing concepts and development of the novel computer models. We focus on the arterial thrombosis, venous thrombosis, thrombosis in microcirculation and the problems of fibrinolysis and thrombolysis. We also briefly discuss basic types of the existing mathematical models, their computational complexity, and principal issues in simulation of thrombus growth in arteries.
-
Введение барионных струн в модель структуры спиральных галактик
Компьютерные исследования и моделирование, 2012, т. 4, № 3, с. 597-612Предлагается новый альтернативный подход для объяснения плоского спектра скоростей орбитального движения звезд на периферии спиральных галактик и, в частности, значительного превышения значений скоростей, вычисленных по теореме о вириале. Концепция заключается в предположении о наличии у гравитационного поля центрального тела галактики цилиндрической, а не сферической симметрии. Эту конфигурацию поля можно объяснить наличием на оси галактики космической струны, длина которой перекрывает диаметр диска галактики. Эта модель будет подвергнута сравнению с более традиционной концепцией наличия у спиральной галактики шарового гало темной материи. Для этого подхода также будет предложена кинематическая модель и высказана гипотеза о природе темного вещества. Исследуются данные астрономических наблюдений о наличии космических струн в зонах, примыкающих к галактикам.
The introduction of baryon string in the model of spiral galaxies structure
Computer Research and Modeling, 2012, v. 4, no. 3, pp. 597-612Views (last year): 2. Citations: 1 (RSCI).It proposes a new alternative approach to explain the flat spectrum of the velocity for stars orbital motion on the periphery of spiral galaxies. In particular, that velocity significant excess of speed calculated according to the virial theorem. The concept is the assumption of the existence for gravitational field of the Central body of the galaxy cylindrical, and not spherical, symmetry. The configuration of this field can be explained by the presence on galaxy axis the cosmic string, the length of which covers the diameter of the disk of the galaxy. This model will be subjected to comparison with the more traditional concept of the availability of the spiral galaxy ball halo of dark matter. For this approach it will also be offered a kinematic model, and the hypothesis about the nature of dark matter. It examines the data of astronomical observations about the presence of cosmic strings in the zones adjacent to galaxies.
-
Задача вычисления траектории с равномерным распределением ответов
Компьютерные исследования и моделирование, 2014, т. 6, № 5, с. 803-828Рассматривается новая серия тестов, предназначенных для выявления способности человека к параллельным вычислениям. В отличие от задач, рассмотренных в предыдущих работах, в новых сериях ответы распределены статистически равномерно. Это упрощает анализ полученных результатов и уменьшает оценку статистической погрешности. Новые экспериментальные данные близки к результатам, полученным в предыдущих опытах.
Ключевые слова: инженерная психология, параллельные вычисления, тестирование, пропускная способность.
The task of trajectory calculation with the homogenous distribution of results
Computer Research and Modeling, 2014, v. 6, no. 5, pp. 803-828Citations: 3 (RSCI).We consider a new set of tests which assigns to detection of human capability for parallel calculation. The new tests support the homogenous statistical distribution of results in distinction to the tests discussed in our previous works. This feature simplifies the analysis of test results and decreases the estimate of statistical error. The new experimental data is close to results obtained in previous experiments.
-
Запуск приложений на гибридном кластере
Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 475-483Гибридный кластер подразумевает использование вычислительных ресурсов с различными архитектурами. Как правило, в таких системах используется CPU распространенной архитектуры (например, x86_64) и GPU (например, NVIDIA CUDA). Создание и эксплуатация подобного кластера требует определенного опыта: для того чтобы задействовать все вычислительные мощности такой системы и получить существенное ускорение на задачах, требуется учесть множество факторов. К таким факторам относятся как характеристики оборудования (например, особенности сетевой инфраструктуры, хранилища, архитектуры GPU), так и характеристики программного обеспечения (например, реализация MPI, библиотеки для работы с GPU). Таким образом для эффективных научных расчетов на подобных системах требуется помнить о характеристиках ускорителя (GPU), особенностях программного обеспечения, характеристиках задачи и о многих других факторах.
В этой статье анализируются достоинства и недостатки гибридных вычислений. Будут приведены результаты запуска некоторых тестов и научных приложений, использующих GPGPU. Основное внимание уделено программных продуктах с открытым исходным кодом, которые поддерживают работу с GPGPU.
Существует несколько подходов для организации гетерогенных вычислений. В данной статье мы рассмотрим приложения, использующие CUDA и OpenCL. CUDA довольно часто используется в подобных гибридных системах, в то время как переносимость OpenCL-приложений может сыграть решающую роль при выборе средства для разработки. Мы также уделим внимание системам с несколькими GPU, которые все чаще используются в рамках подобных кластеров. Вычисления проводились на гибридном кластере ресурсного центра «Вычислительный центр СПбГУ».
Ключевые слова: GPGPU, высокопроизводительные вычисления, вычислительные кластеры, OpenFOAM, LINPACK, ViennaCL, CUDA, OpenCL.
Running applications on a hybrid cluster
Computer Research and Modeling, 2015, v. 7, no. 3, pp. 475-483Views (last year): 4.A hybrid cluster implies the use of computational devices with radically different architectures. Usually, these are conventional CPU architecture (e.g. x86_64) and GPU architecture (e. g. NVIDIA CUDA). Creating and exploiting such a cluster requires some experience: in order to harness all computational power of the described system and get substantial speedup for computational tasks many factors should be taken into account. These factors consist of hardware characteristics (e.g. network infrastructure, a type of data storage, GPU architecture) as well as software stack (e.g. MPI implementation, GPGPU libraries). So, in order to run scientific applications GPU capabilities, software features, task size and other factors should be considered.
This report discusses opportunities and problems of hybrid computations. Some statistics from tests programs and applications runs will be demonstrated. The main focus of interest is open source applications (e. g. OpenFOAM) that support GPGPU (with some parts rewritten to use GPGPU directly or by replacing libraries).
There are several approaches to organize heterogeneous computations for different GPU architectures out of which CUDA library and OpenCL framework are compared. CUDA library is becoming quite typical for hybrid systems with NVIDIA cards, but OpenCL offers portability opportunities which can be a determinant factor when choosing framework for development. We also put emphasis on multi-GPU systems that are often used to build hybrid clusters. Calculations were performed on a hybrid cluster of SPbU computing center.
-
Оценивание параметров моделей временных рядов с марковскими переключениями режимов
Компьютерные исследования и моделирование, 2018, т. 10, № 6, с. 903-918В работе рассматривается задача оценивания параметров временных рядов, описываемых регрессионными моделями с марковскими переключениями двух режимов в случайные моменты времени и независимыми гауссовскими шумами. Для решения предлагается вариант EM-алгоритма, основанный на итерационной процедуре, в ходе которой происходит чередование оценивания параметров регрессии при заданной последовательности переключений режимов и оценивания последовательности переключений при заданных параметрах моделей регрессии. В отличие от известных методов оценивания параметров регрессий с марковскими переключениями режимов, которые основаны на вычислении апостериорных вероятностей дискретных состояний последовательности переключений, в работе находятся оптимальные по критерию максимума апостериорной вероятности оценки процесса переключений. В результате предлагаемый алгоритм оказывается более простым и требует меньшее количество расчетов. Компьютерное моделирование позволяет выявить факторы, влияющие на точность оценивания. К таким факторам относятся число наблюдений, количество неизвестных параметров регрессии, степень их различия в разных режимах работы, а также величина отношения сигнала к шуму, которую в моделях регрессии можно связать с величиной коэффициента детерминации. Предложенный алгоритм применяется для задачи оценивания параметров в моделях регрессии для доходности индекса РТС в зависимости от доходностей индекса S&P 500 и акций «Газпрома» за период с 2013 года по 2018 год. Проводится сравнение оценок параметров, найденных с помощью предлагаемого алгоритма, с оценками, которые формируются с использованием эконометрического пакета EViews, и с оценками обычного метода наименьших квадратов без учета переключений режимов. Учет переключений позволяет получить более точное представление о структуре статистической зависимости исследуемых переменных. В моделях с переключениями рост отношения сигнала к шуму приводит к тому, что уменьшаются различия в оценках, вырабатываемых предлагаемым алгоритмом и с помощью программы EViews.
Ключевые слова: оценивание параметров, модели регрессии, модели с марковскими переключениями, функция правдоподобия, метод максимума правдоподобия, дисперсия шума, отношение сигнала к шуму.
Estimation of models parameters for time series with Markov switching regimes
Computer Research and Modeling, 2018, v. 10, no. 6, pp. 903-918Views (last year): 36.The paper considers the problem of estimating the parameters of time series described by regression models with Markov switching of two regimes at random instants of time with independent Gaussian noise. For the solution, we propose a variant of the EM algorithm based on the iterative procedure, during which an estimation of the regression parameters is performed for a given sequence of regime switching and an evaluation of the switching sequence for the given parameters of the regression models. In contrast to the well-known methods of estimating regression parameters in the models with Markov switching, which are based on the calculation of a posteriori probabilities of discrete states of the switching sequence, in the paper the estimates are calculated of the switching sequence, which are optimal by the criterion of the maximum of a posteriori probability. As a result, the proposed algorithm turns out to be simpler and requires less calculations. Computer modeling allows to reveal the factors influencing accuracy of estimation. Such factors include the number of observations, the number of unknown regression parameters, the degree of their difference in different modes of operation, and the signal-to-noise ratio which is associated with the coefficient of determination in regression models. The proposed algorithm is applied to the problem of estimating parameters in regression models for the rate of daily return of the RTS index, depending on the returns of the S&P 500 index and Gazprom shares for the period from 2013 to 2018. Comparison of the estimates of the parameters found using the proposed algorithm is carried out with the estimates that are formed using the EViews econometric package and with estimates of the ordinary least squares method without taking into account regimes switching. The account of regimes switching allows to receive more exact representation about structure of a statistical dependence of investigated variables. In switching models, the increase in the signal-to-noise ratio leads to the fact that the differences in the estimates produced by the proposed algorithm and using the EViews program are reduced.
-
Применение упрощенного неявного метода Эйлера для решения задач электрофизиологии
Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 845-864Рассматривается упрощенный неявный метод Эйлера как альтернатива явному методу Эйлера, являющемуся наиболее распространенным в области численного решения уравнений, описывающих электрическую активность нервных клеток и кардиоцитов. Многие модели электрофизиологии имеют высокую степень жесткости, так как описывают динамику процессов с существенно разными характерными временами: миллисекундная деполяризации предшествует значительно более медленной гиперполяризации при формировании потенциала действия в электровозбудимых клетках. Оценка степени жесткости в работе проводится по формуле, не требующей вычисления собственных значений матрицы Якоби системы ОДУ. Эффективность численных методов сравнивается на примере типичных представителей из классов детальных и концептуальных моделей возбудимых клеток: модели Ходжкина–Хаксли для нейронов и Алиева–Панфилова для кардиоцитов. Сравнение эффективности численных методов проведено с использованием распространенных в биомедицинских задачах видов норм. Исследовано влияние степени жесткости моделей на величину ускорения при использовании упрощенного неявного метода: выигрыш во времени при высокой степени жесткости зафиксирован только для модели Ходжкина–Хаксли. Обсуждаются целесообразность применения простых методов и методов высоких порядков точности для решения задач электрофизиологии, а также устойчивость методов. Обсуждение позволяет прояснить вопрос о причинах отказа от использования высокоточных методов в пользу простых при проведении практических расчетов. На примере модели Ходжкина–Хаксли c различными степенями жесткости вычислены производные решения высших порядков и обнаружены их значительные максимальные абсолютные значения. Последние входят в формулы констант аппроксимации и, следовательно, нивелируют малость множителя, зависящего от порядка точности. Этот факт не позволяет считать погрешности численного метода малыми. Проведенный на качественном уровне анализ устойчивости явного метода Эйлера позволяет оценить вид функции параметров модели для описания границы области устойчивости. Описание границы области устойчивости, как правило, используется при априорном принятии решения о выборе величины шага численного интегрирования.
Ключевые слова: электрофизиология, детальные модели, концептуальные модели, жесткие системы, численные методы.
Application of simplified implicit Euler method for electrophysiological models
Computer Research and Modeling, 2020, v. 12, no. 4, pp. 845-864A simplified implicit Euler method was analyzed as an alternative to the explicit Euler method, which is a commonly used method in numerical modeling in electrophysiology. The majority of electrophysiological models are quite stiff, since the dynamics they describe includes a wide spectrum of time scales: a fast depolarization, that lasts milliseconds, precedes a considerably slow repolarization, with both being the fractions of the action potential observed in excitable cells. In this work we estimate stiffness by a formula that does not require calculation of eigenvalues of the Jacobian matrix of the studied ODEs. The efficiency of the numerical methods was compared on the case of typical representatives of detailed and conceptual type models of excitable cells: Hodgkin–Huxley model of a neuron and Aliev–Panfilov model of a cardiomyocyte. The comparison of the efficiency of the numerical methods was carried out via norms that were widely used in biomedical applications. The stiffness ratio’s impact on the speedup of simplified implicit method was studied: a real gain in speed was obtained for the Hodgkin–Huxley model. The benefits of the usage of simple and high-order methods for electrophysiological models are discussed along with the discussion of one method’s stability issues. The reasons for using simplified instead of high-order methods during practical simulations were discussed in the corresponding section. We calculated higher order derivatives of the solutions of Hodgkin-Huxley model with various stiffness ratios; their maximum absolute values appeared to be quite large. A numerical method’s approximation constant’s formula contains the latter and hence ruins the effect of the other term (a small factor which depends on the order of approximation). This leads to the large value of global error. We committed a qualitative stability analysis of the explicit Euler method and were able to estimate the model’s parameters influence on the border of the region of absolute stability. The latter is used when setting the value of the timestep for simulations a priori.
-
Моделирование процесса истощения газоконденсатного пласта
Компьютерные исследования и моделирование, 2020, т. 12, № 5, с. 1081-1095Одна из трудностей разработки газоконденсатных месторождений обусловлена тем, что часть углеводородов газоносного слоя присутствует в немв виде конденсата, который застревает в порах пласта и извлечению не подлежит. В этой связи активно ведутся исследования, направленные на повышение извлекаемости углеводородов в подобных месторождениях. В том числе значительное количество публикаций посвящено развитию методов математического моделирования прохождения многокомпонентных газоконденсатных смесей через пористую среду в различных условиях.
В настоящей работе в рамках классического подхода, основанного на законе Дарси и законе неразрывности потоков, сформулирована математическая постановка начально-граничной задачи для системы нелинейных дифференциальных уравнений, описывающая прохождение многокомпонентной газоконденсатной смеси через пористую среду в режиме истощения. Разработанная обобщенная вычислительная схема на основе конечно-разностной аппроксимации и метода Рунге – Кутты четвертого порядка может использоваться для расчетов как в пространственно одномерном случае, соответствующемусловиям лабораторного эксперимента, так и в двумерном случае, когда речь идет о моделировании плоского газоносного пласта с круговой симметрией.
Численное решение упомянутой системы уравнений реализовано на основе комбинированного использования C++ и Maple с применением технологии параллельного программирования MPI для ускорения вычислений. Расчеты выполнены на кластере HybriLIT Многофункционального информационно-вычислительного комплекса Лаборатории информационных технологий Объединенного института ядерных исследований.
Численные результаты сопоставлены с данными о динамике выхода девятикомпонентной углеводородной смеси в зависимости от давления, полученными на лабораторной установке (ВНИИГАЗ, Ухта). Расчеты проводились для двух типов пористого наполнителя в лабораторной модели пласта: терригенного (при 25 ◦С) и карбонатного (при 60 ◦С). Показано, что используемый подход обеспечивает согласие полученных численных результатов с экспериментальными данными. Путем подгонки к экспериментальным данным по истощению лабораторной модели пласта получены значения параметров, определяющих коэффициент межфазного перехода для моделируемой системы. С использованием тех же параметров было проведено компьютерное моделирование истощения тонкого газоносного слоя в приближении круговой симметрии.
Ключевые слова: компьютерное моделирование, многокомпонентная система углеводородов.
Simulation of the gas condensate reservoir depletion
Computer Research and Modeling, 2020, v. 12, no. 5, pp. 1081-1095One of problems in developing the gas condensate fields lies on the fact that the condensed hydrocarbons in the gas-bearing layer can get stuck in the pores of the formation and hence cannot be extracted. In this regard, research is underway to increase the recoverability of hydrocarbons in such fields. This research includes a wide range of studies on mathematical simulations of the passage of gas condensate mixtures through a porous medium under various conditions.
In the present work, within the classical approach based on the Darcy law and the law of continuity of flows, we formulate an initial-boundary value problem for a system of nonlinear differential equations that describes a depletion of a multicomponent gas-condensate mixture in porous reservoir. A computational scheme is developed on the basis of the finite-difference approximation and the fourth order Runge .Kutta method. The scheme can be used for simulations both in the spatially one-dimensional case, corresponding to the conditions of the laboratory experiment, and in the two-dimensional case, when it comes to modeling a flat gas-bearing formation with circular symmetry.
The computer implementation is based on the combination of C++ and Maple tools, using the MPI parallel programming technique to speed up the calculations. The calculations were performed on the HybriLIT cluster of the Multifunctional Information and Computing Complex of the Laboratory of Information Technologies of the Joint Institute for Nuclear Research.
Numerical results are compared with the experimental data on the pressure dependence of output of a ninecomponent hydrocarbon mixture obtained at a laboratory facility (VNIIGAZ, Ukhta). The calculations were performed for two types of porous filler in the laboratory model of the formation: terrigenous filler at 25 .„R and carbonate one at 60 .„R. It is shown that the approach developed ensures an agreement of the numerical results with experimental data. By fitting of numerical results to experimental data on the depletion of the laboratory reservoir, we obtained the values of the parameters that determine the inter-phase transition coefficient for the simulated system. Using the same parameters, a computer simulation of the depletion of a thin gas-bearing layer in the circular symmetry approximation was carried out.
Indexed in Scopus
Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU
The journal is included in the Russian Science Citation Index
The journal is included in the RSCI
International Interdisciplinary Conference "Mathematics. Computing. Education"




