All issues
- 2024 Vol. 16
- 2023 Vol. 15
- 2022 Vol. 14
- 2021 Vol. 13
- 2020 Vol. 12
- 2019 Vol. 11
- 2018 Vol. 10
- 2017 Vol. 9
- 2016 Vol. 8
- 2015 Vol. 7
- 2014 Vol. 6
- 2013 Vol. 5
- 2012 Vol. 4
- 2011 Vol. 3
- 2010 Vol. 2
- 2009 Vol. 1
-
Сравнительный анализ статистических методов классификации научных публикаций в области медицины
Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 921-933В работе проведено сравнение различных методов машинной классификации научных текстов по тематическим разделам на примере публикаций в профильных медицинских журналах, выпускаемых издательством Springer. Исследовался корпус текстов по пяти разделам: фармакология/токсикология, кардиология, иммунология, неврология и онкология. Рассматривались как методы поверхностной классификации, основанные на анализе аннотаций и ключевых слов, так и методы классификации на основе обработки собственно текстов. Были применены методы байесовской классификации, опорных векторов и эталонных буквосочетаний. Показано, что наилучшую точность имеет метод классификации на основе создания библиотеки эталонов буквенных триграмм, отвечающих текстам определенной тематики, а семантические методы уступают ему по точности. Выяснилось, что применительно к рассматриваемому корпусу текстов байесовский метод дает ошибку порядка 20 %, метод опорных векторов имеет ошибку порядка 10 %, а метод близости распределения текста к трехбуквенному эталону тематики дает ошибку порядка 5 %, что позволяет ранжировать эти методы для использования искусственного интеллекта в задачах классификации текстов по отраслевым специальностям. Существенно, что при анализе аннотаций метод опорных векторов дает такую же точность, что и при анализе полных текстов, что важно для сокращения числа операций для больших корпусов текстов.
Comparative analysis of statistical methods of scientific publications classification in medicine
Computer Research and Modeling, 2020, v. 12, no. 4, pp. 921-933In this paper the various methods of machine classification of scientific texts by thematic sections on the example of publications in specialized medical journals published by Springer are compared. The corpus of texts was studied in five sections: pharmacology/toxicology, cardiology, immunology, neurology and oncology. We considered both classification methods based on the analysis of annotations and keywords, and classification methods based on the processing of actual texts. Methods of Bayesian classification, reference vectors, and reference letter combinations were applied. It is shown that the method of classification with the best accuracy is based on creating a library of standards of letter trigrams that correspond to texts of a certain subject. It is turned out that for this corpus the Bayesian method gives an error of about 20%, the support vector machine has error of order 10%, and the proximity of the distribution of three-letter text to the standard theme gives an error of about 5%, which allows to rank these methods to the use of artificial intelligence in the task of text classification by industry specialties. It is important that the support vector method provides the same accuracy when analyzing annotations as when analyzing full texts, which is important for reducing the number of operations for large text corpus.
-
Оценка качества кластеризации панельных данных с использованием методов Монте-Карло (на примере данных российской региональной экономики)
Компьютерные исследования и моделирование, 2020, т. 12, № 6, с. 1501-1513В работе рассматривается метод исследования панельных данных, основанный на использовании агломеративной иерархической кластеризации — группировки объектов на основании сходства и разли- чия их признаков в иерархию вложенных друг в друга кластеров. Применялись 2 альтернативных способа вычисления евклидовых расстояний между объектами — расстояния между усредненными по интервалу наблюдений значениями и расстояния с использованием данных за все рассматриваемые годы. Сравнивались 3 альтернативных метода вычисления расстояний между кластерами. В первом случае таким расстоянием считается расстояние между ближайшими элементами из двух кластеров, во втором — среднее по парам элементов, в третьем — расстояние между наиболее удаленными элементами. Исследована эффективность использования двух индексов качества кластеризации — индекса Данна и Силуэта для выбора оптимального числа кластеров и оценки статистической значимости полученных решений. Способ оценивания статистической достоверности кластерной структуры заключался в сравнении качества кластеризации, на реальной выборке с качеством кластеризаций на искусственно сгенерированных выборках панельных данных с теми же самыми числом объектов, признаков и длиной рядов. Генерация производилась из фиксированного вероятностного распределения. Использовались способы симуляции, имитирующие гауссов белый шум и случайное блуждание. Расчеты с индексом Силуэт показали, что случайное блуждание характеризуется не только ложной регрессией, но и ложной кластеризацией. Кластеризация принималась достоверной для данного числа выделенных кластеров, если значение индекса на реальной выборке оказывалось больше значения 95%-ного квантиля для искусственных данных. В качестве выборки реальных данных использован набор временных рядов показателей, характеризующих производство в российских регионах. Для этих данных только Силуэт показывает достоверную кластеризацию на уровне $p < 0.05$. Расчеты также показали, что значения индексов для реальных данных в целом ближе к значениям для случайных блужданий, чем для белого шума, но имеют значимые отличия и от тех, и от других. Визуально можно выделить скопления близко расположенных друг от друга в трехмерном признаковом пространстве точек, выделяемые также в качестве кластеров применяемым алгоритмом иерархической кластеризации.
Assessing the validity of clustering of panel data by Monte Carlo methods (using as example the data of the Russian regional economy)
Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1501-1513The paper considers a method for studying panel data based on the use of agglomerative hierarchical clustering — grouping objects based on the similarities and differences in their features into a hierarchy of clusters nested into each other. We used 2 alternative methods for calculating Euclidean distances between objects — the distance between the values averaged over observation interval, and the distance using data for all considered years. Three alternative methods for calculating the distances between clusters were compared. In the first case, the distance between the nearest elements from two clusters is considered to be distance between these clusters, in the second — the average over pairs of elements, in the third — the distance between the most distant elements. The efficiency of using two clustering quality indices, the Dunn and Silhouette index, was studied to select the optimal number of clusters and evaluate the statistical significance of the obtained solutions. The method of assessing statistical reliability of cluster structure consisted in comparing the quality of clustering on a real sample with the quality of clustering on artificially generated samples of panel data with the same number of objects, features and lengths of time series. Generation was made from a fixed probability distribution. At the same time, simulation methods imitating Gaussian white noise and random walk were used. Calculations with the Silhouette index showed that a random walk is characterized not only by spurious regression, but also by “spurious clustering”. Clustering was considered reliable for a given number of selected clusters if the index value on the real sample turned out to be greater than the value of the 95% quantile for artificial data. A set of time series of indicators characterizing production in the regions of the Russian Federation was used as a sample of real data. For these data only Silhouette shows reliable clustering at the level p < 0.05. Calculations also showed that index values for real data are generally closer to values for random walks than for white noise, but it have significant differences from both. Since three-dimensional feature space is used, the quality of clustering was also evaluated visually. Visually, one can distinguish clusters of points located close to each other, also distinguished as clusters by the applied hierarchical clustering algorithm.
-
Исследование динамики структуры олигополистических рынков при нерыночных противодействиях сторон
Компьютерные исследования и моделирование, 2021, т. 13, № 1, с. 219-233В статье исследуется влияние нерыночных действий участников олигополистических рынков на рыночную структуру. Анализируются следующие действия одного из участников рынка, направленные на повышение его рыночной доли: 1) манипуляция ценами; 2) блокировка инвестиций более сильных олигополистов; 3) уничтожение производственной продукции и мощностей конкурентов. Для моделирования стратегий олигополистов используются линейные динамические игры с квадратичным критерием. Целесообразность их использования обусловлена возможностью как адекватного описания эволюции рынков, так и реализации двух взаимно дополняющих подходов к определению стратегий олигополистов: 1) подхода, основанного на представлении моделей в пространстве состояний и решении обобщенных уравнений Риккати; 2) подхода, основанного на применении методов операционного исчисления (в частотной области) и обладающего необходимой для экономического анализа наглядностью.
В статье показывается эквивалентность подходов к решению задачи с максиминными критериями олигополистов в пространстве состояний и в частотной области. Рассматриваются результаты расчетов применительно к дуополии, с показателями, близкими к одной из дуополий в микроэлектронной промышленности мира. Второй дуополист является менее эффективным с позиций затрат, хотя и менее инерционным. Его цель состоит в повышении своей рыночной доли путем реализации перечисленных выше нерыночных методов.
На основе расчетов по игровой модели построены зависимости, характеризующие связь относи- тельного увеличения объемов производства за 25-летний период слабого $dy_2$ и сильного $dy_1$ дуополистов при манипуляции ценами. Показано, что увеличение цены при принятой линейной функции спроса приводит к весьма незначительному росту производства сильного дуополиста, но вместе с тем — к существенному росту этого показателя у слабого.
В то же время блокировка инвестиций, а также уничтожение продукции сильного дуополиста приводят к росту объемов производства товарной продукции у слабого дуополиста за счет снижения этого показателя у сильного, причем эластичность $\frac{y_2}{dy_1}$ превышает по модулю 1.
Ключевые слова: кибератаки, рыночная структура, нерыночные противодействия, олигополистические рынки, динамические игры.
Study of the dynamics of the structure of oligopolistic markets with non-market opposition parties
Computer Research and Modeling, 2021, v. 13, no. 1, pp. 219-233The article examines the impact of non-market actions of participants in oligopolistic markets on the market structure. The following actions of one of the market participants aimed at increasing its market share are analyzed: 1) price manipulation; 2) blocking investments of stronger oligopolists; 3) destruction of produced products and capacities of competitors. Linear dynamic games with a quadratic criterion are used to model the strategies of oligopolists. The expediency of their use is due to the possibility of both an adequate description of the evolution of markets and the implementation of two mutually complementary approaches to determining the strategies of oligopolists: 1) based on the representation of models in the state space and the solution of generalized Riccati equations; 2) based on the application of operational calculus methods (in the frequency domain) which owns the visibility necessary for economic analysis.
The article shows the equivalence of approaches to solving the problem with maximin criteria of oligopolists in the state space and in the frequency domain. The results of calculations are considered in relation to a duopoly, with indicators close to one of the duopolies in the microelectronic industry of the world. The second duopolist is less effective from the standpoint of costs, though more mobile. Its goal is to increase its market share by implementing the non-market methods listed above.
Calculations carried out with help of the game model, made it possible to construct dependencies that characterize the relationship between the relative increase in production volumes over a 25-year period of weak and strong duopolists under price manipulation. Constructed dependencies show that an increase in the price for the accepted linear demand function leads to a very small increase in the production of a strong duopolist, but, simultaneously, to a significant increase in this indicator for a weak one.
Calculations carried out with use of the other variants of the model, show that blocking investments, as well as destroying the products of a strong duopolist, leads to more significant increase in the production of marketable products for a weak duopolist than to a decrease in this indicator for a strong one.
-
Субградиентные методы для задач негладкой оптимизации с некоторой релаксацией условия острого минимума
Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 473-495Задачи негладкой оптимизации нередко возникают во многих приложениях. Вопросы разработки эффективных вычислительных процедур для негладких задач в пространствах больших размерностей весьма актуальны. В таких случаях разумно применятьмет оды первого порядка (субградиентные методы), однако в достаточно общих ситуациях они приводят к невысоким скоростным гарантиям. Одним из подходов к этой проблеме может являться выделение подкласса негладких задач, допускающих относительно оптимистичные результаты о скорости сходимости в пространствах больших размерностей. К примеру, одним из вариантов дополнительных предположений может послужитьуслови е острого минимума, предложенное в конце 1960-х годов Б. Т. Поляком. В случае доступности информации о минимальном значении функции для липшицевых задач с острым минимумом известен субградиентный метод с шагом Б. Т. Поляка, который гарантирует линейную скорость сходимости по аргументу. Такой подход позволил покрыть ряд важных прикладных задач (например, задача проектирования точки на выпуклый компакт или задача отыскания общей точки системы выпуклых множеств). Однако как условие доступности минимального значения функции, так и само условие острого минимума выглядят довольно ограничительными. В этой связи в настоящей работе предлагается обобщенное условие острого минимума, аналогичное известному понятию неточного оракула. Предложенный подход позволяет расширить класс применимости субградиентных методов с шагом Б. Т. Поляка на ситуации неточной информации о значении минимума, а также неизвестной константы Липшица целевой функции. Более того, использование в теоретической оценке качества выдаваемого методом решения локальных аналогов глобальных характеристик целевой функции позволяет применять результаты такого типа и к более широким классам задач. Показана возможностьпр именения предложенного подхода к сильно выпуклым негладким задачам и выполнено экспериментальное сравнение с известным оптимальным субградиентным методом на таком классе задач. Более того, получены результаты о применимости предложенной методики для некоторых типов задач с релаксациями выпуклости: недавно предложенное понятие слабой $\beta$-квазивыпуклости и обычной квазивыпуклости. Исследовано обобщение описанной методики на ситуацию с предположением о доступности на итерациях $\delta$-субградиента целевой функции вместо обычного субградиента. Для одного из рассмотренных методов найдены условия, при которых на практике можно отказаться от проектирования итеративной последовательности на допустимое множество поставленной задачи.
Ключевые слова: субградиентный метод, острый минимум, квазивыпуклая функция, слабо $\beta$-квазивыпуклая функция, липшицева функция, $\delta$-субградиент.
Subgradient methods for non-smooth optimization problems with some relaxation of sharp minimum
Computer Research and Modeling, 2022, v. 14, no. 2, pp. 473-495Non-smooth optimization often arises in many applied problems. The issues of developing efficient computational procedures for such problems in high-dimensional spaces are very topical. First-order methods (subgradient methods) are well applicable here, but in fairly general situations they lead to low speed guarantees for large-scale problems. One of the approaches to this type of problem can be to identify a subclass of non-smooth problems that allow relatively optimistic results on the rate of convergence. For example, one of the options for additional assumptions can be the condition of a sharp minimum, proposed in the late 1960s by B. T. Polyak. In the case of the availability of information about the minimal value of the function for Lipschitz-continuous problems with a sharp minimum, it turned out to be possible to propose a subgradient method with a Polyak step-size, which guarantees a linear rate of convergence in the argument. This approach made it possible to cover a number of important applied problems (for example, the problem of projecting onto a convex compact set). However, both the condition of the availability of the minimal value of the function and the condition of a sharp minimum itself look rather restrictive. In this regard, in this paper, we propose a generalized condition for a sharp minimum, somewhat similar to the inexact oracle proposed recently by Devolder – Glineur – Nesterov. The proposed approach makes it possible to extend the class of applicability of subgradient methods with the Polyak step-size, to the situation of inexact information about the value of the minimum, as well as the unknown Lipschitz constant of the objective function. Moreover, the use of local analogs of the global characteristics of the objective function makes it possible to apply the results of this type to wider classes of problems. We show the possibility of applying the proposed approach to strongly convex nonsmooth problems, also, we make an experimental comparison with the known optimal subgradient method for such a class of problems. Moreover, there were obtained some results connected to the applicability of the proposed technique to some types of problems with convexity relaxations: the recently proposed notion of weak $\beta$-quasi-convexity and ordinary quasiconvexity. Also in the paper, we study a generalization of the described technique to the situation with the assumption that the $\delta$-subgradient of the objective function is available instead of the usual subgradient. For one of the considered methods, conditions are found under which, in practice, it is possible to escape the projection of the considered iterative sequence onto the feasible set of the problem.
-
Повышение порядка точности сеточно-характеристического метода для задач двумерной линейной упругости с помощью схем операторного расщепления
Компьютерные исследования и моделирование, 2022, т. 14, № 4, с. 899-910Сеточно-характеристический метод успешно применяется для решения различных гиперболических систем уравнений в частных производных (например, уравнения переноса, акустики, линейной упругости). Он позволяет корректно строить алгоритмы на контактных границах и границах области интегрирования, в определенной степени учитывать физику задачи (распространение разрывов вдоль характеристических поверхностей), обладает важнымдля рассматриваемых задач свойством монотонности. В случае двумерных и трехмерных задач используется процедура расщепления по пространственным направлениям, позволяющая решить исходную систему путем последовательного решения нескольких одномерных систем. На настоящий момент во множестве работ используются схемы до третьего порядка точности при решении одномерных задач и простейшие схемы расщепления, которые в общем случае не позволяют получить порядок точности по времени выше второго. Значительное развитие получило направление операторного расщепления, доказана возможность повышения порядка сходимости многомерных схем. Его особенностью является необходимость выполнения шага в обратном направлении по времени, что порождает сложности, например, для параболических задач.
В настоящей работе схемы расщепления 3-го и 4-го порядка были применены непосредственно к решению двумерной гиперболической системы уравнений в частных производных линейной теории упругости. Это позволило повысить итоговый порядок сходимости расчетного алгоритма. В работе эмпирически оценена сходимость по нормам $L_1$ и $L_\infty$ с использованиемана литических решений определяющей системы достаточной степени гладкости. Для получения объективных результатов рассмотрены случаи продольных и поперечных плоских волн, распространяющихся как вдоль диагонали расчетной ячейки, так и не вдоль нее. Проведенные численные эксперименты подтверждают повышение точности метода и демонстрируют теоретически ожидаемый порядок сходимости. При этом увеличивается в 3 и в 4 раза время моделирования (для схем 3-го и 4-го порядка соответственно), но не возрастает потребление оперативной памяти. Предложенное усовершенствование вычислительного алгоритма сохраняет простоту его параллельной реализации на основе пространственной декомпозиции расчетной сетки.
Ключевые слова: компьютерное моделирование, численные методы, гиперболические системы, сеточно-характеристический численный метод, операторное расщепление, порядок сходимости.
Raising convergence order of grid-characteristic schemes for 2D linear elasticity problems using operator splitting
Computer Research and Modeling, 2022, v. 14, no. 4, pp. 899-910The grid-characteristic method is successfully used for solving hyperbolic systems of partial differential equations (for example, transport / acoustic / elastic equations). It allows to construct correctly algorithms on contact boundaries and boundaries of the integration domain, to a certain extent to take into account the physics of the problem (propagation of discontinuities along characteristic curves), and has the property of monotonicity, which is important for considered problems. In the cases of two-dimensional and three-dimensional problems the method makes use of a coordinate splitting technique, which enables us to solve the original equations by solving several one-dimensional ones consecutively. It is common to use up to 3-rd order one-dimensional schemes with simple splitting techniques which do not allow for the convergence order to be higher than two (with respect to time). Significant achievements in the operator splitting theory were done, the existence of higher-order schemes was proved. Its peculiarity is the need to perform a step in the opposite direction in time, which gives rise to difficulties, for example, for parabolic problems.
In this work coordinate splitting of the 3-rd and 4-th order were used for the two-dimensional hyperbolic problem of the linear elasticity. This made it possible to increase the final convergence order of the computational algorithm. The paper empirically estimates the convergence in L1 and L∞ norms using analytical solutions of the system with the sufficient degree of smoothness. To obtain objective results, we considered the cases of longitudinal and transverse plane waves propagating both along the diagonal of the computational cell and not along it. Numerical experiments demonstrated the improved accuracy and convergence order of constructed schemes. These improvements are achieved with the cost of three- or fourfold increase of the computational time (for the 3-rd and 4-th order respectively) and no additional memory requirements. The proposed improvement of the computational algorithm preserves the simplicity of its parallel implementation based on the spatial decomposition of the computational grid.
-
Предсказание производительности избранных типов циклов над одномерными массивами посредством анализа эмбеддингов промежуточных представлений
Компьютерные исследования и моделирование, 2023, т. 15, № 1, с. 211-224Предложен метод отображения промежуточных представлений C-, C++-программ в пространство векторов (эмбеддингов) для оценки производительности программ на этапе компиляции, без необходимости исполнения. Использование эмбеддингов для данной цели позволяет не проводить сравнение графов исследуемых программ непосредственно, что вычислительно упрощает задачу сравнения программ. Метод основан на серии трансформаций исходного промежуточного представления (IR), таких как: инструментирование — добавление фиктивных инструкций в оптимизационном проходе компилятора в зависимости от разности смещений в текущей инструкции обращения к памяти относительно предыдущей, преобразование IR в многомерный вектор с помощью технологии IR2Vec с понижением размерности по алгоритму t-SNE (стохастическое вложение соседей с t-распределением). В качестве метрики производительности предлагается доля кэш-промахов 1-го уровня (D1 cache misses). Приводится эвристический критерий отличия программ с большей долей кэш-промахов от программ с меньшей долей по их образам. Также описан разработанный в ходе работы проход компилятора, генерирующий и добавляющий фиктивные инструкции IR согласно используемой модели памяти. Приведено описание разработанного программного комплекса, реализующего предложенный способ оценивания на базе компиляторной инфраструктуры LLVM. Проведен ряд вычислительных экспериментов на синтетических тестах из наборов программ с идентичными потоками управления, но различным порядком обращений к одномерному массиву, показано, что коэффициент корреляции между метрикой производительности и расстоянием до эмбеддинга худшей программы в наборе отрицателен вне зависимости от инициализации t-SNE, что позволяет сделать заключение о достоверности эвристического критерия. Также в статье рассмотрен способ генерации тестов. По результатам экспериментов, вариативность значений метрики производительности на исследуемых множествах предложена как метрика для улучшения генератора тестов.
Ключевые слова: математическое моделирование, компиляторы, промежуточные представления программ, эмбеддинги, анализ производительности, статический анализ.
Performance prediction for chosen types of loops over one-dimensional arrays with embedding-driven intermediate representations analysis
Computer Research and Modeling, 2023, v. 15, no. 1, pp. 211-224The method for mapping of intermediate representations (IR) set of C, C++ programs to vector embedding space is considered to create an empirical estimation framework for static performance prediction using LLVM compiler infrastructure. The usage of embeddings makes programs easier to compare due to avoiding Control Flow Graphs (CFG) and Data Flow Graphs (DFG) direct comparison. This method is based on transformation series of the initial IR such as: instrumentation — injection of artificial instructions in an instrumentation compiler’s pass depending on load offset delta in the current instruction compared to the previous one, mapping of instrumented IR into multidimensional vector with IR2Vec and dimension reduction with t-SNE (t-distributed stochastic neighbor embedding) method. The D1 cache miss ratio measured with perf stat tool is considered as performance metric. A heuristic criterion of programs having more or less cache miss ratio is given. This criterion is based on embeddings of programs in 2D-space. The instrumentation compiler’s pass developed in this work is described: how it generates and injects artificial instructions into IR within the used memory model. The software pipeline that implements the performance estimation based on LLVM compiler infrastructure is given. Computational experiments are performed on synthetic tests which are the sets of programs with the same CFGs but with different sequences of offsets used when accessing the one-dimensional array of a given size. The correlation coefficient between performance metric and distance to the worst program’s embedding is measured and proved to be negative regardless of t-SNE initialization. This fact proves the heuristic criterion to be true. The process of such synthetic tests generation is also considered. Moreover, the variety of performance metric in programs set in such a test is proposed as a metric to be improved with exploration of more tests generators.
-
Моделирование динамики макромолекулярного состава микроводорослей в накопительной культуре
Компьютерные исследования и моделирование, 2023, т. 15, № 3, с. 739-756В работе методом математического моделирования проведено исследование механизмов влияния света на скорость роста и макромолекулярный состав накопительной культуры микроводорослей. Показано, что даже при единственном лимитирующем факторе рост микроводорослей сопряжен со значительным изменением биохимического состава биомассы. Отмечено, что существующие математические модели, основанные на принципах ферментативной кинетики, не учитывают возможную смену лимитирующего фактора в процессе увеличения биомассы и не позволяют описать динамику относительного содержания ее биохимических компонентов. В качестве альтернативного подхода предложена двухкомпонентная модель, в основе которой положено предположение о двухстадийности фотоавтотрофного роста. Биомассу микроводорослей можно рассматривать в виде суммы двух макромолекулярных составляющих — структурной и резервной. Предполагается пропорциональность всех структурных компонентов биомассы, что значительно упрощает математические выкладки и верификацию модели. Предлагаемая модель представлена системой двух дифференциальных уравнений: скорость синтеза резервных составляющих биомассы определяется интенсивностью света, а структурных компонентов — потоком резервов на ключевой мультиферментный комплекс. Модель учитывает, что часть резервных компонентов расходуется на пополнение пула макроэргов. Скорости синтеза структурных и резервных форм биомассы заданы линейными сплайнами, которые позволяют учесть смену лимитирующего фактора с ростом плотности накопительной культуры. Показано, что в условиях светового лимитирования накопительную кривую необходимо разделять на несколько областей: неограниченного роста, малой концентрации клеток и оптически плотной культуры. Для каждого участка получены аналитические решения предлагаемой модели, которые выражены в элементарных функциях и позволяют оценить видоспецифические коэффициенты. Проведена верификация модели на экспериментальных данных роста биомассы и динамики относительного содержания хлорофилла $a$ накопительной культуры красной морской микроводоросли Pоrphуridium purpurеum.
Ключевые слова: математическая модель, скорость роста, биохимический состав, интенсив- ность света, линейные сплайны, коэффициент поглощения света, хлорофилл $a$.
Modeling of the macromolecular composition dynamics of microalgae batch culture
Computer Research and Modeling, 2023, v. 15, no. 3, pp. 739-756The work focuses on mathematical modeling of light influence mechanisms on macromolecular composition of microalgae batch culture. It is shown that even with a single limiting factor, the growth of microalgae is associated with a significant change in the biochemical composition of the biomass in any part of the batch curve. The well-known qualitative models of microalgae are based on concepts of enzymatic kinetics and do not take into account the possible change of the limiting factor during batch culture growth. Such models do not allow describing the dynamics of the relative content of biochemical components of cells. We proposed an alternative approach which is based on generally accepted two-stage photoautotrophic growth of microalgae. Microalgae biomass can be considered as the sum of two macromolecular components — structural and reserve. At the first stage, during photosynthesis a reserve part of biomass is formed, from which the biosynthesis of cell structures occurs at the second stage. Model also assumes the proportionality of all biomass structural components which greatly simplifies mathematical calculations and experimental data fitting. The proposed mathematical model is represented by a system of two differential equations describing the synthesis of reserve biomass compounds at the expense of light and biosynthesis of structural components from reserve ones. The model takes into account that a part of the reserve compounds is spent on replenishing the pool of macroergs. The rates of synthesis of structural and reserve forms of biomass are given by linear splines. Such approach allows us to mathematically describe the change in the limiting factor with an increase in the biomass of the enrichment culture of microalgae. It is shown that under light limitation conditions the batch curve must be divided into several areas: unlimited growth, low cell concentration and optically dense culture. The analytical solutions of the basic system of equations describing the dynamics of macromolecular biomass content made it possible to determine species-specific coefficients for various light conditions. The model was verified on the experimental data of biomass growth and dynamics of chlorophyll $a$ content of the red marine microalgae Pоrphуridium purpurеum batch culture.
-
Редуцированная математическая модель свертывания крови с учетом переключения активности тромбина как основа оценки влияния гемодинамических эффектов и ее реализация в пакете FlowVision
Компьютерные исследования и моделирование, 2023, т. 15, № 4, с. 1039-1067Рассматривается возможность численного 3D-моделирования образования тромбов.
Известные детальные математические модели формирования тромбов включают в себя большое число уравнений. Для совмещения таких подробных математических моделей с гидродинамическими кодами для моделирования роста тромбов в кровотоке необходимы значительные вычислительные ресурсы. Разумной альтернативой представляется использование редуцированных математических моделей. В настоящей работе описаны две математические модели, основанные на редуцированной математической модели производства тромбина.
Первая модель описывает рост тромбоцитарного тромба в крупном сосуде (артерии). Течения в артериях существенно нестационарные, для артерий характерны пульсовые волны. Скорость течения крови в них велика по сравнению с венозным деревом. Редуцированная модель производства тромбина и тромбообразования в артериях относительно проста. Показано, что процессы производства тромбина хорошо описываются приближением нулевого порядка.
Для вен характерны более низкие скорости, меньшие градиенты и, как следствие, меньшие значения напряжений сдвига. Для моделирования производства тромбина в венах необходимо решать более сложную систему уравнений, учитывающую все нелинейные слагаемые в правых частях.
Моделирование проводится в индустриальном программном комплексе (ПК) FlowVision.
Проведенные тестовые расчеты показали адекватность редуцированных моделей производства тромбина и тромбообразования. В частности, расчеты демонстрируют формирование зоны возвратного течения за тромбом. За счет формирования такой зоны происходит медленный рост тромба в направлении вниз по потоку. В наветренной части тромба концентрация активных тромбоцитов мала, соответственно, рост тромба в направлении вверх по потоку незначителен.
При учете изменения течения в процессе сердечного цикла рост тромба происходит гораздо медленнее, чем при задании осредненных (по сердечному циклу) условий. Тромбин и активированные тромбоциты, наработанные во время диастолы, быстро уносятся потоком крови во время систолы. Заметный эффект оказывает учет неньютоновской реологии крови.
Ключевые слова: гемодинамика, тромб, тромбин, тромбоцит, фибрин, артерия, вена, численное моделирование, вычислительная гидродинамика (ВГД), уравнения Навье – Стокса, уравнения «реакция – диффузия – конвекция», неньютоновская жидкость, метод конечных объемов.
Reduced mathematical model of blood coagulation taking into account thrombin activity switching as a basis for estimation of hemodynamic effects and its implementation in FlowVision package
Computer Research and Modeling, 2023, v. 15, no. 4, pp. 1039-1067The possibility of numerical 3D simulation of thrombi formation is considered.
The developed up to now detailed mathematical models describing formation of thrombi and clots include a great number of equations. Being implemented in a CFD code, the detailed mathematical models require essential computer resources for simulation of the thrombi growth in a blood flow. A reasonable alternative way is using reduced mathematical models. Two models based on the reduced mathematical model for the thrombin generation are described in the given paper.
The first model describes growth of a thrombus in a great vessel (artery). The artery flows are essentially unsteady. They are characterized by pulse waves. The blood velocity here is high compared to that in the vein tree. The reduced model for the thrombin generation and the thrombus growth in an artery is relatively simple. The processes accompanying the thrombin generation in arteries are well described by the zero-order approximation.
A vein flow is characterized lower velocity value, lower gradients, and lower shear stresses. In order to simulate the thrombin generation in veins, a more complex system of equations has to be solved. The model must allow for all the non-linear terms in the right-hand sides of the equations.
The simulation is carried out in the industrial software FlowVision.
The performed numerical investigations have shown the suitability of the reduced models for simulation of thrombin generation and thrombus growth. The calculations demonstrate formation of the recirculation zone behind a thrombus. The concentration of thrombin and the mass fraction of activated platelets are maximum here. Formation of such a zone causes slow growth of the thrombus downstream. At the upwind part of the thrombus, the concentration of activated platelets is low, and the upstream thrombus growth is negligible.
When the blood flow variation during a hart cycle is taken into account, the thrombus growth proceeds substantially slower compared to the results obtained under the assumption of constant (averaged over a hard cycle) conditions. Thrombin and activated platelets produced during diastole are quickly carried away by the blood flow during systole. Account of non-Newtonian rheology of blood noticeably affects the results.
-
Модель управления потреблением воды в регионах с малой водообеспеченностью
Компьютерные исследования и моделирование, 2023, т. 15, № 5, с. 1395-1410В статье рассматривается проблема рационального использования водных ресурсов на уровне региона. Приводится обзор существующих методов контроля качества и количества водных ресурсов на различных уровнях — от отдельных домохозяйств до мирового. В самой работе проблема рассматривается для регионов России с малой водообеспеченностью — количеством воды на человека в год. Особое внимание уделяется регионам, в которых данный показатель мал из-за природных особенностей региона, а не большого числа жителей. В таких регионах много ресурсов выделяется на различную водную инфраструктуру, в том числе водохранилища, переброску воды из соседних регионов. При этом основными потребителями воды являются промышленность и сельское хозяйство. В работе представлена динамическая двухуровневая модель, сопоставляющая потребление регионом воды и объем производства в регионе (валовый региональный продукт, ВРП). На верхнем уровне модели находится администрация региона (центр), назначающая плату за использование воды, а на нижнем — предприятия региона (агенты). Проведены аналитическое исследование и идентификация модели. Аналитическое исследование позволяет с помощью принципа максимума Понтрягина найти оптимальные управления агентов. Идентификация модели позволяет, используя статистические данные для региона, определить коэффициенты модели таким образом, чтобы она соответствовала данному региону. Для идентификации модели используются данные Росстата. Далее следует численное исследование модели для конкретных регионов с использованием алгоритма trust region reflective.
Для ряда регионов РФ с низким уровнем водообеспеченности приведены результаты идентификации модели на основе данных Росстата, а также возможные значения ВРП и потребления воды в зависимости от выбранной стратегии центра. Для многих регионов расчеты показывают возможность существенного (>20%) сокращения потребления воды при некотором сокращении производства (≈10%).
Приведенная в работе модель позволяет рассчитывать размер дополнительной платы за использование воды для достижения оптимального соотношения экономических и экологических последствий.
Water consumption control model for regions with low water availability
Computer Research and Modeling, 2023, v. 15, no. 5, pp. 1395-1410This paper considers the problem of water consumption in the regions of Russia with low water availability. We provide a review of the existing methods to control quality and quantity of water resources at different scales — from households to worldwide. The paper itself considers regions with low “water availability” parameter which is amount of water per person per year. Special attention is paid to the regions, where this parameter is low because of natural features of the region, not because of high population. In such regions many resources are spend on water processing infrastructure to store water and transport water from other regions. In such regions the main water consumers are industry and agriculture.
We propose dynamic two-level hierarchical model which matches water consumption of a region with its gross regional product. On the top level there is a regional administration (supervisor) and on the lower level there are region enterprises (agents). The supervisor sets fees for water consumption. We study the model with Pontryagin’s maximum principle and provide agents’s optimal control in analytical form. For the supervisor’s control we provide numerical algorithm. The model has six free coefficients, which can be chosen so the model represents a particular region. We use data from Russia Federal State Statistics Service for identification process of a model. For numerical analysis we use trust region reflective algorithms. We provide calculations for a few regions with low water availability. It is shown that it is possible to reduce water consumption of a region more than by 20% while gross regional product drop is less than 10%.
-
Решение задачи оптимизации схемы размещения производства древесных видов топлива по критерию себестоимости тепловой энергии
Компьютерные исследования и моделирование, 2012, т. 4, № 3, с. 651-659Представлена математическая модель задачи оптимального размещения предприятий по производству топлива из возобновляемых древесных отходов для обеспечения распределенной системы теплоснабжения региона. Оптимизация осуществляется исходя из минимизации совокупных затрат на производство конечного продукта – тепловой энергии на основе древесного топлива. Предложен метод решения задачи с использованием генетического алгоритма. Приведены практические результаты применения модели на примере Удмуртской Республики.
Ключевые слова: размещение производства, математическая модель, оптимизация, древесное топливо, тепловая энергия, генетический алгоритм.
Solution of optimization problem of wood fuel facility location by the thermal energy cost criterion
Computer Research and Modeling, 2012, v. 4, no. 3, pp. 651-659Views (last year): 5. Citations: 2 (RSCI).The paper contains a mathematical model for the optimal location of enterprises producing fuel from renewable wood waste for the regional distributed heating supply system. Optimization is based on total cost minimization of the end product – the thermal energy from wood fuel. A method for solving the problem is based on genetic algorithm. The paper also shows the practical results of the model by example of Udmurt Republic.
Indexed in Scopus
Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU
The journal is included in the Russian Science Citation Index
The journal is included in the RSCI
International Interdisciplinary Conference "Mathematics. Computing. Education"