All issues
- 2025 Vol. 17
- 2024 Vol. 16
- 2023 Vol. 15
- 2022 Vol. 14
- 2021 Vol. 13
- 2020 Vol. 12
- 2019 Vol. 11
- 2018 Vol. 10
- 2017 Vol. 9
- 2016 Vol. 8
- 2015 Vol. 7
- 2014 Vol. 6
- 2013 Vol. 5
- 2012 Vol. 4
- 2011 Vol. 3
- 2010 Vol. 2
- 2009 Vol. 1
-
Молекулярно-динамические исследования равновесных конфигураций одноименно заряженных частиц в планарных системах с круговой симметрией
Компьютерные исследования и моделирование, 2022, т. 14, № 3, с. 609-618В данной работе представлены результаты численного анализа равновесных конфигураций отрицательно заряженных частиц (электронов), запертых в круговой области бесконечным внешним потенциалом на ее границе. Для поиска устойчивых конфигураций с минимальной энергией авторами разработан гибридный вычислительный алгоритм. Основой алгоритма являются интерполяционные формулы, полученные из анализа равновесных конфигураций, полученных с помощью вариационного принципа минимума энергии для произвольного, но конечного числа частиц в циркулярной модели. Решения нелинейных уравнений данной модели предсказывают формирование оболочечной структуры в виде колец (оболочек), заполненных электронами, число которых уменьшается при переходе от внешнего кольца к внутренним. Число колец зависит от полного числа заряженных частиц. Полученные интерполяционные формулы распределения полного числа электронов по кольцам используются в качестве начальных конфигураций для метода молекулярной динамики. Данный подход позволяет значительно повысить скорость достижения равновесной конфигурации для произвольно выбранного числа частиц по сравнению с алгоритмом имитации отжига Метрополиса и другими алгоритмами, основанными на методах глобальной оптимизации.
Molecular dynamics studies of equilibrium configurations of equally charged particles in planar systems with circular symmetry
Computer Research and Modeling, 2022, v. 14, no. 3, pp. 609-618The equilibrium configurations of charged electrons, confined in the hard disk potential, are analysed by means of the hybrid numerical algorithm. The algorithm is based on the interpolation formulas, that are obtained from the analysis of the equilibrium configurations, provided by the variational principle developed in the circular model. The solution of the nonlinear equations of the circular model yields the formation of the shell structure which is composed of the series of rings. Each ring contains a certain number of particles, which decreases as one moves from the boundary ring to the central one. The number of rings depends on the total number of electrons. The interpolation formulas provide the initial configurations for the molecular dynamics calculations. This approach makes it possible to significantly increase the speed at which an equilibrium configuration is reached for an arbitrarily chosen number of particles compared to the Metropolis annealing simulation algorithm and other algorithms based on global optimization methods.
-
Моделирование процессов осесимметричного деформирования с учетом микроструктуры металла
Компьютерные исследования и моделирование, 2015, т. 7, № 4, с. 897-908В статье описано современное состояние вопроса компьютерного моделирования процессов обработки металлов давлением, выделены основные проблемные моменты традиционных методов. Описан метод, позволяющий прогнозировать распределение деформации в объеме деформируемого металла с учетом поведенческих особенностей микроструктуры под воздействием деформационной нагрузки. Представлен способ оптимизации ресурсоемкости мультимасштабных моделей посредством использования статистически эквивалентного репрезентативного объема (SSRVE) микроструктуры. Разработанные методы моделирования апробированы на процессе однократного волочения прутка круглого сечения из стали марки 20. В ходе сравнительного анализа моделей макро- и микроуровней были выявлены различия в количественных показателях напряженно-деформированного состояния (НДС) и их локальном распределении по объему. Микроуровневая модель также позволила обнаружить отсутствующие на макроуровне сжимающие напряжения. Применение концепции SSRVE многократно снизило расчетное время модели при сохранении общей точности.
Ключевые слова: мультимасштабное моделирование, волочение, статистически эквивалентный репрезентативный объем, микроструктура, напряженно-деформированное состояние.
Modeling of axisymmetric deformation processes with taking into account the metal microstructure
Computer Research and Modeling, 2015, v. 7, no. 4, pp. 897-908Views (last year): 9. Citations: 1 (RSCI).The article describes the state of the art computer simulation in the field of metal forming processes, the main problem points of traditional methods were identified. The method, that allows to predict the deformation distribution in the volume of deformable metal with taking into account of microstructure behavioral characteristics in deformation load conditions, was described. The method for optimizing computational resources of multiscale models by using statistical similar representative volume elements (SSRVE) was presented. The modeling methods were tested on the process of single pass drawing of round rod from steel grade 20. In a comparative analysis of macro and micro levels models differences in quantitative terms of the stress-strain state and their local distribution have been identified. Microlevel model also allowed to detect the compressive stresses and strains, which were absent at the macro level model. Applying the SSRVE concept repeatedly lowered the calculation time of the model while maintaining the overall accuracy.
-
Численное моделирование горения этилена в сверхзвуковом потоке воздуха
Компьютерные исследования и моделирование, 2017, т. 9, № 1, с. 75-86В представленной работе обсуждается возможность упрощенного трехмерного нестационарного моделирования процесса плазменно-стимулированного горения газообразного топлива в сверхзвуковом потоке воздуха. Расчеты проводились в программном комплексе FlowVision. В работе выполнен анализ геометрии эксперимента и сделан вывод о ее существенной трехмерности, связанной как с дискретностью подачи топлива в поток, так и с наличием локализованных плазменных образований. Предложен вариант упрощения расчетной геометрии, основанный на симметрии аэродинамического канала и периодичности пространственных неоднородностей. Выполнено тестирование модифицированной $k–\varepsilon$ модели турбулентности FlowVision (KEFV) в условиях сверхзвукового потока. В этих расчетах в области источников тепла и инжекции топлива использовалась подробная сетка без пристеночных функций, а на удаленных от ключевой области поверхностях пристеночные функции были включены. Это позволило существенно уменьшить количество ячеек расчетной сетки. Сложная задача моделирования воспламенения углеводородного топлива при воздействии плазмы была существенно упрощена путем представления плазменных образований как источников тепла и использования одной брутто-реакции для описания горения топлива. На базе геометрии аэродинамического стенда ИАДТ-50 ОИВТ РАН с помощью моделирования в программном комплексе ПК FlowVision проведены калибровка и параметрическая оптимизация подачи газообразного топлива в сверхзвуковой поток. Продемонстрировано хорошее совпадение экспериментальной и синтетической теневой картины потока при инжекции топлива. Проведено моделирование потока для геометрии камеры сгорания Т131 ЦАГИ с инжекцией топлива и генерацией плазмы. В результате моделирования для заданного набора параметров продемонстрировано воспламенение топлива, что совпало с результатами эксперимента. Отмечена важность адаптации расчетной сетки с повышением пространственного разрешения в области объемных источников тепла, моделирующих зону электрического разряда. Достигнуто удовлетворительное качественное совпадение распределений давления, полученных в моделировании и эксперименте.
Ключевые слова: горение в сверхзвуковом потоке, компьютерное моделирование, разряд постоянного тока, плазменно-стимулированное горение.
Numerical simulation of ethylene combustion in supersonic air flow
Computer Research and Modeling, 2017, v. 9, no. 1, pp. 75-86Views (last year): 8. Citations: 3 (RSCI).In the present paper, we discuss the possibility of a simplified three-dimensional unsteady simulation of plasma-assisted combustion of gaseous fuel in a supersonic airflow. Simulation was performed by using FlowVision CFD software. Analysis of experimental geometry show that it has essentially 3D nature that conditioned by the discrete fuel injection into the flow as well as by the presence of the localized plasma filaments. Study proposes a variant of modeling geometry simplification based on symmetry of the aerodynamic duct and periodicity of the spatial inhomogeneities. Testing of modified FlowVision $k–\varepsilon$ turbulence model named «KEFV» was performed for supersonic flow conditions. Based on that detailed grid without wall functions was used the field of heat and near fuel injection area and surfaces remote from the key area was modeled with using of wall functions, that allowed us to significantly reduce the number of cells of the computational grid. Two steps significantly simplified a complex problem of the hydrocarbon fuel ignition by means of plasma generation. First, plasma formations were simulated by volumetric heat sources and secondly, fuel combustion is reduced to one brutto reaction. Calibration and parametric optimization of the fuel injection into the supersonic flow for IADT-50 JIHT RAS wind tunnel is made by means of simulation using FlowVision CFD software. Study demonstrates a rather good agreement between the experimental schlieren photo of the flow with fuel injection and synthetical one. Modeling of the flow with fuel injection and plasma generation for the facility T131 TSAGI combustion chamber geometry demonstrates a combustion mode for the set of experimental parameters. Study emphasizes the importance of the computational mesh adaptation and spatial resolution increasing for the volumetric heat sources that model electric discharge area. A reasonable qualitative agreement between experimental pressure distribution and modeling one confirms the possibility of limited application of such simplified modeling for the combustion in high-speed flow.
-
Системное моделирование, оценка и оптимизация рисков функционирования распределенных компьютерных систем
Компьютерные исследования и моделирование, 2020, т. 12, № 6, с. 1349-1359В статье рассматривается проблема надежности эксплуатации открытой интеграционной платформы, обеспечивающей взаимодействие различных программных комплексов моделирования режимов транспорта газа, с учетом предоставления доступа к ним, в том числе через тонких клиентов, по принципу «программное обеспечение как услуга». Математически описаны функционирование, надежность хранения, передачи информации и реализуемость вычислительного процесса системы, что является необходимым для обеспечения работы автоматизированной системы диспетчерского управления транспортом нефти и газа. Представлено системное решение вопросов моделирования работы интеграционной платформы и тонких клиентов в условиях неопределенности и риска на базе метода динамики средних теории марковских случайных процессов. Рассматривается стадия стабильной работы — стационарный режим работы цепи Маркова с непрерывным временем и дискретными состояниями, которая описывается системами линейных алгебраический уравнений Колмогорова–Чепмена, записанных относительно средних численностей (математических ожиданий) состояний объектов исследования. Объектами исследования являются как элементы системы, присутствующие в большом количестве (тонкие клиенты и вычислительные модули), так и единичные (сервер, сетевой менеджер (брокер сообщений), менеджер технологических схем). В совокупности они представляют собой взаимодействующие Марковские случайные процессы, взаимодействие которых определяется тем, что интенсивности переходов в одной группе элементов зависят от средних численностей других групп элементов.
Через средние численности состояний объектов и интенсивностей их переходов из состояния в состояние предлагается многокритериальная дисперсионная модель оценки риска (как в широком, так и узком смысле, в соответствии со стандартом МЭК). Риск реализации каждого состояния параметров системы вычисляется как среднеквадратическое отклонение оцениваемого параметра системы объектов (в данном случае — средние численности и вероятности состояний элементов открытой интеграционной платформы и облака) от их среднего значения. На основании определенной дисперсионной модели риска функционирования элементов системы вводятся модели критериев оптимальности и рисков функционирования системы в целом. В частности, для тонкого клиента рассчитываются риск недополучения выгоды от подготовки и обработки запроса, суммарный риск потерь, связанный только с непроизводительными состояниями элемента, суммарный риск всех потерь от всех состояний системы. Для полученной многокритериальной задачи оценки рисков предлагаются модели (схемы компромисса) выбора оптимальной стратегии эксплуатации.
Ключевые слова: многокритериальная оценка, риск, стратегия эксплуатации, динамика средних, стационарный режим цепи Маркова, облачные технологии, открытая интеграционная платформа.
System modeling, risks evaluation and optimization of a distributed computer system
Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1349-1359The article deals with the problem of a distributed system operation reliability. The system core is an open integration platform that provides interaction of varied software for modeling gas transportation. Some of them provide an access through thin clients on the cloud technology “software as a service”. Mathematical models of operation, transmission and computing are to ensure the operation of an automated dispatching system for oil and gas transportation. The paper presents a system solution based on the theory of Markov random processes and considers the stable operation stage. The stationary operation mode of the Markov chain with continuous time and discrete states is described by a system of Chapman–Kolmogorov equations with respect to the average numbers (mathematical expectations) of the objects in certain states. The objects of research are both system elements that are present in a large number – thin clients and computing modules, and individual ones – a server, a network manager (message broker). Together, they are interacting Markov random processes. The interaction is determined by the fact that the transition probabilities in one group of elements depend on the average numbers of other elements groups.
The authors propose a multi-criteria dispersion model of risk assessment for such systems (both in the broad and narrow sense, in accordance with the IEC standard). The risk is the standard deviation of estimated object parameter from its average value. The dispersion risk model makes possible to define optimality criteria and whole system functioning risks. In particular, for a thin client, the following is calculated: the loss profit risk, the total risk of losses due to non-productive element states, and the total risk of all system states losses.
Finally the paper proposes compromise schemes for solving the multi-criteria problem of choosing the optimal operation strategy based on the selected set of compromise criteria.
-
Облачная интерпретация энтропийной модели расчета матрицы корреспонденций
Компьютерные исследования и моделирование, 2024, т. 16, № 1, с. 89-103С ростом населения городов сильнее ощущается необходимость планирования развития транспортной инфраструктуры. Для этой цели создаются пакеты транспортного моделирования, которые обычно содержат набор задач выпуклой оптимизации, итеративное решение которых приводит к искомому равновесному распределению потоков по путям. Одно из направлений развития транспортного моделирования — это построение более точных обобщенных моделей, которые учитывают различные типы пассажиров, их цели поездок, а также специфику личных и общественных средств передвижения, которыми могут воспользоваться агенты. Другим не менее важным направлением является улучшение эффективности производимых вычислений, так как в связи с большой размерностью современных транспортных сетей поиск численного решения задачи равновесного распределения потоков по путям является довольно затратным. Итеративность всего процесса решения лишь усугубляет это. Одним из подходов, ведущим к уменьшению числа производимых вычислений, и является построение согласованных моделей, которые позволяют объединить блоки 4-стадийной модели в единую задачу оптимизации. Это позволяет исключить итеративную прогонку блоков, перейдя от решения отдельной задачи оптимизации на каждом этапе к некоторой общей задаче. В ранних работах было доказано, что такие подходы дают эквивалентные решения. Тем не менее стоит рассмотреть обоснованность и интерпретируемость этих методов. Целью данной статьи является обоснование единой задачи, объединяющей в себе как расчет матрицы корреспонденций, так и модальный выбор, для обобщенного случая, когда в транспортной сети присутствуют различные слои спроса, типы агентов и классы транспортных средств. В статье приводятся возможные интерпретации для калибровочных параметров, применяемых в задаче, а также для двойственных множителей, ассоциированных с балансовыми ограничениями. Авторы статьи также показывают возможность объединения рассматриваемой задачи с блоком определения загрузки сети в единую задачу оптимизации.
Ключевые слова: мультиномиальный логит, модель дискретного выбора, модальный выбор, энтропийная модель.
Cloud interpretation of the entropy model for calculating the trip matrix
Computer Research and Modeling, 2024, v. 16, no. 1, pp. 89-103As the population of cities grows, the need to plan for the development of transport infrastructure becomes more acute. For this purpose, transport modeling packages are created. These packages usually contain a set of convex optimization problems, the iterative solution of which leads to the desired equilibrium distribution of flows along the paths. One of the directions for the development of transport modeling is the construction of more accurate generalized models that take into account different types of passengers, their travel purposes, as well as the specifics of personal and public modes of transport that agents can use. Another important direction of transport models development is to improve the efficiency of the calculations performed. Since, due to the large dimension of modern transport networks, the search for a numerical solution to the problem of equilibrium distribution of flows along the paths is quite expensive. The iterative nature of the entire solution process only makes this worse. One of the approaches leading to a reduction in the number of calculations performed is the construction of consistent models that allow to combine the blocks of a 4-stage model into a single optimization problem. This makes it possible to eliminate the iterative running of blocks, moving from solving a separate optimization problem at each stage to some general problem. Early work has proven that such approaches provide equivalent solutions. However, it is worth considering the validity and interpretability of these methods. The purpose of this article is to substantiate a single problem, that combines both the calculation of the trip matrix and the modal choice, for the generalized case when there are different layers of demand, types of agents and classes of vehicles in the transport network. The article provides possible interpretations for the gauge parameters used in the problem, as well as for the dual factors associated with the balance constraints. The authors of the article also show the possibility of combining the considered problem with a block for determining network load into a single optimization problem.
-
Обоснование связи модели Бэкмана с вырождающимися функциями затрат с моделью стабильной динамики
Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 335-342С 50-х годов XX века транспортное моделирование крупных мегаполисов стало усиленно развиваться. Появились первые модели равновесного распределения потоков по путям. Наиболее популярной (и использующейся до сих пор) моделью была модель Бэкмана и др. 1955 г. В основу этой модели положены два принципа Вардропа. На современном теоретико-игровом языке можно кратко описать суть модели как поиск равновесия Нэша в популяционной игре загрузки, в которой потери игроков (водителей) рассчитываются исходя из выбранного пути и загрузках на этом пути, при фиксированных корреспонденциях. Загрузки (затраты) на пути рассчитываются как сумма затрат на различных участках дороги (ребрах графа транспортной сети). Затраты на ребре (время проезда по ребру) определяется величиной потока автомобилей на этом ребре. Поток на ребре, в свою очередь, определяется суммой потоков по всем путям, проходящим через заданное ребро. Таким образом, затраты на проезд по пути определяются не только выбором пути, но и тем, какие пути выбрали остальные водители. Таким образом, мы находимся в стандартной теоретико-игровой постановке. Специфика формирования функций затрат позволяет сводить поиск равновесия к решению задачи оптимизации (игра потенциальная). Эта задача оптимизации будет выпуклой, если функции затрат монотонно неубывающие. Собственно, различные предположения о функциях затрат формируют различные модели. Наиболее популярной моделью является модель с функцией затрат BPR. Такие функции используются при расчетах реальных городов повсеместно. Однако в начале XXI века Ю. Е. Нестеровым и А. де Пальмой было показано, что модели типа Бэкмана имеют серьезные недостатки. Эти недостатки можно исправить, используя модель, которую авторы назвали моделью стабильной динамики. Поиск равновесия в такой модели также сводится к задаче оптимизации. Точнее, даже задаче линейного программирования. В 2013 г. А. В. Гасниковым было обнаружено, что модель стабильной ди- намики может быть получена предельным переходом, связанным с поведением функции затрат, из модели Бэкмана. Однако обоснование упомянутого предельного перехода было сделано в нескольких важных (для практики), но все- таки частных случаях. В общем случае вопрос о возможности такого предельного перехода, насколько нам известно, остается открытым. Данная работа закрывает данный зазор. В статье в общем случае приводится обоснование возможности отмеченного предельного перехода (когда функция затрат на проезд по ребру как функция потока по ребру вырождается в функцию, равную постоянным затратам до достижения пропускной способности, и равна плюс бесконечности, при превышении пропускной способности).
Ключевые слова: модель равновесного распределения потоков по путям, модель Бэкмана, модель стабильной динамики.
Proof of the connection between the Backman model with degenerate cost functions and the model of stable dynamics
Computer Research and Modeling, 2022, v. 14, no. 2, pp. 335-342Since 1950s the field of city transport modelling has progressed rapidly. The first equilibrium distribution models of traffic flow appeared. The most popular model (which is still being widely used) was the Beckmann model, based on the two Wardrop principles. The core of the model could be briefly described as the search for the Nash equilibrium in a population demand game, in which losses of agents (drivers) are calculated based on the chosen path and demands of this path with correspondences being fixed. The demands (costs) of a path are calculated as the sum of the demands of different path segments (graph edges), that are included in the path. The costs of an edge (edge travel time) are determined by the amount of traffic on this edge (more traffic means larger travel time). The flow on a graph edge is determined by the sum of flows over all paths passing through the given edge. Thus, the cost of traveling along a path is determined not only by the choice of the path, but also by the paths other drivers have chosen. Thus, it is a standard game theory task. The way cost functions are constructed allows us to narrow the search for equilibrium to solving an optimization problem (game is potential in this case). If the cost functions are monotone and non-decreasing, the optimization problem is convex. Actually, different assumptions about the cost functions form different models. The most popular model is based on the BPR cost function. Such functions are massively used in calculations of real cities. However, in the beginning of the XXI century, Yu. E. Nesterov and A. de Palma showed that Beckmann-type models have serious weak points. Those could be fixed using the stable dynamics model, as it was called by the authors. The search for equilibrium here could be also reduced to an optimization problem, moreover, the problem of linear programming. In 2013, A.V.Gasnikov discovered that the stable dynamics model can be obtained by a passage to the limit in the Beckmann model. However, it was made only for several practically important, but still special cases. Generally, the question if this passage to the limit is possible remains open. In this paper, we provide the justification of the possibility of the above-mentioned passage to the limit in the general case, when the cost function for traveling along the edge as a function of the flow along the edge degenerates into a function equal to fixed costs until the capacity is reached and it is equal to plus infinity when the capacity is exceeded.
-
Оптимизация размера классификатора при сегментации трехмерных точечных образов древесной растительности
Компьютерные исследования и моделирование, 2025, т. 17, № 4, с. 665-675Появление технологий лазерного сканирования произвело настоящую революцию в лесном хозяйстве. Их использование позволило перейти от изучения лесных массивов с помощью ручных измерений к компьютерному анализу точечных стереоизображений, называемых облаками точек.
Автоматическое вычисление некоторых параметров деревьев (таких как диаметр ствола) по облаку точек требует удаления точек листвы. Для выполнения этой операции необходима предварительная сегментация стереоизображения на классы «листва» и «ствол». Решение этой задачи зачастую включает использование методов машинного обучения.
Одним из самых популярных классификаторов, используемых для сегментации стереоизображений деревьев, является случайный лес. Этот классификатор достаточно требователен к объему памяти. В то же время размер модели машинного обучения может быть критичным при необходимости ее пересылки, что требуется, например, при выполнении распределенного обучения. В данной работе ставится цель найти классификатор, который был бы менее требовательным по памяти, но при этом имел бы сравнимую точность сегментации. Поиск выполняется среди таких классификаторов, как логистическая регрессия, наивный байесовский классификатор и решающее дерево. Кроме того, исследуется способ уточнения сегментации, выполненной решающим деревом, с помощью логистической регрессии.
Эксперименты проводились на данных из коллекции университета Гейдельберга. Было показано, что классификация с помощью решающего дерева, корректируемая с помощью логистической регрессии, способна давать результат, лишь немного проигрывающий результату случайного леса по точности, затрачивая при этом меньше времени и оперативной памяти. Разница в сбалансированной точности составляет не более процента на всех рассмотренных облаках, при этом суммарный размер и время предсказания классификаторов решающего дерева и логистической регрессии на порядок меньше, чем у случайного леса.
Classifier size optimisation in segmentation of three-dimensional point images of wood vegetation
Computer Research and Modeling, 2025, v. 17, no. 4, pp. 665-675The advent of laser scanning technologies has revolutionized forestry. Their use made it possible to switch from studying woodlands using manual measurements to computer analysis of stereo point images called point clouds.
Automatic calculation of some tree parameters (such as trunk diameter) using a point cloud requires the removal of foliage points. To perform this operation, a preliminary segmentation of the stereo image into the “foliage” and “trunk” classes is required. The solution to this problem often involves the use of machine learning methods.
One of the most popular classifiers used for segmentation of stereo images of trees is a random forest. This classifier is quite demanding on the amount of memory. At the same time, the size of the machine learning model can be critical if it needs to be sent by wire, which is required, for example, when performing distributed learning. In this paper, the goal is to find a classifier that would be less demanding in terms of memory, but at the same time would have comparable segmentation accuracy. The search is performed among classifiers such as logistic regression, naive Bayes classifier, and decision tree. In addition, a method for segmentation refinement performed by a decision tree using logistic regression is being investigated.
The experiments were conducted on data from the collection of the University of Heidelberg. The collection contains hand-marked stereo images of trees of various species, both coniferous and deciduous, typical of the forests of Central Europe.
It has been shown that classification using a decision tree, adjusted using logistic regression, is able to produce a result that is only slightly inferior to the result of a random forest in accuracy, while spending less time and RAM. The difference in balanced accuracy is no more than one percent on all the clouds considered, while the total size and inference time of the decision tree and logistic regression classifiers is an order of magnitude smaller than of the random forest classifier.
-
Снижение частоты промахов в неинклюзивный кэш с инклюзивным справочником многоядерного процессора
Компьютерные исследования и моделирование, 2023, т. 15, № 3, с. 639-656Хотя эпоха экспоненциального роста производительности компьютерных микросхем закончилась, даже настольные процессоры общего назначения сегодня имеют 16 и больше ядер. Поскольку пропускная способность памяти DRAM растет не с такой скоростью, как вычислительная мощность ядер, разработчики процессоров должны искать пути уменьшения частоты обменов с памятью на одну инструкцию. Непосредственным путем к этому является снижение частоты промахов в кэш последнего уровня. Предполагая уже реализованной схему «неинклюзивный кэш с инклюзивным справочником» (NCID), три способа дальнейшего снижения частоты промахов были исследованы.
Первый способ — это достижение более равномерного использования банков и наборов кэша применением хэш-функций для интерливинга и индексирования. В экспериментах в тестах SPEC CPU2017 refrate, даже простейшие хэш-функции на основе XOR показали увеличение производительности на 3,2%, 9,1% и 8,2% в конфигурациях процессора с 16, 32 и 64 ядрами и банками общего кэша, сравнимое с результатами для более сложных функций на основе матриц, деления и CRC.
Вторая оптимизация нацелена на уменьшение дублирования на разных уровнях кэшей путем автоматического переключения на эксклюзивную схему, когда она выглядит оптимальной. Известная схема этого типа, FLEXclusion, была модифицирована для использования в NCID-кэшах и показала улучшение производительности в среднемна 3,8%, 5,4% и 7,9% для 16-, 32- и 64-ядерных конфигураций.
Третьей оптимизацией является увеличение фактической емкости кэша использованием компрессии. Частота сжатия недорогим и быстрыма лгоритмом B DI*-HL (Base-Delta-Immediate Modified, Half-Line), разработанным для NCID, была измерена, и соответствующее увеличение емкости кэша дало около 1% среднего повышения производительности.
Все три оптимизации могут сочетаться и продемонстрировали прирост производительности в 7,7%, 16% и 19% для конфигураций с 16, 32 и 64 ядрами и банками соответственно.
Ключевые слова: многоядерный процессор, подсистема памяти, распределенный общий кэш, NCID, хэш-функции на основе XOR, компрессия данных.
Reducing miss rate in a non-inclusive cache with inclusive directory of a chip multiprocessor
Computer Research and Modeling, 2023, v. 15, no. 3, pp. 639-656Although the era of exponential performance growth in computer chips has ended, processor core numbers have reached 16 or more even in general-purpose desktop CPUs. As DRAM throughput is unable to keep pace with this computing power growth, CPU designers need to find ways of lowering memory traffic per instruction. The straightforward way to do this is to reduce the miss rate of the last-level cache. Assuming “non-inclusive cache, inclusive directory” (NCID) scheme already implemented, three ways of reducing the cache miss rate further were studied.
The first is to achieve more uniform usage of cache banks and sets by employing hash-based interleaving and indexing. In the experiments in SPEC CPU2017 refrate tests, even the simplest XOR-based hash functions demonstrated a performance increase of 3.2%, 9.1%, and 8.2% for CPU configurations with 16, 32, and 64 cores and last-level cache banks, comparable to the results of more complex matrix-, division- and CRC-based functions.
The second optimisation is aimed at reducing replication at different cache levels by means of automatically switching to the exclusive scheme when it appears optimal. A known scheme of this type, FLEXclusion, was modified for use in NCID caches and showed an average performance gain of 3.8%, 5.4 %, and 7.9% for 16-, 32-, and 64-core configurations.
The third optimisation is to increase the effective cache capacity using compression. The compression rate of the inexpensive and fast BDI*-HL (Base-Delta-Immediate Modified, Half-Line) algorithm, designed for NCID, was measured, and the respective increase in cache capacity yielded roughly 1% of the average performance increase.
All three optimisations can be combined and demonstrated a performance gain of 7.7%, 16% and 19% for CPU configurations with 16, 32, and 64 cores and banks, respectively.
-
Сравнение оценок онлайн- и офлайн-подходов для седловой задачи в билинейной форме
Компьютерные исследования и моделирование, 2023, т. 15, № 2, с. 381-391Стохастическая оптимизация является актуальным направлением исследования в связи со значительными успехами в области машинного обучения и их применениями для решения повседневных задач. В данной работе рассматриваются два принципиально различных метода решения задачи стохастической оптимизации — онлайн- и офлайн-алгоритмы. Соответствующие алгоритмы имеют свои качественные преимущества перед друг другом. Так, для офлайн-алгоритмов требуется решать вспомогательную задачу с высокой точностью. Однако это можно делать распределенно, и это открывает принципиальные возможности, как, например, построение двойственной задачи. Несмотря на это, и онлайн-, и офлайн-алгоритмы преследуют общую цель — решение задачи стохастической оптимизации с заданной точностью. Это находит отражение в сравнении вычислительной сложности описанных алгоритмов, что демонстрируется в данной работе.
Сравнение описанных методов проводится для двух типов стохастических задач — выпуклой оптимизации и седел. Для задач стохастической выпуклой оптимизации существующие решения позволяют довольно подробно сравнить онлайн- и офлайн-алгоритмы. В частности, для сильно выпуклых задач вычислительная сложность алгоритмов одинаковая, причем условие сильной выпуклости может быть ослаблено до условия $\gamma$-роста целевой функции. С этой точки зрения седловые задачи являются гораздо менее изученными. Тем не менее существующие решения позволяют наметить основные направления исследования. Так, значительные продвижения сделаны для билинейных седловых задач с помощью онлайн-алгоритмов. Оффлайн-алгоритмы представлены всего одним исследованием. В данной работе на этом примере демонстрируется аналогичная с выпуклой оптимизацией схожесть обоих алгоритмов. Также был проработан вопрос точности решения вспомогательной задачи для седел. С другой стороны, седловая задача стохастической оптимизации обобщает выпуклую, то есть является ее логичным продолжением. Это проявляется в том, что существующие результаты из выпуклой оптимизации можно перенести на седла. В данной работе такой перенос осуществляется для результатов онлайн-алгоритма в выпуклом случае, когда целевая функция удовлетворяет условию $\gamma$-роста.
Ключевые слова: стохастическая оптимизация, выпуклая оптимизация, выпукло-вогнутая оптимизация, острый минимум, условие квадратичного роста.
Comparsion of stochastic approximation and sample average approximation for saddle point problem with bilinear coupling term
Computer Research and Modeling, 2023, v. 15, no. 2, pp. 381-391Stochastic optimization is a current area of research due to significant advances in machine learning and their applications to everyday problems. In this paper, we consider two fundamentally different methods for solving the problem of stochastic optimization — online and offline algorithms. The corresponding algorithms have their qualitative advantages over each other. So, for offline algorithms, it is required to solve an auxiliary problem with high accuracy. However, this can be done in a distributed manner, and this opens up fundamental possibilities such as, for example, the construction of a dual problem. Despite this, both online and offline algorithms pursue a common goal — solving the stochastic optimization problem with a given accuracy. This is reflected in the comparison of the computational complexity of the described algorithms, which is demonstrated in this paper.
The comparison of the described methods is carried out for two types of stochastic problems — convex optimization and saddles. For problems of stochastic convex optimization, the existing solutions make it possible to compare online and offline algorithms in some detail. In particular, for strongly convex problems, the computational complexity of the algorithms is the same, and the condition of strong convexity can be weakened to the condition of $\gamma$-growth of the objective function. From this point of view, saddle point problems are much less studied. Nevertheless, existing solutions allow us to outline the main directions of research. Thus, significant progress has been made for bilinear saddle point problems using online algorithms. Offline algorithms are represented by just one study. In this paper, this example demonstrates the similarity of both algorithms with convex optimization. The issue of the accuracy of solving the auxiliary problem for saddles was also worked out. On the other hand, the saddle point problem of stochastic optimization generalizes the convex one, that is, it is its logical continuation. This is manifested in the fact that existing results from convex optimization can be transferred to saddles. In this paper, such a transfer is carried out for the results of the online algorithm in the convex case, when the objective function satisfies the $\gamma$-growth condition.
-
Оптимизация протонной терапии с радиосенсибилизирующими наночастицами и антиангиогенной терапии с помощью математического моделирования
Компьютерные исследования и моделирование, 2025, т. 17, № 4, с. 697-715Оптимизация противоопухолевой радиотерапии является актуальной проблемой, поскольку примерно половина пациентов с диагнозом рак проходят радиотерапию во время лечения. Протонная терапия потенциально более эффективна, чем традиционная фотонная терапия из-за фундаментальных различий в физике распределения дозы, которые приводит к лучшему нацеливанию на опухоли и меньшему сопутствующему повреждению здоровых тканей. В настоящее время наблюдается растущий интерес к использованию нерадиоактивных радиосенсибилизирующих опухолеспецифических наночастиц, использование которых может повысить эффективность протонной терапии. Такие наночастицы представляют собой небольшие объемы сенсибилизатора, например, бора-10 или различных оксидов металлов, заключенных в полимерный слой, содержащий опухолеспецифические антитела, что позволяет осуществлять их направленную доставку к злокачественным клеткам. Кроме того, сочетание протонной терапии с антиангиогенной терапией, которая нормализует микрососудистую сеть, связанную с опухолью, может дать дальнейшее синергетическое увеличение общей эффективности лечения.
Мы разработали пространственно распределенную математическую модель, имитирующую рост неинвазивной опухоли, проходящей лечение фракционированной протонной терапией с наносенсибилизаторами и антиангиогенной терапией. Результаты моделирования показывают, что наиболее эффективный способ комбинирования этих методов лечения должен существенно зависеть от скорости пролиферации опухолевых клеток и их собственной радиочувствительности. А именно, сочетание антиангиогенной терапии с протонной терапией, независимо от того, используются ли радиосенсибилизирующие наночастицы, должно повысить эффективность лечения быстрорастущих опухолей, а также радиорезистентных опухолей с умеренной скоростью роста. В этих случаях применение протонной терапии одновременно с антиангиогенными препаратами после первоначальной однократной инъекции наносенсибилизаторов является наиболее эффективным вариантом лечения среди проанализированных. Напротив, для медленнорастущих опухолей максимизация количества инъекций наносенсибилизаторов без антиангиогенной терапии оказывается более эффективным вариантом, причем повышение эффективности лечения растет с ростом радиочувствительности опухоли. Однако результаты также показывают, что общая эффективность протонной терапии, вероятно, должна увеличиться лишь умеренно при добавлении наносенсибилизаторов и антиангиогенных препаратов.
Ключевые слова: математическая онкология, численная оптимизация.
Optimization of proton therapy with radiosensitizing nanoparticles and antiangiogenic therapy via mathematical modeling
Computer Research and Modeling, 2025, v. 17, no. 4, pp. 697-715Optimization of antitumor radiotherapy represents an urgent issue, as approximately half of the patients diagnosed with cancer undergo radiotherapy during their treatment. Proton therapy is potentially more efficient than traditional X-ray radiotherapy due to fundamental differences in physics of dose deposition, leading to better targeting of tumors and less collateral damage to healthy tissue. There is increasing interest in the use of non-radioactive radiosensitizing tumor-specific nanoparticles the use of which can boost the performance of proton therapy. Such nanoparticles are small volumes of a sensitizer, such as boron-10 or various metal oxides, enclosed in a polymer layer containing tumor-specific antibodies, which allows for their targeted delivery to malignant cells. Furthermore, a combination of proton therapy with antiangiogenic therapy that normalizes tumor-associated microvasculature may yield further synergistic increase in overall treatment efficacy.
We have developed a spatially distributed mathematical model simulating the growth of a non-invasive tumor undergoing treatment by fractionated proton therapy with nanosensitizers and antiangiogenic therapy. The modeling results suggest that the most effective way to combine these treatment modalities should strongly depend on the tumor cells’ proliferation rate and their intrinsic radiosensitivity. Namely, a combination of antiangiogenic therapy with proton therapy, regardless of whether radiosensitizing nanoparticles are used, benefits treatment efficacy of rapidly growing tumors as well as radioresistant tumors with moderate growth rate. In these cases, administration of proton therapy simultaneously with antiangiogenic drugs after the initial single injection of nanosensitizers is the most effective option among those analyzed. Conversely, for slowly growing tumors, maximization of the number of nanosensitizer injections without antiangiogenic therapy proves to be a more efficient option, with enhancement in treatment efficacy growing with the increase of tumor radiosensitivity. However, the results also show that the overall efficacy of proton therapy is likely to increase only modestly with the addition of nanosensitizers and antiangiogenic drugs.
Keywords: mathematical oncology, numerical optimization.
Indexed in Scopus
Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU
The journal is included in the Russian Science Citation Index
The journal is included in the RSCI
International Interdisciplinary Conference "Mathematics. Computing. Education"




