Результаты поиска по 'практическое применение':
Найдено статей: 81
  1. Карпаев А.А., Алиев Р.Р.
    Применение упрощенного неявного метода Эйлера для решения задач электрофизиологии
    Компьютерные исследования и моделирование, 2020, т. 12, № 4, с. 845-864

    Рассматривается упрощенный неявный метод Эйлера как альтернатива явному методу Эйлера, являющемуся наиболее распространенным в области численного решения уравнений, описывающих электрическую активность нервных клеток и кардиоцитов. Многие модели электрофизиологии имеют высокую степень жесткости, так как описывают динамику процессов с существенно разными характерными временами: миллисекундная деполяризации предшествует значительно более медленной гиперполяризации при формировании потенциала действия в электровозбудимых клетках. Оценка степени жесткости в работе проводится по формуле, не требующей вычисления собственных значений матрицы Якоби системы ОДУ. Эффективность численных методов сравнивается на примере типичных представителей из классов детальных и концептуальных моделей возбудимых клеток: модели Ходжкина–Хаксли для нейронов и Алиева–Панфилова для кардиоцитов. Сравнение эффективности численных методов проведено с использованием распространенных в биомедицинских задачах видов норм. Исследовано влияние степени жесткости моделей на величину ускорения при использовании упрощенного неявного метода: выигрыш во времени при высокой степени жесткости зафиксирован только для модели Ходжкина–Хаксли. Обсуждаются целесообразность применения простых методов и методов высоких порядков точности для решения задач электрофизиологии, а также устойчивость методов. Обсуждение позволяет прояснить вопрос о причинах отказа от использования высокоточных методов в пользу простых при проведении практических расчетов. На примере модели Ходжкина–Хаксли c различными степенями жесткости вычислены производные решения высших порядков и обнаружены их значительные максимальные абсолютные значения. Последние входят в формулы констант аппроксимации и, следовательно, нивелируют малость множителя, зависящего от порядка точности. Этот факт не позволяет считать погрешности численного метода малыми. Проведенный на качественном уровне анализ устойчивости явного метода Эйлера позволяет оценить вид функции параметров модели для описания границы области устойчивости. Описание границы области устойчивости, как правило, используется при априорном принятии решения о выборе величины шага численного интегрирования.

    Karpaev A.A., Aliev R.R.
    Application of simplified implicit Euler method for electrophysiological models
    Computer Research and Modeling, 2020, v. 12, no. 4, pp. 845-864

    A simplified implicit Euler method was analyzed as an alternative to the explicit Euler method, which is a commonly used method in numerical modeling in electrophysiology. The majority of electrophysiological models are quite stiff, since the dynamics they describe includes a wide spectrum of time scales: a fast depolarization, that lasts milliseconds, precedes a considerably slow repolarization, with both being the fractions of the action potential observed in excitable cells. In this work we estimate stiffness by a formula that does not require calculation of eigenvalues of the Jacobian matrix of the studied ODEs. The efficiency of the numerical methods was compared on the case of typical representatives of detailed and conceptual type models of excitable cells: Hodgkin–Huxley model of a neuron and Aliev–Panfilov model of a cardiomyocyte. The comparison of the efficiency of the numerical methods was carried out via norms that were widely used in biomedical applications. The stiffness ratio’s impact on the speedup of simplified implicit method was studied: a real gain in speed was obtained for the Hodgkin–Huxley model. The benefits of the usage of simple and high-order methods for electrophysiological models are discussed along with the discussion of one method’s stability issues. The reasons for using simplified instead of high-order methods during practical simulations were discussed in the corresponding section. We calculated higher order derivatives of the solutions of Hodgkin-Huxley model with various stiffness ratios; their maximum absolute values appeared to be quite large. A numerical method’s approximation constant’s formula contains the latter and hence ruins the effect of the other term (a small factor which depends on the order of approximation). This leads to the large value of global error. We committed a qualitative stability analysis of the explicit Euler method and were able to estimate the model’s parameters influence on the border of the region of absolute stability. The latter is used when setting the value of the timestep for simulations a priori.

  2. Острые респираторные инфекции представляют собой серьезную проблему общественного здравоохранения, поскольку являются одной из причин заболеваемости и смерти во многих странах. В связи с этим существует большой интерес к разработке моделей и методов, позволяющих моделировать распространение этих инфекций в сообществах с целью контроля вспышек и предотвращения их распространения. Агентные модели (АМ) являются одним из важнейших инструментов эпидемиологических исследований для моделирования динамики эпидемий в реальных популяциях, но они сталкиваются со значительными трудностями, связанными с вычислительной сложностью при их использовании и калибровке эпидемиологических данных, поскольку оценка параметров обычно требует многократного моделирования в больших пространствах параметров для определения правдоподобных значений ключевых эпидемиологических показателей. В данной статье рассматривается проблема снижения вычислительных ограничений в обратной задаче калибровки АМ для моделирования распространения респираторных инфекций в Санкт-Петербурге. В статье предлагается применение суррогатного машинного обучения для связи траекторий эпидемий с лежащими в их основе эпидемиологическими параметрами, что позволяет быстро выводить оценки параметров на основе наблюдаемых эпидемических данных. Это достигается путем формулировки задачи калибровки АМ по эпидемиологическим данным как задачи контролируемого обучения, в которой последовательности, извлеченные из эпидемиологических траекторий, связываются с базовыми эпидемиологическими параметрами. Исследование было основано на оценке эффективности моделирования последовательностей на основе внимания, вероятностного глубокого обучения и распределительной регрессии для вывода оценок параметров из усеченных последовательностей эпидемических траекторий. Экспериментальные оценки продемонстрировали эффективность данного подхода и его практическое и простое применение. Результаты также указали на превосходство моделирования последовательностей на основе внимания, поскольку оно показало более стабильную производительность по всем метрикам и горизонтам, обеспечивая точную оценку параметров и достоверное количественное определение неопределенности. Моделирование распределительной регрессии также показало хорошую производительность, особенно с точки зрения точности точек, в то время как вероятностное глубокое обучение показало плохую производительность, особенно при более длительных входных горизонтах.

    Darwish A., Leonenko V.N.
    Reducing computational complexity in agent-based epidemiological model calibration: application of deep learning surrogates
    Computer Research and Modeling, 2026, v. 18, no. 1, pp. 185-200

    Acute respiratory infections are a major public health concern because they are the leading cause of illness and death in many countries. Therefore, there is great interest in developing models and methods capable of modeling the spread of these infections within communities, with the aim of controlling outbreaks and preventing their spread. Agent-based models (ABM) are one of the most important tools in epidemiological research for modeling epidemic dynamics in realistic populations, but they face significant challenges in terms of computational complexity in their operation and calibration of epidemiological data, as parameter estimation typically requires repeated simulations across large parameter spaces to determine plausible values for key epidemiological parameters. This paper addresses the problem of alleviating computational constraints in the inverse problem of calibrating an ABM model for simulating the spread of respiratory infections in Saint Petersburg. The paper proposes the application of machine learning surrogate to link epidemic trajectories to underlying epidemiological parameters, enabling them to quickly infer parameter estimates from observed epidemic data. This is done by formulating the task of calibrating ABMs against epidemiological data as a supervised learning problem, where sequences extracted from epidemiological trajectories are associated with underlying epidemiological parameters. The research was based on evaluating the performance of attention-based sequence modeling, probabilistic deep learning, and distributional regression for inferring parameter estimates from truncated sequences of epidemic trajectories. Experimental evaluations have demonstrated the effectiveness of this approach and its practical and straightforward application. The results also indicated the superiority of attention-based sequence modeling, as it showed more consistent performance across metrics and horizons in accurate parameter estimation and credible uncertainty quantification. Distributional regression modeling also showed good performance with specific strengths in point accuracy while probabilistic deep learning performed poorly, especially at longer input horizons.

  3. Алпатов А.В., Петерс Е.А., Пасечнюк Д.А., Райгородский А.М.
    Стохастическая оптимизация в задаче цифрового предыскажения сигнала
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 399-416

    В данной статье осуществляется сравнение эффективности некоторых современных методов и практик стохастической оптимизации применительно к задаче цифрового предыскажения сигнала (DPD), которое является важной составляющей процесса обработки сигнала на базовых станциях, обеспечивающих беспроводную связь. В частности, рассматривается два круга вопросов о возможностях применения стохастических методов для обучения моделей класса Винера – Гаммерштейна в рамках подхода минимизации эмпирического риска: касательно улучшения глубины и скорости сходимости данного метода оптимизации и относительно близости самой постановки задачи (выбранной модели симуляции) к наблюдаемому в действительности поведению устройства. Так, в первой части этого исследования внимание будет сосредоточено на вопросе о нахождении наиболее эффективного метода оптимизации и дополнительных к нему модификаций. Во второй части предлагается новая квази-онлайн-постановка задачи и, соответственно, среда для тестирования эффективности методов, благодаря которым результаты численного моделирования удается привести в соответствие с поведением реального прототипа устройства DPD. В рамках этой новой постановки далее осуществляется повторное тестирование некоторых избранных практик, более подробно рассмотренных в первой части исследования, и также обнаруживаются и подчеркиваются преимущества нового лидирующего метода оптимизации, оказывающегося теперь также наиболее эффективным и в практических тестах. Для конкретной рассмотренной модели максимально достигнутое улучшение глубины сходимости составило 7% в стандартном режиме и 5% в онлайн-постановке (при том что метрика сама по себе имеет логарифмическую шкалу). Также благодаря дополнительным техникам оказывается возможным сократить время обучения модели DPD вдвое, сохранив улучшение глубины сходимости на 3% и 6% для стандартного и онлайн-режимов соответственно. Все сравнения производятся с методом оптимизации Adam, который был отмечен как лучший стохастический метод для задачи DPD из рассматриваемых в предшествующей работе [Pasechnyuk et al., 2021], и с методом оптимизации Adamax, который оказывается наиболее эффективным в предлагаемом онлайн-режиме.

    Alpatov A.V., Peters E.A., Pasechnyuk D.A., Raigorodsky A.M.
    Stochastic optimization in digital pre-distortion of the signal
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 399-416

    In this paper, we test the performance of some modern stochastic optimization methods and practices with respect to the digital pre-distortion problem, which is a valuable part of processing signal on base stations providing wireless communication. In the first part of our study, we focus on the search for the best performing method and its proper modifications. In the second part, we propose the new, quasi-online, testing framework that allows us to fit our modeling results with the behavior of real-life DPD prototype, retest some selected of practices considered in the previous section and approve the advantages of the method appearing to be the best under real-life conditions. For the used model, the maximum achieved improvement in depth is 7% in the standard regime and 5% in the online regime (metric itself is of logarithmic scale). We also achieve a halving of the working time preserving 3% and 6% improvement in depth for the standard and online regime, respectively. All comparisons are made to the Adam method, which was highlighted as the best stochastic method for DPD problem in [Pasechnyuk et al., 2021], and to the Adamax method, which is the best in the proposed online regime.

  4. Керчев И.А., Марков Н.Г., Мачука К.Р., Токарева О.С.
    Модели сверточных нейронных сетей для классификации поврежденных вредителями хвойных деревьев на изображениях с беспилотных летательных аппаратов
    Компьютерные исследования и моделирование, 2024, т. 16, № 5, с. 1271-1294

    В статье рассмотрена задача мультиклассификации хвойных деревьев с различной степенью поражения насекомыми-вредителями на изображениях, полученных с помощью беспилотных летательных аппаратов (БПЛА). Предложены три модификации классической сверточной нейронной сети U-Net для попиксельной классификации изображений пораженных деревьев пихты сибирской Abies sibirica и кедра сибирского Pinus sibirica. Первая модель Мо-U-Net вносит ряд изменений в классическую модель U-Net. Вторая и третья модели, названные MSC-U-Net и MSC-Res-U-Net, представляют собой ансамбли из трех моделей Мо-U-Net с разной глубиной и размерами входных изображений. В модели MSC-Res-U-Net также используются остаточные блоки. Нами созданы два датасета по изображениям с БПЛА пораженных вредителями деревьев Abies sibirica и Pinus Sibirica и обучены предложенные три модели с использованием функций потерь mIoULoss и Focal Loss. Затем исследовалась эффективность каждой обученной модели при классификации поврежденных деревьев Abies sibirica и Pinus sibirica. Результаты показали, что в случае использования функции потерь mIoULoss предложенные модели не пригодны для практического применения в лесной отрасли, поскольку не позволяют получить для отдельных классов деревьев этих пород точность классификации по метрике IoUс, превышающую пороговое значение 0,5. Однако в случае функции потерь Focal Loss модели MSC-Res-U-Net и Mo-U-Net, в отличие от третьей предложенной модели MSC-U-Net, для всех классов деревьев Abies sibirica и Pinus sibirica показывают высокую точность классификации (превышение порогового значения 0,5 по метрикам IoUс и mIoU). Эти результаты позволяют считать, что модели MSC-Res-U-Net и Mo-U-Net являются практически значимыми для специалистов лесной отрасли, поскольку позволяют выявлять хвойные деревья этих пород на ранней стадии их поражения вредителями.

    Kerchev I.A., Markov N.G., Machuca C.R., Tokareva O.S.
    Classification of pest-damaged coniferous trees in unmanned aerial vehicles images using convolutional neural network models
    Computer Research and Modeling, 2024, v. 16, no. 5, pp. 1271-1294

    This article considers the task of multiclass classification of coniferous trees with varying degrees of damage by insect pests on images obtained using unmanned aerial vehicles (UAVs). We propose the use of convolutional neural networks (CNNs) for the classification of fir trees Abies sibirica and Siberian pine trees Pinus sibirica in unmanned aerial vehicles (UAV) imagery. In our approach, we develop three CNN models based on the classical U-Net architecture, designed for pixel-wise classification of images (semantic segmentation). The first model, Mo-U-Net, incorporates several changes to the classical U-Net model. The second and third models, MSC-U-Net and MSC-Res-U-Net, respectively, form ensembles of three Mo-U-Net models, each varying in depth and input image sizes. Additionally, the MSC-Res-U-Net model includes the integration of residual blocks. To validate our approach, we have created two datasets of UAV images depicting trees affected by pests, specifically Abies sibirica and Pinus sibirica, and trained the proposed three CNN models utilizing mIoULoss and Focal Loss as loss functions. Subsequent evaluation focused on the effectiveness of each trained model in classifying damaged trees. The results obtained indicate that when mIoULoss served as the loss function, the proposed models fell short of practical applicability in the forestry industry, failing to achieve classification accuracy above the threshold value of 0.5 for individual classes of both tree species according to the IoU metric. However, under Focal Loss, the MSC-Res-U-Net and Mo-U-Net models, in contrast to the third proposed model MSC-U-Net, exhibited high classification accuracy (surpassing the threshold value of 0.5) for all classes of Abies sibirica and Pinus sibirica trees. Thus, these results underscore the practical significance of the MSC-Res-U-Net and Mo-U-Net models for forestry professionals, enabling accurate classification and early detection of pest outbreaks in coniferous trees.

  5. Варшавский Л.Е.
    Итерационные методы декомпозиции при моделировании развития олигополистических рынков
    Компьютерные исследования и моделирование, 2025, т. 17, № 6, с. 1237-1256

    Один из принципов формирования рыночной конкурентной среды состоит в создании условий для реализации экономическими агентами стратегий, оптимальных по Нэшу – Курно. При стандартном подходе к определению рыночных стратегий, оптимальных по Нэшу – Курно, экономические агенты должны обладать полной информацией о показателях и динамических характеристиках всех участников рынка. Что не соответствует действительности.

    В связи с этим для отыскания оптимальных по Нэшу – Курно решений в динамических моделях необходимо наличие координатора, обладающего полной информацией об участниках. Однако в случае большого числа участников игры, даже при наличии у координатора необходимой информации, появляются вычислительные трудности, связанные с необходимостью решения большого числа связанных (coupled) уравнений (в случае линейных динамических игр с квадратическим критерием — матричных уравнений Риккати).

    В связи с этим возникает необходимость в декомпозиции общей задачи определения оптимальных стратегий участников рынка на частные (локальные) задачи. Применительно к линейным динамическим играм с квадратическим критерием исследовались подходы, основанные на итерационной декомпозиции связанных матричных уравнений Риккати и решении локальных уравнений Риккати. В настоящей статье рассматривается более простой подход к итерационному определению равновесия по Нэшу – Курно в олигополии путем декомпозиции с использованием операционного исчисления (операторного метода).

    Предлагаемый подход основан на следующей процедуре. Виртуальный координатор, обладающий информацией о параметрах обратной функции спроса, формирует цены на перспективный период. Олигополисты при заданной фиксированной динамике цен определяют свои стратегии в соответствии с несколько измененным критерием оптимальности. Оптимальные объемы продукции олигополистов поступают к координатору, который на основе итерационного алгоритма корректирует динамику цены на предыдущем шаге.

    Предлагаемая процедура иллюстрируется на примере статической и динамической моделей рационального поведения участников олигополии, которые максимизируют чистую текущую стоимость (NPV).

    При использовании методов операционного исчисления (и, в частности, обратного Z-преобразования) найдены условия, при которых итерационная процедура приводит к равновесным уровням цены и объемов производства в случае линейных динамических игр как с квадратичными, так и с нелинейными (вогнутыми) критериями оптимизации.

    Рассмотренный подход использован применительно к примерам дуополии, триополии, дуополии на рынке с дифференцированным продуктом, дуополии с взаимодействующими олигополистами при линейной обратной функции спроса. Сопоставление результатов расчетов динамики цены и объемов производства олигополистов для рассмотренных примеров на основе связанных (coupled) уравнений матричных уравнений Риккати в Matlab, а также в соответствии с предложенным итерационным методом в широко доступной системе Excel показывает их практическую идентичность.

    Кроме того, применение предложенной итерационной процедуры проиллюстрировано на примере дуополии с нелинейной функцией спроса.

    Varshavsky L.E.
    Iterative decomposition methods in modelling the development of oligopolistic markets
    Computer Research and Modeling, 2025, v. 17, no. 6, pp. 1237-1256

    One of the principles of forming a competitive market environment is to create conditions for economic agents to implement Nash – Cournot optimal strategies. With the standard approach to determining Nash – Cournot optimal market strategies, economic agents must have complete information about the indicators and dynamic characteristics of all market participants. Which is not true.

    In this regard, to find Nash – Cournot optimal solutions in dynamic models, it is necessary to have a coordinator who has complete information about the participants. However, in the case of a large number of game participants, even if the coordinator has the necessary information, computational difficulties arise associated with the need to solve a large number of coupled equations (in the case of linear dynamic games — Riccati matrix equations).

    In this regard, there is a need to decompose the general problem of determining optimal strategies for market participants into private (local) problems. Approaches based on the iterative decomposition of coupled matrix Riccati equations and the solution of local Riccati equations were studied for linear dynamic games with a quadratic criterion. This article considers a simpler approach to the iterative determination of the Nash – Cournot equilibrium in an oligopoly, by decomposition using operational calculus (operator method).

    The proposed approach is based on the following procedure. A virtual coordinator, which has information about the parameters of the inverse demand function, forms prices for the prospective period. Oligopolists, given fixed price dynamics, determine their strategies in accordance with a slightly modified optimality criterion. The optimal volumes of production of the oligopolists are sent to the coordinator, who, based on the iterative algorithm, adjusts the price dynamics at the previous step.

    The proposed procedure is illustrated by the example of a static and dynamic model of rational behavior of oligopoly participants who maximize the net present value (NPV). Using the methods of operational calculus (and in particular, the inverse Z-transformation), conditions are found under which the iterative procedure leads to equilibrium levels of price and production volumes in the case of linear dynamic games with both quadratic and nonlinear (concave) optimization criteria.

    The approach considered is used in relation to examples of duopoly, triopoly, duopoly on the market with a differentiated product, duopoly with interacting oligopolists with a linear inverse demand function. Comparison of the results of calculating the dynamics of price and production volumes of oligopolists for the considered examples based on coupled equations of the matrix Riccati equations in Matlab (in the table — Riccati), as well as in accordance with the proposed iterative method in the widely available Excel system shows their practical identity.

    In addition, the application of the proposed iterative procedure is illustrated by the example of a duopoly with a nonlinear demand function.

  6. Фиалко Н.С., Ольшевец М.М., Лахно В.Д.
    Численное исследование модели Холстейна в разных термостатах
    Компьютерные исследования и моделирование, 2024, т. 16, № 2, с. 489-502

    На основе гамильтониана Холстейна промоделирована динамика заряда, привнесенного в молекулярную цепочку сайтов, при разной температуре. При расчете температура цепочки задается начальными данными — случайными гауссовыми распределениями скоростей и смещений сайтов. Рассмотрены разные варианты начального распределенияз арядовой плотности. Расчеты показывают, что система на больших расчетных временах переходит к колебаниям около нового равновесного состояния. Для одинаковых начальных скоростей и смещений средняя кинетическая энергия (и, соответственно, температура $T$) цепочки меняется в зависимости от начального распределения зарядовой плотности: убывает при внесении в цепочку полярона или увеличивается, если в начальный момент электронная часть энергии максимальна.

    Проведено сравнение с результатами, полученными ранее в модели с термостатом Ланжевена. В обоих случаях существование полярона определяется тепловой энергией всей цепочки. По результатам моделирования, переход от режима полярона к делокализованному состоянию происходит в одинаковой области значений тепловой энергии цепочки $N$ сайтов ~ $NT$ для обоих вариантов термостата, с дополнительной корректировкой: для гамильтоновой системы температура не соответствует начально заданной, а определяется на больших расчетных временах из средней кинетической энергии цепочки.

    В поляронной области применение разных способов имитации температуры приводит к ряду существенных различий в динамике системы. В области делокализованного состояния заряда, для больших температур, результаты, усредненные по набору траекторий в системе со случайной силой, и результаты, усредненные по времени для гамильтоновой системы, близки, что не противоречит гипотезе эргодичности. С практической точки зрения для больших температур T ≈ 300 K при моделировании переноса заряда в однородных цепочках можно использовать любой вариант задания термостата.

    Fialko N.S., Olshevets M.M., Lakhno V.D.
    Numerical study of the Holstein model in different thermostats
    Computer Research and Modeling, 2024, v. 16, no. 2, pp. 489-502

    Based on the Holstein Hamiltonian, the dynamics of the charge introduced into the molecular chain of sites was modeled at different temperatures. In the calculation, the temperature of the chain is set by the initial data ¡ª random Gaussian distributions of velocities and site displacements. Various options for the initial charge density distribution are considered. Long-term calculations show that the system moves to fluctuations near a new equilibrium state. For the same initial velocities and displacements, the average kinetic energy, and, accordingly, the temperature of the T chain, varies depending on the initial distribution of the charge density: it decreases when a polaron is introduced into the chain, or increases if at the initial moment the electronic part of the energy is maximum. A comparison is made with the results obtained previously in the model with a Langevin thermostat. In both cases, the existence of a polaron is determined by the thermal energy of the entire chain.

    According to the simulation results, the transition from the polaron mode to the delocalized state occurs in the same range of thermal energy values of a chain of $N$ sites ~ $NT$ for both thermostat options, with an additional adjustment: for the Hamiltonian system the temperature does not correspond to the initially set one, but is determined after long-term calculations from the average kinetic energy of the chain.

    In the polaron region, the use of different methods for simulating temperature leads to a number of significant differences in the dynamics of the system. In the region of the delocalized state of charge, for high temperatures, the results averaged over a set of trajectories in a system with a random force and the results averaged over time for a Hamiltonian system are close, which does not contradict the ergodic hypothesis. From a practical point of view, for large temperatures T ≈ 300 K, when simulating charge transfer in homogeneous chains, any of these options for setting the thermostat can be used.

  7. Малков С.Ю., Шпырко О.А., Давыдова О.И.
    Моральный выбор: математическая модель
    Компьютерные исследования и моделирование, 2024, т. 16, № 5, с. 1323-1335

    В работе приведены результаты исследований по созданию математической модели морального выбора, основанной на развитии подхода, предложенного В.А. Лефевром. В отличие от В.А. Лефевра, который рассматривал весьма умозрительную ситуацию морального выбора субъекта между абстрактными добром и злом под давлением на него внешнего мира с учетом субъективного восприятия субъектом этого давления, в нашем исследовании рассмотрена более приземленная и практически значимая ситуация. Рассматривается случай, когда субъект при принятии решений ориентируется на свое индивидуальное восприятие внешнего мира (которое может быть искаженным, например, вследствие внешнего целенаправленного информационного воздействия на субъекта и манипулирования его сознанием), а добро и зло не абстрактны, а обусловлены системой ценностей, принятой в конкретном рассматриваемом обществе и привязанной к конкретной идеологии/религии, которые могут быть различными для разных обществ.

    В результате проведенных исследований разработана базовая математическая модель, рассмотрены частные случаи ее применения. Выявлены некоторые закономерности, связанные с моральным выбором, приведено их формальное описание. В частности, на языке модели рассмотрена ситуация манипулирования сознанием, сформулирован закон снижения моральности общества, состоящего из так называемых свободных субъектов (то есть таких, которые стремятся действовать в соответствии со своими интенциями и соответствовать в своих действиях образу своего «я»).

    Malkov S.Yu., Shpyrko O.A., Davydova O.I.
    Features of social interactions: the basic model
    Computer Research and Modeling, 2024, v. 16, no. 5, pp. 1323-1335

    The paper presents the results of research on the creation of a mathematical model of moral choice based on the development of the approach proposed by V. A. Lefebvre. Unlike V. A. Lefebvre, who considered a very speculative situation of a subject’s moral choice between abstract “good” and “evil” under pressure from the outside world, taking into account the subjective perception of this pressure by the subject, our study considers a more mundane and practically significant situation. The case is considered when the subject, when making decisions, is guided by his individual perception of the outside world (which may be distorted, for example, due to external purposeful informational influence on the subject and manipulation of his consciousness), and “good” and “evil” are not abstract, but are conditioned by a value system adopted in a particular society under consideration and tied to a specific ideology/religion, which may be different for different societies.

    As a result of the conducted research, a basic mathematical model has been developed, and special cases of its application have been considered. Some patterns related to moral choice are revealed, and their formal description is given. In particular, the situation of manipulation of consciousness is considered in the language of the model, the law of reducing the “morality” of a society consisting of so-called free subjects (that is, those who strive to act in accordance with their intentions and correspond in their actions to the image of their “I”) is formulated.

  8. Шахин Л., Рашид Б., Mazzara M.
    Новый подход к самообучению для обнаружения видов деревьев с использованием гиперспектральных и лидарных данных
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1747-1763

    Точное определение деревьев имеет решающее значение для экологического мониторинга, оценки биоразнообразия и управления лесными ресурсами. Традиционные методы ручного обследования трудоемки и неэффективны на больших территориях. Достижения в области дистанционного зондирования, включая лидар и гиперспектральную съемку, способствуют автоматизированному и точному обнаружению в различных областях.

    Тем не менее, эти технологии обычно требуют больших объемов размеченных данных и ручной инженерии признаков, что ограничивает их масштабируемость. Данное исследование предлагает новый метод самообучения (Self-Supervised Learning, SSL) с использованием архитектуры SimCLR для улучшения классификации видов деревьев на основе неразмеченных данных. Модель SSL автоматически обнаруживает сильные признаки, объединяя спектральные данные гиперспектральной съемки со структурными данными лидара, исключая необходимость ручного вмешательства.

    Мы оцениваем производительность модели SSL по сравнению с традиционными классификаторами, такими как Random Forest (RF), Support Vector Machines (SVM), а также методами обучения с учителем, используя набор данных конкурса ECODSE, который включает как размеченные, так и неразмеченные образцы видов деревьев на биологической станции Ordway-Swisher во Флориде. Метод SSL показал значительно более высокую эффективность по сравнению с традиционными методами, продемонстрировав точность 97,5% по сравнению с 95,56% для Semi-SSL и 95,03% для CNN при обучении с учителем.

    Эксперименты по выборке показали, что техника SSL остается эффективной при меньшем количестве размеченных данных, и модель достигает хорошей точности даже при наличии всего 20% размеченных образцов. Этот вывод демонстрирует практическое применение SSL в условиях недостаточного объема размеченных данных, таких как мониторинг лесов в больших масштабах.

    Shaheen L., Rasheed B., Mazzara M.
    Tree species detection using hyperspectral and Lidar data: A novel self-supervised learning approach
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1747-1763

    Accurate tree identification is essential for ecological monitoring, biodiversity assessment, and forest management. Traditional manual survey methods are labor-intensive and ineffective over large areas. Advances in remote sensing technologies including lidar and hyperspectral imaging improve automated, exact detection in many fields.

    Nevertheless, these technologies typically require extensive labeled data and manual feature engineering, which restrict scalability. This research proposes a new method of Self-Supervised Learning (SSL) with the SimCLR framework to enhance the classification of tree species using unlabelled data. SSL model automatically discovers strong features by merging the spectral data from hyperspectral data with the structural data from LiDAR, eliminating the need for manual intervention.

    We evaluate the performance of the SSL model against traditional classifiers, including Random Forest (RF), Support Vector Machines (SVM), and Supervised Learning methods, using a dataset from the ECODSE competition, which comprises both labeled and unlabeled samples of tree species in Florida’s Ordway-Swisher Biological Station. The SSL method has been demonstrated to be significantly more effective than traditional methods, with a validation accuracy of 97.5% compared to 95.56% for Semi-SSL and 95.03% for CNN in Supervised Learning.

    Subsampling experiments showed that the SSL technique is still effective with less labeled data, with the model achieving good accuracy even with only 20% labeled data points. This conclusion demonstrates SSL’s practical applications in circumstances with insufficient labeled data, such as large-scale forest monitoring.

  9. Представлена математическая модель задачи оптимального размещения предприятий по производству топлива из возобновляемых древесных отходов для обеспечения распределенной системы теплоснабжения региона. Оптимизация осуществляется исходя из минимизации совокупных затрат на производство конечного продукта – тепловой энергии на основе древесного топлива. Предложен метод решения задачи с использованием генетического алгоритма. Приведены практические результаты применения модели на примере Удмуртской Республики.

    Rusyak I.G., Nefedov D.G.
    Solution of optimization problem of wood fuel facility location by the thermal energy cost criterion
    Computer Research and Modeling, 2012, v. 4, no. 3, pp. 651-659

    The paper contains a mathematical model for the optimal location of enterprises producing fuel from renewable wood waste for the regional distributed heating supply system. Optimization is based on total cost minimization of the end product – the thermal energy from wood fuel. A method for solving the problem is based on genetic algorithm. The paper also shows the practical results of the model by example of Udmurt Republic.

    Views (last year): 5. Citations: 2 (RSCI).
  10. Моисеев Н.А., Назарова Д.И., Семина Н.С., Максимов Д.А.
    Обнаружение точек разворота на финансовых данных с помощью методов глубокого машинного обучения
    Компьютерные исследования и моделирование, 2024, т. 16, № 2, с. 555-575

    Цель настоящего исследования заключается в разработке методологии выявления точек разворота на временных рядах, включая в том числе финансовые данные. Теоретической основой исследования послужили работы, посвященные анализу структурных изменений на финансовых рынках, описанию предложенных алгоритмов обнаружения точек разворота и особенностям построения моделей классического и глубокого машинного обучения для решения данного типа задач. Разработка подобного инструментария представляет интерес для инвесторов и других заинтересованных сторон, предоставляя дополнительные подходы к эффективному анализу финансовых рынков и интерпретации доступных данных.

    Для решения поставленной задачи была обучена нейронная сеть. В ходе исследования было рассмотрено несколько способов формирования тренировочных выборок, которые различаются характером статистических параметров. Для повышения качества обучения и получения более точных результатов была разработана методология формирования признаков, служащих входными данными для нейронной сети. В свою очередь, эти признаки формируются на основе анализа математического ожидания и стандартного отклонения временных рядов на некоторых интервалах. Также исследуется возможностьих комбинации для достижения более стабильных результатов.

    Результаты модельных экспериментов анализируются с целью сравнения эффективности предложенной модели с другими существующими алгоритмами обнаружения точек разворота, получившими широкое применение в решении практических задач. В качестве тренировочных и тестовых данных используется специально созданный датасет, генерация которого осуществляется с использованием собственных методов. Кроме того, обученная на различных признаках модельте стируется на дневных данных индекса S&P 500 в целях проверки ее эффективности в реальном финансовом контексте.

    По мере описания принципов работы модели рассматриваются возможности для дальнейшего ее усовершенствования: модернизации структуры предложенного механизма, генерации тренировочных данных и формирования признаков. Кроме того, перед авторами стоит задача развития существующих концепций определения точек изменения в режиме реального времени.

    Moiseev N.A., Nazarova D.I., Semina N.S., Maksimov D.A.
    Changepoint detection on financial data using deep learning approach
    Computer Research and Modeling, 2024, v. 16, no. 2, pp. 555-575

    The purpose of this study is to develop a methodology for change points detection in time series, including financial data. The theoretical basis of the study is based on the pieces of research devoted to the analysis of structural changes in financial markets, description of the proposed algorithms for detecting change points and peculiarities of building classical and deep machine learning models for solving this type of problems. The development of such tools is of interest to investors and other stakeholders, providing them with additional approaches to the effective analysis of financial markets and interpretation of available data.

    To address the research objective, a neural network was trained. In the course of the study several ways of training sample formation were considered, differing in the nature of statistical parameters. In order to improve the quality of training and obtain more accurate results, a methodology for feature generation was developed for the formation of features that serve as input data for the neural network. These features, in turn, were derived from an analysis of mathematical expectations and standard deviations of time series data over specific intervals. The potential for combining these features to achieve more stable results is also under investigation.

    The results of model experiments were analyzed to compare the effectiveness of the proposed model with other existing changepoint detection algorithms that have gained widespread usage in practical applications. A specially generated dataset, developed using proprietary methods, was utilized as both training and testing data. Furthermore, the model, trained on various features, was tested on daily data from the S&P 500 index to assess its effectiveness in a real financial context.

    As the principles of the model’s operation are described, possibilities for its further improvement are considered, including the modernization of the proposed model’s structure, optimization of training data generation, and feature formation. Additionally, the authors are tasked with advancing existing concepts for real-time changepoint detection.

Pages: « first previous next

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"