Результаты поиска по 'метод решения':
Найдено статей: 382
  1. Фарапонов В.В., Савкина Н.В., Дьячковский А.С., Чупашев А.В.
    Расчет аэродинамического коэффициента лобового сопротивления тела в дозвуковых и трансзвуковых режимах движения с помощью пакета ANSYS Fluent
    Компьютерные исследования и моделирование, 2012, т. 4, № 4, с. 845-853

    Газодинамический подход к расчету аэродинамических характеристик современных летательных аппаратов приводит к необходимости рассмотрения сложного и обширного комплекса задач требующих разработки все новых и новых методов для их решения. Был произведен расчет в пакете ANSYS Fluent коэффициента лобового сопротивления для двух тел в дозвуковых и трансзвуковых режимах обтекания. Сравнение численного решения и результатов по эксперименту для этих тел дали хорошее совпадение, погрешность расчетов не превышает 3 %.

    Varaponov V.V., Savkina N.V., Diachkovsky A.S., Chupashev A.V.
    Calculation of aerodynamic factor of front resistance of a body in subsonic and transonic modes of movement by means of an ANSYS Fluent package
    Computer Research and Modeling, 2012, v. 4, no. 4, pp. 845-853

    The gas-dynamics approach to the calculation of the aerodynamic characteristics of modern aircraft makes it necessary to consider the complex and extensive set of tasks requiring the development of new methods for their solution. Drag coefficient for two bodies in subsonic and transonic flow regimes was calculated using ANSYS Fluent software. Numeric solution and results of the experiment are in good agreement; calculation error does not exceed 3 %.

    Views (last year): 6. Citations: 5 (RSCI).
  2. Калачин С.В.
    Нечеткое моделирование механизма передачи панического состояния среди людей с различными видами темперамента
    Компьютерные исследования и моделирование, 2021, т. 13, № 5, с. 1079-1092

    Массовое скопление людей всегда представляет собой потенциальную опасность и угрозу для их жизни. К тому же ежегодно в мире в давке, основной причиной которой является массовая паника, гибнет очень большое количество людей. Поэтому изучение феномена массовой паники, ввиду ее чрезвычайной социальной опасности, представляет собой важную научную задачу. Имеющаяся информация о процессах ее возникновения и распространения относится к разряду неточной. Поэтому в качестве инструмента для разработки математической модели механизма передачи панического состояния среди людей с различными видами темперамента выбрана теория нечетких множеств.

    При разработке нечеткой модели было сделано предположение о том, что паника, из эпицентра шокирующего стимула, распространяется среди людей по волновому принципу, проходя с различной частотой через разные среды (виды темперамента человека), и определяется скоростью и интенсивностью циркулярной реакции механизма передачи панического состояния. Поэтому разработанная нечеткая модель, наряду с двумя входами, имеет два выхода — скорость и интенсивность циркулярной реакции. В блоке «Фаззификация» вычисляются степени принадлежности числовых значений входных параметров (частоты волны распространения паники и восприимчивости человека к паническим ситуациям) к нечетким множествам. Блок «Вывод» на входе получает степени принадлежности для каждого входного параметра и на выходе определяет результирующую функцию принадлежности скорости циркулярной реакции и ее производную, являющуюся функцией принадлежности для интенсивности циркулярной реакции. В блоке «Дефаззификация» с помощью метода центра тяжести определяется количественное значение для каждого выходного параметра. Оценка качества разработанной нечеткой модели, проведенная посредством вычисления коэффициента детерминации, показала, что разработанная математическая модель относится к разряду моделей хорошего качества.

    Полученный результат в виде количественных оценок циркулярной реакции позволяет улучшить качество понимания психических процессов, происходящих при передаче панического состояния среди людей. Кроме того, это дает возможность усовершенствовать существующие и разрабатывать новые модели хаотичного поведения людей, которые предназначены для выработки эффективных решений в кризисных ситуациях, направленных на полное либо частичное предотвращение распространения массовой паники, приводящей к возникновению панического бегства, давки и появлению человеческих жертв.

    Kalachin S.V.
    Fuzzy modeling the mechanism of transmitting panic state among people with various temperament species
    Computer Research and Modeling, 2021, v. 13, no. 5, pp. 1079-1092

    A mass congestion of people always represents a potential danger and threat for their lives. In addition, every year in the world a very large number of people die because of the crush, the main cause of which is mass panic. Therefore, the study of the phenomenon of mass panic in view of her extreme social danger is an important scientific task. Available information, about the processes of her occurrence and spread refers to the category inaccurate. Therefore, the theory of fuzzy sets has been chosen as a tool for developing a mathematical model of the mechanism of transmitting panic state among people with various temperament species.

    When developing an fuzzy model, it was assumed that panic, from the epicenter of the shocking stimulus, spreads among people according to the wave principle, passing at different frequencies through different environments (types of human temperament), and is determined by the speed and intensity of the circular reaction of the mechanism of transmitting panic state among people. Therefore, the developed fuzzy model, along with two inputs, has two outputs — the speed and intensity of the circular reaction. In the block «Fuzzyfication», the degrees of membership of the numerical values of the input parameters to fuzzy sets are calculated. The «Inference» block at the input receives degrees of belonging for each input parameter and at the output determines the resulting function of belonging the speed of the circular reaction and her derivative, which is a function of belonging for the intensity of the circular reaction. In the «Defuzzyfication» block, using the center of gravity method, a quantitative value is determined for each output parameter. The quality assessment of the developed fuzzy model, carried out by calculating of the determination coefficient, showed that the developed mathematical model belongs to the category of good quality models.

    The result obtained in the form of quantitative assessments of the circular reaction makes it possible to improve the quality of understanding of the mental processes occurring during the transmission of the panic state among people. In addition, this makes it possible to improve existing and develop new models of chaotic humans behaviors. Which are designed to develop effective solutions in crisis situations, aimed at full or partial prevention of the spread of mass panic, leading to the emergence of panic flight and the appearance of human casualties.

     

  3. Савчук О.С., Титов А.А., Стонякин Ф.С., Алкуса М.С.
    Адаптивные методы первого порядка для относительносильновыпуклых задач оптимизации
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 445-472

    Настоящая статья посвящена некоторым адаптивным методам первого порядка для оптимизационных задач с относительно сильно выпуклыми функционалами. Недавно возникшее в оптимизации понятие относительной сильной выпуклости существенно расширяет класс выпуклых задач посредством замены в определении евклидовой нормы расстоянием в более общем смысле (точнее — расхождением или дивергенцией Брегмана). Важная особенность рассматриваемых в настоящей работе классов задач — обобщение стандартных требований к уровню гладкости целевых функционалов. Точнее говоря, рассматриваются относительно гладкие и относительно липшицевые целевые функционалы. Это может позволить применять рассматриваемую методику для решения многих прикладных задач, среди которых можно выделить задачу о нахождении общей точки системы эллипсоидов, а также задачу бинарной классификации с помощью метода опорных векторов. Если целевой функционал минимизационной задачи выпуклый, то условие относительной сильной выпуклости можно получить посредством регуляризации. В предлагаемой работе впервые предложены адаптивные методы градиентного типа для задач оптимизации с относительно сильно выпуклыми и относительно липшицевыми функционалами. Далее, в статье предложены универсальные методы для относительно сильно выпуклых задач оптимизации. Указанная методика основана на введении искусственной неточности в оптимизационную модель. Это позволило обосновать применимость предложенных методов на классе относительно гладких, так и на классе относительно липшицевых функционалов. При этом показано, как можно реализовать одновременно адаптивную настройку на значения параметров, соответствующих как гладкости задачи, так и введенной в оптимизационную модель искусственной неточности. Более того, показана оптимальность оценок сложности с точностью до умножения на константу для рассмотренных в работе универсальных методов градиентного типа для обоих классов относительно сильно выпуклых задач. Также в статье для задач выпуклого программирования с относительно липшицевыми функционалами обоснована возможность использования специальной схемы рестартов алгоритма зеркального спуска и доказана оптимальная оценка сложности такого алгоритма. Также приводятся результаты некоторых вычислительных экспериментов для сравнения работы предложенных в статье методов и анализируется целесообразность их применения.

    Savchuk O.S., Titov A.A., Stonyakin F.S., Alkousa M.S.
    Adaptive first-order methods for relatively strongly convex optimization problems
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 445-472

    The article is devoted to first-order adaptive methods for optimization problems with relatively strongly convex functionals. The concept of relatively strong convexity significantly extends the classical concept of convexity by replacing the Euclidean norm in the definition by the distance in a more general sense (more precisely, by Bregman’s divergence). An important feature of the considered classes of problems is the reduced requirements concerting the level of smoothness of objective functionals. More precisely, we consider relatively smooth and relatively Lipschitz-continuous objective functionals, which allows us to apply the proposed techniques for solving many applied problems, such as the intersection of the ellipsoids problem (IEP), the Support Vector Machine (SVM) for a binary classification problem, etc. If the objective functional is convex, the condition of relatively strong convexity can be satisfied using the problem regularization. In this work, we propose adaptive gradient-type methods for optimization problems with relatively strongly convex and relatively Lipschitzcontinuous functionals for the first time. Further, we propose universal methods for relatively strongly convex optimization problems. This technique is based on introducing an artificial inaccuracy into the optimization model, so the proposed methods can be applied both to the case of relatively smooth and relatively Lipschitz-continuous functionals. Additionally, we demonstrate the optimality of the proposed universal gradient-type methods up to the multiplication by a constant for both classes of relatively strongly convex problems. Also, we show how to apply the technique of restarts of the mirror descent algorithm to solve relatively Lipschitz-continuous optimization problems. Moreover, we prove the optimal estimate of the rate of convergence of such a technique. Also, we present the results of numerical experiments to compare the performance of the proposed methods.

  4. Васюков А.В., Беклемышева К.А., Онучин Е.С., Товарнова Н.А., Петров И.Б.
    Расчет скорости поперечной волны при ударе по предварительно нагруженным нитям
    Компьютерные исследования и моделирование, 2022, т. 14, № 4, с. 887-897

    В работе рассматривается задача о поперечном ударе по тонкой предварительно нагруженной нити. Общепринятая теория о поперечному даре по тонкой нити отталкивается от классических публикаций Рахматулина и Смита. На основании теории Рахматулина – Смита получены соотношения, широко используемые в инженерной практике. Однако существуют многочисленные данные о том, что экспериментальные результаты могут существенно отличаться от оценок, сделанных на базе этих соотношений. Краткий обзор факторов, которые вызывают отличия, приведен в тексте статьи.

    Основное внимание в данной статье уделяется скорости поперечной волны, формирующейся при ударе, так как только ее можно непосредственно наблюдать и измерять с помощью высокоскоростной съемки или иных методов. Рассматривается влияние предварительного натяжения нити на скорость волны. Данный фактор важен, так как он неизбежно возникает в результатах натурных испытаний в силу того, что надежное закрепление и точное позиционирование нити на экспериментальной установке требует некоторого ее натяжения. В данной работе показано, что предварительная деформация нити существенно влияет на скорость поперечной волны, возникающей в ходе ударного взаимодействия.

    Выполнены расчеты серии постановок для нитей Kevlar 29 и Spectra 1000. Для различных уровней начального натяжения получены скорости поперечных волн. Приведено прямое сравнение численных результатов и аналитических оценок с данными экспериментов. Для рассмотренных постановок скорость поперечной волны в свободной и в нагруженной нити отличалась практически в два раза. Таким образом, показано, что измерения, основанные на высокоскоростной съемке и анализе наблюдаемых поперечных волн, должны учитывать предварительную деформацию нити.

    В работе предложена формула для быстрой оценки скорости поперечной волны в натянутых нитях. Данная формула получена из основных соотношений теории Рахматулина – Смита в предположении большой начальной деформации нити. На примере рассмотренных постановок для Kevlar 29 и Spectra 1000 показано, что полученная формула может давать существенно лучшие результаты, чем классическое приближение. Также показано, что прямой численный расчет дает результаты, которые оказываются значительно ближе к экспериментальным данным, чем любая из рассмотренных аналитических оценок.

    Vasyukov A.V., Beklemysheva K.A., Onuchin E.S., Tovarnova N.A., Petrov I.B.
    Calculation of transverse wave speed in preloaded fibres under an impact
    Computer Research and Modeling, 2022, v. 14, no. 4, pp. 887-897

    The paper considers the problem of transverse impact on a thin preloaded fiber. The commonly accepted theory of transverse impact on a thin fiber is based on the classical works of Rakhmatulin and Smith. The simple relations obtained from the Rakhmatulin – Smith theory are widely used in engineering practice. However, there are numerous evidences that experimental results may differ significantly from estimations based on these relations. A brief overview of the factors that cause the differences is given in this article.

    This paper focuses on the shear wave velocity, as it is the only feature that can be directly observed and measured using high-speed cameras or similar methods. The influence of the fiber preload on the wave speed is considered. This factor is important, since it inevitably arises in the experimental results. The reliable fastening and precise positioning of the fiber during the experiments requires its preload. This work shows that the preload significantly affects the shear wave velocity in the impacted fiber.

    Numerical calculations were performed for Kevlar 29 and Spectra 1000 yarns. Shear wave velocities are obtained for different levels of initial tension. A direct comparison of numerical results and analytical estimations with experimental data is presented. The speed of the transverse wave in free and preloaded fibers differed by a factor of two for the setup parameters considered. This fact demonstrates that measurements based on high-speed imaging and analysis of the observed shear waves should take into account the preload of the fibers.

    This paper proposes a formula for a quick estimation of the shear wave velocity in preloaded fibers. The formula is obtained from the basic relations of the Rakhmatulin – Smith theory under the assumption of a large initial deformation of the fiber. The formula can give significantly better results than the classical approximation, this fact is demonstrated using the data for preloaded Kevlar 29 and Spectra 1000. The paper also shows that direct numerical calculation has better corresponding with the experimental data than any of the considered analytical estimations.

  5. Сокрытие информации в цифровых изображениях является перспективным направлением кибербезопасности. Методы стеганографии обеспечивают незаметную передачу данных по открытому каналу связи втайне от злоумышленника. Эффективность встраивания информации зависит от того, насколько незаметным и робастным является скрытое вложение, а также от емкости встраивания. Однако показатели качества встраивания являются взаимно обратными и улучшение значения одного из них обычно приводит к ухудшению остальных. Баланс между ними может быть достигнут с помощью применения метаэвристической оптимизации. Метаэвристики позволяют находить оптимальные или близкие к ним решения для многих задач, в том числе трудно формализуемых, моделируя разные природные процессы, например эволюцию видов или поведение животных. В этой статье предлагается новый подход к сокрытию данных в гибридном пространственно-частотном домене цифровых изображений на основе метаэвристической оптимизации. В качестве операции встраивания выбрано изменение блока пикселей изображения в соответствии с некоторой матрицей изменений. Матрица изменений выбирается адаптивно для каждого блока с помощью алгоритмов метаэвристической оптимизации. В работе сравнивается эффективность трех метаэвристик, таких как генетический алгоритм (ГА), оптимизация роя частиц (ОРЧ) и дифференциальная эволюция (ДЭ), для поиска лучшей матрицы изменений. Результаты экспериментов показывают, что новый подход обеспечивает высокую незаметность встраивания, высокую емкость и безошибочное извлечение встроенной информации. При этом хранение и передача матриц изменений для каждого блока не требуются для извлечения данных, что уменьшает вероятность обнаружения скрытого вложения злоумышленником. Метаэвристики обеспечили прирост показателей незаметности и емкости по сравнению с предшествующим алгоритмом встраивания данных в коэффициенты дискретного косинусного преобразования по методу QIM [Evsutin, Melman, Meshcheryakov, 2021] соответственно на 26,02% и 30,18% для ГА, на 26,01% и 19,39% для ОРЧ, на 27,30% и 28,73% для ДЭ.

    Melman A.S., Evsutin O.O.
    Efficient and error-free information hiding in the hybrid domain of digital images using metaheuristic optimization
    Computer Research and Modeling, 2023, v. 15, no. 1, pp. 197-210

    Data hiding in digital images is a promising direction of cybersecurity. Digital steganography methods provide imperceptible transmission of secret data over an open communication channel. The information embedding efficiency depends on the embedding imperceptibility, capacity, and robustness. These quality criteria are mutually inverse, and the improvement of one indicator usually leads to the deterioration of the others. A balance between them can be achieved using metaheuristic optimization. Metaheuristics are a class of optimization algorithms that find an optimal, or close to an optimal solution for a variety of problems, including those that are difficult to formalize, by simulating various natural processes, for example, the evolution of species or the behavior of animals. In this study, we propose an approach to data hiding in the hybrid spatial-frequency domain of digital images based on metaheuristic optimization. Changing a block of image pixels according to some change matrix is considered as an embedding operation. We select the change matrix adaptively for each block using metaheuristic optimization algorithms. In this study, we compare the performance of three metaheuristics such as genetic algorithm, particle swarm optimization, and differential evolution to find the best change matrix. Experimental results showed that the proposed approach provides high imperceptibility of embedding, high capacity, and error-free extraction of embedded information. At the same time, storage of change matrices for each block is not required for further data extraction. This improves user experience and reduces the chance of an attacker discovering the steganographic attachment. Metaheuristics provided an increase in imperceptibility indicator, estimated by the PSNR metric, and the capacity of the previous algorithm for embedding information into the coefficients of the discrete cosine transform using the QIM method [Evsutin, Melman, Meshcheryakov, 2021] by 26.02% and 30.18%, respectively, for the genetic algorithm, 26.01% and 19.39% for particle swarm optimization, 27.30% and 28.73% for differential evolution.

  6. Чэнь Ц., Лобанов А.В., Рогозин А.В.
    Решение негладких распределенных минимаксных задач с применением техники сглаживания
    Компьютерные исследования и моделирование, 2023, т. 15, № 2, с. 469-480

    Распределенные седловые задачи имеют множество различных приложений в оптимизации, теории игр и машинном обучении. Например, обучение генеративных состязательных сетей может быть представлено как минимаксная задача, а также задача обучения линейных моделей с регуляризатором может быть переписана как задача поиска седловой точки. В данной статье исследуются распределенные негладкие седловые задачи с липшицевыми целевыми функциями (возможно, недифференцируемыми). Целевая функция представляется в виде суммы нескольких слагаемых, распределенных между группой вычислительных узлов. Каждый узел имеет доступ к локально хранимой функции. Узлы, или агенты, обмениваются информацией через некоторую коммуникационную сеть, которая может быть централизованной или децентрализованной. В централизованной сети есть универсальный агрегатор информации (сервер или центральный узел), который напрямую взаимодействует с каждым из агентов и, следовательно, может координировать процесс оптимизации. В децентрализованной сети все узлы равноправны, серверный узел отсутствует, и каждый агент может общаться только со своими непосредственными соседями.

    Мы предполагаем, что каждый из узлов локально хранит свою целевую функцию и может вычислить ее значение в заданных точках, т. е. имеет доступ к оракулу нулевого порядка. Информация нулевого порядка используется, когда градиент функции является трудно вычислимым, а также когда его невозможно вычислить или когда функция не дифференцируема. Например, в задачах обучения с подкреплением необходимо сгенерировать траекторию для оценки текущей стратегии. Этот процесс генерирования траектории и оценки политики можно интерпретировать как вычисление значения функции. Мы предлагаем подход, использующий технику сглаживания, т. е. применяющий метод первого порядка к сглаженной версии исходной функции. Можно показать, что стохастический градиент сглаженной функции можно рассматривать как случайную двухточечную аппроксимацию градиента исходной функции. Подходы, основанные на сглаживании, были изучены для распределенной минимизации нулевого порядка, и наша статья обобщает метод сглаживания целевой функции на седловые задачи.

    Chen J., Lobanov A.V., Rogozin A.V.
    Nonsmooth Distributed Min-Max Optimization Using the Smoothing Technique
    Computer Research and Modeling, 2023, v. 15, no. 2, pp. 469-480

    Distributed saddle point problems (SPPs) have numerous applications in optimization, matrix games and machine learning. For example, the training of generated adversarial networks is represented as a min-max optimization problem, and training regularized linear models can be reformulated as an SPP as well. This paper studies distributed nonsmooth SPPs with Lipschitz-continuous objective functions. The objective function is represented as a sum of several components that are distributed between groups of computational nodes. The nodes, or agents, exchange information through some communication network that may be centralized or decentralized. A centralized network has a universal information aggregator (a server, or master node) that directly communicates to each of the agents and therefore can coordinate the optimization process. In a decentralized network, all the nodes are equal, the server node is not present, and each agent only communicates to its immediate neighbors.

    We assume that each of the nodes locally holds its objective and can compute its value at given points, i. e. has access to zero-order oracle. Zero-order information is used when the gradient of the function is costly, not possible to compute or when the function is not differentiable. For example, in reinforcement learning one needs to generate a trajectory to evaluate the current policy. This policy evaluation process can be interpreted as the computation of the function value. We propose an approach that uses a smoothing technique, i. e., applies a first-order method to the smoothed version of the initial function. It can be shown that the stochastic gradient of the smoothed function can be viewed as a random two-point gradient approximation of the initial function. Smoothing approaches have been studied for distributed zero-order minimization, and our paper generalizes the smoothing technique on SPPs.

  7. В работе рассматривается метод исследования панельных данных, основанный на использовании агломеративной иерархической кластеризации — группировки объектов на основании сходства и разли- чия их признаков в иерархию вложенных друг в друга кластеров. Применялись 2 альтернативных способа вычисления евклидовых расстояний между объектами — расстояния между усредненными по интервалу наблюдений значениями и расстояния с использованием данных за все рассматриваемые годы. Сравнивались 3 альтернативных метода вычисления расстояний между кластерами. В первом случае таким расстоянием считается расстояние между ближайшими элементами из двух кластеров, во втором — среднее по парам элементов, в третьем — расстояние между наиболее удаленными элементами. Исследована эффективность использования двух индексов качества кластеризации — индекса Данна и Силуэта для выбора оптимального числа кластеров и оценки статистической значимости полученных решений. Способ оценивания статистической достоверности кластерной структуры заключался в сравнении качества кластеризации, на реальной выборке с качеством кластеризаций на искусственно сгенерированных выборках панельных данных с теми же самыми числом объектов, признаков и длиной рядов. Генерация производилась из фиксированного вероятностного распределения. Использовались способы симуляции, имитирующие гауссов белый шум и случайное блуждание. Расчеты с индексом Силуэт показали, что случайное блуждание характеризуется не только ложной регрессией, но и ложной кластеризацией. Кластеризация принималась достоверной для данного числа выделенных кластеров, если значение индекса на реальной выборке оказывалось больше значения 95%-ного квантиля для искусственных данных. В качестве выборки реальных данных использован набор временных рядов показателей, характеризующих производство в российских регионах. Для этих данных только Силуэт показывает достоверную кластеризацию на уровне $p < 0.05$. Расчеты также показали, что значения индексов для реальных данных в целом ближе к значениям для случайных блужданий, чем для белого шума, но имеют значимые отличия и от тех, и от других. Визуально можно выделить скопления близко расположенных друг от друга в трехмерном признаковом пространстве точек, выделяемые также в качестве кластеров применяемым алгоритмом иерархической кластеризации.

    Kirilyuk I.L., Sen'ko O.V.
    Assessing the validity of clustering of panel data by Monte Carlo methods (using as example the data of the Russian regional economy)
    Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1501-1513

    The paper considers a method for studying panel data based on the use of agglomerative hierarchical clustering — grouping objects based on the similarities and differences in their features into a hierarchy of clusters nested into each other. We used 2 alternative methods for calculating Euclidean distances between objects — the distance between the values averaged over observation interval, and the distance using data for all considered years. Three alternative methods for calculating the distances between clusters were compared. In the first case, the distance between the nearest elements from two clusters is considered to be distance between these clusters, in the second — the average over pairs of elements, in the third — the distance between the most distant elements. The efficiency of using two clustering quality indices, the Dunn and Silhouette index, was studied to select the optimal number of clusters and evaluate the statistical significance of the obtained solutions. The method of assessing statistical reliability of cluster structure consisted in comparing the quality of clustering on a real sample with the quality of clustering on artificially generated samples of panel data with the same number of objects, features and lengths of time series. Generation was made from a fixed probability distribution. At the same time, simulation methods imitating Gaussian white noise and random walk were used. Calculations with the Silhouette index showed that a random walk is characterized not only by spurious regression, but also by “spurious clustering”. Clustering was considered reliable for a given number of selected clusters if the index value on the real sample turned out to be greater than the value of the 95% quantile for artificial data. A set of time series of indicators characterizing production in the regions of the Russian Federation was used as a sample of real data. For these data only Silhouette shows reliable clustering at the level p < 0.05. Calculations also showed that index values for real data are generally closer to values for random walks than for white noise, but it have significant differences from both. Since three-dimensional feature space is used, the quality of clustering was also evaluated visually. Visually, one can distinguish clusters of points located close to each other, also distinguished as clusters by the applied hierarchical clustering algorithm.

  8. Варшавский L.Е.
    Исследование динамики структуры олигополистических рынков при нерыночных противодействиях сторон
    Компьютерные исследования и моделирование, 2021, т. 13, № 1, с. 219-233

    В статье исследуется влияние нерыночных действий участников олигополистических рынков на рыночную структуру. Анализируются следующие действия одного из участников рынка, направленные на повышение его рыночной доли: 1) манипуляция ценами; 2) блокировка инвестиций более сильных олигополистов; 3) уничтожение производственной продукции и мощностей конкурентов. Для моделирования стратегий олигополистов используются линейные динамические игры с квадратичным критерием. Целесообразность их использования обусловлена возможностью как адекватного описания эволюции рынков, так и реализации двух взаимно дополняющих подходов к определению стратегий олигополистов: 1) подхода, основанного на представлении моделей в пространстве состояний и решении обобщенных уравнений Риккати; 2) подхода, основанного на применении методов операционного исчисления (в частотной области) и обладающего необходимой для экономического анализа наглядностью.

    В статье показывается эквивалентность подходов к решению задачи с максиминными критериями олигополистов в пространстве состояний и в частотной области. Рассматриваются результаты расчетов применительно к дуополии, с показателями, близкими к одной из дуополий в микроэлектронной промышленности мира. Второй дуополист является менее эффективным с позиций затрат, хотя и менее инерционным. Его цель состоит в повышении своей рыночной доли путем реализации перечисленных выше нерыночных методов.

    На основе расчетов по игровой модели построены зависимости, характеризующие связь относи- тельного увеличения объемов производства за 25-летний период слабого $dy_2$ и сильного $dy_1$ дуополистов при манипуляции ценами. Показано, что увеличение цены при принятой линейной функции спроса приводит к весьма незначительному росту производства сильного дуополиста, но вместе с тем — к существенному росту этого показателя у слабого.

    В то же время блокировка инвестиций, а также уничтожение продукции сильного дуополиста приводят к росту объемов производства товарной продукции у слабого дуополиста за счет снижения этого показателя у сильного, причем эластичность $\frac{y_2}{dy_1}$ превышает по модулю 1.

    varshavsky L.Eug.
    Study of the dynamics of the structure of oligopolistic markets with non-market opposition parties
    Computer Research and Modeling, 2021, v. 13, no. 1, pp. 219-233

    The article examines the impact of non-market actions of participants in oligopolistic markets on the market structure. The following actions of one of the market participants aimed at increasing its market share are analyzed: 1) price manipulation; 2) blocking investments of stronger oligopolists; 3) destruction of produced products and capacities of competitors. Linear dynamic games with a quadratic criterion are used to model the strategies of oligopolists. The expediency of their use is due to the possibility of both an adequate description of the evolution of markets and the implementation of two mutually complementary approaches to determining the strategies of oligopolists: 1) based on the representation of models in the state space and the solution of generalized Riccati equations; 2) based on the application of operational calculus methods (in the frequency domain) which owns the visibility necessary for economic analysis.

    The article shows the equivalence of approaches to solving the problem with maximin criteria of oligopolists in the state space and in the frequency domain. The results of calculations are considered in relation to a duopoly, with indicators close to one of the duopolies in the microelectronic industry of the world. The second duopolist is less effective from the standpoint of costs, though more mobile. Its goal is to increase its market share by implementing the non-market methods listed above.

    Calculations carried out with help of the game model, made it possible to construct dependencies that characterize the relationship between the relative increase in production volumes over a 25-year period of weak and strong duopolists under price manipulation. Constructed dependencies show that an increase in the price for the accepted linear demand function leads to a very small increase in the production of a strong duopolist, but, simultaneously, to a significant increase in this indicator for a weak one.

    Calculations carried out with use of the other variants of the model, show that blocking investments, as well as destroying the products of a strong duopolist, leads to more significant increase in the production of marketable products for a weak duopolist than to a decrease in this indicator for a strong one.

  9. Аблаев С.С., Макаренко Д.В., Стонякин Ф.С., Алкуса М.С., Баран И.В.
    Субградиентные методы для задач негладкой оптимизации с некоторой релаксацией условия острого минимума
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 473-495

    Задачи негладкой оптимизации нередко возникают во многих приложениях. Вопросы разработки эффективных вычислительных процедур для негладких задач в пространствах больших размерностей весьма актуальны. В таких случаях разумно применятьмет оды первого порядка (субградиентные методы), однако в достаточно общих ситуациях они приводят к невысоким скоростным гарантиям. Одним из подходов к этой проблеме может являться выделение подкласса негладких задач, допускающих относительно оптимистичные результаты о скорости сходимости в пространствах больших размерностей. К примеру, одним из вариантов дополнительных предположений может послужитьуслови е острого минимума, предложенное в конце 1960-х годов Б. Т. Поляком. В случае доступности информации о минимальном значении функции для липшицевых задач с острым минимумом известен субградиентный метод с шагом Б. Т. Поляка, который гарантирует линейную скорость сходимости по аргументу. Такой подход позволил покрыть ряд важных прикладных задач (например, задача проектирования точки на выпуклый компакт или задача отыскания общей точки системы выпуклых множеств). Однако как условие доступности минимального значения функции, так и само условие острого минимума выглядят довольно ограничительными. В этой связи в настоящей работе предлагается обобщенное условие острого минимума, аналогичное известному понятию неточного оракула. Предложенный подход позволяет расширить класс применимости субградиентных методов с шагом Б. Т. Поляка на ситуации неточной информации о значении минимума, а также неизвестной константы Липшица целевой функции. Более того, использование в теоретической оценке качества выдаваемого методом решения локальных аналогов глобальных характеристик целевой функции позволяет применять результаты такого типа и к более широким классам задач. Показана возможностьпр именения предложенного подхода к сильно выпуклым негладким задачам и выполнено экспериментальное сравнение с известным оптимальным субградиентным методом на таком классе задач. Более того, получены результаты о применимости предложенной методики для некоторых типов задач с релаксациями выпуклости: недавно предложенное понятие слабой $\beta$-квазивыпуклости и обычной квазивыпуклости. Исследовано обобщение описанной методики на ситуацию с предположением о доступности на итерациях $\delta$-субградиента целевой функции вместо обычного субградиента. Для одного из рассмотренных методов найдены условия, при которых на практике можно отказаться от проектирования итеративной последовательности на допустимое множество поставленной задачи.

    Ablaev S.S., Makarenko D.V., Stonyakin F.S., Alkousa M.S., Baran I.V.
    Subgradient methods for non-smooth optimization problems with some relaxation of sharp minimum
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 473-495

    Non-smooth optimization often arises in many applied problems. The issues of developing efficient computational procedures for such problems in high-dimensional spaces are very topical. First-order methods (subgradient methods) are well applicable here, but in fairly general situations they lead to low speed guarantees for large-scale problems. One of the approaches to this type of problem can be to identify a subclass of non-smooth problems that allow relatively optimistic results on the rate of convergence. For example, one of the options for additional assumptions can be the condition of a sharp minimum, proposed in the late 1960s by B. T. Polyak. In the case of the availability of information about the minimal value of the function for Lipschitz-continuous problems with a sharp minimum, it turned out to be possible to propose a subgradient method with a Polyak step-size, which guarantees a linear rate of convergence in the argument. This approach made it possible to cover a number of important applied problems (for example, the problem of projecting onto a convex compact set). However, both the condition of the availability of the minimal value of the function and the condition of a sharp minimum itself look rather restrictive. In this regard, in this paper, we propose a generalized condition for a sharp minimum, somewhat similar to the inexact oracle proposed recently by Devolder – Glineur – Nesterov. The proposed approach makes it possible to extend the class of applicability of subgradient methods with the Polyak step-size, to the situation of inexact information about the value of the minimum, as well as the unknown Lipschitz constant of the objective function. Moreover, the use of local analogs of the global characteristics of the objective function makes it possible to apply the results of this type to wider classes of problems. We show the possibility of applying the proposed approach to strongly convex nonsmooth problems, also, we make an experimental comparison with the known optimal subgradient method for such a class of problems. Moreover, there were obtained some results connected to the applicability of the proposed technique to some types of problems with convexity relaxations: the recently proposed notion of weak $\beta$-quasi-convexity and ordinary quasiconvexity. Also in the paper, we study a generalization of the described technique to the situation with the assumption that the $\delta$-subgradient of the objective function is available instead of the usual subgradient. For one of the considered methods, conditions are found under which, in practice, it is possible to escape the projection of the considered iterative sequence onto the feasible set of the problem.

  10. Голубев В.И., Шевченко А.В., Петров И.Б.
    Повышение порядка точности сеточно-характеристического метода для задач двумерной линейной упругости с помощью схем операторного расщепления
    Компьютерные исследования и моделирование, 2022, т. 14, № 4, с. 899-910

    Сеточно-характеристический метод успешно применяется для решения различных гиперболических систем уравнений в частных производных (например, уравнения переноса, акустики, линейной упругости). Он позволяет корректно строить алгоритмы на контактных границах и границах области интегрирования, в определенной степени учитывать физику задачи (распространение разрывов вдоль характеристических поверхностей), обладает важнымдля рассматриваемых задач свойством монотонности. В случае двумерных и трехмерных задач используется процедура расщепления по пространственным направлениям, позволяющая решить исходную систему путем последовательного решения нескольких одномерных систем. На настоящий момент во множестве работ используются схемы до третьего порядка точности при решении одномерных задач и простейшие схемы расщепления, которые в общем случае не позволяют получить порядок точности по времени выше второго. Значительное развитие получило направление операторного расщепления, доказана возможность повышения порядка сходимости многомерных схем. Его особенностью является необходимость выполнения шага в обратном направлении по времени, что порождает сложности, например, для параболических задач.

    В настоящей работе схемы расщепления 3-го и 4-го порядка были применены непосредственно к решению двумерной гиперболической системы уравнений в частных производных линейной теории упругости. Это позволило повысить итоговый порядок сходимости расчетного алгоритма. В работе эмпирически оценена сходимость по нормам $L_1$ и $L_\infty$ с использованиемана литических решений определяющей системы достаточной степени гладкости. Для получения объективных результатов рассмотрены случаи продольных и поперечных плоских волн, распространяющихся как вдоль диагонали расчетной ячейки, так и не вдоль нее. Проведенные численные эксперименты подтверждают повышение точности метода и демонстрируют теоретически ожидаемый порядок сходимости. При этом увеличивается в 3 и в 4 раза время моделирования (для схем 3-го и 4-го порядка соответственно), но не возрастает потребление оперативной памяти. Предложенное усовершенствование вычислительного алгоритма сохраняет простоту его параллельной реализации на основе пространственной декомпозиции расчетной сетки.

    Golubev V.I., Shevchenko A.V., Petrov I.B.
    Raising convergence order of grid-characteristic schemes for 2D linear elasticity problems using operator splitting
    Computer Research and Modeling, 2022, v. 14, no. 4, pp. 899-910

    The grid-characteristic method is successfully used for solving hyperbolic systems of partial differential equations (for example, transport / acoustic / elastic equations). It allows to construct correctly algorithms on contact boundaries and boundaries of the integration domain, to a certain extent to take into account the physics of the problem (propagation of discontinuities along characteristic curves), and has the property of monotonicity, which is important for considered problems. In the cases of two-dimensional and three-dimensional problems the method makes use of a coordinate splitting technique, which enables us to solve the original equations by solving several one-dimensional ones consecutively. It is common to use up to 3-rd order one-dimensional schemes with simple splitting techniques which do not allow for the convergence order to be higher than two (with respect to time). Significant achievements in the operator splitting theory were done, the existence of higher-order schemes was proved. Its peculiarity is the need to perform a step in the opposite direction in time, which gives rise to difficulties, for example, for parabolic problems.

    In this work coordinate splitting of the 3-rd and 4-th order were used for the two-dimensional hyperbolic problem of the linear elasticity. This made it possible to increase the final convergence order of the computational algorithm. The paper empirically estimates the convergence in L1 and L∞ norms using analytical solutions of the system with the sufficient degree of smoothness. To obtain objective results, we considered the cases of longitudinal and transverse plane waves propagating both along the diagonal of the computational cell and not along it. Numerical experiments demonstrated the improved accuracy and convergence order of constructed schemes. These improvements are achieved with the cost of three- or fourfold increase of the computational time (for the 3-rd and 4-th order respectively) and no additional memory requirements. The proposed improvement of the computational algorithm preserves the simplicity of its parallel implementation based on the spatial decomposition of the computational grid.

Pages: « first previous next last »

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"