Результаты поиска по 'вычисления':
Найдено статей: 210
  1. Кокс М.А., Рид Р., Мелладо Б.
    Разработка системы ARM на базе блока обработки данных для вы- числений потока данных, реализованного на основе ИС
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 505-509

    Современные масштабные научные проекты становятся все более информационно ёмкими, и обработка хранимых данных в режиме offline является невозможной. Требуется высокая пропускная способность при вычислениях или Вычисления Потока Данных, чтобы иметь возможность обрабатывать терабайты данных в секунду; такие данные не могут быть элементами длительного хранения. Общепринятые дата-центры, основанные на стандартном аппаратном обеспечении, являются дорогими и настроены на вычислительную мощность. Общая пропускная способность может быть увеличена с помощью массивного параллелизма, чаще всего за счет повышенной вычислительной мощности и потребления энергии. Система ARM на основе ИС (SoC) может решить проблему системы ввода/вывода и соотношение CPU, доступность и эффективность использования энергии, так как ARM SoC являются элементами массового производства и разработаны на основе эффективного использования энергии в мобильных устройствах. На данный момент такой элемент обработки находится в разработке и нацелен на пропускную способность ввода/вывода в 20 Гб/c и значительную вычислительную мощность. Рассмотрены возможности ввода/вывода потребления системы ARM на основе ИС вместе с вычислением производительности и тестами на пропускную способность ввода/вывода.

    Cox M.A., Reed R.G., Mellado B.
    The development of an ARM system on chip based processing unit for data stream computing
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 505-509

    Modern big science projects are becoming highly data intensive to the point where offline processing of stored data is infeasible. High data throughput computing, or Data Stream Computing, for future projects is required to deal with terabytes of data per second which cannot be stored in long-term storage elements. Conventional data-centres based on typical server-grade hardware are expensive and are biased towards processing power. The overall I/O bandwidth can be increased with massive parallelism, usually at the expense of excessive processing power and high energy consumption. An ARM System on Chip (SoC) based processing unit may address the issue of system I/O and CPU balance, affordability and energy efficiency since ARM SoCs are mass produced and designed to be energy efficient for use in mobile devices. Such a processing unit is currently in development, with a design goal of 20 Gb/s I/O throughput and significant processing power. The I/O capabilities of consumer ARM System on Chips are discussed along with to-date performance and I/O throughput tests.

    Views (last year): 1.
  2. В работе рассматривается метод исследования панельных данных, основанный на использовании агломеративной иерархической кластеризации — группировки объектов на основании сходства и разли- чия их признаков в иерархию вложенных друг в друга кластеров. Применялись 2 альтернативных способа вычисления евклидовых расстояний между объектами — расстояния между усредненными по интервалу наблюдений значениями и расстояния с использованием данных за все рассматриваемые годы. Сравнивались 3 альтернативных метода вычисления расстояний между кластерами. В первом случае таким расстоянием считается расстояние между ближайшими элементами из двух кластеров, во втором — среднее по парам элементов, в третьем — расстояние между наиболее удаленными элементами. Исследована эффективность использования двух индексов качества кластеризации — индекса Данна и Силуэта для выбора оптимального числа кластеров и оценки статистической значимости полученных решений. Способ оценивания статистической достоверности кластерной структуры заключался в сравнении качества кластеризации, на реальной выборке с качеством кластеризаций на искусственно сгенерированных выборках панельных данных с теми же самыми числом объектов, признаков и длиной рядов. Генерация производилась из фиксированного вероятностного распределения. Использовались способы симуляции, имитирующие гауссов белый шум и случайное блуждание. Расчеты с индексом Силуэт показали, что случайное блуждание характеризуется не только ложной регрессией, но и ложной кластеризацией. Кластеризация принималась достоверной для данного числа выделенных кластеров, если значение индекса на реальной выборке оказывалось больше значения 95%-ного квантиля для искусственных данных. В качестве выборки реальных данных использован набор временных рядов показателей, характеризующих производство в российских регионах. Для этих данных только Силуэт показывает достоверную кластеризацию на уровне $p < 0.05$. Расчеты также показали, что значения индексов для реальных данных в целом ближе к значениям для случайных блужданий, чем для белого шума, но имеют значимые отличия и от тех, и от других. Визуально можно выделить скопления близко расположенных друг от друга в трехмерном признаковом пространстве точек, выделяемые также в качестве кластеров применяемым алгоритмом иерархической кластеризации.

    Kirilyuk I.L., Sen'ko O.V.
    Assessing the validity of clustering of panel data by Monte Carlo methods (using as example the data of the Russian regional economy)
    Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1501-1513

    The paper considers a method for studying panel data based on the use of agglomerative hierarchical clustering — grouping objects based on the similarities and differences in their features into a hierarchy of clusters nested into each other. We used 2 alternative methods for calculating Euclidean distances between objects — the distance between the values averaged over observation interval, and the distance using data for all considered years. Three alternative methods for calculating the distances between clusters were compared. In the first case, the distance between the nearest elements from two clusters is considered to be distance between these clusters, in the second — the average over pairs of elements, in the third — the distance between the most distant elements. The efficiency of using two clustering quality indices, the Dunn and Silhouette index, was studied to select the optimal number of clusters and evaluate the statistical significance of the obtained solutions. The method of assessing statistical reliability of cluster structure consisted in comparing the quality of clustering on a real sample with the quality of clustering on artificially generated samples of panel data with the same number of objects, features and lengths of time series. Generation was made from a fixed probability distribution. At the same time, simulation methods imitating Gaussian white noise and random walk were used. Calculations with the Silhouette index showed that a random walk is characterized not only by spurious regression, but also by “spurious clustering”. Clustering was considered reliable for a given number of selected clusters if the index value on the real sample turned out to be greater than the value of the 95% quantile for artificial data. A set of time series of indicators characterizing production in the regions of the Russian Federation was used as a sample of real data. For these data only Silhouette shows reliable clustering at the level p < 0.05. Calculations also showed that index values for real data are generally closer to values for random walks than for white noise, but it have significant differences from both. Since three-dimensional feature space is used, the quality of clustering was also evaluated visually. Visually, one can distinguish clusters of points located close to each other, also distinguished as clusters by the applied hierarchical clustering algorithm.

  3. Ганкевич И.Г., Балян С.Г., Абраамян С.А., Корхов В.В.
    Применение создаваемых по требованию виртуальных кластеров в высокопроизводительных вычислениях
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 511-516

    Виртуальные машины обычно ассоциируются с возможностью создавать их по требованию для предоставления клиентам разнородных веб-сервисов, однако, автоматическое создание виртуальных машин для запуска на них вычислений общего назначения на практике широко не используется. Такой сценарий использования виртуализации полезен в среде высокопроизводительных вычислений, где большинство ресурсов не потребляется разнородными сервисами, а используется для пакетной обработки данных. В этом случае для запуска каждого приложения создается отдельный кластер виртуальных машин, а запись выходных данных производится на сетевое хранилище. После того как приложение завершает свое выполнение, кластер уничтожается, высвобождая занятые вычислительные ресурсы. После определенных изменений данный подход может быть использован для предоставления виртуального рабочего стола в интерактивном режиме. Эксперименты показывают, что процесс создания виртуальных кластеров по требованию может быть эффективно реализован в обоих случаях.

    Gankevich I.G., Balyan S.G., Abrahamyan S.A., Korkhov V.V.
    Applications of on-demand virtual clusters to high performance computing
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 511-516

    Virtual machines are usually associated with an ability to create them on demand by calling web services, then these machines are used to deliver resident services to their clients; however, providing clients with an ability to run an arbitrary programme on the newly created machines is beyond their power. Such kind of usage is useful in a high performance computing environment where most of the resources are consumed by batch programmes and not by daemons or services. In this case a cluster of virtual machines is created on demand to run a distributed or parallel programme and to save its output to a network attached storage. Upon completion this cluster is destroyed and resources are released. With certain modifications this approach can be extended to interactively deliver computational resources to the user thus providing virtual desktop as a service. Experiments show that the process of creating virtual clusters on demand can be made efficient in both cases.

    Views (last year): 1.
  4. Ирхин И.А., Булатов В.Г., Воронцов К.В.
    Аддитивная регуляризация тематических моделей с быстрой векторизацией текста
    Компьютерные исследования и моделирование, 2020, т. 12, № 6, с. 1515-1528

    Задача вероятностного тематического моделирования заключается в том, чтобы по заданной коллекции текстовых документов найти две матрицы: матрицу условных вероятностей тем в документах и матрицу условных вероятностей слов в темах. Каждый документ представляется в виде мультимножества слов, то есть предполагается, что для выявления тематики документа не важен порядок слов в нем, а важна только их частота. При таком предположении задача сводится к вычислению низкорангового неотрицательного матричного разложения, наилучшего по критерию максимума правдоподобия. Данная задача имеет в общем случае бесконечное множество решений, то есть является некорректно поставленной. Для регуляризации ее решения к логарифму правдоподобия добавляется взвешенная сумма оптимизационных критериев, с помощью которых формализуются дополнительные требования к модели. При моделировании больших текстовых коллекций хранение первой матрицы представляется нецелесообразным, поскольку ее размер пропорционален числу документов в коллекции. В то же время тематические векторные представления документов необходимы для решения многих задач текстовой аналитики — информационного поиска, кластеризации, классификации, суммаризации текстов. На практике тематический вектор вычисляется для каждого документа по необходимости, что может потребовать десятков итераций по всем словам документа. В данной работе предлагается способ быстрого вычисления тематического вектора для произвольного текста, требующий лишь одной итерации, то есть однократного прохода по всем словам документа. Для этого в модель вводится дополнительное ограничение в виде уравнения, позволяющего вычислять первую матрицу через вторую за линейное время. Хотя формально данное ограничение не является оптимизационным критерием, фактически оно выполняет роль регуляризатора и может применяться в сочетании с другими критериями в рамках теории аддитивной регуляризации тематических моделей ARTM. Эксперименты на трех свободно доступных текстовых коллекциях показали, что предложенный метод улучшает качество модели по пяти оценкам качества, характеризующим разреженность, различность, информативность и когерентность тем. Для проведения экспериментов использовались библиотеки с открытымк одомB igARTM и TopicNet.

    Irkhin I.A., Bulatov V.G., Vorontsov K.V.
    Additive regularizarion of topic models with fast text vectorizartion
    Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1515-1528

    The probabilistic topic model of a text document collection finds two matrices: a matrix of conditional probabilities of topics in documents and a matrix of conditional probabilities of words in topics. Each document is represented by a multiset of words also called the “bag of words”, thus assuming that the order of words is not important for revealing the latent topics of the document. Under this assumption, the problem is reduced to a low-rank non-negative matrix factorization governed by likelihood maximization. In general, this problem is ill-posed having an infinite set of solutions. In order to regularize the solution, a weighted sum of optimization criteria is added to the log-likelihood. When modeling large text collections, storing the first matrix seems to be impractical, since its size is proportional to the number of documents in the collection. At the same time, the topical vector representation (embedding) of documents is necessary for solving many text analysis tasks, such as information retrieval, clustering, classification, and summarization of texts. In practice, the topical embedding is calculated for a document “on-the-fly”, which may require dozens of iterations over all the words of the document. In this paper, we propose a way to calculate a topical embedding quickly, by one pass over document words. For this, an additional constraint is introduced into the model in the form of an equation, which calculates the first matrix from the second one in linear time. Although formally this constraint is not an optimization criterion, in fact it plays the role of a regularizer and can be used in combination with other regularizers within the additive regularization framework ARTM. Experiments on three text collections have shown that the proposed method improves the model in terms of sparseness, difference, logLift and coherence measures of topic quality. The open source libraries BigARTM and TopicNet were used for the experiments.

  5. Дроботенко М.И., Невечеря А.П.
    Прогнозирование динамики трудовых ресурсов на многоотраслевом рынке труда
    Компьютерные исследования и моделирование, 2021, т. 13, № 1, с. 235-250

    Рассмотрена задача прогнозирования количества занятых и безработных многоотраслевого рынка труда на основе балансовой математической модели межотраслевых перемещений трудовых ресурсов.

    Балансовая математическая модель позволяет вычислять значения показателей межотраслевых перемещений с помощью только статистических данных по отраслевой занятости и безработице, предоставляемых Федеральной службой государственной статистики. Вычисленные за несколько лет подряд показатели межотраслевых перемещений трудовых ресурсов используются для построения трендов каждого из этих показателей. С помощью найденных трендов осуществляется прогнозирование показателей межотраслевых перемещений трудовых ресурсов, на основе результатов которого проводится прогнозирование отраслевой занятости и безработицы исследуемого многоотраслевого рынка труда.

    Предложенный подход применен для прогнозирования занятых специалистов в отраслях народного хозяйства Российской Федерации в 2011–2016 гг. Для описания тенденций показателей, определяющих межотраслевые перемещения трудовых ресурсов, использовались следующие виды трендов: линейный, нелинейный, константный. Порядок выбора трендов наглядно продемонстрирован на примере показателей, определяющих перемещения трудовых ресурсов из отрасли «Транспорт и связь» в отрасль «Здравоохранение и предоставление социальных услуг», а также из отрасли «Государственное управление и обеспечение военной безопасности, социальное обеспечение» в отрасль «Образование».

    Произведено сравнение нескольких подходов к прогнозированию: наивный прогноз, в рамках которого прогнозирование показателей рынка труда осуществлялось только на основе константного тренда; прогнозирование на основе балансовой модели с использованием только константного тренда для всех показателей, определяющих межотраслевые перемещения трудовых ресурсов; прогноз непосредственно по количеству занятых в отраслях экономики с помощью рассматриваемых в работе видов трендов; прогнозирование на основе балансовой модели с выбором тренда для каждого показателя, определяющего межотраслевые перемещения трудовых ресурсов. Показано, что использование балансовой модели обеспечивает лучшее качество прогноза по сравнению с прогнозированиемне посредственно по количеству занятых. Учет трендов показателей межотраслевых перемещений улучшает качество прогноза.

    Также в статье приведены примеры анализа состояния многоотраслевого рынка труда Российской Федерации. С помощью балансовой модели были получены такие сведения, как распределение исходящих из конкретных отраслей потоков трудовых ресурсов по отраслямэк ономики, отраслевая структура входящих в конкретные отрасли потоков трудовых ресурсов. Эти сведения не содержаться непосредственно в данных, предоставляемых Федеральной службой государственной статистики.

    Drobotenko M.I., Nevecherya A.P.
    Forecasting the labor force dynamics in a multisectoral labor market
    Computer Research and Modeling, 2021, v. 13, no. 1, pp. 235-250

    The article considers the problem of forecasting the number of employed and unemployed persons in a multisectoral labor market using a balance mathematical model of labor force intersectoral dynamics.

    The balance mathematical model makes it possible to calculate the values of intersectoral dynamics indicators using only statistical data on sectoral employment and unemployment provided by the Federal State Statistics Service. Intersectoral dynamics indicators of labor force calculated for several years in a row are used to build trends for each of these indicators. The found trends are used to calculation of forecasted intersectoral dynamics indicators of labor force. The sectoral employment and unemployment of researched multisectoral labor market is forecasted based on values these forecasted indicators.

    The proposed approach was applied to forecast the employed persons in the economic sectors of the Russian Federation in 2011–2016. The following types of trends were used to describe changes of intersectoral dynamics indicators values: linear, non-linear, constant. The procedure for selecting trends is clearly demonstrated by the example of indicators that determine the labor force movements from the “Transport and communications” sector to the “Healthcare and social services” sector, as well as from the “Public administration and military security, social security” sector to the “Education” sector.

    Several approaches to forecasting was compared: a) naive forecast, within which the labor market indicators was forecasted only using a constant trend; b) forecasting based on a balance model using only a constant trend for all intersectoral dynamics indicators of labor force; c) forecasting directly by the number employed persons in economic sectors using the types of trends considered in the article; d) forecasting based on a balance model with the trends choice for each intersectoral dynamics indicators of labor force.

    The article shows that the use of a balance model provides a better forecast quality compared to forecasting directly by the number of employed persons. The use of trends in intersectoral dynamics indicators improves the quality of the forecast. The article also provides analysis examples of the multisectoral labor market in the Russian Federation. Using the balance model, the following information was obtained: the labor force flows distribution outgoing from concrete sectors by sectors of the economy; the sectoral structure of the labor force flows ingoing in concrete sectors. This information is not directly contained in the data provided by the Federal State Statistics Service.

  6. Абрамов В.С., Петров М.Н.
    Применение метода Dynamic Mode Decomposition для поиска неустойчивых мод в задаче о ламинарно-турбулентном переходе
    Компьютерные исследования и моделирование, 2023, т. 15, № 4, с. 1069-1090

    Ламинарно-турбулентный переход является предметом активных исследований, связанных с повышением экономической эффективности авиатранспорта, так как в турбулентном пограничном слое увеличивается сопротивление, что ведет к росту расхода топлива. Одним из направлений таких исследований является поиск эффективных методов нахождения положения перехода в пространстве. Используя эту информацию при проектировании летательного аппарата, инженеры могут прогнозировать его технические характеристики и рентабельность уже на начальных этапах проекта. Традиционным для индустрии подходом к решению задачи поиска координат ламинарно-турбулентного перехода является $e^N$-метод. Однако, несмотря на повсеместное применение, он обладает рядом существенных недостатков, так как основан на предположении о параллельности моделируемого потока, что ограничивает сценарии его применения, а также требует проводить вычислительно затратные расчеты в широком диапазоне частот и волновых чисел. Альтернативой $e^N$-методу может служить применение метода Dynamic Mode Decomposition, который позволяет провести анализ возмущений потока, напрямую используя данные о нем. Это избавляет от необходимости в проведении затратных вычислений, а также расширяет область применения метода ввиду отсутствия в его построении предположений о параллельности потока.

    В представленном исследовании предлагается подход к нахождению положения ламинарно-турбулентного перехода с применением метода Dynamic Mode Decomposition, заключающийся в разбиении региона пограничного слоя на множества подобластей, по каждому из которых независимо вычисляется точка перехода, после чего результаты усредняются. Подход валидируется на случаях дозвукового и сверхзвукового обтекания двумерной пластины с нулевым градиентом давления. Результаты демонстрируют принципиальную применимость и высокую точность описываемого метода в широком диапазоне условий. Проводится сравнение с $e^N$-методом, доказывающее преимущества предлагаемого подхода, выражающиеся в более быстром получении результата при сопоставимой с $e^N$-методом точности получаемого решения, что говорит о перспективности использования описываемого подхода в прикладных задачах.

    Abramov V.S., Petrov M.N.
    Application of the Dynamic Mode Decomposition in search of unstable modes in laminar-turbulent transition problem
    Computer Research and Modeling, 2023, v. 15, no. 4, pp. 1069-1090

    Laminar-turbulent transition is the subject of an active research related to improvement of economic efficiency of air vehicles, because in the turbulent boundary layer drag increases, which leads to higher fuel consumption. One of the directions of such research is the search for efficient methods, that can be used to find the position of the transition in space. Using this information about laminar-turbulent transition location when designing an aircraft, engineers can predict its performance and profitability at the initial stages of the project. Traditionally, $e^N$ method is applied to find the coordinates of a laminar-turbulent transition. It is a well known approach in industry. However, despite its widespread use, this method has a number of significant drawbacks, since it relies on parallel flow assumption, which limits the scenarios for its application, and also requires computationally expensive calculations in a wide range of frequencies and wave numbers. Alternatively, flow analysis can be done by using Dynamic Mode Decomposition, which allows one to analyze flow disturbances using flow data directly. Since Dynamic Mode Decomposition is a dimensionality reduction method, the number of computations can be dramatically reduced. Furthermore, usage of Dynamic Mode Decomposition expands the applicability of the whole method, due to the absence of assumptions about the parallel flow in its derivation.

    The presented study proposes an approach to finding the location of a laminar-turbulent transition using the Dynamic Mode Decomposition method. The essence of this approach is to divide the boundary layer region into sets of subregions, for each of which the transition point is independently calculated, using Dynamic Mode Decomposition for flow analysis, after which the results are averaged to produce the final result. This approach is validated by laminar-turbulent transition predictions of subsonic and supersonic flows over a 2D flat plate with zero pressure gradient. The results demonstrate the fundamental applicability and high accuracy of the described method in a wide range of conditions. The study focuses on comparison with the $e^N$ method and proves the advantages of the proposed approach. It is shown that usage of Dynamic Mode Decomposition leads to significantly faster execution due to less intensive computations, while the accuracy is comparable to the such of the solution obtained with the $e^N$ method. This indicates the prospects for using the described approach in a real world applications.

  7. Обработка больших массивов данных обычно происходит в несколько последовательно выполняемых этапов, таких как пред- и постобработка, после каждого из которых промежуточные данные записываются на диск; однако, для каждой задачи этап предварительной обработки может отличаться, и в таком случае непосредственная передача данных по вычислительному конвейеру от одного этапа (звена) к другому бу- дет более эффективным с точки зрения производительности решением. В более общем случае некоторые этапы можно разделить на параллельные части, сформировав таким образом распределенный вычислительный конвейер, каждое звено которого может иметь несколько входов и выходов. Такой принцип обработки данных применяется в задаче о классификации энергетических спектров морского волнения, которая основана на аппроксимациях, позволяющих извлекать параметры отдельных систем волн (тип волн, генеральное направление волн и т. п.). Система, построенная на этом принципе показывает более высокую производительность по сравнению с часто применяемой поэтапной обработкой данных.

    Gankevich I.G., Degtyarev A.B.
    Efficient processing and classification of wave energy spectrum data with a distributed pipeline
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 517-520

    Processing of large amounts of data often consists of several steps, e.g. pre- and post-processing stages, which are executed sequentially with data written to disk after each step, however, when pre-processing stage for each task is different the more efficient way of processing data is to construct a pipeline which streams data from one stage to another. In a more general case some processing stages can be factored into several parallel subordinate stages thus forming a distributed pipeline where each stage can have multiple inputs and multiple outputs. Such processing pattern emerges in a problem of classification of wave energy spectra based on analytic approximations which can extract different wave systems and their parameters (e.g. wave system type, mean wave direction) from spectrum. Distributed pipeline approach achieves good performance compared to conventional “sequential-stage” processing.

    Views (last year): 3. Citations: 2 (RSCI).
  8. Ха Д.Т., Цибулин В.Г.
    Мультистабильные сценарии для дифференциальных уравнений, описывающих динамику системы хищников и жертв
    Компьютерные исследования и моделирование, 2020, т. 12, № 6, с. 1451-1466

    Для системы автономных дифференциальных уравнений изучаются динамические сценарии, приводящие к мультистабильности в виде континуальных семейств устойчивых решений. Используется подход на основе определения косимметрий задачи, вычисления стационарных решений и численно-аналитического исследования их устойчивости. Анализ проводится для уравнений типа Лотки – Вольтерры, описывающих взаимодействие двух хищников, питающихся двумя родственными видами жертв. Для системы обыкновенных дифференциальных уравнений 4-го порядка с 11 вещественными параметрами проведено численно-аналитическое исследование возможных сценариев взаимодействия. Аналитически найдены соотношения между управляющими параметрами, при которых реализуется линейная по переменным задачи косимметрия и возникают семейства стационарных решений (равновесий). Установлен случай мультикосимметрии и представлены явные формулы для двупараметрического семейства равновесий. Анализ устойчивости этих решений позволил обнаружить разделение семейства на области устойчивых и неустойчивых равновесий. В вычислительном эксперименте определены ответвившиеся от неустойчивых стационарных решений предельные циклы и вычислены их мультипликаторы, отвечающие мультистабильности. Представлены примеры сосуществования семейств устойчивых стационарных и нестационарных решений. Проведен анализ для функций роста логистического и «гиперболического» типов. В зависимости от параметров могут получаться сценарии, когда в фазовом пространстве реализуются только стационарные решения (сосуществование жертв без хищников и смешанные комбинации), а также семейства предельных циклов. Рассмотренные в работе сценарии мультистабильности позволяют анализировать ситуации, возникающие при наличии нескольких родственных видов на ареале. Эти результаты являются основой для последующего анализа при отклонении параметров от косимметричных соотношений.

    Ha D.T., Tsybulin V.G.
    Multi-stable scenarios for differential equations describing the dynamics of a predators and preys system
    Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1451-1466

    Dynamic scenarios leading to multistability in the form of continuous families of stable solutions are studied for a system of autonomous differential equations. The approach is based on determining the cosymmetries of the problem, calculating stationary solutions, and numerically-analytically studying their stability. The analysis is carried out for equations of the Lotka –Volterra type, describing the interaction of two predators feeding on two related prey species. For a system of ordinary differential equations of the 4th order with 11 real parameters, a numerical-analytical study of possible interaction scenarios was carried out. Relationships are found analytically between the control parameters under which the cosymmetry linear in the variables of the problem is realized and families of stationary solutions (equilibria) arise. The case of multicosymmetry is established and explicit formulas for a two-parameter family of equilibria are presented. The analysis of the stability of these solutions made it possible to reveal the division of the family into regions of stable and unstable equilibria. In a computational experiment, the limit cycles branching off from unstable stationary solutions are determined and their multipliers corresponding to multistability are calculated. Examples of the coexistence of families of stable stationary and non-stationary solutions are presented. The analysis is carried out for the growth functions of logistic and “hyperbolic” types. Depending on the parameters, scenarios can be obtained when only stationary solutions (coexistence of prey without predators and mixed combinations), as well as families of limit cycles, are realized in the phase space. The multistability scenarios considered in the work allow one to analyze the situations that arise in the presence of several related species in the range. These results are the basis for subsequent analysis when the parameters deviate from cosymmetric relationships.

  9. Погорелова Е.А., Лобанов А.И.
    Высокопроизводительные вычисления в моделировании крови
    Компьютерные исследования и моделирование, 2012, т. 4, № 4, с. 917-941

    Приведен обзор методов моделирования движения и реологических свойств крови как суспензии взвешенных частиц. Рассмотрены методы граничных интегральных уравнений, решеточных уравнений Больцмана, конечных элементов на подвижных сетках, диссипативной динамики частиц, а также агентные модели. Приведен анализ применения этих методов при расчетах на высокопроизводительных системах различной архитектуры.

    Pogorelova E.A., Lobanov A.I.
    High Performance Computing for Blood Modeling
    Computer Research and Modeling, 2012, v. 4, no. 4, pp. 917-941

    Methods for modeling blood flow and its rheological properties are reviewed. Blood is considered as a particle suspencion. The methods are boundary integral equation method (BIEM), lattice Boltzmann (LBM), finite elements on dynamic mesh, dissipative particle dynamics (DPD) and agent based modeling. The analysis of these methods’ applications on high-performance systems with various architectures is presented.

    Views (last year): 2. Citations: 3 (RSCI).
  10. Якушкин О.О., Гришкин В.М.
    Визуализация работы распределенного приложения на базе библиотеки mqcloud
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 529-532

    Независимые компоненты, взаимодействующие между собой при помощи комплексного управления, делают работу сложных распределенных вычислительных систем плохо масштабируемой в рамках имеющегося промежуточного коммуникационного программного обеспечения. Можно выделить две основные проблемы масштабирования таких систем: перегрузка неравноценных узлов из-за равномерного перераспределения нагрузки и сложности в реализации продолжительного взаимодействия нескольких узлов системы. В данной работе мы рассмотрели созданное решение позволяющее обеспечивать визуальное отображение работы такой динамической системы.

    Iakushkin O.O., Grishkin V.M.
    Visualization of work of a distributed application based on the mqcloud library
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 529-532

    Independent components communicating with each other due to complex control make the work of complex distributed computer systems poorly scalable within the framework of the existing communication middleware. Two major problems of such systems' scaling can be defined: overloading of unequal nodes due to proportional redistribution of workload and difficulties in the realization of continuous communication between several nodes of the system. This paper is focused on the developed solution enabling visualization of the work of such a dynamical system.

    Citations: 1 (RSCI).
Pages: « first previous next last »

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"