All issues
- 2026 Vol. 18
- 2025 Vol. 17
- 2024 Vol. 16
- 2023 Vol. 15
- 2022 Vol. 14
- 2021 Vol. 13
- 2020 Vol. 12
- 2019 Vol. 11
- 2018 Vol. 10
- 2017 Vol. 9
- 2016 Vol. 8
- 2015 Vol. 7
- 2014 Vol. 6
- 2013 Vol. 5
- 2012 Vol. 4
- 2011 Vol. 3
- 2010 Vol. 2
- 2009 Vol. 1
-
Взаимосвязь и реализация квазиньютоновских и ньютоновских методов безусловной оптимизации
Компьютерные исследования и моделирование, 2016, т. 8, № 1, с. 55-78Рассмотрены ньютоновские и квазиньютоновские методы безусловной оптимизации, основанные на факторизации Холесского, с регулировкой шага и с конечно-разностной аппроксимацией первых и вторых производных. Для увеличения эффективности квазиньютоновских методов предложено модифицированное разложение Холесского квазиньютоновской матрицы, определяющее и решение проблемы масштабирования шагов при спуске, и аппроксимацию неквадратичными функциями, и интеграцию с методом доверительной окрестности. Предложен подход к увеличению эффективности ньютоновских методов с конечно-разностной аппроксимацией первых и вторых производных. Приведены результаты численного исследования эффективности алгоритмов.
Ключевые слова: ньютоновские методы, квазиньютоновские методы, факторизация Холесского, масштабирование шагов, метод доверительной окрестности, конечно-разностная аппроксимация, алгоритм, численные исследования, безусловная оптимизация.
Correlation and realization of quasi-Newton methods of absolute optimization
Computer Research and Modeling, 2016, v. 8, no. 1, pp. 55-78Views (last year): 7. Citations: 5 (RSCI).Newton and quasi-Newton methods of absolute optimization based on Cholesky factorization with adaptive step and finite difference approximation of the first and the second derivatives. In order to raise effectiveness of the quasi-Newton methods a modified version of Cholesky decomposition of quasi-Newton matrix is suggested. It solves the problem of step scaling while descending, allows approximation by non-quadratic functions, and integration with confidential neighborhood method. An approach to raise Newton methods effectiveness with finite difference approximation of the first and second derivatives is offered. The results of numerical research of algorithm effectiveness are shown.
-
Моделирование гибких тканых композитов в системе ANSYS Mechanical APDL
Компьютерные исследования и моделирование, 2018, т. 10, № 6, с. 789-799В настоящей работе предложен вариант импорта в систему ANSYS Mechanical APDL модели поведения гибких тканых композиционных материалов с армирующей тканью полотняного переплетения при статическом растяжении вдоль нитей армирования. Импорт осуществлен при помощи использования, разработанного авторами и представленного в текущей работе модуля интеграции, основанного на использовании аналитической модели деформирования исследуемого материала, представленной в опубликованных ранее статьях и учитывающей изменения геометрической структуры, происходящие в армирующем слое материала в процессе деформирования, образование необратимых деформаций и взаимодействие накрест лежащих нитей армирующей ткани. Во введении кратко описаны основные вводимые характеристики полотняного переплетения армирующей ткани и аналитической модели, импортируемой в ANSYS. Аналитическая модель основана на описании процессов деформирования элементарной периодической ячейки исследуемого класса материалов. Входными параметрами модуля являются механические характеристики материалов, входящих в состав композита (связующее и материал нитей армирования), геометрические характеристики переплетения армирующей ткани. Алгоритм импорта модели основан на вычислении и передачи в ANSYS расчетных точек диаграммы деформирования материала при одноосном растяжения вдоль направления армирования и использовании вложенных в систему ANSYS пользовательской моделей материала Multilinear Kinematich Hardening. Аналитическая модель, импортируемая при помощи представленного модуля, позволяет моделировать композиционный материал с армирующей тканью без детального описания геометрии переплетения нитей при моделировании материала в целом. Выполнена верификация импортированной модели. Для верификации были проведены натурные экспериментальные исследования и численное моделирование растяжения образцов из гибких тканых композитов. В экспериментах принимали участие образцы трех марок: VP4126, VP6131 и VP6545. Погрешность импортированной в ANSYS модели составила менее 10 % относительно экспериментальных исследований для всех марок материала. Анализ полученных результатов показал хорошее качественное и количественное согласование расчетов в системе ANSYS с применением импортированной модели и натурных испытаний до величин предельных деформаций, соответствующих разрушению образцов материала для всех исследуемых марок гибких тканых композитов, что позволяет сделать вывод о возможности применения предложенного модуля при моделировании процессов деформирования гибких тканых композитов и конструкций, созданных из таких материалов при статическом одноосном растяжении вдоль нитей армирования.
Ключевые слова: гибкий тканый композиционный материал, эксперимент, модель материала, необратимые деформации, ANSYS, диаграмма деформирования.
Import model of flexible woven composites in ANSYS Mechanical APDL
Computer Research and Modeling, 2018, v. 10, no. 6, pp. 789-799Views (last year): 34.A variant of import into ANSYS Mechanical APDL system of the model of behavior of flexible woven composite materials with reinforcing weaving cloth of linen at static stretching along the reinforcement yarns is offered. The import was carried out using an integration module based on the use of an analytical model of deformation of the material under study. The model is presented in the articles published earlier and takes into account the changes in the geometric structure occurring in the reinforcing layer of the material during the deformation process, the formation of irreversible deformations and the interaction of cross-lying reinforcing fabric threads. In the introduction input characteristics of the plain weave of the reinforcing fabric and the analytical model imported into ANSYS are briefly described. The input parameters of the module are the mechanical characteristics of the materials that make up the composite (binder and material of reinforcement yarns), the geometric characteristics of the interlacing of the reinforcing fabric. The algorithm for importing the model is based on the calculation and transfer in ANSYS of the calculated points of the material stress-strain diagram for uniaxial stretching along the reinforcement direction and using the Multilinear Kinematich Hardening model material embedded in the ANSYS. The analytical model imported with the help of the presented module allows to model a composite material with reinforcing fabric without a detailed description of the geometry of the interlacing of threads during modeling of the material as a whole. The imported model was verified. For verification full-scale experimental studies and numerical simulation of the stretching of samples from flexible woven composites were carried out. The analysis of the obtained results showed good qualitative and quantitative agreement of calculations.
-
Применение ГИС ИНТЕГРО в задачах поиска месторождений нефти и газа
Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 439-444В основу системы интегрированной интерпретации геофизических данных при изучении глубинного строения Земли положена система ГИС ИНТЕГРО, являющаяся геоинформационной системой функционирования разнообразных вычислительных и аналитических приложений при решении различных геологических задач. ГИС ИНТЕГРО включает в себя многообразные интерфейсы, позволяющие изменять форму представления данных (растр, вектор, регулярная и нерегулярная сеть наблюдений), блок преобразования картографических проекций, а также прикладные блоки, включающие блок интегрированного анализа данных и решения прогнозно-диагностических задач.
Методический подход базируется на интеграции и комплексном анализе геофизических данных по региональным профилям, геофизических потенциальных полей и дополнительной геологической информации на изучаемую территорию.
Аналитическое обеспечение включает пакеты трансформаций, фильтрации, статистической обработки полей, расчета характеристик, выделения линеаментов, решения прямых и обратных задач, интегрирования геоинформации.
Технология и программно-аналитическое обеспечение апробировались при решении задач тектонического районирования в масштабах 1:200000, 1:1000000 в Якутии, Казахстане, Ростовской области, изучения глубинного строения по региональным профилям 1:ЕВ, 1-СБ, 2-СБ, 3-СБ и 2-ДВ, прогноза нефтегазоносности в районах Восточной Сибири, Бразилии.
Ключевые слова: параллельные вычисления, ГРИД, геофизические исследования, обработка данных, 3D сетевая модель, GIS INTEGRO, ZondGeoStat.
The use of GIS INTEGRO in searching tasks for oil and gas deposits
Computer Research and Modeling, 2015, v. 7, no. 3, pp. 439-444Views (last year): 4.GIS INTEGRO is the geo-information software system forming the basis for the integrated interpretation of geophysical data in researching a deep structure of Earth. GIS INTEGRO combines a variety of computational and analytical applications for the solution of geological and geophysical problems. It includes various interfaces that allow you to change the form of representation of data (raster, vector, regular and irregular network of observations), the conversion unit of map projections, application blocks, including block integrated data analysis and decision prognostic and diagnostic tasks.
The methodological approach is based on integration and integrated analysis of geophysical data on regional profiles, geophysical potential fields and additional geological information on the study area. Analytical support includes packages transformations, filtering, statistical processing, calculation, finding of lineaments, solving direct and inverse tasks, integration of geographic information.
Technology and software and analytical support was tested in solving problems tectonic zoning in scale 1:200000, 1:1000000 in Yakutia, Kazakhstan, Rostov region, studying the deep structure of regional profiles 1:S, 1-SC, 2-SAT, 3-SAT and 2-DV, oil and gas forecast in the regions of Eastern Siberia, Brazil.
The article describes two possible approaches of parallel calculations for data processing 2D or 3D nets in the field of geophysical research. As an example presented realization in the environment of GRID of the application software ZondGeoStat (statistical sensing), which create 3D net model on the basis of data 2d net. The experience has demonstrated the high efficiency of the use of environment of GRID during realization of calculations in field of geophysical researches.
-
Применение больших языковых моделей для интеллектуального поиска и извлечения информации в корпоративных информационных системах
Компьютерные исследования и моделирование, 2025, т. 17, № 5, с. 871-888В данной статье исследуется эффективность применения технологии Retrieval-Augmented Generation (RAG) в сочетании с различными большими языковыми моделями (LLM) для поиска документов и получения информации в корпоративных информационных системах. Рассматриваются варианты использования LLM в корпоративных системах, архитектура RAG, характерные проблемы интеграции LLM в RAG-систему. Предлагается архитектура системы, включающая в себя векторный энкодер текстов и LLM. Энкодер используется для создания векторной базы данных, индексирующей библиотеку корпоративных документов. Запрос, передаваемый LLM, дополняется релевантным ему контекстом из библиотеки корпоративных документов, извлекаемым с использованием векторной базы данных и библиотеки FAISS. Большая языковая модель принимает запрос пользователя и формирует ответ на основе переданных в контексте запроса данных. Рассматриваются общая структура и алгоритм функционирования предлагаемого решения, реализующего архитектуру RAG. Обосновывается выбор LLM для исследования и проводится анализ результативности использования популярных LLM (ChatGPT, GigaChat, YandexGPT, Llama, Mistral, Qwen и др.) в качестве компонента для генерации ответов. На основе тестового набора вопросов методом экспертных оценок оцениваются точность, полнота, грамотность и лаконичность ответов, предоставляемых рассматриваемыми моделями. Анализируются характеристики отдельных моделей, полученные в результате исследования. Приводится информация о средней скорости отклика моделей. Отмечается существенное влияние объема доступной памяти графического адаптера на производительность локальных LLM. На основе интегрального показателя качества формируется общий рейтинг LLM. Полученные результаты подтверждают эффективность предложенной архитектуры RAG для поиска документов и получения информации в корпоративных информационных системах. Были определены возможные направления дальнейших исследований в этой области: дополнение контекста, передаваемого LLM, и переход к архитектуре на базе LLM-агентов. В заключении представлены рекомендации по выбору оптимальной конфигурации RAG и LLM для построения решений, обеспечивающих быстрый и точный доступ к информации в рамках корпоративных информационных систем.
Ключевые слова: искусственный интеллект, информационные системы, семантический поиск, обработка естественного языка, векторизация документов, RAG, LLM.
Using RAG technology and large language models to search for documents and obtain information in corporate information systems
Computer Research and Modeling, 2025, v. 17, no. 5, pp. 871-888This paper investigates the effectiveness of Retrieval-Augmented Generation (RAG) combined with various Large Language Models (LLMs) for document retrieval and information access in corporate information systems. We survey typical use-cases of LLMs in enterprise environments, outline the RAG architecture, and discuss the major challenges that arise when integrating LLMs into a RAG pipeline. A system architecture is proposed that couples a text-vector encoder with an LLM. The encoder builds a vector database that indexes a library of corporate documents. For every user query, relevant contextual fragments are retrieved from this library via the FAISS engine and appended to the prompt given to the LLM. The LLM then generates an answer grounded in the supplied context. The overall structure and workflow of the proposed RAG solution are described in detail. To justify the choice of the generative component, we benchmark a set of widely used LLMs — ChatGPT, GigaChat, YandexGPT, Llama, Mistral, Qwen, and others — when employed as the answer-generation module. Using an expert-annotated test set of queries, we evaluate the accuracy, completeness, linguistic quality, and conciseness of the responses. Model-specific characteristics and average response latencies are analysed; the study highlights the significant influence of available GPU memory on the throughput of local LLM deployments. An overall ranking of the models is derived from an aggregated quality metric. The results confirm that the proposed RAG architecture provides efficient document retrieval and information delivery in corporate environments. Future research directions include richer context augmentation techniques and a transition toward agent-based LLM architectures. The paper concludes with practical recommendations on selecting an optimal RAG–LLM configuration to ensure fast and precise access to enterprise knowledge assets.
-
Гибридная нейронная сеть для прогнозирования характеристик покрытия при газопламенном напылении
Компьютерные исследования и моделирование, 2026, т. 18, № 1, с. 101-116Представлена модель гибридной искусственной нейронной сети, основанная на архитектуре, включающей сверточный энкодер изображений (Convolutional Neural Network, CNN) и модуль внимания (Attention-based Multiple Instance Learning, Attention MIL), обеспечивающий агрегирование информативных признаков из последовательности кадров процесса газопламенного напыления. Дополнительные технологические параметры — давление воздуха, давление пропана и расстояние от сопла до поверхности — интегрируются в модель через табличный канал, что позволяет учитывать взаимосвязь между визуальными и числовыми характеристиками технологического режима. Программная реализация выполнена на платформе Streamlit с использованием библиотеки PyTorch и включает интерактивный интерфейс для обучения и визуализации результатов, анализ весов внимания по кадрам, а также режим прогнозирования выходных характеристик — шероховатости поверхности ($R_a$) и массы нанесенного слоя ($m$). Проведены экспериментальные исследования на данных реальных технологических процессов, выполнен сравнительный анализ точности различных конфигураций модели. Показано, что гибридная нейронная сеть, объединяющая визуальные и табличные признаки, обеспечивает более высокую точность прогноза по сравнению с моделями, использующими только одну из модальностей. При сравнении вариантов реализации гибридной нейронной сети установлено, что использование механизма внимания при формировании признаков серии изображений процесса газопламенного напыления обеспечивает существенное увеличение точности результатов по сравнению с режимом усреднения признаков без использования механизма внимания. В приложении реализован модуль визуализации внимания, который создает монтаж наиболее значимых кадров и отображает их веса внимания, что позволяет определить, какие кадры оказали наибольшее влияние на прогноз. Реализована возможность экспорта модели в формат ONNX для интеграции в системы технологического контроля. Предложенный подход демонстрирует эффективность слияния визуальной и табличной информации для задач мониторинга технологических процессов. Модель может служить основой для создания системы поддержки принятия решений или системы автоматизированного контроля качества покрытия при газопламенном напылении. Рассмотрены ограничения реализованной модели и перспективы ее дальнейшего развития.
Ключевые слова: газопламенное напыление, прогнозирование, гибридная нейронная сеть, Attention MIL, компьютерное зрение, Streamlit, ONNX, контроль качества покрытия.
Hybrid neural network for predicting coating characteristics in flame spraying
Computer Research and Modeling, 2026, v. 18, no. 1, pp. 101-116The paper presents a hybrid artificial neural network model based on an architecture that incorporates a convolutional image encoder (CNN) and an attention module (Attention-based Multiple Instance Learning, Attention MIL). This module aggregates informative features from a sequence of frames capturing the flame spraying process. Additional technological parameters—air pressure, propane pressure, and standoff distance — are integrated into the model via a tabular channel, enabling it to account for the relationship between visual data and numerical process regime characteristics. The software implementation was developed using the Streamlit platform and the PyTorch library. It features an interactive interface for model training and result visualization, analysis of attention weights across frames, and a prediction mode for output characteristics: surface roughness ($R_a$) and the mass of the deposited coating ($m$). Experimental studies were conducted on data from real-world technological processes, and a comparative analysis of the accuracy of various model configurations was performed. The results demonstrate that the hybrid neural network, which combines visual and tabular features, achieves higher prediction accuracy compared to models using only a single modality. Furthermore, when comparing different implementations of the hybrid network, it was established that using the attention mechanism to process the series of flame spray images provides a significant increase in accuracy over a simple averaging of features without attention. The application includes an attention visualization module that creates a montage of the most significant frames and displays their attention weights, allowing users to identify which frames had the greatest influence on the prediction. The model’s capability for export to the ONNX format for integration into process control systems is also demonstrated. The proposed approach showcases the effectiveness of fusing visual and tabular information for manufacturing process monitoring tasks. The model can serve as a foundation for developing a decision support system or an automated quality control system for coatings produced by flame spraying. The limitations of the implemented model and prospects for its further development are also considered.
-
Исследование нелинейных процессов на границе раздела газового потока имет аллической стенки микроканала
Компьютерные исследования и моделирование, 2022, т. 14, № 4, с. 781-794Работа посвящена исследованию влияния нелинейных процессов в пограничном слое на общий характер течений газа в микроканалах технических систем. Подобное исследование актуально для задач нанотехнологий. Одной из важных задач в этой сфере является анализ потоков газа в микроканалах в случае переходных и сверхзвуковых течений. Результаты этого анализа важны для техники газодинамического напыления и для синтеза новых наноматериалов. Из-за сложности реализации полномасштабных экспериментов на микро- и наномасштабах они чаще всего заменяются компьютерным моделированием. Эффективность компьютерного моделирования достигается как за счет использования новых многомасштабных моделей, так и за счет сочетания сеточных методов и методов частиц. В данной работе мы используем метод молекулярной динамики. Он был применен для исследования установления газового микротечения в металлическом канале. В качестве газовой среды был выбран азот. Металлические стенки микроканалов состояли из атомов никеля. В численных экспериментах были рассчитаны коэффициенты аккомодации на границе между течением газа и металлической стенкой. Исследование микросистемы в пограничном слое позволило сформировать многокомпонентную макроскопическую модель граничных условий. Эта модель была интегрирована в макроскопическое описание течения на основе системы квазигазодинамических уравнений. На основе такой преобразованной газодинамической модели были проведены расчеты микротечения в реальной микросистеме. Результаты были сопоставлены с классическим расчетом течения, не учитывающим нелинейные процессы в пограничном слое. Сравнение показало необходимость использования разработанной модели граничных условий и ее интеграции с классическим газодинамическим подходом.
Ключевые слова: газодинамические микротечения в каналах с реальной структурой стенки, многомасштабное математическое моделирование, задача о граничных условиях, комбинация микроскопического и макроскопического подходов, параллельные вычисления.
A study of nonlinear processes at the interface between gas flow and the metal wall of a microchannel
Computer Research and Modeling, 2022, v. 14, no. 4, pp. 781-794The work is devoted to the study of the influence of nonlinear processes in the boundary layer on the general nature of gas flows in microchannels of technical systems. Such a study is actually concerned with nanotechnology problems. One of the important problems in this area is the analysis of gas flows in microchannels in the case of transient and supersonic flows. The results of this analysis are important for the gas-dynamic spraying techique and for the synthesis of new nanomaterials. Due to the complexity of the implementation of full-scale experiments on micro- and nanoscale, they are most often replaced by computer simulations. The efficiency of computer simulations is achieved by both the use of new multiscale models and the combination of mesh and particle methods. In this work, we use the molecular dynamics method. It is applied to study the establishment of a gas microflow in a metal channel. Nitrogen was chosen as the gaseous medium. The metal walls of the microchannels consisted of nickel atoms. In numerical experiments, the accommodation coefficients were calculated at the boundary between the gas flow and the metal wall. The study of the microsystem in the boundary layer made it possible to form a multicomponent macroscopic model of the boundary conditions. This model was integrated into the macroscopic description of the flow based on a system of quasi-gas-dynamic equations. On the basis of such a transformed gas-dynamic model, calculations of microflow in real microsystem were carried out. The results were compared with the classical calculation of the flow, which does not take into account nonlinear processes in the boundary layer. The comparison showed the need to use the developed model of boundary conditions and its integration with the classical gas-dynamic approach.
-
Использование сервис-контейнеров Docker для создания систем поддержки принятия врачебных решений (СППВР) на базе веб-браузера
Компьютерные исследования и моделирование, 2026, т. 18, № 1, с. 133-147В статье представлена технология построения систем поддержки принятия врачебных решений (СППВР), основанная на сервис-контейнерах с использованием Docker и веб-интерфейсе, работающем непосредственно в браузере без установки специализированного программного обеспечения на рабочую станцию врача. Предложена модульная архитектура, где для каждого прикладного модуля формируется самостоятельный сервис-контейнер, объединяющий мини-веб-сервер, пользовательский интерфейс и вычислительные компоненты обработки медицинских изображений. Взаимодействие между браузером и серверной частью реализовано через постоянное двунаправленное соединение по веб-сокетам с бинарной сериализацией сообщений в формате MessagePack, что обеспечивает малые задержки и эффективную передачу больших объeмов данных. Для локального хранения изображений и результатов анализа применены средства браузера (IndexedDB) с оболочкой Dexie.js, что ускоряет повторный доступ к данным. Трeхмерная визуализация и базовые операции с DICOM-данными реализованы с использованием библиотек Three.js и AMI.js: такая связка обеспечивает интеграцию интерактивных элементов, возникающих в контексте задачи (аннотации, ориентиры, метки, 3D-модели), в трeхмерные медицинские изображения.
Серверные компоненты и функциональные модули собраны в виде набора взаимодействующих контейнеров, управляемых средствами Docker. Рассмотрены выбор базовых образов, подходы к минимизации контейнеров до уровня исполняемых файлов без внешних зависимостей, организация многоступенчатой сборки, включающей отдельный «сборочный» контейнер. Описан сервис-хаб, выполняющий запуск прикладных контейнеров по обращению пользователя, проксирование запросов, управление сессиями и перевод контейнера из общего режима в монопольный при начале вычислений. Приведены примеры прикладных модулей (оценка фракционного резерва кровотока, расчeт количественного отношения потока, расчет смыкания створок аортального клапана), показана интеграция React-интерфейса и трeхмерной сцены, а также представлены политика версионирования, автоматизированные проверки воспроизводимости результатов и порядок развeртывания на целевой площадке.
Продемонстрировано, что контейнеризация обеспечивает переносимость и воспроизводимость программной среды, изоляцию зависимостей и масштабирование, а браузерный интерфейс — доступность, снижение требований к инфраструктуре и интерактивную визуализацию медицинских данных в реальном времени. Отмечены технические ограничения (зависимость от версий библиотек визуализации и форматов данных) и представлены практические меры их преодоления.
Ключевые слова: системы поддержки принятия врачебных решений (СППВР), zero-footprint-приложения, сервис-контейнеры, веб-приложение.
Using Docker service containers to build browser-based clinical decision support systems (CDSS)
Computer Research and Modeling, 2026, v. 18, no. 1, pp. 133-147The article presents a technology for building clinical decision support systems (CDSS) based on service containers using Docker and a web interface that runs directly in the browser without installing specialized software on workstation of a clinician. A modular architecture is proposed in which each application module is packaged as an independent service container combining a lightweight web server, a user interface, and computational components for medical image processing. Communication between the browser and the server side is implemented via a persistent bidirectional WebSocket connection with binary message serialization (MessagePack), which provides low latency and efficient transfer of large data. For local storage of images and analysis of results, browser facilities (IndexedDB with the Dexie.js wrapper) are used to speed up repeated data access. Three-dimensional visualization and basic operations with DICOM data are implemented with Three.js and AMI.js: this toolchain supports the integration of interactive elements arising from the task context (annotations, landmarks, markers, 3D models) into volumetric medical images.
Server components and functional modules are assembled as a set of interacting containers managed by Docker. The paper discusses the choice of base images, approaches to minimizing containers down to runtime-only executables without external utilities, and the organization of multi-stage builds with a dedicated build container. It describes a hub service that launches application containers on user request, performs request proxying, manages sessions, and switches a container from shared to exclusive mode at the start of computations. Examples of application modules are provided (fractional flow reserve estimation, quantitative flow ratio computation, aortic valve closure modeling), along with the integration of a React-based interface with a three-dimensional scene, a versioning policy, automated reproducibility checks, and the deployment procedure on the target platform.
It is demonstrated that containerization ensures portability and reproducibility of the software environment, dependency isolation and scalability, while the browser-based interface provides accessibility, reduced infrastructure requirements, and interactive real-time visualization of medical data. Technical limitations are noted (dependence on versions of visualization libraries and data formats) together with practical mitigation measures.
-
Улучшение DevSecOps с помощью непрерывного анализа и тестирования требований безопасности
Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1687-1702DevSecOps требует интеграции безопасности на каждом этапе разработки программного обеспечения для обеспечения безопасных и соответствующих требованиям приложений. Традиционные методы тестирования безопасности, часто выполняемые на поздних этапах разработки, недостаточны для решения задач, связанных с непрерывной интеграцией и непрерывной доставкой (CI/CD), особенно в сложных, критически важных секторах, таких как промышленная автоматизация. В данной статье мы предлагаем подход, который автоматизирует анализ и тестирование требований безопасности путем встраивания проверки требований в конвейер CI/CD. Наш метод использует инструмент ARQAN для сопоставления высокоуровневых требований безопасности с Руководствами по технической реализации безопасности (STIGs) с помощью семантического поиска, а также RQCODE для формализации этих требований в виде кода, предоставляя тестируемые и поддающиеся исполнению руководства по безопасности. Мы внедрили ARQAN и RQCODE в рамках CI/CD, интегрировав их с GitHub Actions для обеспечения проверки безопасности в реальномврем ени и автоматической проверки соответствия. Наш подход поддерживает стандарты безопасности, такие как IEC 62443, и автоматизирует оценку безопасности, начиная с этапа планирования, улучшая прослеживаемость и согласованность практик безопасности на протяжении всего конвейера. Предварительная оценка этого подхода в сотрудничестве с компанией по промышленной автоматизации показывает, что он эффективно охватывает критические требования безопасности, достигая автоматического соответствия 66,15% руководств STIG, относящихся к платформе Windows 10. Обратная связь от отраслевых специалистов подчеркивает его практичность: 85% требований безопасности сопоставлены с конкретными рекомендациями STIG, и 62% из этих требований имеют соответствующие тестируемые реализации в RQCODE. Эта оценка подчеркивает потенциал подхода для сдвига проверки безопасности на более ранние этапы разработки, способствуя более устойчивому и безопасному жизненному циклу DevSecOps.
Ключевые слова: кибербезопасность, DevSecOps, DevOps, непрерывная интеграция, требования, требования к проектированию, тесты, обработка естественного языка, машинное обучение, SBERT, RQCODE, ARQAN, GITHUB.
Enhancing DevSecOps with continuous security requirements analysis and testing
Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1687-1702The fast-paced environment of DevSecOps requires integrating security at every stage of software development to ensure secure, compliant applications. Traditional methods of security testing, often performed late in the development cycle, are insufficient to address the unique challenges of continuous integration and continuous deployment (CI/CD) pipelines, particularly in complex, high-stakes sectors such as industrial automation. In this paper, we propose an approach that automates the analysis and testing of security requirements by embedding requirements verification into the CI/CD pipeline. Our method employs the ARQAN tool to map high-level security requirements to Security Technical Implementation Guides (STIGs) using semantic search, and RQCODE to formalize these requirements as code, providing testable and enforceable security guidelines.We implemented ARQAN and RQCODE within a CI/CD framework, integrating them with GitHub Actions for realtime security checks and automated compliance verification. Our approach supports established security standards like IEC 62443 and automates security assessment starting from the planning phase, enhancing the traceability and consistency of security practices throughout the pipeline. Evaluation of this approach in collaboration with an industrial automation company shows that it effectively covers critical security requirements, achieving automated compliance for 66.15% of STIG guidelines relevant to the Windows 10 platform. Feedback from industry practitioners further underscores its practicality, as 85% of security requirements mapped to concrete STIG recommendations, with 62% of these requirements having matching testable implementations in RQCODE. This evaluation highlights the approach’s potential to shift security validation earlier in the development process, contributing to a more resilient and secure DevSecOps lifecycle.
-
Моделирование саморегуляции активного нейрона в сети
Компьютерные исследования и моделирование, 2012, т. 4, № 3, с. 613-619Предложена модель поведения активного нейрона, явившаяся развитием модели, описанной в работе Шамиса А.Л. [Шамис, 2006]. Предложены топология локально связанной матрицы активной нейронной сети и структура интеграции информации от различных источников. Приведен пример сценария поведения робота, управляемого активной нейронной сетью. Представлены результаты экспериментов с программной реализацией нейросети.
Modeling self-regulation of active neuron in the network
Computer Research and Modeling, 2012, v. 4, no. 3, pp. 613-619Views (last year): 1.A model of the behavior of the active neuron, which was the development of the model described in Shamis A.L. [Shamis, 2006], is designed. Proposed topology is locally connected matrix of the active neural network and the structure integration of information from different sources. An example of the script behavior robot controlled by this neural network is described. The results of experiments with the software implementation of a neural network are presented.
-
Подходы к интеграции облачных инфраструктур
Компьютерные исследования и моделирование, 2016, т. 8, № 3, с. 583-590Одним из важных направлений развития облачных технологий на данный момент является разработка методов интеграции различных облачных инфраструктур. В научной сфере актуальность данного направления обусловлена в первую очередь часто возникающей проблемой нехватки собственных вычислительных ресурсов и необходимостью привлечения дополнительных мощностей. В данной статье рассматриваются существующие подходы к интеграции облачных инфраструктур между собой: федеративные объединения и так называемая модель cloud bursting. Федеративное объединение на базе облачной платформы OpenNebula строится по схеме «одна главная зона и несколько управляемых зон», где под «зоной» понимается каждая из инфраструктур федерации. В подобной интеграции все облачные инфраструктуры имеют единую базу пользователей, а управление всей федерацией осуществляется централизованно с главной зоны. Данная схема наиболее подходит для объединения территориально разнесенных облачных инфраструктур, например подразделений одной организации, но не подходит для объединения инфраструктур разных организаций ввиду присущего данному подходу централизованного управления, а в случае использования организациями разных облачных платформ — невозможна. Модель федеративного объединения, реализованная в европейской грид-инфраструктуре «EGI Federated Cloud», хотя и позволяет интегрировать между собой облачные инфраструктуры на базе разных платформ, однако для интеграции подобным способом требуются установка и настройка существенного дополнительного набора специфических для данной конкретной европейской грид-инфраструктуры сервисов, что лишает данный подход универсальности. Модель cloud bursting лишена ограничений перечисленных федеративных подходов, однако в случае OpenNebula, на базе которой построена облачная инфраструктура Лаборатории информационных технологий Объединенного института ядерных исследований (ЛИТ ОИЯИ), такая модель была реализована только для интеграции с фиксированным набором коммерческих поставщиков облачных ресурсов. С учетом этого, а также на основании полученного авторами статьи опыта как по объединению облачных инфраструктур представляемых ими организаций, так и интеграции с европейским облаком EGI Federated Cloud командой ЛИТ ОИЯИ был разработан драйвер для объединения облаков партнерских организаций по модели cloud bursting на базе платформы OpenNebula как с аналогичным, так и с облаками на базе OpenStack. В статье описывается архитектура этого драйвера, используемые в нем технологии и протоколы, а также опыт его применения для объединения облачных инфраструктур организаций из стран-участниц ОИЯИ.
Ключевые слова: облачные технологии, интеграция, EGI Federated Cloud, OpenNebula, OpenStack, cloud bursting.
Approaches to cloud infrastructures integration
Computer Research and Modeling, 2016, v. 8, no. 3, pp. 583-590Views (last year): 6. Citations: 11 (RSCI).One of the important direction of cloud technologies development nowadays is a creation of methods for integration of various cloud infrastructures. An actuality of such direction in academic field is caused by a frequent lack of own computing resources and a necessity to attract additional ones. This article is dedicated to existing approaches to cloud infrastructures integration with each other: federations and so called ‘cloud bursting’. A ‘federation’ in terms of OpenNebula cloud platform is built on a ‘one master zone and several slave ones’ schema. A term ‘zone’ means a separate cloud infrastructure in the federation. All zones in such kind of integration have a common database of users and the whole federation is managed via master zone only. Such approach is most suitable for a case when cloud infrastructures of geographically distributed branches of a single organization need to be integrated. But due to its high centralization it's not appropriate when one needs to join cloud infrastructures of different organizations. Moreover it's not acceptable at all in case of clouds based on different software platforms. A model of federative integration implemented in EGI Federated Cloud allows to connect clouds based on different software platforms but it requires a deployment of sufficient amount of additional services which are specific for EGI Federated Cloud only. It makes such approach is one-purpose and uncommon one. A ‘cloud bursting’ model has no limitations listed above but in case of OpenNebula platform what the Laboratory of Information Technologies of Joint Institute for Nuclear Research (LIT JINR) cloud infrastructure is based on such model was implemented for an integration with a certain set of commercial cloud resources providers. Taking into account an article authors’ experience in joining clouds of organizations they represent as well as with EGI Federation Cloud a ‘cloud bursting’ driver was developed by LIT JINR cloud team for OpenNebula-based clouds integration with each other as well as with OpenStack-based ones. The driver's architecture, technologies and protocols it relies on and an experience of its usage are described in the article.
Indexed in Scopus
Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU
The journal is included in the Russian Science Citation Index
The journal is included in the RSCI
International Interdisciplinary Conference "Mathematics. Computing. Education"




