Результаты поиска по 'обработка данных':
Найдено статей: 120
  1. Пирутин С.К., Шанк М.А., Цзя Ш., Конюхов И.В., Тодоренко Д.А., Червицов Р.Н., Фурсова П.В., Кабашникова Л.Ф., Плюснина Т.Ю., Хрущев С.С., Ризниченко Г.Ю., Рубин А.Б.
    Комплексный анализ воздействия ионов меди на первичные процессы фотосинтеза Scenedesmus quadricauda по результатам измерений флуоресценции хлорофилла a в суспензии и на одиночных клетках
    Компьютерные исследования и моделирование, 2025, т. 17, № 2, с. 293-322

    С помощью комплекса биофизических и математических методов исследовано влияние ионов меди на первичные процессы фотосинтеза пресноводной микроводоросли Scenedesmus quadricauda. Проведена оценка воздействия меди (0,1–10 мкМ CuSO4) по индукционным кривым флуоресценции хлорофилла a, полученным как на суспензии клеток, так и на отдельных клетках водорослей после инкубации в световых и темных условиях. Установлено, что медь оказывает дозозависимое воздействие на фотосинтетический аппарат микроводорослей. Низкие (0,1 мкМ) концентрации CuSO4 по ряду параметров оказывают стимулирующие воздействие, тогда как концентрация 10 мкМ приводила к существенным нарушениям функционирования фотосистемы II. Анализ флуоресценции одиночных клеток оказался более чувствительным по сравнению с традиционными измерениями на суспензиях, позволив выявить гетерогенность реакции клеток на действие CuSO4. Анализ кинетики быстрой флуоресценции хлорофилла a (JIP-тест) показал, что наибольшую чувствительность к воздействию меди проявили параметры $\delta_{Ro}$ и $\varphi_{Ro}$, которые достоверно отличались от контроля при воздействии не только высокой, но и средней концентрации (1 мкМ). При инкубации с CuSO4 в световых условиях снижение фотохимической активности клеток было менее выражено, чем в условиях темновой инкубации. Нормирование данных по интенсивности начальной и максимальной флуоресценции на оптическую плотность суспензии при $\lambda = 455$ нм значительно повысило чувствительность метода и позволило более точно интерпретировать эти данные. Использование L1-регуляризации (LASSO) по методу наименьших углов (LARS) для спектральной мультиэкспоненциальной аппроксимации индукционной кривой позволило выявить ее временные характеристики. Результаты математической обработки полученных данных дают основание предположить, что действие ионов меди приводит к увеличению нефотохимического тушения флуоресценции, являющегося защитным механизмом рассеивания избыточной энергии возбуждения. Наблюдаемая гетерогенность реакций отдельных клеток водорослей на воздействие меди, по-видимому, является важным адаптационным механизмом, позволяющим популяции сохранять жизнеспособность в условиях стресса. Полученные данные подтверждают перспективность использования методов флуоресцентного анализа для ранней диагностики стрессовых воздействий тяжелых металлов на фотосинтезирующие организмы.

    Pirutin S.K., Shank M.A., Jia S., Konuhov I.V., Todorenko D.A., Chervitsov R.N., Fursova P.V., Kabashnikova L.F., Plusnina T.Yu., Khruschev S.S., Riznichenko G.Yu., Rubin A.B.
    Comprehensive analysis of copper ions effect on the primary processes of photosynthesis in Scenedesmus quadricauda based on chlorophyll a fluorescence measurements in suspension and on single cells
    Computer Research and Modeling, 2025, v. 17, no. 2, pp. 293-322

    The effect of copper ions on the primary processes of photosynthesis in freshwater microalgae Scenedesmus quadricauda was studied using a set of biophysical and mathematical methods. Chlorophyll a fluorescence transients were recorded both in cell suspensions and at the level of single cells after incubation at copper concentrations of 0.1–10 $\mu$M under light and dark conditions. It was found that copper has a dose-dependent effect on the photosynthetic apparatus of microalgae. At low copper concentration (0.1 $\mu$M), a stimulating effect on a number of studied parameters was observed, whereas significant disruption of Photosystem II activity was detected at 10 $\mu$M. The method of analyzing fluorescence of single cells proved to be more sensitive compared to traditional suspension measurements, allowing the detection of heterogeneous cellular responses to the toxicant. Analysis of chlorophyll a fast fluorescence kinetics showed that the JIP-test parameters $\delta_{Ro}$ and $\varphi_{Ro}$ were the most sensitive to copper exposure and were significantly different from the control when exposed not only to high but also to medium (1 $\mu$M) copper concentrations. The decrease in photochemical activity of cells during light incubation was less pronounced compared to dark conditions. The application of data normalization to optical density at $\lambda = 455$ nm significantly increased the sensitivity of the method and accuracy of result interpretation. The use of L1-regularization (LASSO) by the least angles method (LARS) for the spectral multi-exponential approximation of the fluorescence transients allowed us to reveal their temporal characteristics. Mathematical analysis of the obtained data suggested that copper exposure leads to increased non-photochemical quenching of fluorescence, which serves as a protective mechanism for dissipating excess excitation energy. The revealed heterogeneity of cellular responses to copper action may have important ecological significance, ensuring the survival of part of the population under stress conditions. The obtained data confirm the promise of using fluorescent analysis methods for early diagnosis of heavy metal stress effects on photosynthesizing organisms.

  2. Копытов Г.В., Дроздов А.Н.
    Использование сервис-контейнеров Docker для создания систем поддержки принятия врачебных решений (СППВР) на базе веб-браузера
    Компьютерные исследования и моделирование, 2026, т. 18, № 1, с. 133-147

    В статье представлена технология построения систем поддержки принятия врачебных решений (СППВР), основанная на сервис-контейнерах с использованием Docker и веб-интерфейсе, работающем непосредственно в браузере без установки специализированного программного обеспечения на рабочую станцию врача. Предложена модульная архитектура, где для каждого прикладного модуля формируется самостоятельный сервис-контейнер, объединяющий мини-веб-сервер, пользовательский интерфейс и вычислительные компоненты обработки медицинских изображений. Взаимодействие между браузером и серверной частью реализовано через постоянное двунаправленное соединение по веб-сокетам с бинарной сериализацией сообщений в формате MessagePack, что обеспечивает малые задержки и эффективную передачу больших объeмов данных. Для локального хранения изображений и результатов анализа применены средства браузера (IndexedDB) с оболочкой Dexie.js, что ускоряет повторный доступ к данным. Трeхмерная визуализация и базовые операции с DICOM-данными реализованы с использованием библиотек Three.js и AMI.js: такая связка обеспечивает интеграцию интерактивных элементов, возникающих в контексте задачи (аннотации, ориентиры, метки, 3D-модели), в трeхмерные медицинские изображения.

    Серверные компоненты и функциональные модули собраны в виде набора взаимодействующих контейнеров, управляемых средствами Docker. Рассмотрены выбор базовых образов, подходы к минимизации контейнеров до уровня исполняемых файлов без внешних зависимостей, организация многоступенчатой сборки, включающей отдельный «сборочный» контейнер. Описан сервис-хаб, выполняющий запуск прикладных контейнеров по обращению пользователя, проксирование запросов, управление сессиями и перевод контейнера из общего режима в монопольный при начале вычислений. Приведены примеры прикладных модулей (оценка фракционного резерва кровотока, расчeт количественного отношения потока, расчет смыкания створок аортального клапана), показана интеграция React-интерфейса и трeхмерной сцены, а также представлены политика версионирования, автоматизированные проверки воспроизводимости результатов и порядок развeртывания на целевой площадке.

    Продемонстрировано, что контейнеризация обеспечивает переносимость и воспроизводимость программной среды, изоляцию зависимостей и масштабирование, а браузерный интерфейс — доступность, снижение требований к инфраструктуре и интерактивную визуализацию медицинских данных в реальном времени. Отмечены технические ограничения (зависимость от версий библиотек визуализации и форматов данных) и представлены практические меры их преодоления.

    Kopytov G.V., Drozdov A.N.
    Using Docker service containers to build browser-based clinical decision support systems (CDSS)
    Computer Research and Modeling, 2026, v. 18, no. 1, pp. 133-147

    The article presents a technology for building clinical decision support systems (CDSS) based on service containers using Docker and a web interface that runs directly in the browser without installing specialized software on workstation of a clinician. A modular architecture is proposed in which each application module is packaged as an independent service container combining a lightweight web server, a user interface, and computational components for medical image processing. Communication between the browser and the server side is implemented via a persistent bidirectional WebSocket connection with binary message serialization (MessagePack), which provides low latency and efficient transfer of large data. For local storage of images and analysis of results, browser facilities (IndexedDB with the Dexie.js wrapper) are used to speed up repeated data access. Three-dimensional visualization and basic operations with DICOM data are implemented with Three.js and AMI.js: this toolchain supports the integration of interactive elements arising from the task context (annotations, landmarks, markers, 3D models) into volumetric medical images.

    Server components and functional modules are assembled as a set of interacting containers managed by Docker. The paper discusses the choice of base images, approaches to minimizing containers down to runtime-only executables without external utilities, and the organization of multi-stage builds with a dedicated build container. It describes a hub service that launches application containers on user request, performs request proxying, manages sessions, and switches a container from shared to exclusive mode at the start of computations. Examples of application modules are provided (fractional flow reserve estimation, quantitative flow ratio computation, aortic valve closure modeling), along with the integration of a React-based interface with a three-dimensional scene, a versioning policy, automated reproducibility checks, and the deployment procedure on the target platform.

    It is demonstrated that containerization ensures portability and reproducibility of the software environment, dependency isolation and scalability, while the browser-based interface provides accessibility, reduced infrastructure requirements, and interactive real-time visualization of medical data. Technical limitations are noted (dependence on versions of visualization libraries and data formats) together with practical mitigation measures.

  3. Шлеймович М.П., Дагаева М.В., Катасёв А.С., Ляшева С.А., Медведев М.В.
    Анализ изображений в системах управления беспилотными автомобилями на основе модели энергетических признаков
    Компьютерные исследования и моделирование, 2018, т. 10, № 3, с. 369-376

    В статье показана актуальность научно-исследовательских работ в области создания систем управления беспилотными автомобилями на основе технологий компьютерного зрения. Средства компьютерного зрения используются для решения большого количества различных задач, в том числе для определения местоположения автомобиля, обнаружения препятствий, определения пригодного для парковки места. Данные задачи являются ресурсоемкими и должны выполняться в реальном режиме времени. Поэтому актуальна разработка эффективных моделей, методов и средств, обеспечивающих достижение требуемых показателей времени и точности для применения в системах управления беспилотными автомобилями. При этом важное значение имеет выбор модели представления изображений. В данной работе рассмотрена модель на основе вейвлет-преобразования, позволяющая сформировать признаки, характеризующие оценки энергии точек изображения и отражающие их значимость с точки зрения вклада в общую энергию изображения. Для формирования модели энергетических признаков выполняется процедура, основанная на учете зависимостей между вейвлет-коэффициентами различных уровней и применении эвристических настроечных коэффициентов для усиления или ослабления влияния граничных и внутренних точек. На основе предложенной модели можно построить описания изображений для выделения и анализа их характерных особенностей, в том числе для выделения контуров, регионов и особых точек. Эффективность предлагаемого подхода к анализу изображений обусловлена тем, что рассматриваемые объекты, такие как дорожные знаки, дорожная разметка или номера автомобилей, которые необходимо обнаруживать и идентифицировать, характеризуются соответствующими признаками. Кроме того, использование вейвлет-преобразований позволяет производить одни и те же базовые операции для решения комплекса задач в бортовых системах беспилотных автомобилей, в том числе для задач первичной обработки, сегментации, описания, распознавания и сжатия изображений. Применение такого унифицированного подхода позволит сократить время на выполнение всех процедур и снизить требования к вычислительным ресурсам бортовой системы беспилотного автотранспортного средства.

    Shleymovich M.P., Dagaeva M.V., Katasev A.S., Lyasheva S.A., Medvedev M.V.
    The analysis of images in control systems of unmanned automobiles on the base of energy features model
    Computer Research and Modeling, 2018, v. 10, no. 3, pp. 369-376

    The article shows the relevance of research work in the field of creating control systems for unmanned vehicles based on computer vision technologies. Computer vision tools are used to solve a large number of different tasks, including to determine the location of the car, detect obstacles, determine a suitable parking space. These tasks are resource intensive and have to be performed in real time. Therefore, it is important to develop effective models, methods and tools that ensure the achievement of the required time and accuracy for use in unmanned vehicle control systems. In this case, the choice of the image representation model is important. In this paper, we consider a model based on the wavelet transform, which makes it possible to form features characterizing the energy estimates of the image points and reflecting their significance from the point of view of the contribution to the overall image energy. To form a model of energy characteristics, a procedure is performed based on taking into account the dependencies between the wavelet coefficients of various levels and the application of heuristic adjustment factors for strengthening or weakening the influence of boundary and interior points. On the basis of the proposed model, it is possible to construct descriptions of images their characteristic features for isolating and analyzing, including for isolating contours, regions, and singular points. The effectiveness of the proposed approach to image analysis is due to the fact that the objects in question, such as road signs, road markings or car numbers that need to be detected and identified, are characterized by the relevant features. In addition, the use of wavelet transforms allows to perform the same basic operations to solve a set of tasks in onboard unmanned vehicle systems, including for tasks of primary processing, segmentation, description, recognition and compression of images. The such unified approach application will allow to reduce the time for performing all procedures and to reduce the requirements for computing resources of the on-board system of an unmanned vehicle.

    Views (last year): 31. Citations: 1 (RSCI).
  4. В работе развивается новый математический метод решения задачи совместного расчета параметров сигнала и шума в условиях распределения Райса, основанный на комбинировании метода максимума правдоподобия и метода моментов. При этом определение искомых параметров задачи осуществляется посредством обработки выборочных измерений амплитуды анализируемого райсовского сигнала. Получена система уравнений для искомых параметров сигнала и шума, а также представлены результаты численных расчетов, подтверждающие эффективность предлагаемого метода. Показано, что решение двухпараметрической задачи разработанным методом не приводит к увеличению объема требуемых вычислительных ресурсов по сравнению с решением однопараметрической задачи. В частном случае малой величины отношения сигнала к шуму получено аналитическое решение задачи. В работе проведено исследование зависимости погрешности и разброса расчетных данных для искомых параметров от количества измерений в экспериментальной выборке. Как показали численные эксперименты, величина разброса расчетных значений искомых параметров сигнала и шума, полученных предлагаемым методом, изменяется обратно пропорционально количеству измерений в выборке. Проведено сопоставление точности оценивания искомых райсовских параметров предлагаемым методом и ранее развитым вариантом метода моментов. Решаемая в работе задача является значимой для целей обработки райсовских данных, в частности, в системах магнитно-резонансной визуализации, в системах ультразвуковой визуализации, при анализе оптических сигналов в системах дальнометрии, в радиолокации, а также при решении многих других научных и прикладных задач, адекватно описываемых статистической моделью Райса.

    The paper develops a new mathematical method of the joint signal and noise calculation at the Rice statistical distribution based on combing the maximum likelihood method and the method of moments. The calculation of the sough-for values of signal and noise is implemented by processing the sampled measurements of the analyzed Rician signal’s amplitude. The explicit equations’ system has been obtained for required signal and noise parameters and the results of its numerical solution are provided confirming the efficiency of the proposed technique. It has been shown that solving the two-parameter task by means of the proposed technique does not lead to the increase of the volume of demanded calculative resources if compared with solving the task in one-parameter approximation. An analytical solution of the task has been obtained for the particular case of small value of the signal-to-noise ratio. The paper presents the investigation of the dependence of the sought for parameters estimation accuracy and dispersion on the quantity of measurements in experimental sample. According to the results of numerical experiments, the dispersion values of the estimated sought-for signal and noise parameters calculated by means of the proposed technique change in inverse proportion to the quantity of measurements in a sample. There has been implemented a comparison of the accuracy of the soughtfor Rician parameters’ estimation by means of the proposed technique and by earlier developed version of the method of moments. The problem having been considered in the paper is meaningful for the purposes of Rician data processing, in particular, at the systems of magnetic-resonance visualization, in devices of ultrasonic visualization, at optical signals’ analysis in range-measuring systems, at radar signals’ analysis, as well as at solving many other scientific and applied tasks that are adequately described by the Rice statistical model.

    Views (last year): 11.
  5. В данной работе показаны преимущества использования алгоритмов искусственного интеллекта для планирования эксперимента, позволяющих повысить точность идентификации параметров для эластостатической модели робота. Планирование эксперимента для робота заключается в подборе оптимальных пар «конфигурация – внешняя сила» для использования в алгоритмах идентификации, включающих в себя несколько основных этапов. На первом этапе создается эластостатическая модель робота, учитывающая все возможные механические податливости. Вторым этапом выбирается целевая функция, которая может быть представлена как классическими критериями оптимальности, так и критериями, напрямую следующими из желаемого применения робота. Третьим этапом производится поиск оптимальных конфигураций методами численной оптимизации. Четвертым этапом производится замер положения рабочего органа робота в полученных конфигурациях под воздействием внешней силы. На последнем, пятом, этапе выполняется идентификация эластостатичесих параметров манипулятора на основе замеренных данных.

    Целевая функция для поиска оптимальных конфигураций для калибровки индустриального робота является ограниченной в силу механических ограничений как со стороны возможных углов вращения шарниров робота, так и со стороны возможных прикладываемых сил. Решение данной многомерной и ограниченной задачи является непростым, поэтому предлагается использовать подходы на базе искусственного интеллекта. Для нахождения минимума целевой функции были использованы следующие методы, также иногда называемые эвристическими: генетические алгоритмы, оптимизация на основе роя частиц, алгоритм имитации отжига т. д. Полученные результаты были проанализированы с точки зрения времени, необходимого для получения конфигураций, оптимального значения, а также итоговой точности после применения калибровки. Сравнение показало преимущество рассматриваемых техник оптимизации на основе искусственного интеллекта над классическими методами поиска оптимального значения. Результаты данной работы позволяют уменьшить время, затрачиваемое на калибровку, и увеличить точность позиционирования рабочего органа робота после калибровки для контактных операций с высокими нагрузками, например таких, как механическая обработка и инкрементальная формовка.

    Popov D.I.
    Calibration of an elastostatic manipulator model using AI-based design of experiment
    Computer Research and Modeling, 2023, v. 15, no. 6, pp. 1535-1553

    This paper demonstrates the advantages of using artificial intelligence algorithms for the design of experiment theory, which makes possible to improve the accuracy of parameter identification for an elastostatic robot model. Design of experiment for a robot consists of the optimal configuration-external force pairs for the identification algorithms and can be described by several main stages. At the first stage, an elastostatic model of the robot is created, taking into account all possible mechanical compliances. The second stage selects the objective function, which can be represented by both classical optimality criteria and criteria defined by the desired application of the robot. At the third stage the optimal measurement configurations are found using numerical optimization. The fourth stage measures the position of the robot body in the obtained configurations under the influence of an external force. At the last, fifth stage, the elastostatic parameters of the manipulator are identified based on the measured data.

    The objective function required to finding the optimal configurations for industrial robot calibration is constrained by mechanical limits both on the part of the possible angles of rotation of the robot’s joints and on the part of the possible applied forces. The solution of this multidimensional and constrained problem is not simple, therefore it is proposed to use approaches based on artificial intelligence. To find the minimum of the objective function, the following methods, also sometimes called heuristics, were used: genetic algorithms, particle swarm optimization, simulated annealing algorithm, etc. The obtained results were analyzed in terms of the time required to obtain the configurations, the optimal value, as well as the final accuracy after applying the calibration. The comparison showed the advantages of the considered optimization techniques based on artificial intelligence over the classical methods of finding the optimal value. The results of this work allow us to reduce the time spent on calibration and increase the positioning accuracy of the robot’s end-effector after calibration for contact operations with high loads, such as machining and incremental forming.

  6. Белов С.Д., Ден Ц., Ли В., Линь Т., Пелеванюк И.С., Трофимов В.В., Ужинский А.В., Янь Т., Янь С., Чжак Г., Чжао С., Чжан С., Жемчугов А.С.
    Распределенные вычисления для эксперимента BES-III
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 469-473

    В 2009 году в Пекине заработал детектор BES-III (Beijing Spectrometer) [1] ускорителя BEPC-II (Beijing Electron–Positron Collider). Запущенный еще в 1989 году BEPC за время своей работы предоставил данные для целого ряда открытий в области физики очарованных частиц. В свою очередь на BES-III удалось получить крупнейшие наборы данных для J/ ψ, ψ' и ψ частиц при энергии ускорителя 2.5– 4.6 ГэВ. Объемы данных с эксперимента (более 1 ПБ) достаточно велики, чтобы задуматься об их распределенной обработке. В данной статье представлена общая информация, результаты и планы развития проекта распределенной обработки данных эксперимента BES-III.

    Belov S.D., Deng Z., Li W., Lin T., Pelevanyuk I., Trofimov V.V., Uzhinskiy A.V., Yan T., Yan X., Zhang G., Zhao X., Zhang X., Zhemchugov A.S.
    BES-III distributed computing status
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 469-473

    The BES-III experiment at the IHEP CAS, Beijing, is running at the high-luminosity e+e- collider BEPC-II to study physics of charm quarks and tau leptons. The world largest samples of J/psi and psi' events are already collected, a number of unique data samples in the energy range 2.5–4.6 GeV have been taken. The data volume is expected to increase by an order of magnitude in the coming years. This requires to move from a centralized computing system to a distributed computing environment, thus allowing the use of computing resources from remote sites — members of the BES-III Collaboration. In this report the general information, latest results and development plans of the BES-III distributed computing system are presented.

    Views (last year): 3.
  7. Попов В.Ю., Хлыстов А.Н., Бондин А.В.
    Атомная визуализация алмазного резания
    Компьютерные исследования и моделирование, 2016, т. 8, № 1, с. 137-149

    Данная работа посвящена созданию статической атомной модели двух поверхностей, контактирующих при электроалмазной обработке: алмазных зерен и шлифуемого ими материала. В центре работы стоят вопросы компьютерной визуализации этих поверхностей на молекулярном уровне, поскольку традиционное математическое описание не обладает достаточной наглядностью для демонстрации некоторых аспектов атомистической трибологии резания металлов с одновременно протекающими разными по своей физической природе процессами. А в электроалмазной обработке сочетается воздействие одновременно нескольких процессов: механический, электрический и электрохимический. Поэтому предлагаемая авторами методика моделирования остается единственным способом увидеть, что именно происходит на атомном уровне при резании материала алмазным зерном. В то же время статья может быть полезна как научно-познавательная, так как позволяет читателю понять, как на атомном уровне выглядят поверхности некоторых материалов.

    Popov V.Y., Khlystov A.N., Bondin A.V.
    Atomic visualization diamond cutting
    Computer Research and Modeling, 2016, v. 8, no. 1, pp. 137-149

    This work is devoted to creation of static atomic model of two surfaces in contact at electric diamond grinding: single-points diamond and material grinded of them. At the heart of the work there are issues of computer visualization of these surfaces at the molecular level, since traditional mathematical description does not possess sufficient visualization to demonstrate some aspects of the atomic tribology of metal cutting to simultaneously occurring the different, by their physical nature, processes. And in the electric diamond grinding blends effect of several processes simultaneously: mechanical, electrical and electrochemical. So the modeling technique proposed by authors is still the only way to see what is happening at the atomic level, cutting material of single-point diamond.

    Views (last year): 5. Citations: 33 (RSCI).
  8. Чернов И.А.
    Высокопроизводительная идентификация моделей кинетики гидридного фазового перехода
    Компьютерные исследования и моделирование, 2020, т. 12, № 1, с. 171-183

    Гидриды металлов представляют собой интересный класс соединений, способных обратимо связывать большое количество водорода и потому представляющих интерес для приложений энергетики. Особенно важно понимание факторов, влияющих на кинетику формирования и разложения гидридов. Особенности материала, экспериментальной установки и условий влияют на математическое описание процессов, которое может претерпевать существенные изменения в ходе обработки экспериментальных данных. В статье предложен общий подход к численному моделированию формирования и разложения гидридов металлов и решения обратных задач оценки параметров материала по данным измерений. Модели делятся на два класса: диффузионные, принимающие во внимание градиент концентрации водорода в решетке металла, и модели с быстрой диффузией. Первые более сложны и имеют форму неклассических краевых задач параболического типа. Описан подход к сеточному решению таких задач. Вторые решаются сравнительно просто, но могут сильно меняться при изменении модельных предположений. Опыт обработки экспериментальных данных показывает, что необходимо гибкое программное средство, позволяющее, с одной стороны, строить модели из стандартных блоков, свободно изменяя их при необходимости, а с другой — избегать реализации рутинных алгоритмов, причем приспособленное для высокопроизводительных систем различной парадигмы. Этим условиям удовлетворяет представленная в работе библиотека HIMICOS, протестированная на большом числе экспериментальных данных. Она позволяет моделировать кинетику формирования и разложения гидридов металлов (и других соединений) на трех уровнях абстракции. На низком уровне пользователь определяет интерфейсные процедуры, такие как расчет слоя по времени на основании предыдущего слоя или всей предыстории, вычисление наблюдаемой величины и независимой переменной по переменным задачи, сравнение кривой с эталонной. При этом могут использоваться алгоритмы, решающие краевые задачи параболического типа со свободными границами в весьма общей постановке, в том числе с разнообразными квазилинейными (линейными по производной) граничными условиями, а также вычисляющие расстояние между кривыми в различных метрических пространствах и с различной нормировкой. Это средний уровень абстракции. На высоком уровне достаточно выбрать готовую модель для того или иного материала и модифицировать ее применительно к условиям эксперимента.

    Chernov I.A.
    High-throughput identification of hydride phase-change kinetics models
    Computer Research and Modeling, 2020, v. 12, no. 1, pp. 171-183

    Metal hydrides are an interesting class of chemical compounds that can reversibly bind a large amount of hydrogen and are, therefore, of interest for energy applications. Understanding the factors affecting the kinetics of hydride formation and decomposition is especially important. Features of the material, experimental setup and conditions affect the mathematical description of the processes, which can undergo significant changes during the processing of experimental data. The article proposes a general approach to numerical modeling of the formation and decomposition of metal hydrides and solving inverse problems of estimating material parameters from measurement data. The models are divided into two classes: diffusive ones, that take into account the gradient of hydrogen concentration in the metal lattice, and models with fast diffusion. The former are more complex and take the form of non-classical boundary value problems of parabolic type. A rather general approach to the grid solution of such problems is described. The second ones are solved relatively simply, but can change greatly when model assumptions change. Our experience in processing experimental data shows that a flexible software tool is needed; a tool that allows, on the one hand, building models from standard blocks, freely changing them if necessary, and, on the other hand, avoiding the implementation of routine algorithms. It also should be adapted for high-performance systems of different paradigms. These conditions are satisfied by the HIMICOS library presented in the paper, which has been tested on a large number of experimental data. It allows simulating the kinetics of formation and decomposition of metal hydrides, as well as related tasks, at three levels of abstraction. At the low level, the user defines the interface procedures, such as calculating the time layer based on the previous layer or the entire history, calculating the observed value and the independent variable from the task variables, comparing the curve with the reference. Special algorithms can be used for solving quite general parabolic-type boundary value problems with free boundaries and with various quasilinear (i.e., linear with respect to the derivative only) boundary conditions, as well as calculating the distance between the curves in different metric spaces and with different normalization. This is the middle level of abstraction. At the high level, it is enough to choose a ready tested model for a particular material and modify it in relation to the experimental conditions.

  9. Саленек И.А., Селиверстов Я.А., Селиверстов С.А., Софронова Е.А.
    Повышение качества генерации маршрутов в SUMO на основе данных с детекторов с использованием обучения с подкреплением
    Компьютерные исследования и моделирование, 2024, т. 16, № 1, с. 137-146

    Данная работа предлагает новый подход к построению высокоточных маршрутов на основе данных от транспортных детекторов в пакете моделирования трафика SUMO. Существующие инструменты, такие как flowrouter и routeSampler, имеют ряд недостатков, таких как отсутствие взаимодействия с сетью в процессе построения маршрутов. Наш rlRouter использует мультиагентное обучение с подкреплением (MARL), где агенты — это входящие полосы движения, а окружающая среда — дорожная сеть. Добавляя в сеть транспортные средства с определенными маршрутами, агенты получают вознаграждение за сопоставление данных с детекторами транспорта. В качестве алгоритма мультиагентного обучения с подкреплением использовался DQN с разделением параметров между агентами и LSTM-слоем для обработки последовательных данных.

    Поскольку rlRouter обучается внутри симуляции SUMO, он может лучше восстанавливать маршруты, принимая во внимание взаимодействие транспортных средств внутри сети друг с другом и с сетевой инфраструктурой. Мы смоделировали различные дорожные ситуации на трех разных перекрестках, чтобы сравнить производительность маршрутизаторов SUMO с rlRouter. Мы использовали среднюю абсолютную ошибку (MAE) в качестве меры отклонения кумулятивных данных детекторов и от данных маршрутов. rlRouter позволил добиться высокого соответствия данным с детекторов. Мы также обнаружили, что, максимизируя вознаграждение за соответствие детекторам, результирующие маршруты также становятся ближе к реальным. Несмотря на то, что маршруты, восстановленные с помощью rlRouter, превосходят маршруты, полученные с помощью инструментов SUMO, они не полностью соответствуют реальным из-за естественных ограничений петлевых детекторов. Чтобы обеспечить более правдоподобные маршруты, необходимо оборудовать перекрестки другими видами транспортных счетчиков, например, детекторами-камерами.

    Salenek I.A., Seliverstov Y.A., Seliverstov S.A., Sofronova E.A.
    Improving the quality of route generation in SUMO based on data from detectors using reinforcement learning
    Computer Research and Modeling, 2024, v. 16, no. 1, pp. 137-146

    This work provides a new approach for constructing high-precision routes based on data from transport detectors inside the SUMO traffic modeling package. Existing tools such as flowrouter and routeSampler have a number of disadvantages, such as the lack of interaction with the network in the process of building routes. Our rlRouter uses multi-agent reinforcement learning (MARL), where the agents are incoming lanes and the environment is the road network. By performing actions to launch vehicles, agents receive a reward for matching data from transport detectors. Parameter Sharing DQN with the LSTM backbone of the Q-function was used as an algorithm for multi-agent reinforcement learning.

    Since the rlRouter is trained inside the SUMO simulation, it can restore routes better by taking into account the interaction of vehicles within the network with each other and with the network infrastructure. We have modeled diverse traffic situations on three different junctions in order to compare the performance of SUMO’s routers with the rlRouter. We used Mean Absoluter Error (MAE) as the measure of the deviation from both cumulative detectors and routes data. The rlRouter achieved the highest compliance with the data from the detectors. We also found that by maximizing the reward for matching detectors, the resulting routes also get closer to the real ones. Despite the fact that the routes recovered using rlRouter are superior to the routes obtained using SUMO tools, they do not fully correspond to the real ones, due to the natural limitations of induction-loop detectors. To achieve more plausible routes, it is necessary to equip junctions with other types of transport counters, for example, camera detectors.

  10. Оконича О., Садовых А.
    Автоматизированная проверка соответствия соглашений об обработке данных регламенту по защите данных
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1667-1685

    В современном мире соблюдение нормативных требований по защите данных, таких как GDPR, является ключевым для организаций. Другой важной проблемой, выявленной при анализе, является то, что соблюдение осложняется сложностью правовых документов и постоянными изменениями в регулировании. В данной статье описываются способы, с помощью которых NLP (обработка естественного языка) способствует упрощению соблюдения GDPR путем автоматического сканирования на соответствие, оценки политик конфиденциальности и повышения уровня прозрачности. Работа не ограничивается исследованием применения NLP для работы с политиками конфиденциальности и улучшения понимания обмена данными с третьими сторонами, но также проводит предварительные исследования для оценки различий между несколькими моделями NLP. В статье описывается реализация и исполнение моделей для выявления той, которая демонстрирует наилучшую производительность по эффективности и скорости автоматизации процесса проверки соответствия и анализа политики конфиденциальности. Кроме того, в исследовании обсуждаются возможности использования автоматических инструментов и анализа данных для соблюдения GDPR, например, создание машиночитаемых моделей, которые помогают в оценке соответствия. Среди моделей, оцененных в нашем исследовании, SBERT показала лучшие результаты на уровне политики с точностью 0,57, прецизионностью 0,78, полнотой 0,83 и F1-метрикой 0,80. Модель BERT продемонстрировала наивысшую производительность на уровне предложений, достигнув точности 0,63, прецизионности 0,70, полноты 0,50 и F1-метрики 0,55. Таким образом, данная статья подчеркивает важность NLP в помощи организациям преодолеть трудности соблюдения GDPR, создавая дорожную карту к более ориентированному на клиента режиму защиты данных. В этом отношении, сравнивая предварительные исследования и демонстрируя производительность лучших моделей, работа способствует усилению мер по соблюдению и защите прав личности в киберпространстве.

    Okonicha O., Sadovykh A.
    NLP-based automated compliance checking of data processing agreements against General Data Protection Regulation
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1667-1685

    As it stands in the contemporary world, compliance with regulations concerning data protection such as GDPR is central to organizations. Another important issue analysis identified is the fact that compliance is hampered by the fact that legal documents are often complex and that regulations are ever changing. This paper aims to describe the ways in which NLP aids in keeping GDPR compliance effortless through automated scanning for compliance, evaluating privacy policies, and increasing the level of transparency. The work does not only limit to exploring the application of NLP for dealing with the privacy policies and facilitate better understanding of the third-party data sharing but also proceed to perform the preliminary studies to evaluate the difference of several NLP models. They implement and execute the models to distinguish the one that performs the best based on the efficiency and speed at which it automates the process of compliance verification and analyzing the privacy policy. Moreover, some of the topics discussed in the research deal with the possibility of using automatic tools and data analysis to GDPR, for instance, generation of the machine readable models that assist in evaluation of compliance. Among the evaluated models from our studies, SBERT performed best at the policy level with an accuracy of 0.57, precision of 0.78, recall of 0.83, and F1-score of 0.80. BERT showed the highest performance at the sentence level, achieving an accuracy of 0.63, precision of 0.70, recall of 0.50, and F1-score of 0.55. Therefore, this paper emphasizes the importance of NLP to help organizations overcome the difficulties of GDPR compliance, create a roadmap to a more client-oriented data protection regime. In this regard, by comparing preliminary studies done in the test and showing the performance of the better model, it helps enhance the measures taken in compliance and fosters the defense of individual rights in the cyberspace.

Pages: « first previous next last »

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"