Результаты поиска по 'обработка данных':
Найдено статей: 116
  1. В данной работе показаны преимущества использования алгоритмов искусственного интеллекта для планирования эксперимента, позволяющих повысить точность идентификации параметров для эластостатической модели робота. Планирование эксперимента для робота заключается в подборе оптимальных пар «конфигурация – внешняя сила» для использования в алгоритмах идентификации, включающих в себя несколько основных этапов. На первом этапе создается эластостатическая модель робота, учитывающая все возможные механические податливости. Вторым этапом выбирается целевая функция, которая может быть представлена как классическими критериями оптимальности, так и критериями, напрямую следующими из желаемого применения робота. Третьим этапом производится поиск оптимальных конфигураций методами численной оптимизации. Четвертым этапом производится замер положения рабочего органа робота в полученных конфигурациях под воздействием внешней силы. На последнем, пятом, этапе выполняется идентификация эластостатичесих параметров манипулятора на основе замеренных данных.

    Целевая функция для поиска оптимальных конфигураций для калибровки индустриального робота является ограниченной в силу механических ограничений как со стороны возможных углов вращения шарниров робота, так и со стороны возможных прикладываемых сил. Решение данной многомерной и ограниченной задачи является непростым, поэтому предлагается использовать подходы на базе искусственного интеллекта. Для нахождения минимума целевой функции были использованы следующие методы, также иногда называемые эвристическими: генетические алгоритмы, оптимизация на основе роя частиц, алгоритм имитации отжига т. д. Полученные результаты были проанализированы с точки зрения времени, необходимого для получения конфигураций, оптимального значения, а также итоговой точности после применения калибровки. Сравнение показало преимущество рассматриваемых техник оптимизации на основе искусственного интеллекта над классическими методами поиска оптимального значения. Результаты данной работы позволяют уменьшить время, затрачиваемое на калибровку, и увеличить точность позиционирования рабочего органа робота после калибровки для контактных операций с высокими нагрузками, например таких, как механическая обработка и инкрементальная формовка.

    Popov D.I.
    Calibration of an elastostatic manipulator model using AI-based design of experiment
    Computer Research and Modeling, 2023, v. 15, no. 6, pp. 1535-1553

    This paper demonstrates the advantages of using artificial intelligence algorithms for the design of experiment theory, which makes possible to improve the accuracy of parameter identification for an elastostatic robot model. Design of experiment for a robot consists of the optimal configuration-external force pairs for the identification algorithms and can be described by several main stages. At the first stage, an elastostatic model of the robot is created, taking into account all possible mechanical compliances. The second stage selects the objective function, which can be represented by both classical optimality criteria and criteria defined by the desired application of the robot. At the third stage the optimal measurement configurations are found using numerical optimization. The fourth stage measures the position of the robot body in the obtained configurations under the influence of an external force. At the last, fifth stage, the elastostatic parameters of the manipulator are identified based on the measured data.

    The objective function required to finding the optimal configurations for industrial robot calibration is constrained by mechanical limits both on the part of the possible angles of rotation of the robot’s joints and on the part of the possible applied forces. The solution of this multidimensional and constrained problem is not simple, therefore it is proposed to use approaches based on artificial intelligence. To find the minimum of the objective function, the following methods, also sometimes called heuristics, were used: genetic algorithms, particle swarm optimization, simulated annealing algorithm, etc. The obtained results were analyzed in terms of the time required to obtain the configurations, the optimal value, as well as the final accuracy after applying the calibration. The comparison showed the advantages of the considered optimization techniques based on artificial intelligence over the classical methods of finding the optimal value. The results of this work allow us to reduce the time spent on calibration and increase the positioning accuracy of the robot’s end-effector after calibration for contact operations with high loads, such as machining and incremental forming.

  2. Белов С.Д., Ден Ц., Ли В., Линь Т., Пелеванюк И.С., Трофимов В.В., Ужинский А.В., Янь Т., Янь С., Чжак Г., Чжао С., Чжан С., Жемчугов А.С.
    Распределенные вычисления для эксперимента BES-III
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 469-473

    В 2009 году в Пекине заработал детектор BES-III (Beijing Spectrometer) [1] ускорителя BEPC-II (Beijing Electron–Positron Collider). Запущенный еще в 1989 году BEPC за время своей работы предоставил данные для целого ряда открытий в области физики очарованных частиц. В свою очередь на BES-III удалось получить крупнейшие наборы данных для J/ ψ, ψ' и ψ частиц при энергии ускорителя 2.5– 4.6 ГэВ. Объемы данных с эксперимента (более 1 ПБ) достаточно велики, чтобы задуматься об их распределенной обработке. В данной статье представлена общая информация, результаты и планы развития проекта распределенной обработки данных эксперимента BES-III.

    Belov S.D., Deng Z., Li W., Lin T., Pelevanyuk I., Trofimov V.V., Uzhinskiy A.V., Yan T., Yan X., Zhang G., Zhao X., Zhang X., Zhemchugov A.S.
    BES-III distributed computing status
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 469-473

    The BES-III experiment at the IHEP CAS, Beijing, is running at the high-luminosity e+e- collider BEPC-II to study physics of charm quarks and tau leptons. The world largest samples of J/psi and psi' events are already collected, a number of unique data samples in the energy range 2.5–4.6 GeV have been taken. The data volume is expected to increase by an order of magnitude in the coming years. This requires to move from a centralized computing system to a distributed computing environment, thus allowing the use of computing resources from remote sites — members of the BES-III Collaboration. In this report the general information, latest results and development plans of the BES-III distributed computing system are presented.

    Views (last year): 3.
  3. Попов В.Ю., Хлыстов А.Н., Бондин А.В.
    Атомная визуализация алмазного резания
    Компьютерные исследования и моделирование, 2016, т. 8, № 1, с. 137-149

    Данная работа посвящена созданию статической атомной модели двух поверхностей, контактирующих при электроалмазной обработке: алмазных зерен и шлифуемого ими материала. В центре работы стоят вопросы компьютерной визуализации этих поверхностей на молекулярном уровне, поскольку традиционное математическое описание не обладает достаточной наглядностью для демонстрации некоторых аспектов атомистической трибологии резания металлов с одновременно протекающими разными по своей физической природе процессами. А в электроалмазной обработке сочетается воздействие одновременно нескольких процессов: механический, электрический и электрохимический. Поэтому предлагаемая авторами методика моделирования остается единственным способом увидеть, что именно происходит на атомном уровне при резании материала алмазным зерном. В то же время статья может быть полезна как научно-познавательная, так как позволяет читателю понять, как на атомном уровне выглядят поверхности некоторых материалов.

    Popov V.Y., Khlystov A.N., Bondin A.V.
    Atomic visualization diamond cutting
    Computer Research and Modeling, 2016, v. 8, no. 1, pp. 137-149

    This work is devoted to creation of static atomic model of two surfaces in contact at electric diamond grinding: single-points diamond and material grinded of them. At the heart of the work there are issues of computer visualization of these surfaces at the molecular level, since traditional mathematical description does not possess sufficient visualization to demonstrate some aspects of the atomic tribology of metal cutting to simultaneously occurring the different, by their physical nature, processes. And in the electric diamond grinding blends effect of several processes simultaneously: mechanical, electrical and electrochemical. So the modeling technique proposed by authors is still the only way to see what is happening at the atomic level, cutting material of single-point diamond.

    Views (last year): 5. Citations: 33 (RSCI).
  4. Чернов И.А.
    Высокопроизводительная идентификация моделей кинетики гидридного фазового перехода
    Компьютерные исследования и моделирование, 2020, т. 12, № 1, с. 171-183

    Гидриды металлов представляют собой интересный класс соединений, способных обратимо связывать большое количество водорода и потому представляющих интерес для приложений энергетики. Особенно важно понимание факторов, влияющих на кинетику формирования и разложения гидридов. Особенности материала, экспериментальной установки и условий влияют на математическое описание процессов, которое может претерпевать существенные изменения в ходе обработки экспериментальных данных. В статье предложен общий подход к численному моделированию формирования и разложения гидридов металлов и решения обратных задач оценки параметров материала по данным измерений. Модели делятся на два класса: диффузионные, принимающие во внимание градиент концентрации водорода в решетке металла, и модели с быстрой диффузией. Первые более сложны и имеют форму неклассических краевых задач параболического типа. Описан подход к сеточному решению таких задач. Вторые решаются сравнительно просто, но могут сильно меняться при изменении модельных предположений. Опыт обработки экспериментальных данных показывает, что необходимо гибкое программное средство, позволяющее, с одной стороны, строить модели из стандартных блоков, свободно изменяя их при необходимости, а с другой — избегать реализации рутинных алгоритмов, причем приспособленное для высокопроизводительных систем различной парадигмы. Этим условиям удовлетворяет представленная в работе библиотека HIMICOS, протестированная на большом числе экспериментальных данных. Она позволяет моделировать кинетику формирования и разложения гидридов металлов (и других соединений) на трех уровнях абстракции. На низком уровне пользователь определяет интерфейсные процедуры, такие как расчет слоя по времени на основании предыдущего слоя или всей предыстории, вычисление наблюдаемой величины и независимой переменной по переменным задачи, сравнение кривой с эталонной. При этом могут использоваться алгоритмы, решающие краевые задачи параболического типа со свободными границами в весьма общей постановке, в том числе с разнообразными квазилинейными (линейными по производной) граничными условиями, а также вычисляющие расстояние между кривыми в различных метрических пространствах и с различной нормировкой. Это средний уровень абстракции. На высоком уровне достаточно выбрать готовую модель для того или иного материала и модифицировать ее применительно к условиям эксперимента.

    Chernov I.A.
    High-throughput identification of hydride phase-change kinetics models
    Computer Research and Modeling, 2020, v. 12, no. 1, pp. 171-183

    Metal hydrides are an interesting class of chemical compounds that can reversibly bind a large amount of hydrogen and are, therefore, of interest for energy applications. Understanding the factors affecting the kinetics of hydride formation and decomposition is especially important. Features of the material, experimental setup and conditions affect the mathematical description of the processes, which can undergo significant changes during the processing of experimental data. The article proposes a general approach to numerical modeling of the formation and decomposition of metal hydrides and solving inverse problems of estimating material parameters from measurement data. The models are divided into two classes: diffusive ones, that take into account the gradient of hydrogen concentration in the metal lattice, and models with fast diffusion. The former are more complex and take the form of non-classical boundary value problems of parabolic type. A rather general approach to the grid solution of such problems is described. The second ones are solved relatively simply, but can change greatly when model assumptions change. Our experience in processing experimental data shows that a flexible software tool is needed; a tool that allows, on the one hand, building models from standard blocks, freely changing them if necessary, and, on the other hand, avoiding the implementation of routine algorithms. It also should be adapted for high-performance systems of different paradigms. These conditions are satisfied by the HIMICOS library presented in the paper, which has been tested on a large number of experimental data. It allows simulating the kinetics of formation and decomposition of metal hydrides, as well as related tasks, at three levels of abstraction. At the low level, the user defines the interface procedures, such as calculating the time layer based on the previous layer or the entire history, calculating the observed value and the independent variable from the task variables, comparing the curve with the reference. Special algorithms can be used for solving quite general parabolic-type boundary value problems with free boundaries and with various quasilinear (i.e., linear with respect to the derivative only) boundary conditions, as well as calculating the distance between the curves in different metric spaces and with different normalization. This is the middle level of abstraction. At the high level, it is enough to choose a ready tested model for a particular material and modify it in relation to the experimental conditions.

  5. Саленек И.А., Селиверстов Я.А., Селиверстов С.А., Софронова Е.А.
    Повышение качества генерации маршрутов в SUMO на основе данных с детекторов с использованием обучения с подкреплением
    Компьютерные исследования и моделирование, 2024, т. 16, № 1, с. 137-146

    Данная работа предлагает новый подход к построению высокоточных маршрутов на основе данных от транспортных детекторов в пакете моделирования трафика SUMO. Существующие инструменты, такие как flowrouter и routeSampler, имеют ряд недостатков, таких как отсутствие взаимодействия с сетью в процессе построения маршрутов. Наш rlRouter использует мультиагентное обучение с подкреплением (MARL), где агенты — это входящие полосы движения, а окружающая среда — дорожная сеть. Добавляя в сеть транспортные средства с определенными маршрутами, агенты получают вознаграждение за сопоставление данных с детекторами транспорта. В качестве алгоритма мультиагентного обучения с подкреплением использовался DQN с разделением параметров между агентами и LSTM-слоем для обработки последовательных данных.

    Поскольку rlRouter обучается внутри симуляции SUMO, он может лучше восстанавливать маршруты, принимая во внимание взаимодействие транспортных средств внутри сети друг с другом и с сетевой инфраструктурой. Мы смоделировали различные дорожные ситуации на трех разных перекрестках, чтобы сравнить производительность маршрутизаторов SUMO с rlRouter. Мы использовали среднюю абсолютную ошибку (MAE) в качестве меры отклонения кумулятивных данных детекторов и от данных маршрутов. rlRouter позволил добиться высокого соответствия данным с детекторов. Мы также обнаружили, что, максимизируя вознаграждение за соответствие детекторам, результирующие маршруты также становятся ближе к реальным. Несмотря на то, что маршруты, восстановленные с помощью rlRouter, превосходят маршруты, полученные с помощью инструментов SUMO, они не полностью соответствуют реальным из-за естественных ограничений петлевых детекторов. Чтобы обеспечить более правдоподобные маршруты, необходимо оборудовать перекрестки другими видами транспортных счетчиков, например, детекторами-камерами.

    Salenek I.A., Seliverstov Y.A., Seliverstov S.A., Sofronova E.A.
    Improving the quality of route generation in SUMO based on data from detectors using reinforcement learning
    Computer Research and Modeling, 2024, v. 16, no. 1, pp. 137-146

    This work provides a new approach for constructing high-precision routes based on data from transport detectors inside the SUMO traffic modeling package. Existing tools such as flowrouter and routeSampler have a number of disadvantages, such as the lack of interaction with the network in the process of building routes. Our rlRouter uses multi-agent reinforcement learning (MARL), where the agents are incoming lanes and the environment is the road network. By performing actions to launch vehicles, agents receive a reward for matching data from transport detectors. Parameter Sharing DQN with the LSTM backbone of the Q-function was used as an algorithm for multi-agent reinforcement learning.

    Since the rlRouter is trained inside the SUMO simulation, it can restore routes better by taking into account the interaction of vehicles within the network with each other and with the network infrastructure. We have modeled diverse traffic situations on three different junctions in order to compare the performance of SUMO’s routers with the rlRouter. We used Mean Absoluter Error (MAE) as the measure of the deviation from both cumulative detectors and routes data. The rlRouter achieved the highest compliance with the data from the detectors. We also found that by maximizing the reward for matching detectors, the resulting routes also get closer to the real ones. Despite the fact that the routes recovered using rlRouter are superior to the routes obtained using SUMO tools, they do not fully correspond to the real ones, due to the natural limitations of induction-loop detectors. To achieve more plausible routes, it is necessary to equip junctions with other types of transport counters, for example, camera detectors.

  6. Оконича О., Садовых А.
    Автоматизированная проверка соответствия соглашений об обработке данных регламенту по защите данных
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1667-1685

    В современном мире соблюдение нормативных требований по защите данных, таких как GDPR, является ключевым для организаций. Другой важной проблемой, выявленной при анализе, является то, что соблюдение осложняется сложностью правовых документов и постоянными изменениями в регулировании. В данной статье описываются способы, с помощью которых NLP (обработка естественного языка) способствует упрощению соблюдения GDPR путем автоматического сканирования на соответствие, оценки политик конфиденциальности и повышения уровня прозрачности. Работа не ограничивается исследованием применения NLP для работы с политиками конфиденциальности и улучшения понимания обмена данными с третьими сторонами, но также проводит предварительные исследования для оценки различий между несколькими моделями NLP. В статье описывается реализация и исполнение моделей для выявления той, которая демонстрирует наилучшую производительность по эффективности и скорости автоматизации процесса проверки соответствия и анализа политики конфиденциальности. Кроме того, в исследовании обсуждаются возможности использования автоматических инструментов и анализа данных для соблюдения GDPR, например, создание машиночитаемых моделей, которые помогают в оценке соответствия. Среди моделей, оцененных в нашем исследовании, SBERT показала лучшие результаты на уровне политики с точностью 0,57, прецизионностью 0,78, полнотой 0,83 и F1-метрикой 0,80. Модель BERT продемонстрировала наивысшую производительность на уровне предложений, достигнув точности 0,63, прецизионности 0,70, полноты 0,50 и F1-метрики 0,55. Таким образом, данная статья подчеркивает важность NLP в помощи организациям преодолеть трудности соблюдения GDPR, создавая дорожную карту к более ориентированному на клиента режиму защиты данных. В этом отношении, сравнивая предварительные исследования и демонстрируя производительность лучших моделей, работа способствует усилению мер по соблюдению и защите прав личности в киберпространстве.

    Okonicha O., Sadovykh A.
    NLP-based automated compliance checking of data processing agreements against General Data Protection Regulation
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1667-1685

    As it stands in the contemporary world, compliance with regulations concerning data protection such as GDPR is central to organizations. Another important issue analysis identified is the fact that compliance is hampered by the fact that legal documents are often complex and that regulations are ever changing. This paper aims to describe the ways in which NLP aids in keeping GDPR compliance effortless through automated scanning for compliance, evaluating privacy policies, and increasing the level of transparency. The work does not only limit to exploring the application of NLP for dealing with the privacy policies and facilitate better understanding of the third-party data sharing but also proceed to perform the preliminary studies to evaluate the difference of several NLP models. They implement and execute the models to distinguish the one that performs the best based on the efficiency and speed at which it automates the process of compliance verification and analyzing the privacy policy. Moreover, some of the topics discussed in the research deal with the possibility of using automatic tools and data analysis to GDPR, for instance, generation of the machine readable models that assist in evaluation of compliance. Among the evaluated models from our studies, SBERT performed best at the policy level with an accuracy of 0.57, precision of 0.78, recall of 0.83, and F1-score of 0.80. BERT showed the highest performance at the sentence level, achieving an accuracy of 0.63, precision of 0.70, recall of 0.50, and F1-score of 0.55. Therefore, this paper emphasizes the importance of NLP to help organizations overcome the difficulties of GDPR compliance, create a roadmap to a more client-oriented data protection regime. In this regard, by comparing preliminary studies done in the test and showing the performance of the better model, it helps enhance the measures taken in compliance and fosters the defense of individual rights in the cyberspace.

  7. Ужинский А.В., Ососков Г.А., Гончаров П.В., Фронтасьева М.В.
    Перспективы использования космоснимков для прогнозирования загрязнения воздуха тяжелыми металлами
    Компьютерные исследования и моделирование, 2018, т. 10, № 4, с. 535-544

    Контроль за загрязнением воздуха имеет большое значение для стран Европы и Азии. В рамках Конвенции ООН по дальнему трансграничному переносу воздушных загрязнений (СLRTAP) реализуется программа UNECE ICP Vegetation, направленная на определение наиболее неблагополучных областей, создание региональных карт и улучшение понимания природы долгосрочных трансграничных загрязнений. В Объединенном институте ядерных исследований была разработана облачная платформа, предоставляющая участникам программы ICP Vegetation удобные инструменты для сбора, анализа и обработки данных мониторинга. В настоящее время в системе содержится информация о более чем 6000 точках пробоотбора в 40 регионах различных стран Европы и Азии.

    Важным этапом контроля является моделирование загрязнений в местах, где частота исследований или плотность покрытия сети сбора образцов недостаточны. Одним из подходов к прогнозированию загрязнений является использование специализированных статистических моделей и методов машинного обучения совместно с различными количественными показателями точек сбора образцов и информацией о концентрациях элементов. Наиболее перспективным источником количественных показателей для обучения моделей являются космические снимки в различных спектрах. Обученная должным образом модель позволит получать прогноз по концентрациям элементов, используя исключительно космоснимки. Специализированная платформа Google Earth Engine предоставляет широкие возможности для анализа и обработки данных от более чем 100 различных проектов дистанционного зондирования земли, удобный интерфейс разработчика на JavaScript и программный интерфейс на Python для использования в сторонних приложениях.

    В работе рассматривается возможность использования статистических показателей космоснимков, полученных от платформы Google Earth Engine, совместно с данными мониторинга состояния окружающей среды проекта ICP Vegetation для обучения моделей, способных прогнозировать концентрацию тяжелых металлов в определенных регионах.

    Uzhinskiy A.V., Ososkov G.A., Goncharov P.V., Frontasyeva M.V.
    Perspectives of using a satellite imagery data for prediction of heavy metals contamination
    Computer Research and Modeling, 2018, v. 10, no. 4, pp. 535-544
    Views (last year): 21.
  8. Яковлев А.А., Абакумов А.И., Костюшко А.В., Маркелова Е.В.
    Цитокины как индикаторы состояния организма при инфекционных заболеваниях. Анализ экспериментальных данных
    Компьютерные исследования и моделирование, 2020, т. 12, № 6, с. 1409-1426

    При заболеваниях человека в результате бактериального заражения для наблюдения за ходом болезни используются различные характеристики организма. В настоящее время одним из таких индикаторов принимается динамика концентраций цитокинов, вырабатываемых в основном клетками иммунной системы. В организме человека и многих видов животных присутствуют эти низкомолекулярные белки. Исследование цитокинов имеет важное значение для интерпретации нарушений функциональной состоятельности иммунной системы организма, оценки степени тяжести, мониторинга эффективности проводимой терапии, прогноза течения и исхода лечения. При заболевании возникает цитокиновый отклик организма, указывающий на характеристики течения болезни. Для исследования закономерностей такой индикации проведены эксперименты на лабораторных мышах. В работе анализируются экспериментальные данные о развитии пневмонии и лечении несколькими препаратами при бактериальном заражении мышей. В качестве препаратов использовались иммуномодулирующие препараты «Ронколейкин», «Лейкинферон» и «Тинростим». Данные представлены динамикой концентраций двух видов цитокинов в легочной ткани и крови животных. Многосторонний статистический и нестатистический анализ данных позволил выявить общие закономерности изменения концентраций цитокинов в организме и связать их со свойствами лечебных препаратов. Исследуемые цитокины «Интерлейкин-10» (ИЛ-10) и «Интерферон Гамма» (ИФН$\gamma$) у зараженных мышей отклоняются от нормального уровня интактных животных, указывая на развитие заболевания. Изменения концентраций цитокинов в группах лечимых мышей сравниваются с этими показателями в группе здоровых (не зараженных) мышей и группе зараженных нелеченных особей. Сравнение делается по группам особей, так как концентрации цитокинов индивидуальны и значительно отличаются у разных особей. В этих условиях только группы особей могут указать на закономерности процессов течения болезни. Эти группы мышей наблюдались в течение двух недель. Динамика концентраций цитокинов указывает на характеристики течения болезни и эффективность применяемых лечебных препаратов. Воздействие лечебного препарата на организмы отслеживается по расположению указанных групп особей в пространстве концентраций цитокинов. В этом пространстве используется расстояние Хаусдорфа между множествами векторов концентраций цитокинов у особей, основанное на евклидовом расстоянии между элементами этих множеств. Выяснено, что препараты «Ронколейкин» и «Лейкинферон» оказывают в целом сходное между собой и отличное от препарата «Тинростим» воздействие на течение болезни.

    Yakovlev A.A., Abakumov A.I., Kostyushkо A.V., Markelova E.V.
    Cytokines as indicators of the state of the organism in infectious diseases. Experimental data analysis
    Computer Research and Modeling, 2020, v. 12, no. 6, pp. 1409-1426

    When person`s diseases is result of bacterial infection, various characteristics of the organism are used for observation the course of the disease. Currently, one of these indicators is dynamics of cytokine concentrations are produced, mainly by cells of the immune system. There are many types of these low molecular weight proteins in human body and many species of animals. The study of cytokines is important for the interpretation of functional disorders of the body's immune system, assessment of the severity, monitoring the effectiveness of therapy, predicting of the course and outcome of treatment. Cytokine response of the body indicating characteristics of course of disease. For research regularities of such indication, experiments were conducted on laboratory mice. Experimental data are analyzed on the development of pneumonia and treatment with several drugs for bacterial infection of mice. As drugs used immunomodulatory drugs “Roncoleukin”, “Leikinferon” and “Tinrostim”. The data are presented by two types cytokines` concentration in lung tissue and animal blood. Multy-sided statistical ana non statistical analysis of the data allowed us to find common patterns of changes in the “cytokine profile” of the body and to link them with the properties of therapeutic preparations. The studies cytokine “Interleukin-10” (IL-10) and “Interferon Gamma” (IFN$\gamma$) in infected mice deviate from the normal level of infact animals indicating the development of the disease. Changes in cytokine concentrations in groups of treated mice are compared with those in a group of healthy (not infected) mice and a group of infected untreated mice. The comparison is made for groups of individuals, since the concentrations of cytokines are individual and differ significantly in different individuals. Under these conditions, only groups of individuals can indicate the regularities of the processes of the course of the disease. These groups of mice were being observed for two weeks. The dynamics of cytokine concentrations indicates characteristics of the disease course and efficiency of used therapeutic drugs. The effect of a medicinal product on organisms is monitored by the location of these groups of individuals in the space of cytokine concentrations. The Hausdorff distance between the sets of vectors of cytokine concentrations of individuals is used in this space. This is based on the Euclidean distance between the elements of these sets. It was found that the drug “Roncoleukin” and “Leukinferon” have a generally similar and different from the drug “Tinrostim” effect on the course of the disease.

  9. Шепелев В.Д., Костюченков Н.В., Шепелев С.Д., Алиева А.А., Макарова И.В., Буйвол П.А., Парсин Г.А.
    Разработка интеллектуальной системы определения объемно-весовых характеристик груза
    Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 437-450

    Промышленная обработка изображений или «машинное зрение» в настоящее время является ключевой технологией во многих отраслях, поскольку эта технология может использоваться для оптимизации различных процессов. Целью настоящей работы является создание программно-аппаратного комплекса измерения габаритно-весовых характеристик груза на базе интеллектуальной системы, основанной на нейросетевых способах идентификации, позволяющих преодолеть технологические ограничения аналогичных комплексов, реализованных на ультразвуковых и инфракрасных измерительных датчиках. Разрабатываемый комплекс будет производить измерения грузов без ограничения на объемные и весовые характеристики груза, который необходимо тарифицировать и сортировать в рамках работы складских комплексов. В состав системы будет входить интеллектуальная компьютерная программа, определяющая объемно-весовые характеристики груза с использованием технологии машинного зрения и экспериментальный образец стенда измерения объёма и веса груза.

    Проведен анализ исследований, посвященных решению аналогичных задач. Отмечено, что недостатком изученных способов являются очень высокие требования к расположению камеры, а также необходимость ручной работы при вычислении размеров, автоматизировать которую не представляется возможным без существенных доработок. В процессе работы исследованы различные способы распознавания объектов на изображениях с целью проведения предметной фильтрации по наличию груза и измерения его габаритных размеров. Получены удовлетворительные результаты при применении камер, сочетающих в себе как оптический способ захвата изображений, так и инфракрасные датчики. В результате работы разработана компьютерная программа, позволяющая захватывать непрерывный поток с видеокамер Intel RealSense с последующим извлечением из обозначенной области трехмерный объект и вычислять габаритные размеры объекта. На данном этапе выполнено: проведен анализ методик компьютерного зрения; разработан алгоритм для реализации задачи автоматического измерения грузов с использованием специальных камер; разработано программное обеспечение, позволяющее получать габаритные размеры объектов в автоматическом режиме.

    Данная разработка по завершении работы может применяться как готовое решение для транспортных компаний, логистических центров, складов крупных производственных и торговых предприятий.

    Shepelev V.D., Kostyuchenkov N.V., Shepelev S.D., Alieva A.A., Makarova I.V., Buyvol P.A., Parsin G.A.
    The development of an intelligent system for recognizing the volume and weight characteristics of cargo
    Computer Research and Modeling, 2021, v. 13, no. 2, pp. 437-450

    Industrial imaging or “machine vision” is currently a key technology in many industries as it can be used to optimize various processes. The purpose of this work is to create a software and hardware complex for measuring the overall and weight characteristics of cargo based on an intelligent system using neural network identification methods that allow one to overcome the technological limitations of similar complexes implemented on ultrasonic and infrared measuring sensors. The complex to be developed will measure cargo without restrictions on the volume and weight characteristics of cargo to be tariffed and sorted within the framework of the warehouse complexes. The system will include an intelligent computer program that determines the volume and weight characteristics of cargo using the machine vision technology and an experimental sample of the stand for measuring the volume and weight of cargo.

    We analyzed the solutions to similar problems. We noted that the disadvantages of the studied methods are very high requirements for the location of the camera, as well as the need for manual operations when calculating the dimensions, which cannot be automated without significant modifications. In the course of the work, we investigated various methods of object recognition in images to carry out subject filtering by the presence of cargo and measure its overall dimensions. We obtained satisfactory results when using cameras that combine both an optical method of image capture and infrared sensors. As a result of the work, we developed a computer program allowing one to capture a continuous stream from Intel RealSense video cameras with subsequent extraction of a three-dimensional object from the designated area and to calculate the overall dimensions of the object. At this stage, we analyzed computer vision techniques; developed an algorithm to implement the task of automatic measurement of goods using special cameras and the software allowing one to obtain the overall dimensions of objects in automatic mode.

    Upon completion of the work, this development can be used as a ready-made solution for transport companies, logistics centers, warehouses of large industrial and commercial enterprises.

  10. Макаров И.С., Баганцова Е.Р., Яшин П.А., Ковалёва М.Д., Захарова Е.М.
    Разработка и исследование жесткого алгоритма анализа публикаций в Twitter и их влияния на движение рынка криптовалют
    Компьютерные исследования и моделирование, 2023, т. 15, № 1, с. 157-170

    Посты в социальных сетях являются важным индикатором, отображающим положение активов на финансовом рынке. В статье описывается жесткое решение задачи классификации для определения влияния активности в социальных сетях на движение финансового рынка. Отбираются аккаунты авторитетных в сообществе крипто-трейдеров-инфлюенсеров. В качестве данных используются специальные пакеты сообщений, которые состоят из текстовых постов, взятых из Twitter. Приведены способы предобработки текста, заключающиеся в лемматизации Stanza и применении регулярных выражений, для очищения зашумленных текстов, особенностью которых является многочисленное употребление сленговых слов и сокращений. Решается задача бинарной классификации, где слово рассматривается как элемент вектора единицы данных. Для более точного описания криптовалютной активности ищутся наилучшие параметры разметки для обработки свечей Binance. Методы выявления признаков, необходимых для точного описания текстовых данных и последующего процесса установления зависимости, представлены в виде машинного обучения и статистического анализа. В качестве первого используется отбор признаков на основе критерия информативности, который применяется при разбиении решающего дерева на поддеревья. Такой подход реализован в модели случайного леса и актуален для задачи выбора значимых для «стрижки деревьев» признаков. Второй же основан на жестком составлении бинарного вектора в ходе грубой проверки наличия либо отсутствия слова в пакете и подсчете суммы элементов этого вектора. Затем принимается решение в зависимости от преодоления этой суммой порогового значения, базирующегося на уровне, предварительно подобранном с помощью анализа частотного распределения упоминаний слова. Алгоритм, используемый для решения проблемы, был назван бенчмарком и проанализирован в качестве инструмента. Подобные алгоритмы часто используются в автоматизированных торговых стратегиях. В процессе исследования также описаны наблюдения влияния часто встречающихся в тексте слов, которые используются в качестве базиса размерностью 2 и 3 при векторизации.

    Makarov I.S., Bagantsova E.R., Iashin P.A., Kovaleva M.D., Zakharova E.M.
    Development of and research into a rigid algorithm for analyzing Twitter publications and its influence on the movements of the cryptocurrency market
    Computer Research and Modeling, 2023, v. 15, no. 1, pp. 157-170

    Social media is a crucial indicator of the position of assets in the financial market. The paper describes the rigid solution for the classification problem to determine the influence of social media activity on financial market movements. Reputable crypto traders influencers are selected. Twitter posts packages are used as data. The methods of text, which are characterized by the numerous use of slang words and abbreviations, and preprocessing consist in lemmatization of Stanza and the use of regular expressions. A word is considered as an element of a vector of a data unit in the course of solving the problem of binary classification. The best markup parameters for processing Binance candles are searched for. Methods of feature selection, which is necessary for a precise description of text data and the subsequent process of establishing dependence, are represented by machine learning and statistical analysis. First, the feature selection is used based on the information criterion. This approach is implemented in a random forest model and is relevant for the task of feature selection for splitting nodes in a decision tree. The second one is based on the rigid compilation of a binary vector during a rough check of the presence or absence of a word in the package and counting the sum of the elements of this vector. Then a decision is made depending on the superiority of this sum over the threshold value that is predetermined previously by analyzing the frequency distribution of mentions of the word. The algorithm used to solve the problem was named benchmark and analyzed as a tool. Similar algorithms are often used in automated trading strategies. In the course of the study, observations of the influence of frequently occurring words, which are used as a basis of dimension 2 and 3 in vectorization, are described as well.

Pages: « first previous next last »

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"