Результаты поиска по 'обработка данных':
Найдено статей: 97
  1. Иванов С.Д.
    Интерактивный реестр геосенсоров на основе веб-приложения
    Компьютерные исследования и моделирование, 2016, т. 8, № 4, с. 621-632

    Выбор и корректное использование инструмента минеральной геотермобарометрии — геосенсора — является сложной задачей из-за большого разнообразия существующих сенсоров, с одной стороны, и наличия специфических требований к их использованию с другой. Для снижения трудоемкости и обеспечения информационной поддержки использования геосенсоров в статье предлагается организация набора геосенсоров в рамках компьютерной системы, называемой интерактивным реестром. В статье дается формальное описание термодинамического геосенсора как функции состава минералов и независимых параметров, а также рассматриваются основные этапы получения оценок давления и температуры, общие для всех сенсоров: переход к коэффициентам формул, расчет дополнительных параметров и непосредственное вычисление искомого значения. Рассматриваются существующие программы — коллекции геосенсоров, выполненные как в виде отдельных приложений, так и в виде электронных таблиц, анализируются достоинства и недостатки этих подходов. Дается описание справочной информации, необходимой для использования геосенсора: в минеральном парагенезисе, в точности и пределах значений параметров, в литературной ссылке и др. Предлагается реализации реестра геосенсоров на базе веб-приложения, использующего технологию вики. Применение технологии вики позволяет эффективно организовать плохо формализуемую справочную информацию о сенсоре и его алгоритм, записанный на языке программирования в рамках единой информационной системы. Для структурирования информации используются ссылки, пространства имен и вики-разметка. В статье рассматривается реализация данного приложения на основе вики-системы DokuWiki и специально разработанного RESTful-сервера, позволяющего пользователю использовать геосенсоры, описанные в реестре для обработки собственных данных. В качестве языка описания геосенсоров в приложении используется язык R, для выполнения расчетов используется сервер RServe. Для контроля корректности работы сенсоров каждый из них снабжается юнит-тестом. Пользовательский интерфейс приложения разработан в виде плагинов к системе DokuWiki. Приводится пример использования разработанного приложения. В заключение рассматриваются вопросы безопасности и производительности разработанного приложения, а также возможность его масштабирования.

    Ivanov S.D.
    Web-based interactive registry of the geosensors
    Computer Research and Modeling, 2016, v. 8, no. 4, pp. 621-632

    Selection and correct applying of the geosensor — the instrument of mineral geothermobarometry is challenging because of the wide variety of existing geosensors on the one hand and the availability of specific requirements for their use on the other. In this paper, organization of the geosensors within the computer system called interactive registry was proposed for reducing the labor intensity of the geosensors usage and providing information support for them. The article provides a formal description of the thermodynamic geosensor, as a function of the minerals composition and independent parameters, as well as the basic steps of pressure and temperature estimation which are common for all geosensors: conversion to the formula units, calculation of the additional parameters and the calculation of the required values. Existing collections of geosensors made as standalone applications, or as spreadsheets was examined for advantages and disadvantages of these approaches. Additional information necessary to use the geosensor was described: paragenesis, accuracy and range of parameter values, reference and others. Implementation of the geosensors registry as the webbased application which uses wiki technology was proposed. Usage of the wiki technology allows to effectively organize not so well formalized additional information about the geosensor and it’s algorithm which had written in a programming language into a single information system. For information organization links, namespaces and wiki markup was used. The article discusses the implementation of the applications on the top of DokuWiki system with specially designed RESTful server, allowing users to apply the geosensors from the registry to their own data. Programming language R uses as a geosensors description language. RServe server uses for calculations. The unittest for each geosensor allows to check the correctness of it’s implementation. The user interface of the application was developed as DokuWiki plug-in. The example of usage was given. In the article conclusion, the questions of the application security, performance and scaling was discussed.

    Views (last year): 5.
  2. Билятдинов К.З., Досиков В.С., Меняйло В.В.
    Совершенствование метода парных сравнений для реализации в компьютерных программах, применяемых при оценке качества технических систем
    Компьютерные исследования и моделирование, 2021, т. 13, № 6, с. 1125-1135

    Представлен усовершенствованный метод парных сравнений, в котором посредством табличных форм систематизированы правила логических выводов при сравнении технических систем и формулы проверочных значений. Для этого сформулированы рациональные правила логических выводов при парном сравнении систем. С целью проверки результатов оценки на непротиворечивость введены понятия количества баллов, набранных одной системой, и коэффициента качества систем, а также разработаны формулы расчетов. Для целей практического использования данного метода при разработке программ для ЭВМ предлагаются формализованные варианты взаимосвязанных таблиц: таблица обработки и систематизации экспертной информации, таблица возможных логических выводов по результатам сравнения заданного количества технических систем и таблица проверочных значений при использовании метода парных сравнений при оценке качества определенного количества технических систем. Таблицы позволяют более рационально организовать процедуры обработки информации и в значительной степени исклю- чить влияние ошибок при вводе данных на результаты оценки качества технических систем. Основной положительный эффект от внедрения усовершенствованного метода парных сравнений состоит в существенном сокращении времени и ресурсов на организацию работы с экспертами, обработку экспертной информации, а также на подготовку и проведение дистанционного опроса экспертов по сети Интернет или локальной вычислительной сети предприятия (организации) за счет рационального использования исходных данных о качестве оцениваемых систем. Предлагаемый усовершенствованный метод реали- зован в программах для ЭВМ, предназначенных для оценки эффективности и устойчивости больших технических систем.

    Biliatdinov K.Z., Dosikov V.S., Meniailo V.V.
    Improvement of the paired comparison method for implementation in computer programs used in assessment of technical systems’ quality
    Computer Research and Modeling, 2021, v. 13, no. 6, pp. 1125-1135

    The article describes an improved paired comparison method, which systematizes in tables the rules of logical conclusions and formulas of checking indices for comparison of technical systems. To achieve this goal, the authors formulate rational rules of logical conclusions in making a paired comparison of the systems. In addition, for the purpose of consistency check of the results of the assessment, the authors introduce parameters such as «the number of scores gained by one system» and «systems’ quality index»; moreover, they design corresponding calculation formulas. For the purposes of practical application of this method to design computer programs, the authors propose to use formalized variants of interconnected tables: a table for processing and systematization of expert information, a table of possible logical conclusions based on the results of comparison of a set number of technical systems and a table of check values in the paired comparison method used in quality assessment of a definite number of technical systems. These tables allow one to organize procedures of the information processing in a more rational way and to predominantly exclude the influence of mistakes on the results of quality assessment of technical systems at the stage of data input. The main positive effect from the implementation of the paired comparison method is observed in a considerable reduction of time and resources needed to organize experts work, process expert information, and to prepare and conduct distant interviews with experts (on the Internet or a local computer network of an organization). This effect is achieved by a rational use of input data of the quality of the systems to be assessed. The proposed method is applied to computer programs used in assessing the effectiveness and stability of large technical systems.

  3. Яковлева Т.В.
    Статистическое распределение фазы квазигармонического сигнала: основы теории и компьютерное моделирование
    Компьютерные исследования и моделирование, 2024, т. 16, № 2, с. 287-297

    В работе представлены результаты фундаментального исследования, направленного на теоретическое изучение и компьютерное моделирование свойств статистического распределения фазы квазигармонического сигнала, формируемого в результате воздействия гауссовского шума на исходно гармонический сигнал. Методами математического анализа получены в явном виде формулы для основных характеристик данного распределения — функции распределения, функции плотности вероятности, функции правдоподобия. В результате проведенного компьютерного моделирования проанализированы зависимости данных функций от параметров распределения фазы. В работе разработаны и обоснованы методы оценивания параметров распределения фазы, несущих информацию об исходном, не искаженном шумом сигнале. Показано, что задача оценивания исходного значения фазы квазигармонического сигнала может эффективно решаться простым усреднением результатов выборочных измерений фазы, в то время как для решения задачи оценивания второго параметра распределения фазы — параметра уровня сигнала относительно шума — предлагается использовать метод максимума правдоподобия. В работе представлены графические материалы, полученные путем компьютерного моделирования основных характеристик исследуемого статистического распределения фазы. Существование и единственность максимума функции правдоподобия позволяют обосновать возможность и эффективность решения задачи оценивания уровня сигнала относительно уровня шума методом максимума правдоподобия. Развиваемый в работе метод оценивания уровня незашумленного сигнала относительно уровня шума, т.е. параметра, характеризующего интенсивность сигнала, на основании измерений фазы сигнала является оригинальным, принципиально новым, открывающим перспективы использования фазовых измерений как инструмента анализа стохастических данных. Данное исследование является значимым для решения задач расчета фазы и уровня сигнала методами статистической обработки выборочных фазовых измерений. Предлагаемые методы оценивания параметров распределения фазы квазигармонического сигнала могут использоваться при решении различных научных и прикладных задач, в частности, в таких областях, как радиофизика, оптика, радиолокация, радионавигация, метрология.

    Yakovleva T.V.
    Statistical distribution of the quasi-harmonic signal’s phase: basics of theory and computer simulation
    Computer Research and Modeling, 2024, v. 16, no. 2, pp. 287-297

    The paper presents the results of the fundamental research directed on the theoretical study and computer simulation of peculiarities of the quasi-harmonic signal’s phase statistical distribution. The quasi-harmonic signal is known to be formed as a result of the Gaussian noise impact on the initially harmonic signal. By means of the mathematical analysis the formulas have been obtained in explicit form for the principle characteristics of this distribution, namely: for the cumulative distribution function, the probability density function, the likelihood function. As a result of the conducted computer simulation the dependencies of these functions on the phase distribution parameters have been analyzed. The paper elaborates the methods of estimating the phase distribution parameters which contain the information about the initial, undistorted signal. It has been substantiated that the task of estimating the initial value of the phase of quasi-harmonic signal can be efficiently solved by averaging the results of the sampled measurements. As for solving the task of estimating the second parameter of the phase distribution, namely — the parameter, determining the signal level respectively the noise level — a maximum likelihood technique is proposed to be applied. The graphical illustrations are presented that have been obtained by means of the computer simulation of the principle characteristics of the phase distribution under the study. The existence and uniqueness of the likelihood function’s maximum allow substantiating the possibility and the efficiency of solving the task of estimating signal’s level relative to noise level by means of the maximum likelihood technique. The elaborated method of estimating the un-noised signal’s level relative to noise, i. e. the parameter characterizing the signal’s intensity on the basis of measurements of the signal’s phase is an original and principally new technique which opens perspectives of usage of the phase measurements as a tool of the stochastic data analysis. The presented investigation is meaningful for solving the task of determining the phase and the signal’s level by means of the statistical processing of the sampled phase measurements. The proposed methods of the estimation of the phase distribution’s parameters can be used at solving various scientific and technological tasks, in particular, in such areas as radio-physics, optics, radiolocation, radio-navigation, metrology.

  4. Зароченцев А.К., Стифоров Г.Г.
    Обновления аппаратно-программной базы ALICE перед вторым запуском Большого адронного коллайдера
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 415-419

    В докладе представлен ряд новостей и обновлений ALICE computing к RUN2 и RUN3.

    В их числе:

    – ввод в работу новой системы EOS;

    – переход к файловой системе CVMFS для хранения ПО;

    – план решения проблемы Long Term Data Preservation;

    – обзор концепции “O square”, совмещающей офлайн- и онлайн-обработку данных;

    – обзор существующих моделей использования виртуальных облаков для обработки данных ALICE.

    Ряд нововведений показан на примере российских сайтов.

    Ключевые слова: GRID, ALICE, CERN, LHC, WLCG, CVMFS, виртуализация.
    Zarochentsev A.K., Stiforov G.G.
    ALICE computing update before start of RUN2
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 415-419

    The report presents a number of news and updates of the ALICE computing for RUN2 and RUN3.

    This includes:

    – implementation in production of a new system EOS;

    – migration to the file system CVMFS to be used for storage of the software;

    – the plan for solving the problem of “Long-Term Data Preservation”;

    – overview of the concept of “O square”, combining offline and online data processing;

    – overview of the existing models to use the virtual clouds for ALICE data processing. Innovations are shown on the example of the Russian sites.

    Views (last year): 2.
  5. Эффективность производственного процесса непосредственно зависит от качества управления технологией, которая, в свою очередь, опирается на точность и оперативность обработки контрольно- измерительной информации. Разработка математических методов исследования системных связей и закономерностей функционирования и построение математических моделей с учетом структурных особенностей объекта исследований, а также написание программных продуктов для реализации данных методов являются актуальными задачами. Практика показала, что список параметров, имеющих место при исследовании сложного объекта современного производства, варьируется от нескольких десятков до нескольких сот наименований, причем степень воздействия каждого из факторов в начальный момент не ясна. Приступать к работе по непосредственному определению модели в этих условиях нельзя — объем требуемой информации может оказаться слишком велик, причем бóльшая часть работы по сбору этой информации будет проделана впустую из-за того, что степень влияния на параметры оптимизации большинства факторов из первоначального списка окажется пренебрежимо малой. Поэтому необходимым этапом при определении модели сложного объекта является работа по сокращению размерности факторного пространства. Большинство промышленных производств являются групповыми иерархическими процессами массового и крупносерийного производства, характеризующимися сотнями факторов. (Для примера реализации математических методов и апробации построенных моделей в основу были взяты данные Молдавского металлургического завода.) С целью исследования системных связей и закономерностей функционирования таких сложных объектов обычно выбираются несколько информативных параметров и осуществляется их выборочный контроль. В данной статье описывается последовательность приведения исходных показателей технологического процесса выплавки стали к виду, пригодному для построения математической модели с целью прогнозирования, внедрения новых видов стали и создание основы для разработки системы автоматизированного управления качеством продукции. В процессе преобразования выделяются следующие этапы: сбор и анализ исходных данных, построение таблицы слабокоррелированных параметров, сокращение факторного пространства с помощью корреляционных плеяд и метода весовых коэффициентов. Полученные результаты позволяют оптимизировать процесс построения модели многофакторного процесса.

    Efficiency of production directly depends on quality of the management of technology which, in turn, relies on the accuracy and efficiency of the processing of control and measuring information. Development of the mathematical methods of research of the system communications and regularities of functioning and creation of the mathematical models taking into account structural features of object of researches, and also writing of the software products for realization of these methods are an actual task. Practice has shown that the list of parameters that take place in the study of complex object of modern production, ranging from a few dozen to several hundred names, and the degree of influence of each factor in the initial time is not clear. Before working for the direct determination of the model in these circumstances, it is impossible — the amount of the required information may be too great, and most of the work on the collection of this information will be done in vain due to the fact that the degree of influence on the optimization of most factors of the original list would be negligible. Therefore, a necessary step in determining a model of a complex object is to work to reduce the dimension of the factor space. Most industrial plants are hierarchical group processes and mass volume production, characterized by hundreds of factors. (For an example of realization of the mathematical methods and the approbation of the constructed models data of the Moldavian steel works were taken in a basis.) To investigate the systemic linkages and patterns of functioning of such complex objects are usually chosen several informative parameters, and carried out their sampling. In this article the sequence of coercion of the initial indices of the technological process of the smelting of steel to the look suitable for creation of a mathematical model for the purpose of prediction is described. The implementations of new types became also creation of a basis for development of the system of automated management of quality of the production. In the course of weak correlation the following stages are selected: collection and the analysis of the basic data, creation of the table the correlated of the parameters, abbreviation of factor space by means of the correlative pleiads and a method of weight factors. The received results allow to optimize process of creation of the model of multiple-factor process.

    Views (last year): 6. Citations: 1 (RSCI).
  6. Усанов М.С., Кульберг Н.С., Морозов С.П.
    Разработка алгоритма анизотропной нелинейной фильтрации данных компьютерной томографии с применением динамического порога
    Компьютерные исследования и моделирование, 2019, т. 11, № 2, с. 233-248

    В статье рассматривается разработка алгоритма шумоподавления на основе анизотропной нелинейной фильтрации данных. Анализ отечественной и зарубежной литературы показал, что наиболее эффективные алгоритмы шумоподавления данных рентгеновской компьютерной томографии применяют комплекс нелинейных методик анализа и обработки данных, таких как билатеральная, адаптивная, трехмерная фильтрации. Однако комбинация таких методик редко применяется на практике ввиду большого времени обработки данных. В связи с этим было принято решение разработать эффективный и быстродейственный алгоритм шумоподавления на основе упрощенных билатеральных фильтров с трехмерным накоплением данных. Алгоритм был разработан на языке C++11 в программной среде Microsoft Visual Studio 2015. Основным отличием разработанного алгоритма шумоподавления является применение в нем улучшенной математической модели шума на основе распределения Пуассона и Гаусса от логарифмической величины, разработанной ранее. Это позволило точнее определить уровень шума и тем самым порог обработки данных. В результате работы алгоритма шумоподавления были получены обработанные данные компьютерной томографии с пониженным уровнем шума. При визуальной оценке работы алгоритма были отмечены повышенная информативность обработанных данных по сравнению с оригиналом, четкость отображения гомогенных областей и значительное сокращение шума в областях обработки. При оценке численных результатов обработки было выявлено снижение уровня среднеквадратичного отклонения более чем в 6 раз в областях, подвергшихся шумоподавлению, а высокие показатели коэффициента детерминации показали, что данные не подверглись искажению и изменились только из-за удаления шумов. Применение разработанного универсального динамического порога, принцип работы которого основан на пороговых критериях, позволил снизить уровень шума во всем массиве данных более чем в 6 раз. Динамический порог хорошо вписывается как в разработанный алгоритм шумоподавления на основе анизотропной нелинейной фильтрации, так и другой алгоритм шумоподавления. Алгоритм успешно функционирует в составе рабочей станции MultiVox, получил высокую оценку своей работы от специалистов-рентгенологов, а также готовится к внедрению в единую радиологическую сеть города Москвы в качестве модуля.

    Usanov M.S., Kulberg N.S., Morozov S.P.
    Development of anisotropic nonlinear noise-reduction algorithm for computed tomography data with context dynamic threshold
    Computer Research and Modeling, 2019, v. 11, no. 2, pp. 233-248

    The article deals with the development of the noise-reduction algorithm based on anisotropic nonlinear data filtering of computed tomography (CT). Analysis of domestic and foreign literature has shown that the most effective algorithms for noise reduction of CT data use complex methods for analyzing and processing data, such as bilateral, adaptive, three-dimensional and other types of filtrations. However, a combination of such techniques is rarely used in practice due to long processing time per slice. In this regard, it was decided to develop an efficient and fast algorithm for noise-reduction based on simplified bilateral filtration method with three-dimensional data accumulation. The algorithm was developed on C ++11 programming language in Microsoft Visual Studio 2015. The main difference of the developed noise reduction algorithm is the use an improved mathematical model of CT noise, based on the distribution of Poisson and Gauss from the logarithmic value, developed earlier by our team. This allows a more accurate determination of the noise level and, thus, the threshold of data processing. As the result of the noise reduction algorithm, processed CT data with lower noise level were obtained. Visual evaluation of the data showed the increased information content of the processed data, compared to original data, the clarity of the mapping of homogeneous regions, and a significant reduction in noise in processing areas. Assessing the numerical results of the algorithm showed a decrease in the standard deviation (SD) level by more than 6 times in the processed areas, and high rates of the determination coefficient showed that the data were not distorted and changed only due to the removal of noise. Usage of newly developed context dynamic threshold made it possible to decrease SD level on every area of data. The main difference of the developed threshold is its simplicity and speed, achieved by preliminary estimation of the data array and derivation of the threshold values that are put in correspondence with each pixel of the CT. The principle of its work is based on threshold criteria, which fits well both into the developed noise reduction algorithm based on anisotropic nonlinear filtration, and another algorithm of noise-reduction. The algorithm successfully functions as part of the MultiVox workstation and is being prepared for implementation in a single radiological network of the city of Moscow.

    Views (last year): 21.
  7. Зацерковный А.В., Нурминский Е.А.
    Нейросетевой анализ транспортных потоков городских агломераций на основе данных публичных камер видеообзора
    Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 305-318

    Адекватное моделирование сложной динамики городских транспортных потоков требует сбора больших объемов данных для определения характера соответствующих моделей и их калибровки. Вместе с тем оборудование специализированных постов наблюдения является весьма затратным мероприятием и не всегда технически возможно. Совокупность этих факторов приводит к недостаточному фактографическому обеспечению как систем оперативного управления транспортными потоками, так и специалистов по транспортному планированию с очевидными последствиями для качества принимаемых решений. В качестве способа обеспечить массовый сбор данных хотя бы для качественного анализа ситуаций достаточно давно применяется обзорные видеокамеры, транслирующие изображения в определенные ситуационные центры, где соответствующие операторы осуществляют контроль и управление процессами. Достаточно много таких обзорных камер предоставляют данные своих наблюдений в общий доступ, что делает их ценным ресурсом для транспортных исследований. Вместе с тем получение количественных данных с таких камер сталкивается с существенными проблемами, относящимися к теории и практике обработки видеоизображений, чему и посвящена данная работа. В работе исследуется практическое применение некоторых мейнстримовских нейросетевых технологий для определения основных характеристик реальных транспортных потоков, наблюдаемых камерами общего доступа, классифицируются возникающие при этом проблемы и предлагаются их решения. Для отслеживания объектов дорожного движения применяются варианты сверточных нейронных сетей, исследуются способы их применения для определения базовых характеристик транспортных потоков. Простые варианты нейронной сети используются для автоматизации при получении обучающих примеров для более глубокой нейронной сети YOLOv4. Сеть YOLOv4 использована для оценки характеристик движения (скорость, плотность потока) для различных направлений с записей камер видеонаблюдения.

    Zatserkovnyy A.V., Nurminski E.A.
    Neural network analysis of transportation flows of urban aglomeration using the data from public video cameras
    Computer Research and Modeling, 2021, v. 13, no. 2, pp. 305-318

    Correct modeling of complex dynamics of urban transportation flows requires the collection of large volumes of empirical data to specify types of the modes and their identification. At the same time, setting a large number of observation posts is expensive and technically not always feasible. All this results in insufficient factographic support for the traffic control systems as well as for urban planners with the obvious consequences for the quality of their decisions. As one of the means to provide large-scale data collection at least for the qualitative situation analysis, the wide-area video cameras are used in different situation centers. There they are analyzed by human operators who are responsible for observation and control. Some video cameras provided their videos for common access, which makes them a valuable resource for transportation studies. However, there are significant problems with getting qualitative data from such cameras, which relate to the theory and practice of image processing. This study is devoted to the practical application of certain mainstream neuro-networking technologies for the estimation of essential characteristics of actual transportation flows. The problems arising in processing these data are analyzed, and their solutions are suggested. The convolution neural networks are used for tracking, and the methods for obtaining basic parameters of transportation flows from these observations are studied. The simplified neural networks are used for the preparation of training sets for the deep learning neural network YOLOv4 which is later used for the estimation of speed and density of automobile flows.

  8. Мы рассматриваем модель спонтанного формирования вычислительной структуры в мозге человека для решения заданного класса задач в процессе выполнения серии однотипных заданий. Модель основана на специальном определении числовой меры сложности алгоритма решения. Эта мера обладает информационным свойством: сложность вычислительной структуры, состоящей из двух независимых структур, равна сумме сложностей этих структур. Тогда вероятность спонтанного возникновения структуры экспоненциально зависит от сложности структуры. Коэффициент при экспоненте требует экспериментального определения для каждого типа задач. Он может зависеть от формы предъявления исходных данных и от процедуры выдачи результата. Этот метод оценки применен к результатам серии экспериментов, в которых определялась стратегия решения человеком серии однотипных задач с растущим числом исходных данных. Эти эксперименты были описаны в ранее изданных работах. Рассматривались две основные стратегии: последовательное выполнение вычислительного алгоритма или использование параллельных вычислений в тех задачах, где это эффективно. Эти стратегии различаются схемами проведения вычислений. Используя оценку сложности схем, можно по эмпирической вероятности одной из стратегий рассчитать вероятность другой. Проведенные вычисления показали хорошее совпадение расчетной и эмпирической вероятности. Это подтверждает гипотезу о спонтанном формировании структур, решающих задачу, в процессе начальной тренировки человека. Работа содержит краткое описание экспериментов, подробные вычислительные схемы и строгое определение меры сложности вычислительных структур и вывод зависимости вероятности формирования структуры от ее сложности.

    We consider a model of spontaneous formation of a computational structure in the human brain for solving a given class of tasks in the process of performing a series of similar tasks. The model is based on a special definition of a numerical measure of the complexity of the solution algorithm. This measure has an informational property: the complexity of a computational structure consisting of two independent structures is equal to the sum of the complexities of these structures. Then the probability of spontaneous occurrence of the structure depends exponentially on the complexity of the structure. The exponential coefficient requires experimental determination for each type of problem. It may depend on the form of presentation of the source data and the procedure for issuing the result. This estimation method was applied to the results of a series of experiments that determined the strategy for solving a series of similar problems with a growing number of initial data. These experiments were described in previously published papers. Two main strategies were considered: sequential execution of the computational algorithm, or the use of parallel computing in those tasks where it is effective. These strategies differ in how calculations are performed. Using an estimate of the complexity of schemes, you can use the empirical probability of one of the strategies to calculate the probability of the other. The calculations performed showed a good match between the calculated and empirical probabilities. This confirms the hypothesis about the spontaneous formation of structures that solve the problem during the initial training of a person. The paper contains a brief description of experiments, detailed computational schemes and a strict definition of the complexity measure of computational structures and the conclusion of the dependence of the probability of structure formation on its complexity.

  9. Григорьева А.В., Максименко М.В.
    Метод обработки данных акустико-эмиссионного контроля для определения скорости и локации каждого сигнала
    Компьютерные исследования и моделирование, 2022, т. 14, № 5, с. 1029-1040

    Акустико-эмиссионный метод неразрушающего контроля является одним из эффективных и экономичных способов обследования сосудов высокого давления для поиска в них скрытых дефектов (трещин, расслоений и др.), а также единственным методом, чувствительным к развивающимся дефектам. Скорость распространения звука в объекте контроля и ее адекватное определение в локационной схеме имеют важнейшее значение для точности локации источника акустической эмиссии. Предложенный в статье метод обработки данных акустической эмиссии позволяет определить координаты источника и наиболее вероятную скорость для каждого сигнала. Метод включает в себя предварительную фильтрацию данных по амплитуде, по разности времен прихода, исключение электромагнитных помех. Далее к ним применяется комплекс численных методов для решения получившихся нелинейных уравнений, в частности метод Ньютона–Канторовича и общий итерационный процесс. Скорость распространения сигнала от одного источника принимается постоянной во всех направлениях. В качестве начального приближения берется центр тяжести треугольника, образованного первыми тремя датчиками, зафиксировавшими сигнал. Разработанный метод имеет важное практическое применение, и в статье приведен пример его апробации при калибровке акустико- эмиссионной системы на производственном объекте (абсорбере очистки углеводородного газа). Описаны критерии предварительной фильтрации данных. Полученные локации хорошо согласуются с местоположениями генерации сигналов, а вычисленные скорости четко отражают разделение акустической волны на волны Лэмба и Рэлея благодаря разноудаленности источников сигналов от датчиков. В статье построен график соответствия усредненной скорости сигнала и расстояния от его источника до ближайшего датчика. Основным достоинством разработанного метода можно считать его способность вычислять и отображать на общей схеме объекта местоположение сигналов, имеющих разные скорости, а не задавать единую скорость для всех сигналов акустической эмиссии в рамках одного расчета. Это позволяет увеличить степень свободы при вычислениях и тем самым увеличить их точность.

    Grigorieva A.V., Maksimenko M.V.
    Method for processing acoustic emission testing data to define signal velocity and location
    Computer Research and Modeling, 2022, v. 14, no. 5, pp. 1029-1040

    Non-destructive acoustic emission testing is an effective and cost-efficient way to examine pressure vessels for hidden defects (cracks, laminations etc.), as well as the only method that is sensitive to developing defects. The sound velocity in the test object and its adequate definition in the location scheme are of paramount importance for the accurate detection of the acoustic emission source. The acoustic emission data processing method proposed herein comprises a set of numerical methods and allows defining the source coordinates and the most probable velocity for each signal. The method includes pre-filtering of data by amplitude, by time differences, elimination of electromagnetic interference. Further, a set of numerical methods is applied to them to solve the system of nonlinear equations, in particular, the Newton – Kantorovich method and the general iterative process. The velocity of a signal from one source is assumed as a constant in all directions. As the initial approximation is taken the center of gravity of the triangle formed by the first three sensors that registered the signal. The method developed has an important practical application, and the paper provides an example of its approbation in the calibration of an acoustic emission system at a production facility (hydrocarbon gas purification absorber). Criteria for prefiltering of data are described. The obtained locations are in good agreement with the signal generation sources, and the velocities even reflect the Rayleigh-Lamb division of acoustic waves due to the different signal source distances from the sensors. The article contains the dependency graph of the average signal velocity against the distance from its source to the nearest sensor. The main advantage of the method developed is its ability to detect the location of different velocity signals within a single test. This allows to increase the degree of freedom in the calculations, and thereby increase their accuracy.

  10. Комаров В.М.
    О Международной Пущинской школе-конференции молодых ученых «Биология – наука XXI века»
    Компьютерные исследования и моделирование, 2010, т. 2, № 1, с. 41
    Komarov V.M.
    Editor's note
    Computer Research and Modeling, 2010, v. 2, no. 1, p. 41
Pages: « first previous next last »

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"