Результаты поиска по 'обработка и анализ изображений':
Найдено статей: 22
  1. От редакции
    Компьютерные исследования и моделирование, 2025, т. 17, № 5, с. 757-760
    Editor’s note
    Computer Research and Modeling, 2025, v. 17, no. 5, pp. 757-760
  2. От редакции
    Компьютерные исследования и моделирование, 2026, т. 18, № 1, с. 5-8
    Editor’s note
    Computer Research and Modeling, 2026, v. 18, no. 1, pp. 5-8
  3. В работе развивается теория нового, так называемого двухпараметрического подхода к анализу и обработке случайных сигналов. Проведены математическое моделирование и сопоставление результатов решения задачи в условиях статистических моделей Гаусса и Райса. Дается обоснование применимости статистической модели Райса в условиях анализа огибающей измеряемого сигнала в задачах обработки данных и изображений. Развит и теоретически обоснован метод решения задачи шумоподавления и восстановления райсовского сигнала посредством одновременного вычисления двух статистических параметров — величины математического ожидания исходного сигнала и дисперсии шума — на основе принципа максимума правдоподобия. Проанализированы особенности функции правдоподобия для распределения Райса и вытекающие из них возможности оценки параметров сигнала и шума.

    The paper develops a theory of a new so-called two-parametric approach to the random signals' analysis and processing. A mathematical simulation and the task solutions’ comparison have been implemented for the Gauss and Rice statistical models. The applicability of the Rice statistical model is substantiated for the tasks of data and images processing when the signal’s envelope is being analyzed. A technique is developed and theoretically substantiated for solving the task of the noise suppression and initial image reconstruction by means of joint calculation of both statistical parameters — an initial signal’s mean value and noise dispersion — based on the maximum likelihood method within the Rice distribution. The peculiarities of this distribution’s likelihood function and the following from them possibilities of the signal and noise estimation have been analyzed.

    Views (last year): 2. Citations: 4 (RSCI).
  4. Муравлев В.И., Браже А.Р.
    Обесшумливание данных динамической флуоресцентной микроскопии при помощи двухэтапного HOSVD-разложения
    Компьютерные исследования и моделирование, 2025, т. 17, № 4, с. 529-542

    Как правило, данные конфокальной и многофотонной лазерной сканирующей микроскопии страдают от низкого уровня полезного сигнала и высокого вклада дробового шума, связанного со стохастическим характером испускания фотонов флуорофором. Это осложняет задачу подавления шума и выделения полезного сигнала в таких данных. В настоящее время популярны нейросетевые алгоритмы улучшения изображений, однако они часто представляют собой «черный ящик» и требуют длительного обучения на конкретных наборах данных. В работе предлагается алгоритм подавления шума для данных динамической флуоресцентной микроскопии, опирающийся на наличие пространственно-временных локальных корреляций в полезном сигнале и на отсутствие пространственных корреляций в шумовой компоненте. Сингулярное разложение матриц (SVD), производящее спектральное разложение матрицы ковариации, — распространенный способ низкоранговой аппроксимации двумерных массивов, концентрирующий скоррелированный сигнал в нескольких первых компонентах разложения. Однако данные динамической микроскопии представляют собой трехмерные массивы или тензоры большей размерности, поэтому использование тензорных разложений потенциально может улучшить результат подавления шума по сравнению с обычным SVD. В основе алгоритма — двухэтапное применение усеченного сингулярного разложения высшего порядка (HOSVD) с введением порога для коэффициентов и последующим обратным преобразованием, сначала для локальных трехмерных окон в пространстве TXY (3D-HOSVD), а затем для пространственно объединенных групп трехмерных окон (4D-HOSVD). Для валидации алгоритма используются синтетические данные кальциевой сигнализации в астроцитах, в которых концентрация кальция транслируется в сигнал флуоресценции, значения которого в каждом кадре и каждом пикселе затем служат математическим ожиданием и дисперсией для сэмплирования случайной величины из непрерывного аналога пуассоновского распределения. Проведен анализ чувствительности алгоритма от параметров понижения ранга вдоль размерности временных компонент и группового ранга, длины локального окна и порога коэффициентов разложения. Несмотря на наличие мультипликативного шума, предлагаемый алгоритм демонстрирует значительное улучшение анализируемого сигнала, увеличивая соотношение «сигнал/шум» (PSNR) более чем на 20 дБ. Данный метод не опирается на предположения относительно разреженности или гладкости сигнала и может быть использован в качестве одного из этапов обработки данных динамической флуоресцентной микроскопии для самых различных типов данных.

    Muravlev V.I., Brazhe A.R.
    Denoising fluorescent imaging data with two-step truncated HOSVD
    Computer Research and Modeling, 2025, v. 17, no. 4, pp. 529-542

    Fluorescent imaging data are currently widely used in neuroscience and other fields. Genetically encoded sensors, based on fluorescent proteins, provide a wide inventory enabling scientiests to image virtually any process in a living cell and extracellular environment. However, especially due to the need for fast scanning, miniaturization, etc, the imaging data can be severly corrupred with multiplicative heteroscedactic noise, reflecting stochastic nature of photon emission and photomultiplier detectors. Deep learning architectures demonstrate outstanding performance in image segmentation and denoising, however they can require large clean datasets for training, and the actual data transformation is not evident from the network architecture and weight composition. On the other hand, some classical data transforms can provide for similar performance in combination with more clear insight in why and how it works. Here we propose an algorithm for denoising fluorescent dynamical imaging data, which is based on multilinear higher-order singular value decomposition (HOSVD) with optional truncation in rank along each axis and thresholding of the tensor of decomposition coefficients. In parallel, we propose a convenient paradigm for validation of the algorithm performance, based on simulated flurescent data, resulting from biophysical modeling of calcium dynamics in spatially resolved realistic 3D astrocyte templates. This paradigm is convenient in that it allows to vary noise level and its resemblance of the Gaussian noise and that it provides ground truth fluorescent signal that can be used to validate denoising algorithms. The proposed denoising method employs truncated HOSVD twice: first, narrow 3D patches, spanning the whole recording, are processed (local 3D-HOSVD stage), second, 4D groups of 3D patches are collaboratively processed (non-local, 4D-HOSVD stage). The effect of the first pass is twofold: first, a significant part of noise is removed at this stage, second, noise distribution is transformed to be more Gaussian-like due to linear combination of multiple samples in the singular vectors. The effect of the second stage is to further improve SNR. We perform parameter tuning of the second stage to find optimal parameter combination for denoising.

  5. В работе дается обзор существующих методов обработки сигналов в условиях применения статистической модели Райса. Рассмотрены основные направления развития, существующие ограничения и возможности совершенствования методов решения задачи шумоподавления и фильтрации анализируемых сигналов на примере магнитно-резонансной визуализации. Развита концепция нового подхода к решению задачи одновременного определения основных статистических параметров райсовского случайного сигнала на основе метода моментов в двух вариантах его осуществления. Проведено компьютерное моделирование и проведен сравнительный анализ полученных численных результатов.

    Yakovleva T.V.
    Review of MRI processing techniques and elaboration of a new two-parametric method of moments
    Computer Research and Modeling, 2014, v. 6, no. 2, pp. 231-244

    The paper provides a review of the existing methods of signals’ processing within the conditions of the Rice statistical model applicability. There are considered the principle development directions, the existing limitations and the improvement possibilities concerning the methods of solving the tasks of noise suppression and analyzed signals’ filtration by the example of magnetic-resonance visualization. A conception of a new approach to joint calculation of Rician signal’s both parameters has been developed based on the method of moments in two variants of its implementation. The computer simulation and the comparative analysis of the obtained numerical results have been conducted.

    Citations: 10 (RSCI).
  6. Зацерковный А.В., Нурминский Е.А.
    Нейросетевой анализ транспортных потоков городских агломераций на основе данных публичных камер видеообзора
    Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 305-318

    Адекватное моделирование сложной динамики городских транспортных потоков требует сбора больших объемов данных для определения характера соответствующих моделей и их калибровки. Вместе с тем оборудование специализированных постов наблюдения является весьма затратным мероприятием и не всегда технически возможно. Совокупность этих факторов приводит к недостаточному фактографическому обеспечению как систем оперативного управления транспортными потоками, так и специалистов по транспортному планированию с очевидными последствиями для качества принимаемых решений. В качестве способа обеспечить массовый сбор данных хотя бы для качественного анализа ситуаций достаточно давно применяется обзорные видеокамеры, транслирующие изображения в определенные ситуационные центры, где соответствующие операторы осуществляют контроль и управление процессами. Достаточно много таких обзорных камер предоставляют данные своих наблюдений в общий доступ, что делает их ценным ресурсом для транспортных исследований. Вместе с тем получение количественных данных с таких камер сталкивается с существенными проблемами, относящимися к теории и практике обработки видеоизображений, чему и посвящена данная работа. В работе исследуется практическое применение некоторых мейнстримовских нейросетевых технологий для определения основных характеристик реальных транспортных потоков, наблюдаемых камерами общего доступа, классифицируются возникающие при этом проблемы и предлагаются их решения. Для отслеживания объектов дорожного движения применяются варианты сверточных нейронных сетей, исследуются способы их применения для определения базовых характеристик транспортных потоков. Простые варианты нейронной сети используются для автоматизации при получении обучающих примеров для более глубокой нейронной сети YOLOv4. Сеть YOLOv4 использована для оценки характеристик движения (скорость, плотность потока) для различных направлений с записей камер видеонаблюдения.

    Zatserkovnyy A.V., Nurminski E.A.
    Neural network analysis of transportation flows of urban aglomeration using the data from public video cameras
    Computer Research and Modeling, 2021, v. 13, no. 2, pp. 305-318

    Correct modeling of complex dynamics of urban transportation flows requires the collection of large volumes of empirical data to specify types of the modes and their identification. At the same time, setting a large number of observation posts is expensive and technically not always feasible. All this results in insufficient factographic support for the traffic control systems as well as for urban planners with the obvious consequences for the quality of their decisions. As one of the means to provide large-scale data collection at least for the qualitative situation analysis, the wide-area video cameras are used in different situation centers. There they are analyzed by human operators who are responsible for observation and control. Some video cameras provided their videos for common access, which makes them a valuable resource for transportation studies. However, there are significant problems with getting qualitative data from such cameras, which relate to the theory and practice of image processing. This study is devoted to the practical application of certain mainstream neuro-networking technologies for the estimation of essential characteristics of actual transportation flows. The problems arising in processing these data are analyzed, and their solutions are suggested. The convolution neural networks are used for tracking, and the methods for obtaining basic parameters of transportation flows from these observations are studied. The simplified neural networks are used for the preparation of training sets for the deep learning neural network YOLOv4 which is later used for the estimation of speed and density of automobile flows.

  7. Коганов А.В., Ракчеева Т.А., Приходько Д.И.
    Сравнительный анализ адаптации человека к росту объема зрительной информации в задачах распознавания формальных символов и содержательных изображений
    Компьютерные исследования и моделирование, 2021, т. 13, № 3, с. 571-586

    Мы описываем инженерно-психологический эксперимент, продолжающий исследование способов адаптации человека к росту сложности логических задач методом предъявления серий задач нарастающей сложности, которая определяется объемом исходных данных. Задачи требуют вычислений в ассоциативной или неассоциативной системе операций. По характеру изменения времени решения задачи в зависимости от числа необходимых операций можно делать вывод о чисто последовательном способе решения задач или о подключении к решению дополнительных ресурсов мозга в параллельном режиме. В ранее опубликованной экспериментальной работе человек в процессе решения ассоциативной задачи распознавал цветные картинки с содержательными изображениями. В новом исследовании аналогичная задача решается для абстрактных монохромных геометрических фигур. Анализ результата показал, что для второго случая значительно снижается вероятность перехода испытуемого на параллельный способ обработки зрительной информации. Метод исследования основан на предъявлении человеку задач двух типов. Один тип задач содержит ассоциативные вычисления и допускает параллельный алгоритм решения. Другой тип задач контрольный, содержит задачи, в которых вычисления неассоциативные и параллельные алгоритмы решения неэффективны. Задача распознавания и поиска заданного объекта ассоциативна. Параллельная стратегия значительно ускоряет решение при сравнительно малых дополнительных затратах ресурсов. В качестве контрольной серии задач (для отделения параллельной работы от ускорения последовательного алгоритма) используется, как и в предыдущем эксперименте, неассоциативная задача сравнения в циклической арифметике, представленной в наглядной форме игры «камень, ножницы, бумага». В этой задаче параллельный алгоритм требует работы большого числа процессоров с малым коэффициентом эффективности. Поэтому переход человека на параллельный алгоритм решения этой задачи практически исключен и ускорение обработки входной информации возможно только путем повышения быстродействия. Сравнение зависимости времени решения от объема исходных данных для двух типов задач позволяет выявить четыре типа стратегий адаптации к росту сложности задачи: равномерная последовательная, ускоренная последовательная, параллельные вычисления (там, где это возможно) или неопределенная (для данного метода) стратегия. Уменьшение части испытуемых, которые переходят на параллельную стратегию при кодировании входной информации формальными изображениями, показывает эффективность кодов, вызывающих предметные ассоциации. Они повышают скорость восприятия и переработки информации человеком. Статья содержит предварительную математическую модель, которая объясняет это явление. Она основана на появлении второго набора исходных данных, который возникает у человека в результате узнавания изображенных предметов.

    Koganov A.V., Rakcheeva T.A., Prikhodko D.I.
    Comparative analysis of human adaptation to the growth of visual information in the tasks of recognizing formal symbols and meaningful images
    Computer Research and Modeling, 2021, v. 13, no. 3, pp. 571-586

    We describe an engineering-psychological experiment that continues the study of ways to adapt a person to the increasing complexity of logical problems by presenting a series of problems of increasing complexity, which is determined by the volume of initial data. Tasks require calculations in an associative or non-associative system of operations. By the nature of the change in the time of solving the problem, depending on the number of necessary operations, we can conclude that a purely sequential method of solving problems or connecting additional brain resources to the solution in parallel mode. In a previously published experimental work, a person in the process of solving an associative problem recognized color images with meaningful images. In the new study, a similar problem is solved for abstract monochrome geometric shapes. Analysis of the result showed that for the second case, the probability of the subject switching to a parallel method of processing visual information is significantly reduced. The research method is based on presenting a person with two types of tasks. One type of problem contains associative calculations and allows a parallel solution algorithm. Another type of problem is the control one, which contains problems in which calculations are not associative and parallel algorithms are ineffective. The task of recognizing and searching for a given object is associative. A parallel strategy significantly speeds up the solution with relatively small additional resources. As a control series of problems (to separate parallel work from the acceleration of a sequential algorithm), we use, as in the previous experiment, a non-associative comparison problem in cyclic arithmetic, presented in the visual form of the game “rock, paper, scissors”. In this problem, the parallel algorithm requires a large number of processors with a small efficiency coefficient. Therefore, the transition of a person to a parallel algorithm for solving this problem is almost impossible, and the acceleration of processing input information is possible only by increasing the speed. Comparing the dependence of the solution time on the volume of source data for two types of problems allows us to identify four types of strategies for adapting to the increasing complexity of the problem: uniform sequential, accelerated sequential, parallel computing (where possible), or undefined (for this method) strategy. The Reducing of the number of subjects, who switch to a parallel strategy when encoding input information with formal images, shows the effectiveness of codes that cause subject associations. They increase the speed of human perception and processing of information. The article contains a preliminary mathematical model that explains this phenomenon. It is based on the appearance of a second set of initial data, which occurs in a person as a result of recognizing the depicted objects.

  8. Коганов А.В., Ракчеева Т.А., Приходько Д.И.
    Экспериментальное выявление организации мысленных вычислений человека на основе алгебр разной ассоциативности
    Компьютерные исследования и моделирование, 2019, т. 11, № 2, с. 311-327

    Работа продолжает исследования по способности человека повышать производительность обработки информации, используя параллельную работу или повышение быстродействия анализаторов. Человек получает серию задач, решение которых требует переработки известного количества информации. Регистрируются время и правильность решения. По правильно решенным задачам определяется зависимость среднего времени решения от объема информации в задаче. В соответствии с предложенной ранее методикой задачи содержат вычисления выражений в двух алгебрах, одна из которых ассоциативная, а другая неассоциативная. Для облегчения работы испытуемых в опыте были использованы образные графические изображения элементов алгебры. Неассоциативные вычисления реализовывались в форме игры «Камень, ножницы, бумага». Надо было определить символ-победитель в длинной строке этих рисунков, считая, что они возникают последовательно слева направо и играют с предыдущим символом победителем. Ассоциативные вычисления были основаны на распознавании рисунков из конечного набора простых изображений. Надо было определить, какого рисунка из этого набора в строке не хватает, либо констатировать, что все рисунки присутствуют. В каждой задаче отсутствовало не более одной картинки. Вычисления в ассоциативной алгебре допускают параллельный счет, а при отсутствии ассоциативности возможны только последовательные вычисления. Поэтому анализ времени решения серий задач позволяет выявить последовательную равномерную, последовательную ускоренную и параллельную стратегии вычислений. В экспериментах было установлено, что для решения неассоциативных задач все испытуемые применяли равномерную последовательную стратегию. Для ассоциативных задач все испытуемые использовали параллельные вычисления, а некоторые использовали параллельные вычисления с ускорением по мере роста сложности задачи. Небольшая часть испытуемых при большой сложности, судя по эволюции времени решения, дополняла параллельный счет последовательным этапом вычислений (возможно, для контроля решения). Разработан специальный метод оценки скорости переработки входной информации человеком. Он позволил оценить уровень параллельности расчета в ассоциативных задачах. Была зарегистрирована параллельность уровня от двух до трех. Характерная скорость обработки информации в последовательном случае (примерно полтора символа в секунду) вдвое меньше типичной скорости распознавания изображений человеком. Видимо, разница времени обработки расходуется собственно на процесс вычислений. Для ассоциативной задачи в случае минимального объема информации время решения либо близко к неассоциативному случаю, либо меньше до двух раз. Вероятно, это связано с тем, что для малого числа символов распознавание практически исчерпывает вычисления для использованной неассоциативной задачи.

    Koganov A.V., Rakcheeva T.A., Prikhodko D.I.
    Experimental identification of the organization of mental calculations of the person on the basis of algebras of different associativity
    Computer Research and Modeling, 2019, v. 11, no. 2, pp. 311-327

    The work continues research on the ability of a person to improve the productivity of information processing, using parallel work or improving the performance of analyzers. A person receives a series of tasks, the solution of which requires the processing of a certain amount of information. The time and the validity of the decision are recorded. The dependence of the average solution time on the amount of information in the problem is determined by correctly solved problems. In accordance with the proposed method, the problems contain calculations of expressions in two algebras, one of which is associative and the other is nonassociative. To facilitate the work of the subjects in the experiment were used figurative graphic images of elements of algebra. Non-associative calculations were implemented in the form of the game “rock-paper-scissors”. It was necessary to determine the winning symbol in the long line of these figures, considering that they appear sequentially from left to right and play with the previous winner symbol. Associative calculations were based on the recognition of drawings from a finite set of simple images. It was necessary to determine which figure from this set in the line is not enough, or to state that all the pictures are present. In each problem there was no more than one picture. Computation in associative algebra allows the parallel counting, and in the absence of associativity only sequential computations are possible. Therefore, the analysis of the time for solving a series of problems reveals a consistent uniform, sequential accelerated and parallel computing strategy. In the experiments it was found that all subjects used a uniform sequential strategy to solve non-associative problems. For the associative task, all subjects used parallel computing, and some have used parallel computing acceleration of the growth of complexity of the task. A small part of the subjects with a high complexity, judging by the evolution of the solution time, supplemented the parallel account with a sequential stage of calculations (possibly to control the solution). We develop a special method for assessing the rate of processing of input information by a person. It allowed us to estimate the level of parallelism of the calculation in the associative task. Parallelism of level from two to three was registered. The characteristic speed of information processing in the sequential case (about one and a half characters per second) is twice less than the typical speed of human image recognition. Apparently the difference in processing time actually spent on the calculation process. For an associative problem in the case of a minimum amount of information, the solution time is near to the non-associativity case or less than twice. This is probably due to the fact that for a small number of characters recognition almost exhausts the calculations for the used non-associative problem.

    Views (last year): 16.
  9. Копытов Г.В., Дроздов А.Н.
    Использование сервис-контейнеров Docker для создания систем поддержки принятия врачебных решений (СППВР) на базе веб-браузера
    Компьютерные исследования и моделирование, 2026, т. 18, № 1, с. 133-147

    В статье представлена технология построения систем поддержки принятия врачебных решений (СППВР), основанная на сервис-контейнерах с использованием Docker и веб-интерфейсе, работающем непосредственно в браузере без установки специализированного программного обеспечения на рабочую станцию врача. Предложена модульная архитектура, где для каждого прикладного модуля формируется самостоятельный сервис-контейнер, объединяющий мини-веб-сервер, пользовательский интерфейс и вычислительные компоненты обработки медицинских изображений. Взаимодействие между браузером и серверной частью реализовано через постоянное двунаправленное соединение по веб-сокетам с бинарной сериализацией сообщений в формате MessagePack, что обеспечивает малые задержки и эффективную передачу больших объeмов данных. Для локального хранения изображений и результатов анализа применены средства браузера (IndexedDB) с оболочкой Dexie.js, что ускоряет повторный доступ к данным. Трeхмерная визуализация и базовые операции с DICOM-данными реализованы с использованием библиотек Three.js и AMI.js: такая связка обеспечивает интеграцию интерактивных элементов, возникающих в контексте задачи (аннотации, ориентиры, метки, 3D-модели), в трeхмерные медицинские изображения.

    Серверные компоненты и функциональные модули собраны в виде набора взаимодействующих контейнеров, управляемых средствами Docker. Рассмотрены выбор базовых образов, подходы к минимизации контейнеров до уровня исполняемых файлов без внешних зависимостей, организация многоступенчатой сборки, включающей отдельный «сборочный» контейнер. Описан сервис-хаб, выполняющий запуск прикладных контейнеров по обращению пользователя, проксирование запросов, управление сессиями и перевод контейнера из общего режима в монопольный при начале вычислений. Приведены примеры прикладных модулей (оценка фракционного резерва кровотока, расчeт количественного отношения потока, расчет смыкания створок аортального клапана), показана интеграция React-интерфейса и трeхмерной сцены, а также представлены политика версионирования, автоматизированные проверки воспроизводимости результатов и порядок развeртывания на целевой площадке.

    Продемонстрировано, что контейнеризация обеспечивает переносимость и воспроизводимость программной среды, изоляцию зависимостей и масштабирование, а браузерный интерфейс — доступность, снижение требований к инфраструктуре и интерактивную визуализацию медицинских данных в реальном времени. Отмечены технические ограничения (зависимость от версий библиотек визуализации и форматов данных) и представлены практические меры их преодоления.

    Kopytov G.V., Drozdov A.N.
    Using Docker service containers to build browser-based clinical decision support systems (CDSS)
    Computer Research and Modeling, 2026, v. 18, no. 1, pp. 133-147

    The article presents a technology for building clinical decision support systems (CDSS) based on service containers using Docker and a web interface that runs directly in the browser without installing specialized software on workstation of a clinician. A modular architecture is proposed in which each application module is packaged as an independent service container combining a lightweight web server, a user interface, and computational components for medical image processing. Communication between the browser and the server side is implemented via a persistent bidirectional WebSocket connection with binary message serialization (MessagePack), which provides low latency and efficient transfer of large data. For local storage of images and analysis of results, browser facilities (IndexedDB with the Dexie.js wrapper) are used to speed up repeated data access. Three-dimensional visualization and basic operations with DICOM data are implemented with Three.js and AMI.js: this toolchain supports the integration of interactive elements arising from the task context (annotations, landmarks, markers, 3D models) into volumetric medical images.

    Server components and functional modules are assembled as a set of interacting containers managed by Docker. The paper discusses the choice of base images, approaches to minimizing containers down to runtime-only executables without external utilities, and the organization of multi-stage builds with a dedicated build container. It describes a hub service that launches application containers on user request, performs request proxying, manages sessions, and switches a container from shared to exclusive mode at the start of computations. Examples of application modules are provided (fractional flow reserve estimation, quantitative flow ratio computation, aortic valve closure modeling), along with the integration of a React-based interface with a three-dimensional scene, a versioning policy, automated reproducibility checks, and the deployment procedure on the target platform.

    It is demonstrated that containerization ensures portability and reproducibility of the software environment, dependency isolation and scalability, while the browser-based interface provides accessibility, reduced infrastructure requirements, and interactive real-time visualization of medical data. Technical limitations are noted (dependence on versions of visualization libraries and data formats) together with practical mitigation measures.

  10. Шлеймович М.П., Дагаева М.В., Катасёв А.С., Ляшева С.А., Медведев М.В.
    Анализ изображений в системах управления беспилотными автомобилями на основе модели энергетических признаков
    Компьютерные исследования и моделирование, 2018, т. 10, № 3, с. 369-376

    В статье показана актуальность научно-исследовательских работ в области создания систем управления беспилотными автомобилями на основе технологий компьютерного зрения. Средства компьютерного зрения используются для решения большого количества различных задач, в том числе для определения местоположения автомобиля, обнаружения препятствий, определения пригодного для парковки места. Данные задачи являются ресурсоемкими и должны выполняться в реальном режиме времени. Поэтому актуальна разработка эффективных моделей, методов и средств, обеспечивающих достижение требуемых показателей времени и точности для применения в системах управления беспилотными автомобилями. При этом важное значение имеет выбор модели представления изображений. В данной работе рассмотрена модель на основе вейвлет-преобразования, позволяющая сформировать признаки, характеризующие оценки энергии точек изображения и отражающие их значимость с точки зрения вклада в общую энергию изображения. Для формирования модели энергетических признаков выполняется процедура, основанная на учете зависимостей между вейвлет-коэффициентами различных уровней и применении эвристических настроечных коэффициентов для усиления или ослабления влияния граничных и внутренних точек. На основе предложенной модели можно построить описания изображений для выделения и анализа их характерных особенностей, в том числе для выделения контуров, регионов и особых точек. Эффективность предлагаемого подхода к анализу изображений обусловлена тем, что рассматриваемые объекты, такие как дорожные знаки, дорожная разметка или номера автомобилей, которые необходимо обнаруживать и идентифицировать, характеризуются соответствующими признаками. Кроме того, использование вейвлет-преобразований позволяет производить одни и те же базовые операции для решения комплекса задач в бортовых системах беспилотных автомобилей, в том числе для задач первичной обработки, сегментации, описания, распознавания и сжатия изображений. Применение такого унифицированного подхода позволит сократить время на выполнение всех процедур и снизить требования к вычислительным ресурсам бортовой системы беспилотного автотранспортного средства.

    Shleymovich M.P., Dagaeva M.V., Katasev A.S., Lyasheva S.A., Medvedev M.V.
    The analysis of images in control systems of unmanned automobiles on the base of energy features model
    Computer Research and Modeling, 2018, v. 10, no. 3, pp. 369-376

    The article shows the relevance of research work in the field of creating control systems for unmanned vehicles based on computer vision technologies. Computer vision tools are used to solve a large number of different tasks, including to determine the location of the car, detect obstacles, determine a suitable parking space. These tasks are resource intensive and have to be performed in real time. Therefore, it is important to develop effective models, methods and tools that ensure the achievement of the required time and accuracy for use in unmanned vehicle control systems. In this case, the choice of the image representation model is important. In this paper, we consider a model based on the wavelet transform, which makes it possible to form features characterizing the energy estimates of the image points and reflecting their significance from the point of view of the contribution to the overall image energy. To form a model of energy characteristics, a procedure is performed based on taking into account the dependencies between the wavelet coefficients of various levels and the application of heuristic adjustment factors for strengthening or weakening the influence of boundary and interior points. On the basis of the proposed model, it is possible to construct descriptions of images their characteristic features for isolating and analyzing, including for isolating contours, regions, and singular points. The effectiveness of the proposed approach to image analysis is due to the fact that the objects in question, such as road signs, road markings or car numbers that need to be detected and identified, are characterized by the relevant features. In addition, the use of wavelet transforms allows to perform the same basic operations to solve a set of tasks in onboard unmanned vehicle systems, including for tasks of primary processing, segmentation, description, recognition and compression of images. The such unified approach application will allow to reduce the time for performing all procedures and to reduce the requirements for computing resources of the on-board system of an unmanned vehicle.

    Views (last year): 31. Citations: 1 (RSCI).
Pages: previous next

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"