Результаты поиска по 'критерий':
Найдено статей: 84
  1. Многомерные данные, при использовании значительно большего количества признаков относительно меньшего числа наблюдений, порождают хорошо известную проблему переопределённой задачи. В связи с этим, представляется целесообразным описание данных в терминах меньшего числа мета-признаков, которые вычисляются при помощи так называемых матричных факторизаций. Такие факторизации способствуют уменьшению случайного шума при сохранении наиболее существенной информации. Три новых и взаимосвязанных метода предложены в этой статье: 1) факторизационный механизм градиентного спуска с двумя (согласно размерности микрочипа) гибкими и адаптируемыми параметрами обучения, включая явные формулы их автоматического пересчета, 2) непараметрический критерий для отбора количества факторов, и 3) неотрицательная модификация градиентной факторизации, которая не требует дополнительных вычислительных затрат в сравнении с базовой моделью. Мы иллюстрируем эффективность предложенных методов в приложении к задаче направляемой классификации данных в области биоинформатики.

    Microarray datasets are highly dimensional, with a small number of collected samples in comparison to thousands of features. This poses a significant challenge that affects the interpretation, applicability and validation of the analytical results. Matrix factorizations have proven to be a useful method for describing data in terms of a small number of meta-features, which reduces noise, while still capturing the essential features of the data. Three novel and mutually relevant methods are presented in this paper: 1) gradient-based matrix factorization with two adaptive learning rates (in accordance with the number of factor matrices) and their automatic updates; 2) nonparametric criterion for the selection of the number of factors; and 3) nonnegative version of the gradient-based matrix factorization which doesn't require any extra computational costs in difference to the existing methods. We demonstrate effectiveness of the proposed methods to the supervised classification of gene expression data.

    Citations: 4 (RSCI).
  2. Божко А.Н., Ливанцов В.Э.
    Оптимизация стратегии геометрического анализа в автоматизированных системах проектирования
    Компьютерные исследования и моделирование, 2024, т. 16, № 4, с. 825-840

    Автоматизация проектирования процессов сборки сложных изделий — это важная и сложная научно-техническая проблема. Последовательность сборки и содержание сборочных операций в значительной степени зависят от механической структуры и геометрических свойств изделия. Приведен обзор методов геометрического моделирования, которые применяются в современных системах автоматизированного проектирования. Моделирование геометрических препятствий при сборке методами анализа столкновений, планирования перемещений и виртуальной реальности требует очень больших вычислительных ресурсов. Комбинаторные методы дают только слабые необходимые условия геометрической разрешимости. Рассматривается важная задача минимизации числа геометрических проверок при синтезе сборочных операций и процессов. Формализация этой задачи основана на гиперграфовой модели механической структуры изделия. Эта модель дает корректное математическое описание когерентных и секвенциальных сборочных операций, которые доминируют в современном дискретном производстве. Введено ключевое понятие геометрической ситуации. Это такая конфигурация деталей при сборке, которая требует проверки на свободу от препятствий, и эта проверка дает интерпретируемые результаты. Предложено математическое описание геометрической наследственности при сборке сложных изделий. Аксиомы наследственности позволяют распространить результаты проверки одной геометрической ситуации на множество других ситуаций. Задача минимизации числа геометрических тестов поставлена как неантагонистическая игра ЛПР и природы, в которой требуется окрасить вершины упорядоченного множества в два цвета. Вершины представляют собой геометрические ситуации, а цвет — это метафора результата проверки на свободу от коллизий. Ход ЛПР заключается в выборе неокрашенной вершины, ответ природы — это цвет вершины, который определяется по результатам моделирования данной геометрической ситуации. В игре требуется окрасить упорядоченное множество за минимальное число ходов. Обсуждается проектная ситуация, в которой ЛПР принимает решение в условиях риска. Предложен способ подсчета вероятностей окраски вершин упорядоченного множества. Описаны основные чистые стратегии рационального поведения в данной игре. Разработан оригинальный синтетический критерий принятия рациональных решений в условиях риска. Предложены две эвристики, которые можно использовать для окрашивания упорядоченных множеств большой мощности и сложной структуры.

    Bozhko A.N., Livantsov V.E.
    Optimization of geometric analysis strategy in CAD-systems
    Computer Research and Modeling, 2024, v. 16, no. 4, pp. 825-840

    Computer-aided assembly planning for complex products is an important engineering and scientific problem. The assembly sequence and content of assembly operations largely depend on the mechanical structure and geometric properties of a product. An overview of geometric modeling methods that are used in modern computer-aided design systems is provided. Modeling geometric obstacles in assembly using collision detection, motion planning, and virtual reality is very computationally intensive. Combinatorial methods provide only weak necessary conditions for geometric reasoning. The important problem of minimizing the number of geometric tests during the synthesis of assembly operations and processes is considered. A formalization of this problem is based on a hypergraph model of the mechanical structure of the product. This model provides a correct mathematical description of coherent and sequential assembly operations. The key concept of the geometric situation is introduced. This is a configuration of product parts that requires analysis for freedom from obstacles and this analysis gives interpretable results. A mathematical description of geometric heredity during the assembly of complex products is proposed. Two axioms of heredity allow us to extend the results of testing one geometric situation to many other situations. The problem of minimizing the number of geometric tests is posed as a non-antagonistic game between decision maker and nature, in which it is required to color the vertices of an ordered set in two colors. The vertices represent geometric situations, and the color is a metaphor for the result of a collision-free test. The decision maker’s move is to select an uncolored vertex; nature’s answer is its color. The game requires you to color an ordered set in a minimum number of moves by decision maker. The project situation in which the decision maker makes a decision under risk conditions is discussed. A method for calculating the probabilities of coloring the vertices of an ordered set is proposed. The basic pure strategies of rational behavior in this game are described. An original synthetic criterion for making rational decisions under risk conditions has been developed. Two heuristics are proposed that can be used to color ordered sets of high cardinality and complex structure.

  3. Степанов Р.П., Кусюмов С.А., Кусюмов А.Н., Романова Е.В.
    К вопросу об определении ядра концевого вихря
    Компьютерные исследования и моделирование, 2025, т. 17, № 1, с. 9-27

    Дается обзор критериев, используемых при идентификации концевых вихрей, сходящих с несущих поверхностей летательного аппарата. В качестве основного метода идентификации вихря используется $Q$-критерий, в соответствии с которым ядро вихря ограничено поверхностью, на которой норма тензора завихренности равна норме тензора сдвиговых деформаций. При этом внутри ядра вихря должны выполняться следующие условия: (i) ненулевое значение нормы тензора завихренности, (ii) геометрия ядра вихря должна удовлетворять условию галилеевой инвариантности. На основе аналитических моделей вихря дается определение понятия центра двумерного вихря как точки, в которой $Q$-распределение принимает максимальное значение и много больше нормы тензора сдвиговых деформаций (для осесимметричного 2D-вихря норма тензора сдвиговых деформаций в центре вихря стремится к нулю). Поскольку необходимость существования оси вихря обсуждается в работах различных авторов и выглядит достаточно естественным требованием при анализе концевых вихрей, упомянутые выше условия (i), (ii) дополнены условием (iii): ядро вихря в трехмерном потоке должно содержать ось вихря. Анализируются течения, имеющие в 2D-сечениях осевую симметрию, а также форму ядра вихря, отличающуюся от окружности (в частности, эллиптического вида). Показывается, что в этом случае с использованием $Q$-распределения можно не только определить область ядра вихря, но и выделить ось ядра вихря. Для иллюстрации введенных понятий используются результаты численного моделирования обтекания крыла конечного размаха на базе решения осредненных по Рейнольдсу стационарных уравнений Навье – Стокса (RANS). Замыкание уравнений Навье – Стокса осуществлялось с использованием модели турбулентности $k-\omega$.

    Stepanov R.P., Kusyumov S.A., Kusyumov A.N., Romanova E.V.
    On the identification of the tip vortex core
    Computer Research and Modeling, 2025, v. 17, no. 1, pp. 9-27

    An overview is given for identification criteria of tip vortices, trailing from lifting surfaces of aircraft. $Q$-distribution is used as the main vortex identification method in this work. According to the definition of Q-criterion, the vortex core is bounded by a surface on which the norm of the vorticity tensor is equal to the norm of the strain-rate tensor. Moreover, following conditions are satisfied inside of the vortex core: (i) net (non-zero) vorticity tensor; (ii) the geometry of the identified vortex core should be Galilean invariant. Based on the existing analytical vortex models, a vortex center of a twodimensional vortex is defined as a point, where the $Q$-distribution reaches a maximum value and it is much greater than the norm of the strain-rate tensor (for an axisymmetric 2D vortex, the norm of the vorticity tensor tends to zero at the vortex center). Since the existence of the vortex axis is discussed by various authors and it seems to be a fairly natural requirement in the analysis of vortices, the above-mentioned conditions (i), (ii) can be supplemented with a third condition (iii): the vortex core in a three-dimensional flow must contain a vortex axis. Flows, having axisymmetric or non-axisymmetric (in particular, elliptic) vortex cores in 2D cross-sections, are analyzed. It is shown that in such cases $Q$-distribution can be used to obtain not only the boundary of the vortex core, but also to determine the axis of the vortex. These concepts are illustrated using the numerical simulation results for a finite span wing flow-field, obtained using the Reynolds-Averaged Navier – Stokes (RANS) equations with $k-\omega$ turbulence model.

  4. В работе рассматривается задача параметрической идентификации дискретных линейных стохастических систем, представленных уравнениями в пространстве состояний, с аддитивными и мультипликативными шумами. Предполагается, что уравнения состояния и измерения дискретной линейной стохастической системы зависят от неизвестного параметра, подлежащего идентификации.

    Представлен новый подход к построению градиентных методов параметрической идентификации в классе дискретных линейных стохастических систем с аддитивными и мультиплика- тивными шумами, основанный на применении модифицированной взвешенной ортогонализации Грама – Шмидта (MWGS) и алгоритмов дискретной фильтрации информационного типа.

    Основными теоретическими результатами данной работы являются: 1) новый критерий идентификации в терминах расширенного информационного LD-фильтра; 2) новый алгоритм вычисления значений производных по параметру неопределенности дискретной линейной стохастической системы в расширенном информационном LD-фильтре на основе прямой процедуры модифицированной взвешенной ортогонализации Грама – Шмидта; 3) новый метод вычисления градиента критерия идентификации на основе предложенного дифференцированного расширенного информационного LD-фильтра.

    Преимуществом предложенного подхода является применение численно устойчивой к ошибкам машинного округления MWGS-ортогонализации, лежащей в основе разработанных методов и алгоритмов. Информационный LD-фильтр сохраняет симметричность и положительную определенность информационных матриц. Разработанные алгоритмы имеют блочно-матричную структуру, удобную для компьютерной реализации.

    Все разработанные алгоритмы реализованы на языке MATLAB. Проведены серии численных экспериментов, результаты которых демонстрируют работоспособность предложенного подхода на примере решения задачи идентификации параметров математической модели сложной механической системы.

    Полученные результаты могут быть использованы для построения методов параметрической идентификации математических моделей, представленных в пространстве состояний дискретными линейными стохастическими системами с аддитивными и мультипликативными шумами.

    The paper considers the problem of parameter identification of discrete-time linear stochastic systems in the state space with additive and multiplicative noise. It is assumed that the state and measurements equations of a discrete-time linear stochastic system depend on an unknown parameter to be identified.

    A new approach to the construction of gradient parameter identification methods in the class of discrete-time linear stochastic systems with additive and multiplicative noise is presented, based on the application of modified weighted Gram – Schmidt orthogonalization (MWGS) and the discrete-time information-type filtering algorithms.

    The main theoretical results of this research include: 1) a new identification criterion in terms of an extended information filter; 2) a new algorithm for calculating derivatives with respect to an uncertainty parameter in a discrete-time linear stochastic system based on an extended information LD filter using the direct procedure of modified weighted Gram – Schmidt orthogonalization; and 3) a new method for calculating the gradient of identification criteria using a “differentiated” extended information LD filter.

    The advantages of this approach are that it uses MWGS orthogonalization which is numerically stable against machine roundoff errors, and it forms the basis of all the developed methods and algorithms. The information LD-filter maintains the symmetry and positive definiteness of the information matrices. The algorithms have an array structure that is convenient for computer implementation.

    All the developed algorithms were implemented in MATLAB. A series of numerical experiments were carried out. The results obtained demonstrated the operability of the proposed approach, using the example of solving the problem of parameter identification for a mathematical model of a complex mechanical system.

    The results can be used to develop methods for identifying parameters in mathematical models that are represented in state space by discrete-time linear stochastic systems with additive and multiplicative noise.

  5. Горшенин А.К.
    О применении асимптотических критериев для определения числа компонент смеси вероятностных распределений
    Компьютерные исследования и моделирование, 2012, т. 4, № 1, с. 45-53

    В статье демонстрируется практическая эффективность применения асимптотически наиболее мощных критериев проверки гипотез о числе компонент смеси в моделях добавления и расщепления компонент. Тестовые данные представляют собой выборки из различных конечных смесей нормальных законов. Проводится сравнение результатов для разнообразных уровней значимости и весов.

    Gorshenin A.K.
    On application of the asymptotic tests for estimating the number of mixture distribution components
    Computer Research and Modeling, 2012, v. 4, no. 1, pp. 45-53

    The paper demonstrates the efficiency of asymptotically most powerful test of statistical hypotheses about the number of mixture components in the adding and splitting component models. Test data are the samples from different finite normal mixtures. The results are compared for various significance levels and weights.

    Views (last year): 1. Citations: 2 (RSCI).
  6. Тихов М.С., Бородина Т.С.
    Математическая модель и компьютерный анализ критериев однородности зависимости «доза–эффект»
    Компьютерные исследования и моделирование, 2012, т. 4, № 2, с. 267-273

    Данная работа посвящена сравнению двух критериев однородности: критерия χ2, основанного на таблицах сопряженности признаков 2 × 2, и критерия однородности, основанного на асимптотических распределениях суммируемых квадратичных уклонений оценок функции распределения в модели зависимости «доза–эффект». Оценка мощности критериев производится при помощи компьютерного моделирования. Для построения функций эффективности используется метод ядерной оценки регрессии, основанный на оценке Надарая–Ватсона.

    Tikhov M.S., Borodina T.S.
    Mathematical model and computer analysis of tests for homogeneity of “dose–effect” dependence
    Computer Research and Modeling, 2012, v. 4, no. 2, pp. 267-273

    The given work is devoted to the comparison of two tests for homogeneity: chi-square test based on contingency tables of 2 × 2 and test for homogeneity based on asymptotic distributions of the summarized square error of a distribution function estimators in the model of ”dose–effect” dependence. The evaluation of test power is performed by means of computer simulation. In order to design efficiency functions the method of kernel regression estimator based on Nadaray–Watson estimator is used.

    Views (last year): 6.
  7. Ракчеева Т.А.
    Критерии и сходимость фокусной аппроксимации
    Компьютерные исследования и моделирование, 2013, т. 5, № 3, с. 379-394

    Исследуются методы решения задачи фокусной аппроксимации — приближения по точечно заданной гладкой замкнутой эмпирической кривой многофокусными лемнискатами. Анализируются критерии и сходимость разработанных методов приближения, как в вещественной, так и в комплексной интерпретации. Доказывается топологическая эквивалентность используемых критериев.

    Rakcheeva T.A.
    Criteria and convergence of the focal approxmation
    Computer Research and Modeling, 2013, v. 5, no. 3, pp. 379-394

    Methods of the solution of a problem of focal approximation  approach on point-by-point given smooth closed empirical curve by multifocal lemniscates are investigated. Criteria and convergence of the developed approached methods with use of the description, both in real, and in complex variables are analyzed. Topological equivalence of the used criteria is proved.

    Views (last year): 2.
  8. В работе изучается класс дифференциальных уравнений типа Клеро в частных производных первого порядка, которые представляют собой многомерное обобщение обыкновенного дифференциального уравнения Клеро на случай, когда искомая функция зависит от многих переменных. Известно, что общее решение дифференциального уравнения типа Клеро в частных производных представляет собой семейство интегральных (гипер-) плоскостей. Помимо общего решения, могут существовать частные решения, а в некоторых частных случаях удается найти особое (сингулярное) решение.

    Целью работы является нахождение особых решений многомерных дифференциальных уравнений типа Клеро в частных производных первого порядка со специальной правой частью. В работе сформулирован критерий существования особого решения дифференциального уравнения типа Клеро в частных производных для случая, когда функция от производных представляет собой функцию от линейной комбинации частных производных. Получены сингулярные решения для данного типа дифференциальных уравнений с тригонометрическими функциями от линейной комбинации $n$-независимых переменных с произвольными коэффициентами. Показано, что задача нахождения особого решения сводится к решению системы трансцендентных уравнений, содержащих исходные тригонометрические функции. В статье описана процедура нахождения сингулярного решения уравнения типа Клеро, основная идея которой заключается в нахождении не частных производных искомой функции, как функций независимых переменных, а линейных комбинаций частных производных с некоторыми коэффициентами. Данный метод может быть применен для нахождения особых решений уравнений типа Клеро, для которых данная структура сохраняется.

    Работа организована следующим образом. Введение содержит краткий обзор некоторых современных результатов, имеющих отношение к теме исследования уравнений типа Клеро. Вторая часть является основной, в ней сформулирована задача работы и описан метод поиска сингулярных решений дифференциальных уравнениях типа Клеро в частных производных со специальной правой частью. Основным результатом работы является нахождение сингулярных решений уравнений, содержащих тригонометрические функции, приведенные в основной части работы в качестве примеров, иллюстрирующих описанный ранее метод. В заключении сформулированы результаты работы и обсуждается направление дальнейших исследований.

    We study the class of first order differential equations in partial derivatives of the Clairaut-type, which are a multidimensional generalization of the ordinary differential Clairaut equation to the case when the unknown function depends on many variables. It is known that the general solution of the Clairaut-type partial differential equation is a family of integral (hyper-) planes. In addition to the general solution, there can be particular solutions, and in some cases a special (singular) solution can be found.

    The aim of the paper is to find a singular solution of the Clairaut-type equation in partial derivatives of the first order with a special right-hand side. In the paper, we formulate a criterion for the existence of a special solution of a differential equation of Clairaut type in partial derivatives for the case, when the function of the derivatives is a function of a linear combination of partial derivatives of unknown function. We obtain the singular solution for this type of differential equations with trigonometric functions of a linear combination of $n$-independent variables with arbitrary coefficients. It is shown that the task of finding a special solution is reduced to solving a system of transcendental equations containing initial trigonometric functions. The article describes the procedure for evaluation of a singular solution of Clairaut-type equation; the main idea is to find not partial derivatives of the unknown function, as functions of independent variables, but linear combinations of partial derivatives with some coefficients. This method can be used to find special solutions of Clairaut-type equations, for which this structure is preserved.

    The work is organized as follows. The Introduction contains a brief review of some modern results related to the topic of the study of Clairaut-type equations. The Second part is the main one and it includes a formulation of the main task of the work and describes a method of evaluation of singular solutions for the Clairaut-type equations in partial derivatives with a special right-hand side. The main result of the work is to find singular solutions of the Clairaut-type equations containing trigonometric functions. These solutions are given in the main part of the work as an illustrating example for the method described earlier. In Conclusion, we formulate the results of the work and describe future directions of the research.

  9. Грачев В.А., Найштут Ю.С.
    Задачи устойчивости тонких упругих оболочек
    Компьютерные исследования и моделирование, 2018, т. 10, № 6, с. 775-787

    В работе рассматриваются различные математические постановки, относящиеся к задаче упругой устойчивости оболочек в связи с обнаруженными в последнее время несоответствиями между экспериментальными данными и предсказаниями, основанными на теории пологих оболочек. Отмечается, что противоречия возникли в связи с появлением новых алгоритмов, позволивших уточнить вычисленные в двадцатом веке так называемые нижние критические напряжения, которые приняты техническими стандартами в качестве критерия глобальной потери устойчивости тонких пологих оболочек. Новые вычисления часто оценивают нижнее критическое напряжение близким к нулю. Следовательно, нижнее критическое напряжение не может приниматься в качестве расчетного значения для анализа потери устойчивости тонкостенной конструкции, а уравнения теории пологих оболочек должны быть заменены другими дифференциальными уравнениями. В новой теории следует также определить критерий потери устойчивости, обеспечивающий совпадение вычислений и экспериментов.

    В работе показано, что в рамках динамической нелинейной трехмерной теории упругости противоречие с новыми экспериментами может быть устранено. В качестве критерия глобальной потери устойчивости следует принять напряжение, при котором имеет место бифуркация динамических мод. Нелинейный характер исходных уравнений порождает уединенные (солитонные) волны, которым соответствуют негладкие перемещения оболочек (патерны, вмятины). Существенно, что влияния солитонов проявляются на всех этапах нагружения и резко возрастают, приближаясь к бифуркации. Солитонные решения иллюстрируются на примере тонкой цилиндрической безмоментной оболочки, трехмерный объем которой моделируется двумерной поверхностью с заданной толщиной. В статье отмечается, что волны, формирующие патерны, могут быть обнаружены (а их амплитуды определены) путем акустических или электромагнитных измерений.

    Таким образом, появляется техническая возможность снизить риск разрушения оболочек, если проводить мониторинг формы поверхности современными акустическими средствами. Статья завершается формулировкой математических проблем, требующих решения для надежной численной оценки критерия потери устойчивости тонких упругих оболочек.

    Grachev V.A., Nayshtut Yu.S.
    Buckling problems of thin elastic shells
    Computer Research and Modeling, 2018, v. 10, no. 6, pp. 775-787

    The article covers several mathematical problems relating to elastic stability of thin shells in view of inconsistencies that have been recently identified between the experimental data and the predictions based on the shallow- shell theory. It is highlighted that the contradictions were caused by new algorithms that enabled updating the values of the so called “low critical stresses” calculated in the 20th century and adopted as a buckling criterion for thin shallow shells by technical standards. The new calculations often find the low critical stress close to zero. Therefore, the low critical stress cannot be used as a safety factor for the buckling analysis of the thinwalled structure, and the equations of the shallow-shell theory need to be replaced with other differential equations. The new theory also requires a buckling criterion ensuring the match between calculations and experimental data.

    The article demonstrates that the contradiction with the new experiments can be resolved within the dynamic nonlinear three-dimensional theory of elasticity. The stress when bifurcation of dynamic modes occurs shall be taken as a buckling criterion. The nonlinear form of original equations causes solitary (solitonic) waves that match non-smooth displacements (patterns, dents) of the shells. It is essential that the solitons make an impact at all stages of loading and significantly increase closer to bifurcation. The solitonic solutions are illustrated based on the thin cylindrical momentless shell when its three-dimensional volume is simulated with twodimensional surface of the set thickness. It is noted that the pattern-generating waves can be detected (and their amplitudes can by identified) with acoustic or electromagnetic devices.

    Thus, it is technically possible to reduce the risk of failure of the thin shells by monitoring the shape of the surface with acoustic devices. The article concludes with a setting of the mathematical problems requiring the solution for the reliable numerical assessment of the buckling criterion for thin elastic shells.

    Views (last year): 23.
  10. Усанов М.С., Кульберг Н.С., Морозов С.П.
    Разработка алгоритма анизотропной нелинейной фильтрации данных компьютерной томографии с применением динамического порога
    Компьютерные исследования и моделирование, 2019, т. 11, № 2, с. 233-248

    В статье рассматривается разработка алгоритма шумоподавления на основе анизотропной нелинейной фильтрации данных. Анализ отечественной и зарубежной литературы показал, что наиболее эффективные алгоритмы шумоподавления данных рентгеновской компьютерной томографии применяют комплекс нелинейных методик анализа и обработки данных, таких как билатеральная, адаптивная, трехмерная фильтрации. Однако комбинация таких методик редко применяется на практике ввиду большого времени обработки данных. В связи с этим было принято решение разработать эффективный и быстродейственный алгоритм шумоподавления на основе упрощенных билатеральных фильтров с трехмерным накоплением данных. Алгоритм был разработан на языке C++11 в программной среде Microsoft Visual Studio 2015. Основным отличием разработанного алгоритма шумоподавления является применение в нем улучшенной математической модели шума на основе распределения Пуассона и Гаусса от логарифмической величины, разработанной ранее. Это позволило точнее определить уровень шума и тем самым порог обработки данных. В результате работы алгоритма шумоподавления были получены обработанные данные компьютерной томографии с пониженным уровнем шума. При визуальной оценке работы алгоритма были отмечены повышенная информативность обработанных данных по сравнению с оригиналом, четкость отображения гомогенных областей и значительное сокращение шума в областях обработки. При оценке численных результатов обработки было выявлено снижение уровня среднеквадратичного отклонения более чем в 6 раз в областях, подвергшихся шумоподавлению, а высокие показатели коэффициента детерминации показали, что данные не подверглись искажению и изменились только из-за удаления шумов. Применение разработанного универсального динамического порога, принцип работы которого основан на пороговых критериях, позволил снизить уровень шума во всем массиве данных более чем в 6 раз. Динамический порог хорошо вписывается как в разработанный алгоритм шумоподавления на основе анизотропной нелинейной фильтрации, так и другой алгоритм шумоподавления. Алгоритм успешно функционирует в составе рабочей станции MultiVox, получил высокую оценку своей работы от специалистов-рентгенологов, а также готовится к внедрению в единую радиологическую сеть города Москвы в качестве модуля.

    Usanov M.S., Kulberg N.S., Morozov S.P.
    Development of anisotropic nonlinear noise-reduction algorithm for computed tomography data with context dynamic threshold
    Computer Research and Modeling, 2019, v. 11, no. 2, pp. 233-248

    The article deals with the development of the noise-reduction algorithm based on anisotropic nonlinear data filtering of computed tomography (CT). Analysis of domestic and foreign literature has shown that the most effective algorithms for noise reduction of CT data use complex methods for analyzing and processing data, such as bilateral, adaptive, three-dimensional and other types of filtrations. However, a combination of such techniques is rarely used in practice due to long processing time per slice. In this regard, it was decided to develop an efficient and fast algorithm for noise-reduction based on simplified bilateral filtration method with three-dimensional data accumulation. The algorithm was developed on C ++11 programming language in Microsoft Visual Studio 2015. The main difference of the developed noise reduction algorithm is the use an improved mathematical model of CT noise, based on the distribution of Poisson and Gauss from the logarithmic value, developed earlier by our team. This allows a more accurate determination of the noise level and, thus, the threshold of data processing. As the result of the noise reduction algorithm, processed CT data with lower noise level were obtained. Visual evaluation of the data showed the increased information content of the processed data, compared to original data, the clarity of the mapping of homogeneous regions, and a significant reduction in noise in processing areas. Assessing the numerical results of the algorithm showed a decrease in the standard deviation (SD) level by more than 6 times in the processed areas, and high rates of the determination coefficient showed that the data were not distorted and changed only due to the removal of noise. Usage of newly developed context dynamic threshold made it possible to decrease SD level on every area of data. The main difference of the developed threshold is its simplicity and speed, achieved by preliminary estimation of the data array and derivation of the threshold values that are put in correspondence with each pixel of the CT. The principle of its work is based on threshold criteria, which fits well both into the developed noise reduction algorithm based on anisotropic nonlinear filtration, and another algorithm of noise-reduction. The algorithm successfully functions as part of the MultiVox workstation and is being prepared for implementation in a single radiological network of the city of Moscow.

    Views (last year): 21.
Pages: « first previous next last »

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"