Результаты поиска по 'Большие Данные':
Найдено статей: 197
  1. Белкина Е.А., Жестов Е.А., Шестаков А.В.
    Методы решения парадокса Браесса на транспортной сети с автономным транспортом
    Компьютерные исследования и моделирование, 2021, т. 13, № 2, с. 281-294

    Дороги — ресурс, который может использоваться как водителями, так и автономными транспортными средствами. Ежегодно количество транспортных средств увеличивается, из-за чего каждое отдельно взятое транспортное средство тратит всё больше времени в пробках, тем самым увеличивая суммарные временные затраты. При планировании новой дороги ключевой задачей становится сокращение времени в пути. Оптимизация транспортных сетей в настоящее время часто происходит с помощью добавления новых связующих дорог между высоконагруженными частями трасс. Парадокс Браесса заключается в том, что построение нового ребра дорожной сети приводит к увеличению времени в пути для каждого транспортного средства в сети. Целью данной статьи является предложение различных разрешений парадокса Браесса при рассмотрении автономных транспортных средств в качестве участников дорожного движения. Один из вариантов топологического решения транспортной задачи — использование искусственных ограничителей трафика. Как пример таких ограничителей статья рассматривает введение выделенных полос, доступных только для определенных видов транспорта. Выделенные полосы занимают особое место в транспортной сети и могут обслуживать поток по-разному. В данной статье рассмотрены наиболее часто встречающиеся случаи распределения трафика на сети из двух дорог, приведены аналитический и численный методы оптимизации модели и представлена модель оптимального распределения трафика, которая рассматривает различные варианты выделения полос на изолированной транспортной сети. В результате проведенных исследований было обнаружено, что введение выделенных полос решает парадокс Браесса и приводит к уменьшению общего времени в пути. Решения приведены как для искусственно смоделированной сети, так и на реальных примерах. В статье представлен алгоритм моделирования трафика на браессовской сети и приведено обоснование его корректности на реальном примере.

    Belkina E.A., Zhestov E.A., Shestakov A.V.
    Methods for resolving the Braess paradox in the presence of autonomous vehicles
    Computer Research and Modeling, 2021, v. 13, no. 2, pp. 281-294

    Roads are a shared resource which can be used either by drivers and autonomous vehicles. Since the total number of vehicles increases annually, each considered vehicle spends more time in traffic jams, and thus the total travel time prolongs. The main purpose while planning the road system is to reduce the time spent on traveling. The optimization of transportation networks is a current goal, thus the formation of traffic flows by creating certain ligaments of the roads is of high importance. The Braess paradox states the existence of a network where the construction of a new edge leads to the increase of traveling time. The objective of this paper is to propose various solutions to the Braess paradox in the presence of autonomous vehicles. One of the methods of solving transportation topology problems is to introduce artificial restrictions on traffic. As an example of such restrictions, this article considers designated lanes which are available only for a certain type of vehicles. Designated lanes have their own location in the network and operating conditions. This article observes the most common two-roads traffic situations, analyzes them using analytical and numerical methods and presents the model of optimal traffic flow distribution, which considers different ways of lanes designation on isolated transportation networks. It was found that the modeling of designated lanes eliminates Braess’ paradox and optimizes the total traveling time. The solutions were shown on artificial networks and on the real-life example. A modeling algorithm for Braess network was proposed and its correctness was verified using the real-life example.

  2. Агафонов А.Д.
    Нижние оценки для методов типа условного градиента для задач минимизации гладких сильно выпуклых функций
    Компьютерные исследования и моделирование, 2022, т. 14, № 2, с. 213-223

    В данной работе рассматриваются методы условного градиента для оптимизации сильно выпуклых функций. Это методы, использующие линейный минимизационный оракул, то есть умеющие вычислять решение задачи

    $$ \text{Argmin}_{x\in X}{\langle p,\,x \rangle} $$

    для заданного вектора $p \in \mathbb{R}^n$. Существует целый ряд методов условного градиента, имеющих линейную скорость сходимости в сильно выпуклом случае. Однако во всех этих методах в оценку скорости сходимости входит размерность задачи, которая в современных приложениях может быть очень большой. В данной работе доказывается, что в сильно выпуклом случае скорость сходимости методов условного градиента в лучшем случае зависит от размерности задачи $n$ как $\widetilde{\Omega}\left(\!\sqrt{n}\right)$. Таким образом, методы условного градиента могут оказаться неэффективными для решения сильно выпуклых оптимизационных задач больших размерностей.

    Отдельно рассматривается приложение методов условного градиента к задачам минимизации квадратичной формы. Уже была доказана эффективность метода Франк – Вульфа для решения задачи квадратичной оптимизации в выпуклом случае на симплексе (PageRank). Данная работа показывает, что использование методов условного градиента для минимизации квадратичной формы в сильно выпуклом случае малоэффективно из-за наличия размерности в оценке скорости сходимости этих методов. Поэтому рассматривается метод рестартов условного градиента (Shrinking Conditional Gradient). Его отличие от методов условного градиента заключается в том, что в нем используется модифицированный линейный минимизационный оракул, который для заданного вектора $p \in \mathbb{R}^n$ вычисляет решение задачи $$ \text{Argmin}\{\langle p, \,x \rangle\colon x\in X, \;\|x-x_0^{}\| \leqslant R \}. $$ В оценку скорости сходимости такого алгоритма размерность уже не входит. С помощью рестартов метода условного градиента получена сложность (число арифметических операций) минимизации квадратичной формы на $\infty$-шаре. Полученная оценка работы метода сравнима со сложностью градиентного метода.

    Agafonov A.D.
    Lower bounds for conditional gradient type methods for minimizing smooth strongly convex functions
    Computer Research and Modeling, 2022, v. 14, no. 2, pp. 213-223

    In this paper, we consider conditional gradient methods for optimizing strongly convex functions. These are methods that use a linear minimization oracle, which, for a given vector $p \in \mathbb{R}^n$, computes the solution of the subproblem

    \[ \text{Argmin}_{x\in X}{\langle p,\,x \rangle}. \]There are a variety of conditional gradient methods that have a linear convergence rate in a strongly convex case. However, in all these methods, the dimension of the problem is included in the rate of convergence, which in modern applications can be very large. In this paper, we prove that in the strongly convex case, the convergence rate of the conditional gradient methods in the best case depends on the dimension of the problem $ n $ as $ \widetilde {\Omega} \left(\!\sqrt {n}\right) $. Thus, the conditional gradient methods may turn out to be ineffective for solving strongly convex optimization problems of large dimensions.

    Also, the application of conditional gradient methods to minimization problems of a quadratic form is considered. The effectiveness of the Frank – Wolfe method for solving the quadratic optimization problem in the convex case on a simplex (PageRank) has already been proved. This work shows that the use of conditional gradient methods to solve the minimization problem of a quadratic form in a strongly convex case is ineffective due to the presence of dimension in the convergence rate of these methods. Therefore, the Shrinking Conditional Gradient method is considered. Its difference from the conditional gradient methods is that it uses a modified linear minimization oracle. It's an oracle, which, for a given vector $p \in \mathbb{R}^n$, computes the solution of the subproblem \[ \text{Argmin}\{\langle p, \,x \rangle\colon x\in X, \;\|x-x_0^{}\| \leqslant R \}. \] The convergence rate of such an algorithm does not depend on dimension. Using the Shrinking Conditional Gradient method the complexity (the total number of arithmetic operations) of solving the minimization problem of quadratic form on a $ \infty $-ball is obtained. The resulting evaluation of the method is comparable to the complexity of the gradient method.

  3. Бергер А.И., Гуда С.А.
    Свойства алгоритмов поиска оптимальных порогов для задач многозначной классификации
    Компьютерные исследования и моделирование, 2022, т. 14, № 6, с. 1221-1238

    Модели многозначной классификации возникают в различных сферах современной жизни, что объясняется всё большим количеством информации, требующей оперативного анализа. Одним из математических методов решения этой задачи является модульный метод, на первом этапе которого для каждого класса строится некоторая ранжирующая функция, упорядочивающая некоторым образом все объекты, а на втором этапе для каждого класса выбирается оптимальное значение порога, объекты с одной стороны которого относят к текущему классу, а с другой — нет. Пороги подбираются так, чтобы максимизировать целевую метрику качества. Алгоритмы, свойства которых изучаются в настоящей статье, посвящены второму этапу модульного подхода — выбору оптимального вектора порогов. Этот этап становится нетривиальным в случае использования в качестве целевой метрики качества $F$-меры от средней точности и полноты, так как она не допускает независимую оптимизацию порога в каждом классе. В задачах экстремальной многозначной классификации число классов может достигать сотен тысяч, поэтому исходная оптимизационная задача сводится к задаче поиска неподвижной точки специальным образом введенного отображения $\boldsymbol V$, определенного на единичном квадрате на плоскости средней точности $P$ и полноты $R$. Используя это отображение, для оптимизации предлагаются два алгоритма: метод линеаризации $F$-меры и метод анализа области определения отображения $\boldsymbol V$. На наборах данных многозначной классификации разного размера и природы исследуются свойства алгоритмов, в частности зависимость погрешности от числа классов, от параметра $F$-меры и от внутренних параметров методов. Обнаружена особенность работы обоих алгоритмов для задач с областью определения отображения $\boldsymbol V$, содержащей протяженные линейные участки границ. В случае когда оптимальная точка расположена в окрестности этих участков, погрешности обоих методов не уменьшаются с увеличением количества классов. При этом метод линеаризации достаточно точно определяет аргумент оптимальной точки, а метод анализа области определения отображения $\boldsymbol V$ — полярный радиус.

    Berger A.I., Guda S.A.
    Optimal threshold selection algorithms for multi-label classification: property study
    Computer Research and Modeling, 2022, v. 14, no. 6, pp. 1221-1238

    Multi-label classification models arise in various areas of life, which is explained by an increasing amount of information that requires prompt analysis. One of the mathematical methods for solving this problem is a plug-in approach, at the first stage of which, for each class, a certain ranking function is built, ordering all objects in some way, and at the second stage, the optimal thresholds are selected, the objects on one side of which are assigned to the current class, and on the other — to the other. Thresholds are chosen to maximize the target quality measure. The algorithms which properties are investigated in this article are devoted to the second stage of the plug-in approach which is the choice of the optimal threshold vector. This step becomes non-trivial if the $F$-measure of average precision and recall is used as the target quality assessment since it does not allow independent threshold optimization in each class. In problems of extreme multi-label classification, the number of classes can reach hundreds of thousands, so the original optimization problem is reduced to the problem of searching a fixed point of a specially introduced transformation $\boldsymbol V$, defined on a unit square on the plane of average precision $P$ and recall $R$. Using this transformation, two algorithms are proposed for optimization: the $F$-measure linearization method and the method of $\boldsymbol V$ domain analysis. The properties of algorithms are studied when applied to multi-label classification data sets of various sizes and origin, in particular, the dependence of the error on the number of classes, on the $F$-measure parameter, and on the internal parameters of methods under study. The peculiarity of both algorithms work when used for problems with the domain of $\boldsymbol V$, containing large linear boundaries, was found. In case when the optimal point is located in the vicinity of these boundaries, the errors of both methods do not decrease with an increase in the number of classes. In this case, the linearization method quite accurately determines the argument of the optimal point, while the method of $\boldsymbol V$ domain analysis — the polar radius.

  4. Божко А.Н., Ливанцов В.Э.
    Оптимизация стратегии геометрического анализа в автоматизированных системах проектирования
    Компьютерные исследования и моделирование, 2024, т. 16, № 4, с. 825-840

    Автоматизация проектирования процессов сборки сложных изделий — это важная и сложная научно-техническая проблема. Последовательность сборки и содержание сборочных операций в значительной степени зависят от механической структуры и геометрических свойств изделия. Приведен обзор методов геометрического моделирования, которые применяются в современных системах автоматизированного проектирования. Моделирование геометрических препятствий при сборке методами анализа столкновений, планирования перемещений и виртуальной реальности требует очень больших вычислительных ресурсов. Комбинаторные методы дают только слабые необходимые условия геометрической разрешимости. Рассматривается важная задача минимизации числа геометрических проверок при синтезе сборочных операций и процессов. Формализация этой задачи основана на гиперграфовой модели механической структуры изделия. Эта модель дает корректное математическое описание когерентных и секвенциальных сборочных операций, которые доминируют в современном дискретном производстве. Введено ключевое понятие геометрической ситуации. Это такая конфигурация деталей при сборке, которая требует проверки на свободу от препятствий, и эта проверка дает интерпретируемые результаты. Предложено математическое описание геометрической наследственности при сборке сложных изделий. Аксиомы наследственности позволяют распространить результаты проверки одной геометрической ситуации на множество других ситуаций. Задача минимизации числа геометрических тестов поставлена как неантагонистическая игра ЛПР и природы, в которой требуется окрасить вершины упорядоченного множества в два цвета. Вершины представляют собой геометрические ситуации, а цвет — это метафора результата проверки на свободу от коллизий. Ход ЛПР заключается в выборе неокрашенной вершины, ответ природы — это цвет вершины, который определяется по результатам моделирования данной геометрической ситуации. В игре требуется окрасить упорядоченное множество за минимальное число ходов. Обсуждается проектная ситуация, в которой ЛПР принимает решение в условиях риска. Предложен способ подсчета вероятностей окраски вершин упорядоченного множества. Описаны основные чистые стратегии рационального поведения в данной игре. Разработан оригинальный синтетический критерий принятия рациональных решений в условиях риска. Предложены две эвристики, которые можно использовать для окрашивания упорядоченных множеств большой мощности и сложной структуры.

    Bozhko A.N., Livantsov V.E.
    Optimization of geometric analysis strategy in CAD-systems
    Computer Research and Modeling, 2024, v. 16, no. 4, pp. 825-840

    Computer-aided assembly planning for complex products is an important engineering and scientific problem. The assembly sequence and content of assembly operations largely depend on the mechanical structure and geometric properties of a product. An overview of geometric modeling methods that are used in modern computer-aided design systems is provided. Modeling geometric obstacles in assembly using collision detection, motion planning, and virtual reality is very computationally intensive. Combinatorial methods provide only weak necessary conditions for geometric reasoning. The important problem of minimizing the number of geometric tests during the synthesis of assembly operations and processes is considered. A formalization of this problem is based on a hypergraph model of the mechanical structure of the product. This model provides a correct mathematical description of coherent and sequential assembly operations. The key concept of the geometric situation is introduced. This is a configuration of product parts that requires analysis for freedom from obstacles and this analysis gives interpretable results. A mathematical description of geometric heredity during the assembly of complex products is proposed. Two axioms of heredity allow us to extend the results of testing one geometric situation to many other situations. The problem of minimizing the number of geometric tests is posed as a non-antagonistic game between decision maker and nature, in which it is required to color the vertices of an ordered set in two colors. The vertices represent geometric situations, and the color is a metaphor for the result of a collision-free test. The decision maker’s move is to select an uncolored vertex; nature’s answer is its color. The game requires you to color an ordered set in a minimum number of moves by decision maker. The project situation in which the decision maker makes a decision under risk conditions is discussed. A method for calculating the probabilities of coloring the vertices of an ordered set is proposed. The basic pure strategies of rational behavior in this game are described. An original synthetic criterion for making rational decisions under risk conditions has been developed. Two heuristics are proposed that can be used to color ordered sets of high cardinality and complex structure.

  5. Омарова А.Г., Бейбалаев В.Д.
    Численное решение третьей начально-краевой задачи для нестационарного уравнения теплопроводности с дробными производными
    Компьютерные исследования и моделирование, 2024, т. 16, № 6, с. 1345-1360

    В последнее время для описания различных математических моделей физических процессов широко используется дробно-дифференциальное исчисление. В связи с этим большое внимание уделяется уравнениям в частных производных дробного порядка, которые являются обобщением уравнений в частных производных целого порядка.

    Нагруженными дифференциальными уравнениями в литературе называют уравнения, содержащие значения решения или его производных на многообразиях меньшей размерности, чем размерность области определения искомой функции. В настоящее время широко используются численные методы для решения нагруженных уравнений в частных производных целого и дробного порядка, поскольку аналитические методы решения сложны в реализации. Достаточно эффективным методом численного решения такого рода задач является метод конечных разностей, или метод сеток.

    Исследована начально-краевая задача в прямоугольнике $\overline{D}=\{(x,\,t)\colon 0\leqslant x\leqslant l,\;0\leqslant t\leqslant T\}$ для нагруженного дифференциального уравнения теплопроводности с композицией дробной производной Римана – Лиувилля и Капуто – Герасимова и с граничными условиями первого и третьего рода. С помощью метода энергетических неравенств получена априорная оценка в дифференциальной и в разностной форме. Полученные неравенства означают единственность решения и непрерывную зависимость решения от входных данных задачи. Получен разностный аналог для композиции дробной производной Римана – Лиувилля и Капуто – Герасимова порядка $(2-\beta )$ и построена разностная схема, аппроксимирующая исходную задачу с порядком $O\left(\tau +h^{2-\beta } \right)$. Доказана сходимость решения разностной схемы к решению исходной дифференциальной задачи со скоростью, равной порядку аппроксимации разностной схемы.

    Omarova A.G., Beybalayev V.D.
    Numerical solution of the third initial-boundary value problem for the nonstationary heat conduction equation with fractional derivatives
    Computer Research and Modeling, 2024, v. 16, no. 6, pp. 1345-1360

    Recently, to describe various mathematical models of physical processes, fractional differential calculus has been widely used. In this regard, much attention is paid to partial differential equations of fractional order, which are a generalization of partial differential equations of integer order. In this case, various settings are possible.

    Loaded differential equations in the literature are called equations containing values of a solution or its derivatives on manifolds of lower dimension than the dimension of the definitional domain of the desired function. Currently, numerical methods for solving loaded partial differential equations of integer and fractional orders are widely used, since analytical solving methods for solving are impossible. A fairly effective method for solving this kind of problem is the finite difference method, or the grid method.

    We studied the initial-boundary value problem in the rectangle $\overline{D}=\{(x,\,t)\colon 0\leqslant x\leqslant l,\;0\leqslant t\leqslant T\}$ for the loaded differential heat equation with composition fractional derivative of Riemann – Liouville and Caputo – Gerasimov and with boundary conditions of the first and third kind. We have gotten an a priori assessment in differential and difference interpretations. The obtained inequalities mean the uniqueness of the solution and the continuous dependence of the solution on the input data of the problem. A difference analogue of the composition fractional derivative of Riemann – Liouville and Caputo –Gerasimov order $(2-\beta )$ is obtained and a difference scheme is constructed that approximates the original problem with the order $O\left(\tau +h^{2-\beta } \right)$. The convergence of the approximate solution to the exact one is proven at a rate equal to the order of approximation of the difference scheme.

  6. Киселев М.В., Урусов А.М., Иваницкий А.Ю.
    Метод адаптивных гауссовых рецептивных полей для спайкового кодирования числовых переменных
    Компьютерные исследования и моделирование, 2025, т. 17, № 3, с. 389-400

    Одна из серьезных проблем, ограничивающих применение импульсных нейронных сетей в прикладных информационных системах, — это кодирование числовых данных в виде последовательностей спайков — бескачественных атомарных объектов, которыми обмениваются нейроны в импульсных нейросетях. Особенно остро эта проблема стоит в задачах обучения с подкреплением агентов, функционирующих в динамичном реальном мире, так как кроме точности кодирования надо учитывать еще его динамические характеристики. Одним из распространенных является метод кодирования гауссовыми рецептивными полями (ГРП). В этом методе одна числовая переменная, подаваемая на вход импульсной нейронной сети, представляется потоками спайков, испускаемых некоторым количеством входных узлов сети. При этом частота генерации спайков каждым входным узлом отражает близость текущего значения этой переменой к значению — центру рецептивного поля, соответствующего данному входному узлу. В стандартном методе ГРП центры рецептивных полей расположены эквидистантно. Это оказывается неэффективным в случае очень неравномерного распределения кодируемой величины. В настоящей работе предлагается усовершенствование этого метода, основанное на адаптивном выборе центров рецептивных полей и вычислении частот потоков спайков. Производится сравнение предлагаемого усовершенствованного метода ГРП с его стандартным вариантом с точки зрения объема сохраняемой при кодировании информации и с точки зрения точности классификационной модели, построенной на закодированных в виде спайков данных. Доля сохраняемой при спайковом кодировании информации для стандартного и адаптивного ГРП оценивается с помощью процедуры прямого и обратного кодирования большой выборки числовых значений из треугольного распределения вероятности и сравнения числа совпадающих бит в исходной и восстановленной выборке. Сравнение на основе точности классификации проводилось на задаче оценки текущего состояния, возникающей при реализации обучения с подкреплением. При этом классификационные модели строились тремя принципиально различными алгоритмами машинного обучения — алгоритмом ближайших соседей, случайным лесом решений и многослойным персептроном. В статье демонстрируется преимущество предложенного нами метода во всех проведенных тестах.

    Kiselev M.V., Urusov A.M., Ivanitsky A.Y.
    The adaptive Gaussian receptive fields for spiking encoding of numeric variables
    Computer Research and Modeling, 2025, v. 17, no. 3, pp. 389-400

    Conversion of numeric data to the spiking form and information losses in this process are serious problems limiting usage of spiking neural networks in applied informational systems. While physical values are represented by numbers, internal representation of information inside spiking neural networks is based on spikes — elementary objects emitted and processed by neurons. This problem is especially hard in the reinforcement learning applications where an agent should learn to behave in the dynamic real world because beside the accuracy of the encoding method, its dynamic characteristics should be considered as well. The encoding algorithm based on the Gaussian receptive fields (GRF) is frequently used. In this method, one numeric variable fed to the network is represented by spike streams emitted by a certain set of network input nodes. The spike frequency in each stream is determined by proximity of the current variable value to the center of the receptive field corresponding to the given input node. In the standard GRF algorithm, the receptive field centers are placed equidistantly. However, it is inefficient in the case of very uneven distribution of the variable encoded. In the present paper, an improved version of this method is proposed which is based on adaptive selection of the Gaussian centers and spike stream frequencies. This improved GRF algorithm is compared with its standard version in terms of amount of information lost in the coding process and of accuracy of classification models built on spike-encoded data. The fraction of information retained in the process of the standard and adaptive GRF encoding is estimated using the direct and reverse encoding procedures applied to a large sample from the triangular probability distribution and counting coinciding bits in the original and restored samples. The comparison based on classification was performed on a task of evaluation of current state in reinforcement learning. For this purpose, the classification models were created by machine learning algorithms of very different nature — nearest neighbors algorithm, random forest and multi-layer perceptron. Superiority of our approach is demonstrated on all these tests.

  7. Муравлев В.И., Браже А.Р.
    Обесшумливание данных динамической флуоресцентной микроскопии при помощи двухэтапного HOSVD-разложения
    Компьютерные исследования и моделирование, 2025, т. 17, № 4, с. 529-542

    Как правило, данные конфокальной и многофотонной лазерной сканирующей микроскопии страдают от низкого уровня полезного сигнала и высокого вклада дробового шума, связанного со стохастическим характером испускания фотонов флуорофором. Это осложняет задачу подавления шума и выделения полезного сигнала в таких данных. В настоящее время популярны нейросетевые алгоритмы улучшения изображений, однако они часто представляют собой «черный ящик» и требуют длительного обучения на конкретных наборах данных. В работе предлагается алгоритм подавления шума для данных динамической флуоресцентной микроскопии, опирающийся на наличие пространственно-временных локальных корреляций в полезном сигнале и на отсутствие пространственных корреляций в шумовой компоненте. Сингулярное разложение матриц (SVD), производящее спектральное разложение матрицы ковариации, — распространенный способ низкоранговой аппроксимации двумерных массивов, концентрирующий скоррелированный сигнал в нескольких первых компонентах разложения. Однако данные динамической микроскопии представляют собой трехмерные массивы или тензоры большей размерности, поэтому использование тензорных разложений потенциально может улучшить результат подавления шума по сравнению с обычным SVD. В основе алгоритма — двухэтапное применение усеченного сингулярного разложения высшего порядка (HOSVD) с введением порога для коэффициентов и последующим обратным преобразованием, сначала для локальных трехмерных окон в пространстве TXY (3D-HOSVD), а затем для пространственно объединенных групп трехмерных окон (4D-HOSVD). Для валидации алгоритма используются синтетические данные кальциевой сигнализации в астроцитах, в которых концентрация кальция транслируется в сигнал флуоресценции, значения которого в каждом кадре и каждом пикселе затем служат математическим ожиданием и дисперсией для сэмплирования случайной величины из непрерывного аналога пуассоновского распределения. Проведен анализ чувствительности алгоритма от параметров понижения ранга вдоль размерности временных компонент и группового ранга, длины локального окна и порога коэффициентов разложения. Несмотря на наличие мультипликативного шума, предлагаемый алгоритм демонстрирует значительное улучшение анализируемого сигнала, увеличивая соотношение «сигнал/шум» (PSNR) более чем на 20 дБ. Данный метод не опирается на предположения относительно разреженности или гладкости сигнала и может быть использован в качестве одного из этапов обработки данных динамической флуоресцентной микроскопии для самых различных типов данных.

    Muravlev V.I., Brazhe A.R.
    Denoising fluorescent imaging data with two-step truncated HOSVD
    Computer Research and Modeling, 2025, v. 17, no. 4, pp. 529-542

    Fluorescent imaging data are currently widely used in neuroscience and other fields. Genetically encoded sensors, based on fluorescent proteins, provide a wide inventory enabling scientiests to image virtually any process in a living cell and extracellular environment. However, especially due to the need for fast scanning, miniaturization, etc, the imaging data can be severly corrupred with multiplicative heteroscedactic noise, reflecting stochastic nature of photon emission and photomultiplier detectors. Deep learning architectures demonstrate outstanding performance in image segmentation and denoising, however they can require large clean datasets for training, and the actual data transformation is not evident from the network architecture and weight composition. On the other hand, some classical data transforms can provide for similar performance in combination with more clear insight in why and how it works. Here we propose an algorithm for denoising fluorescent dynamical imaging data, which is based on multilinear higher-order singular value decomposition (HOSVD) with optional truncation in rank along each axis and thresholding of the tensor of decomposition coefficients. In parallel, we propose a convenient paradigm for validation of the algorithm performance, based on simulated flurescent data, resulting from biophysical modeling of calcium dynamics in spatially resolved realistic 3D astrocyte templates. This paradigm is convenient in that it allows to vary noise level and its resemblance of the Gaussian noise and that it provides ground truth fluorescent signal that can be used to validate denoising algorithms. The proposed denoising method employs truncated HOSVD twice: first, narrow 3D patches, spanning the whole recording, are processed (local 3D-HOSVD stage), second, 4D groups of 3D patches are collaboratively processed (non-local, 4D-HOSVD stage). The effect of the first pass is twofold: first, a significant part of noise is removed at this stage, second, noise distribution is transformed to be more Gaussian-like due to linear combination of multiple samples in the singular vectors. The effect of the second stage is to further improve SNR. We perform parameter tuning of the second stage to find optimal parameter combination for denoising.

  8. Назаров В.Г.
    Задача аппроксимации радиационных коэффициентов материалов на заданном диапазоне энергии
    Компьютерные исследования и моделирование, 2014, т. 6, № 2, с. 217-230

    В работе рассматривается вопрос о возможности создания материала, который имеет коэффициенты ослабления и рассеяния рентгеновского излучения близкие или совпадающие с этими же коэффициентами для другого, заранее заданного материала. Проведена компьютерная обработка данных о значении этих коэффициентов для большого набора различных веществ, изучена их зависимость от энергии излучения. Сделан вывод о возможности успешного решения поставленной задачи во многих случаях, а так же указаны основные трудности, которые могут при этом возникнуть. Приведены результаты расчетов, выполненных для ряда конкретных веществ.

    Nazarov V.G.
    Problem of material radiation coefficients approximation at a given energy band
    Computer Research and Modeling, 2014, v. 6, no. 2, pp. 217-230

    The problem of formation of a material, which has the coefficients of attenuations and scattering close or coinciding with the same coefficients for some other predetermined material was considered. A computer processing of values of these coefficients for a big set of various materials has been carried out and their dependence on radiation energy value was studied. The conclusion was drawn about probability of successful solution of the problem in many cases and difficulties, which may occur were pointed out. A set of computer calculations carried out for some specific materials is provided.

  9. В работе решается задача вычисления параметров случайного сигнала в условиях распределения Райса на основе принципа максимума правдоподобия в предельных случаях большого и малого значения отношения сигнала к шуму. Получены аналитические формулы для решения системы уравнений максимума правдоподобия для искомых параметров сигнала и шума как для однопараметрического приближения, когда рассчитывается только один параметр задачи — величина сигнала, в предположении априорной известности второго параметра — дисперсии шума, так и для двухпараметрической задачи, когда оба параметра априорно неизвестны. Непосредственное вычисление искомых параметров сигнала и шума по формулам позволяет избежать необходимости ресурсоемкого численного решения системы нелинейных уравнений и тем самым оптимизировать время компьютерной обработки сигналов и изображений. Представлены результаты компьютерного моделирования задачи, подтверждающие теоретические выводы. Задача является значимой для целей обработки райсовских данных, в частности, в системах магнитно-резонансной визуализации.

    The paper provides a solution of a task of calculating the parameters of a Rician distributed signal on the basis of the maximum likelihood principle in limiting cases of large and small values of the signal-tonoise ratio. The analytical formulas are obtained for the solution of the maximum likelihood equations’ system for the required signal and noise parameters for both the one-parameter approximation, when only one parameter is being calculated on the assumption that the second one is known a-priori, and for the two-parameter task, when both parameters are a-priori unknown. The direct calculation of required signal and noise parameters by formulas allows escaping the necessity of time resource consuming numerical solving the nonlinear equations’ s system and thus optimizing the duration of computer processing of signals and images. There are presented the results of computer simulation of a task confirming the theoretical conclusions. The task is meaningful for the purposes of Rician data processing, in particular, magnetic-resonance visualization.

    Views (last year): 2.
  10. Смирнова О., Коня Б., Кэмерон Д., Нильсен Й.К., Филипчич А.
    ARC-CE: новости и перспективы
    Компьютерные исследования и моделирование, 2015, т. 7, № 3, с. 407-414

    Вычислительный элемент ARC приобретает всё большую популярность в инфраструктурах WLCG и EGI, и используется не только в контексте систем Грид, но и как интерфейс к суперкомпьютерам и облачным ресурсам. Развитие и поддержка ARC опирается на вклады членов пользовательского сообщества, что помогает идти в ногу со всеми изменениями в сфере распределённых вычислений. Перспективы развития ARC тесно связаны с требованиями обработки данных БАК, в любых их проявлениях. ARC также используется и для нужд небольших научных сообществ, благодаря государственным вычислительным инфраструктурам в различных странах. Таким образом, ARC представляет собой эффективное решение для создания распределённых вычислительных инфраструктур, использующих разнообразные ресурсы.

    Smirnova O., Kónya B., Cameron D., Nilsen J.K., Filipčič A.
    ARC-CE: updates and plans
    Computer Research and Modeling, 2015, v. 7, no. 3, pp. 407-414

    ARC Compute Element is becoming more popular in WLCG and EGI infrastructures, being used not only in the Grid context, but also as an interface to HPC and Cloud resources. It strongly relies on community contributions, which helps keeping up with the changes in the distributed computing landscape. Future ARC plans are closely linked to the needs of the LHC computing, whichever shape it may take. There are also numerous examples of ARC usage for smaller research communities through national computing infrastructure projects in different countries. As such, ARC is a viable solution for building uniform distributed computing infrastructures using a variety of resources.

Pages: « first previous next last »

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"