Результаты поиска по 'многослойные структуры':
Найдено статей: 3
  1. От редакции
    Компьютерные исследования и моделирование, 2024, т. 16, № 5, с. 1037-1040
    Editor’s note
    Computer Research and Modeling, 2024, v. 16, no. 5, pp. 1037-1040
  2. Харитонский П.В., Фролов А.М., Боев С.А.
    Моделирование межслоевой магнитостатической энергии в нанокристаллических пленках
    Компьютерные исследования и моделирование, 2012, т. 4, № 1, с. 85-90

    Предложена модель расчета межслоевой магнитостатической энергии и оценка ее вклада в общую магнитную энергию многослойных пленок. Данная модель была применена для расчета трехслойной структуры Co/Cu/Co. Сравнение полученных теоретических результатов с экспериментальными данными позволило оценить влияние магнитостатического взаимодействия на величину и характер поведения поля насыщения подобных структур.

    Kharitonskij P.V., Frolov A.M., Boev S.A.
    Modelling of interlayer magnetostatic energy in nanocrystal films
    Computer Research and Modeling, 2012, v. 4, no. 1, pp. 85-90

    The computation model of the interlayer magnetostatic energy and its contribution into the total magnetic energy of multilayer films has been proposed. The model has been used for the energy computation of three-layer Co/Cu/Co structure. The comparison of obtained theoretical results with experimental data has been allowed made an estimation of magnetostatic interaction influence on a value and a character of saturation field behavior for such structures.

    Views (last year): 3. Citations: 1 (RSCI).
  3. Конюхов И.В., Конюхов В.М., Черница А.А., Дюсенова А.
    Особенности применения физически информированных нейронных сетей для решения обыкновенных дифференциальных уравнений
    Компьютерные исследования и моделирование, 2024, т. 16, № 7, с. 1621-1636

    Рассматривается применение физически информированных нейронных сетей с использованием многослойных персептронов для решения задач Коши, в которых правые части уравнения являются непрерывными монотонно возрастающими, убывающими или осциллирующими функциями. С помощью вычислительных экспериментов изучено влияние метода построения приближенного нейросетевого решения, структуры нейронной сети, алгоритмов оптимизации и средств программной реализации на процесс обучения и точность полученного решения. Выполнен анализ эффективности работы наиболее часто используемых библиотек машинного обучения при разработке программ на языках программирования Python и C#. Показано, что применение языка C# позволяет сократить время обучения нейросетей на 20–40%. Выбор различных функций активации влияет на процесс обучения и точность приближенного решения. Наиболее эффективными в рассматриваемых задачах являются сигмоида и гиперболический тангенс. Минимум функции потерь достигается при определенном количестве нейронов скрытого слоя однослойной нейронной сети за фиксированное время обучения нейросетевой модели, причем усложнение структуры сети за счет увеличения числа нейронов не приводит к улучшению результатов обучения. При этом величина шага сетки между точками обучающей выборки, обеспечивающей минимум функции потерь, в рассмотренных задачах Коши практически одинакова. Кроме того, при обучении однослойных нейронных сетей наиболее эффективными для решения задач оптимизации являются метод Adam и его модификации. Дополнительно рассмотрено применение двух- и трех-слойных нейронных сетей. Показано, что в этих случаях целесообразно использовать алгоритм LBFGS, который по сравнению с методом Adam в ряде случаев требует на порядок меньшего времени обучения при достижении одинакового порядка точности. Исследованы также особенности обучения нейронной сети в задачах Коши, в которых решение является осциллирующей функцией с монотонно убывающей амплитудой. Для них необходимо строить нейросетевое решение не с постоянными, а с переменными весовыми коэффициентами, что обеспечивает преимущество такого подхода при обучении в тех узлах, которые расположены вблизи конечной точки интервала решения задачи.

    Konyukhov I.V., Konyukhov V.M., Chernitsa A.A., Dyussenova A.
    Analysis of the physics-informed neural network approach to solving ordinary differential equations
    Computer Research and Modeling, 2024, v. 16, no. 7, pp. 1621-1636

    Considered the application of physics-informed neural networks using multi layer perceptrons to solve Cauchy initial value problems in which the right-hand sides of the equation are continuous monotonically increasing, decreasing or oscillating functions. With the use of the computational experiments the influence of the construction of the approximate neural network solution, neural network structure, optimization algorithm and software implementation means on the learning process and the accuracy of the obtained solution is studied. The analysis of the efficiency of the most frequently used machine learning frameworks in software development with the programming languages Python and C# is carried out. It is shown that the use of C# language allows to reduce the time of neural networks training by 20–40%. The choice of different activation functions affects the learning process and the accuracy of the approximate solution. The most effective functions in the considered problems are sigmoid and hyperbolic tangent. The minimum of the loss function is achieved at the certain number of neurons of the hidden layer of a single-layer neural network for a fixed training time of the neural network model. It’s also mentioned that the complication of the network structure increasing the number of neurons does not improve the training results. At the same time, the size of the grid step between the points of the training sample, providing a minimum of the loss function, is almost the same for the considered Cauchy problems. Training single-layer neural networks, the Adam method and its modifications are the most effective to solve the optimization problems. Additionally, the application of twoand three-layer neural networks is considered. It is shown that in these cases it is reasonable to use the LBFGS algorithm, which, in comparison with the Adam method, in some cases requires much shorter training time achieving the same solution accuracy. The specificity of neural network training for Cauchy problems in which the solution is an oscillating function with monotonically decreasing amplitude is also investigated. For these problems, it is necessary to construct a neural network solution with variable weight coefficient rather than with constant one, which improves the solution in the grid cells located near by the end point of the solution interval.

Indexed in Scopus

Full-text version of the journal is also available on the web site of the scientific electronic library eLIBRARY.RU

The journal is included in the Russian Science Citation Index

The journal is included in the RSCI

International Interdisciplinary Conference "Mathematics. Computing. Education"