Применение импульсных нейронных сетей в решении задачи факторизации Винера - Хопфа
Аннотация
Работа посвящена изучению возможностей применения искусственных импульсных (или спайковых) нейронных сетей для решения задачи приближенной факторизации Винера — Хопфа для процессов Леви в рамках интеллектуальной системы машинного обучения. Одним из приложений факторизации Винера — Хопфа является вычисление цен барьерных опционов, в связи с чем рассматриваемая задача имеет важный прикладной аспект для вычислительной финансовой математики в части создания гибридных численных методов, комбинирующих современные технологии нейросетей третьего поколения и классические методы вычислительной математики. В рамках статьи предложена импульсная нейронная сеть с моделью «интегрировать-и-сработать» с утечками для факторизации тригонометрического полинома в комплексной форме, коэффициенты которого представляют собой распределение вероятностей. Искомые многочлены-факторы имеют аналогичную вероятностную интерпретацию, при этом у первого фактора первая половина коэффициентов равна нулю, а у второго — вторая половина. Вероятностная интерпретация задачи позволяет обойтись без кодирования и декодирования входных и выходных данных в спайки и обратно. Обучение сети проводится для одного набора коэффициентов полинома с целью минимизировать ошибку приближения этого полинома произведением факторов, коэффициенты которых предсказываются сетью, для чего программно реализована собственная функция потерь. В отличие от традиционного подхода к подбору параметров модели на обучающей выборке, в данной работе предлагается минимизировать ошибку приближения конкретной характеристической функции процесса Леви произведением многочленов-факторов. При этом модель не использует фактические значения коэффициентов факторов при обучении, а только значения многочленов, вычисленные с помощью быстрого преобразования Фурье. В рамках вычислительных экспериментов представлен пример факторизации полинома 255-й степени, связанного с гауссовым процессом Леви, с помощью спайковой нейросети. Программная реализация предлагаемого в статье подхода к решению задачи факторизации написана на языке программирования Python с использованием фреймворка машинного обучения pyTorch и библиотеки snnTorch импульсных нейронных сетей.
Скачивания
Литература
Shirjaev A. N. (1998) Osnovy stohasticheskoj finansovoj matematiki. Vol. 1. Teorija [Fundamentals of stochastic financial mathematics. Vol. 1. Theory]. Moscow : FAZIS, 1998. 544 p.
Alymova Е. V. and Kudryavtsev O. E. (2024) Artificial Neural Networks and Wiener-Hopf Factorization. IAENG International Journal of Computer Science. 51(8). P. 1182–1194.
Vogels T. P. and Abbott L. F. (2005) Signal propagation and logic gating in networks of integrate-and-fire neurons. Journal of neuroscience. 25(46). P. 10786–10795. DOI
Liu Y. H. and Wang X. J. (2001) Spike-frequency adaptation of a generalized leaky integrate-and-fire model neuron. Journal of computational neuroscience. 10(1). P. 25–45. DOI
Izhikevich E. M. (2003) Simple model of spiking neurons. IEEE Transactions on Neural Networks. 14(6). P. 1569–1572. DOI
Hodgkin A. L. and Huxley A. F. (1952) A quantitative description of membrane current and its application to conduction and excitation in nerve. The Journal of physiology. 117(4). P. 500–544. DOI
Maass W. (1997) Networks of spiking neurons: the third generation of neural network models. Neural networks. 10(9). P. 1659–1671. DOI
Pham Q. T. [et al.] (2021) A review of SNN implementation on FPGA. 2021 international conference on multimedia analysis and pattern recognition (MAPR). IEEE. P. 1–6. DOI
Cybenko G. (1989) Approximation by superpositions of a sigmoidal function. Mathematics of control, signals and systems. 2(4). P. 303–314.
Garzon M. and Botelho F. (1999) Dynamical approximation by recurrent neural networks. Neurocomputing. 29(1-3). P. 25–46. DOI
Hornik K., Stinchcombe M. and White H. (1989) Multilayer feedforward networks are universal approximators. Neural networks. 2(5). P. 359–266.
Maass W. (1997) Fast sigmoidal networks via spiking neurons. Neural computation. 9(2). P. 279–304. DOI
Iannella N. and Back A. D. (2001) A spiking neural network architecture for nonlinear function approximation. Neural networks. 14(6-7). P. 933–939. DOI
Eshraghian J. K. [et al.] 2023. Training spiking neural networks using lessons from deep learning. Proceedings of the IEEE. 111(9). P. 1016– 1054. DOI
Alymova E. V. and Kudryavtsev O. E. (2024) Application of neural networks in solving the Wiener — Hopf factorization problem. Current Problems of Applied Mathematics, Computer Science and Mechanics. Collection of Proceedings of the International Scientific Conference. Voronezh. P. 323–328.
- Авторы сохраняют за собой авторские права и предоставляют журналу право первой публикации работы, которая по истечении 6 месяцев после публикации автоматически лицензируется на условиях Creative Commons Attribution License , которая позволяет другим распространять данную работу с обязательным сохранением ссылок на авторов оригинальной работы и оригинальную публикацию в этом журнале.
- Авторы имеют право размещать их работу в сети Интернет (например в институтском хранилище или персональном сайте) до и во время процесса рассмотрения ее данным журналом, так как это может привести к продуктивному обсуждению и большему количеству ссылок на данную работу (См. The Effect of Open Access).