Аппаратная реализация асинхронной Аналоговой нейронной сети с обучением на базе унифицированных КМОП IP-блоков
- Авторы: Петров М.О.1, Рындин Е.А.1, Андреева Н.В.1
-
Учреждения:
- Санкт-Петербургский государственный электротехнический университет “ЛЭТИ” им. В.И. Ульянова (Ленина)
- Выпуск: Том 54, № 4 (2025)
- Страницы: 323-332
- Раздел: НЕЙРОМОРФНЫЕ СИСТЕМЫ
- URL: https://modernonco.orscience.ru/0544-1269/article/view/690997
- DOI: https://doi.org/10.31857/S0544126925040066
- EDN: https://elibrary.ru/qhftpm
- ID: 690997
Цитировать
Полный текст



Аннотация
Представлен подход к проектированию нейроморфных электронных устройств на базе сверточных нейронных сетей с обучением методом обратного распространения ошибки, направленный на повышение энергоэффективности и производительности автономных систем. В основе разработанного подхода лежит использование компилятора топологии нейронных сетей на базе пяти базовых КМОП-блоков, предназначенных для аналоговой реализации всех вычислительных операций в режимах обучения и инференса. Разработанные кроссбар-массивы функциональных аналоговых КМОП-блоков с цифровым управлением уровнем проводимости обеспечивают выполнение операции матрично-векторного умножения в сверточном и полносвязном слоях без использования ЦАП и с применением АЦП в цепях управления весами синаптических связей только в режиме обучения. Эффективность подхода демонстрируется на примере задачи классификации цифр, решаемой с точностью 97.87 % на тестовых данных с использованием разработанной модели аппаратной реализации асинхронной аналоговой нейронной сети с обучением.
Об авторах
М. О. Петров
Санкт-Петербургский государственный электротехнический университет “ЛЭТИ” им. В.И. Ульянова (Ленина)
Email: nvandr@gmail.com
Санкт-Петербург, Россия
Е. А. Рындин
Санкт-Петербургский государственный электротехнический университет “ЛЭТИ” им. В.И. Ульянова (Ленина)
Email: nvandr@gmail.com
Санкт-Петербург, Россия
Н. В. Андреева
Санкт-Петербургский государственный электротехнический университет “ЛЭТИ” им. В.И. Ульянова (Ленина)
Автор, ответственный за переписку.
Email: nvandr@gmail.com
Санкт-Петербург, Россия
Список литературы
- He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016. P. 770–778.
- Zagoruyko S., Komodakis N. Wide residual networks // arXiv:1605.07146. 2016. P. 1–15.
- Voulodimos A., Doulamis N., Doulamis A., Protopapadakis E. Deep learning for computer vision: A brief review // Computational intelligence and neuroscience. 2018. V. 2018. N. 1. 7068349.
- Goyal P., Sumit P., Karan J. Deep learning for natural language processing. Apress Berkeley, CA. 2018. 277 p.
- Petrov M.O., Ryndin E.A., Andreeva N.V. Compiler for Hardware Design of Convolutional Neural Networks with Supervised Learning Based on Neuromorphic Electronic Blocks // 2024 Sixth International Conference Neurotechnologies and Neurointerfaces (CNN). 2024. P. 1–4.
- Petrov M.O., Ryndin E.A., Andreeva N.V. Automated design of deep neural networks with in-situ training architecture based on analog functional blocks // The European Physical Journal Special Topics. 2024. P. 1–14.
- Gupta I., Serb A., Khiat A., Zeitler R., Vassanelli S., Prodromakis T. Sub 100 nW volatile nano-metal-oxide memristor as synaptic-like encoder of neuronal spikes // IEEE transactions on biomedical circuits and systems. 2018. V. 12. N. 2. P. 351–359.
- Валуева М.В., Валуев Г.В., Бабенко М.Г., Черных А., Кортес-Мендоса Х.М. Метод аппаратной реализации сверточной нейронной сети на основе системы остаточных классов // Труды Института системного программирования РАН. 2022. Т. 34. № 3. С. 61–74.
- LeCun Y., Bengio Y., Hinton G. Deep learning // Nature. 2015. V. 521. N. 7553. P. 436–444.
- Goodfellow I., Bengio Y., Courville A. Regularization for deep learning // Deep learning. 2016. P. 216–261.
- Schmidhuber J. Deep learning in neural networks: An overview // Neural networks. 2015. V. 61. P. 85–117.
- TensorFlow. MNIST dataset in Keras. 2024. URL: https://www.tensorflow.org/api_docs/python/tf/keras/datasets/mnist
Дополнительные файлы
