DOI: 10.14489/vkit.2025.05.pp.024-033
Никуйко Е. А., Мызникова М. Н., Лапшаков В. М., Газизуллин Р. М. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ – ЦИФРОВЫЕ ТЕХНОЛОГИИ И КОГНИТИВНЫЕ ФУНКЦИИ (с. 24-33)
Аннотация. Рассмотрены современные подходы к анализу данных, в которых используются новейшие достижения науки на линии интеграции когнитивных функций человека в цифровые технологии. Приведены базисные элементы искусственных нейронных сетей. Дан анализ ключевых ограничений существующих моделей искусственных нейронных сетей, таких как узкая специализация, отсутствие устойчивых возможностей внедрения механизма эмоциональности, недостаточная гибкость и адаптируемость к изменениям условий среды их функционирования. Перечислены классические и современные архитектуры и способы обучения нейросетевых моделей, обсуждены проблемы их применения и повышения эффективности использования. Сделан акцент на необходимость проведения углубленных исследований при создании новых алгоритмов обучения в условиях увеличения вычислительных мощностей, в том числе в области нейробиологии. Описаны проблемы существующих определений искусственного интеллекта с точки зрения их универсальности. Предложен метод повышения эффективности функционирования нейронных сетей, исходя из их недостатков и преимуществ.
Ключевые слова: искусственный интеллект; нейросети; когнитивные функции; правило Хебба; современные искусственные нейронные сети (ИНС).
Nikuyko Е. А., Myznikova М. N., Lapshakov V. М., Gazizullin R. М. ARTIFICIAL INTELLIGENCE – DIGITAL TECHNOLOGIES AND COGNITIVE FUNCTIONS (pp. 24-33)
Abstract. is that use the latest achievements of human science in the field of integrating cognitive functions into digital technologies. Modern achievements of domestic and foreign researchers in the fields of neurobiology and information technology are presented. The basic elements of artificial neural networks are described in detail. The key limitations of existing models of artificial neural networks are analyzed, such as narrow specialization, lack of sustainable opportunities for implementing the mechanism of emotionality, insufficient flexibility and adaptability to changes in the conditions of the environment of their functioning. The authors provide an overview of classical and modern architectures and methods of training neural network models, and also discuss the problems of their application, indicating how to increase the efficiency of their use. The work pays special attention to the need for indepth research in the field of creating new learning algorithms, increasing computing power, as well as in the field of neurobiology. The problems of existing definitions of artificial intelligence are described from the point of view of their universality. The authors propose a method for increasing the efficiency of neural networks, based on their disadvantages and advantages. The article will be of interest to specialists in the field of artificial intelligence, researchers in the field of integration of cognitive functions into digital technologies.
Keywords: Artificial intelligence; Neural networks; Cognitive functions; Hebb's rule; Modern artificial neural networks (ANN).
Е. А. Никуйко, М. Н. Мызникова, В. М. Лапшаков (Национальный исследовательский университет «МЭИ», Москва, Россия) E-mail:
Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript
Р. М. Газизуллин (Казанский инновационный университет имени В. Г. Тимирясова (ИЭУП), Казань, Россия)
Е. А. Nikuyko, М. N. Myznikova, V. М. Lapshakov (National Research University “Moscow Power Engineering Institute”, Moscow, Russia) E-mail:
Этот e-mail адрес защищен от спам-ботов, для его просмотра у Вас должен быть включен Javascript
R. М. Gazizullin (Kazan Innovative University named after V. G. Timiryasov (IEML), Kazan, Russia)
1. Розенблатт Ф. Принципы нейродинамики. Перцептроны и теория механизмов мозга / пер. с англ. В. Я. Алтаева и др.; под ред. С. М. Осовца. М.: Мир, 1965. 480 с. 2. Минский М., Пейперт С. Персептроны / пер. с англ. Г. Л. Гимельфарба, В. М. Шарыпанова; под ред. В. А. Ковалевского. М.: Мир, 1971. 266 с. 3. Румельхарт Д.Э. Introduction to Human Information Processing. New York: Willey, 1977. 306 с. 4. Rumelhart D., Hinton G., Williams R. Learning representations by back-propagating errors // Nature. 1986. V. 323. P. 533–536. DOI 10.1038/323533a0 5. Hopfield JJ. Neural networks and physical systems with emergent collective computational abilities // Proc Natl Acad Sci U S A. 1982. V. 79. P. 2554–2558. DOI: 10.1073/pnas.79.8.2554 6. Кохонен Т. Самоорганизующиеся карты / пер. с англ. В. Агеева; под ред. Ю. В. Тюменцева. М.: Лаборатория знаний, 2017. 655 с. 7. Recent Advances at the Interface of Neuroscience and Artificial Neural Networks / Y. Cohen, T. A. Engel, C. Langdon et al. // J. Neurosci. 2022. V. 42(45). P. 8514–8523. DOI: 10.1523/JNEUROSCI.1503-22.2022 8. Shao F., Shen Z. How can artificial neural networks approximate the brain // Frontiers in psychology. 2023. V. 13, 970214. DOI: 10.3389/fpsyg.2022.970214 9. Черный С. А., Шестаков А. В. Использование нейронных сетей для моделирования когнитивных структур // Международный научно-исследовательский журнал. 2019. №12-1 (90). 10. Volzhenin K., Changeux J.P., Dumas G. Multilevel development of cognitive abilities in an artificial neural network. Proc Natl Acad Sci U S A. 2022. V. 119(39). e2201304119. DOI 10.1073/pnas.2201304119 11. Richards B. A., Lillicrap T. P. Dendritic solutions to the credit assignment problem // Current opinion in neurobiology. 2019. V. 54. P. 28–36. DOI 10.1016/j.conb.2018.08.003 12. Cichy R.M., Kaiser D. Deep Neural Networks as Scientific Models // Trends Cogn Sci. 2019. V. 23(4). P. 305–317. DOI: 10.1016/j.tics.2019.01.009 13. Saxe A., Nelli S., Summerfield C. If deep learning is the answer, what is the question // Nature reviews. Neuroscience. 2021. V. 22(1). P. 55–67. DOI 10.1038/s41583-020-00395-8 14. Rodriguez-Garcia A., Mei J., Ramaswamy S. Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling // 2024. DOI 10.48550/arXiv.2407.04525 15. Blazek Paul J., Lin Milo M. A neural network model of perception and reasoning. 2020. DOI 10.48550/arXiv.2002.11319 16. Liu S., Mavor-Parker A. N., Barry C. Functional Connectome: Approximating Brain Networks with Artificial Neural Networks // 2022. DOI: 10.48550/arXiv.2211.12935 17. VanRullen R., Kanai R. Deep Learning and the Global Workspace Theory // 2021. DOI: 10.48550/arXiv.2012.10390 18. Livezey J. A., Glaser J. I. Deep learning approaches for neural decoding: from CNNs to LSTMs and spikes to fMRI // 2020. DOI: 10.48550/arXiv.2005.09687 19. Ситжалилов А. Л., Абдураманов З. Ш. Языковые модели для приложений генеративного искусственного интеллекта // Информационно-компьютерные технологии в экономике, образовании и социальной сфере. 2024. № 1(43). С. 68–74. 20. Dynamic compartmental computations in tuft dendrites of layer 5 neurons during motor behavior / Y. Otor, S. Achvat, N. Cermak et al. // Science. 2022. V. 376. P. 267–275. DOI: 10.1126/science.abn1421 21. Извозчикова В. В., Зубарев М. А. Использование рекуррентных нейронных сетей в задачах обработки больших массивов данных // Научно-технический вестник Поволжья. 2024. № 4. С. 110–112. 22. Гайфулина Д. А., Котенко И. В. Применение методов глубокого обучения в задачах кибербезопасности. Часть 2 // Вопросы кибербезопасности. 2020. № 4(38). С. 11–21. 23. A petavoxel fragment of human cerebral cortex reconstructed at nanoscale resolution / A. ShapsonCoe, M. Januszewski, D. R. Berger et al. // Science. 2024. V. 384, eadk4858. DOI: 10.1126/science.adk4858 24. Овсяницкий А. Д. Об использовании терминов «искусственный интеллект», «машинное обучение» и «глубокое обучение» // Цифровая экономика в социально-экономическом развитии России: взгляд молодых: сборник статей и тезисов докладов XV международной научно-практической конференции студентов, магистрантов и аспирантов. Челябинск, 26 февраля 2019 года. Челябинск: Перо, 2019. С. 549–551. 25. Language models are few-shot learners / Tom B. Brown, Benjamin Mann, Nick Ryder et al. // In Proceedings of the 34th International Conference on Neural Information Processing Systems (NIPS '20). Curran Associates Inc., Red Hook, NY, USA, 2020. Article 159. 26. Hebb D. O. The Organization of Behavior: A Neuropsychological Theory. New York: Wiley, 1949. P. 62. 27. H. Abbass, Editorial: What is Artificial Intelli-gence? // IEEE Transactions on Artificial Intelligence. 2021. V. 2, No. 2. P. 94–95. DOI 10.1109/TAI.2021.3096243 28. Pei Wang. On Defining Artificial Intelligence // Journal of Artificial General Intelligence. Sciendo. 2019. V. 10, No. 2. P. 1–37. 29. Krajna A., Kovac M., Brcic M., Sarcevic A. Explainable Artificial Intelligence: An Updated Perspective // 45th Jubilee International Convention on Information, Communication and Electronic Technology (MIPRO). 2022. Opatija. Croatia. 2022. P. 859–864. DOI: 10.23919/MIPRO55190.2022.9803681 30. Hayek F. A. The Use of Knowledge in Society // The American Economic Review. 1945. V. 35, No. 4. P.519–530. 31. Richard Evans, Jim Gao Deep-Mind AI Reduces Google Data Centre Cooling Bill by 40 % // DeepMind, 20 July 2016 [Электронный ресурс]. URL: https://deepmind.com/blog/deepmind-ai-reduces-google-data-centre-cooling-bill-40 (дата обращения: 20.11.2024). 32. Сотниченко Е. А., Никуйко Е. А., Малютина Я. Д. Анализ использования нейронных сетей в экономике Российской Федерации и повышение их эффективности // Евразийское пространство: экономика, право, общество. 2024. № 5. С. 52–57.
1. Rozenblatt F., Altaev V. Ya., Osovets S. M. et al (1965). Principles of Neurodynamics. Perceptrons and the Theory of Brain Mechanisms. Moscow: Mir. [in Russian language] 2. Minskiy M., Peypert S., Gimel'farb G. L., Sharypanov V. M., Kovalevskiy V. A. (1971). Perceptrons. Moscow: Mir. [in Russian language] 3. Rumel'hart D.E. (1977). Introduction to Human Information Processing. New York: Willey. 4. Rumelhart D., Hinton G., Williams R. (1986). Learning representations by back-propagating errors. Nature, 323, 533 – 536. DOI 10.1038/323533a0 5. Hopfield JJ. (1982). Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences of the United States of America, 79, 2554 – 2558. DOI: 10.1073/pnas.79.8.2554 6. Kohonen T., Ageev V., Tyumentsev Yu. V. (2017). Self-organizing maps. Moscow: Laboratoriya znaniy. [in Russian language] 7. Cohen Y., Engel T. A., Langdon C. et al. (2022). Recent Advances at the Interface of Neuroscience and Artificial Neural Networks. Journal of Neuroscience, Vol. 42 45, 8514 – 8523. DOI: 10.1523/JNEUROSCI.1503-22.2022 8. Shao F., Shen Z. (2023). How can artificial neural networks approximate the brain. Frontiers in psychology, 13. DOI: 10.3389/fpsyg.2022.970214 9. Chernyy S. A., Shestakov A. V. (2019). Using neural networks to model cognitive structures. Mezhdunarodnyy nauchno-issledovatel'skiy zhurnal, 90(12). [in Russian language] 10. Volzhenin K, Changeux JP, Dumas G. (2022). Multilevel development of cognitive abilities in an artificial neural network. Proceedings of the National Academy of Sciences of the United States of America, Vol. 119 39. DOI: 10.1073/pnas.2201304119 11. Richards B. A., Lillicrap T. P. (2019). Dendritic solutions to the credit assignment problem. Current opinion in neurobiology, 54, 28 – 36. DOI: 10.1016/j.conb.2018.08.003 12. Cichy RM, Kaiser D. (2019). Deep Neural Networks as Scientific Models. Trends in Cognitive Sciences, 23(4), 305 – 317. DOI: 10.1016/j.tics.2019.01.009 13. Saxe A., Nelli S., Summerfield C. (2021). If deep learning is the answer, what is the question. Nature reviews. Neuroscience, 22(1), 55 – 67. DOI: 10.1038/s41583-020-00395-8 14. Rodriguez-Garcia A., Mei J., Ramaswamy S. (2024). Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling. DOI: 10.48550/arXiv.2407.04525 15. Blazek Paul J., Lin Milo M. (2002). A neural network model of perception and reasoning. DOI: 10.48550/arXiv.2002.11319 16. Liu S., Mavor-Parker A. N, Barry C. (2022). Functional Connectome: Approximating Brain Networks with Artificial Neural Networks. DOI: 10.48550/arXiv.2211.12935 17. VanRullen R., Kanai R. (2021). Deep Learning and the Global Workspace Theory. DOI: 10.48550/arXiv.2012.10390 18. Livezey J. A., Glaser J. I. (2020). Deep learning approaches for neural decoding: from CNNs to LSTMs and spikes to fMRI. DOI: 10.48550/arXiv.2005.09687 19. Sitzhalilov A. L., Abduramanov Z. Sh. (2024). Language models for generative artificial intelligence applications. Informatsionno-komp'yuternye tekhnologii v ekonomike, obrazovanii i sotsial'noy sfere, 43(1), 68 – 74. [in Russian language] 20. Otor Yara et al. (2022). Dynamic compartmental computations in tuft dendrites of layer 5 neurons during motor behavior. Science, 376, 267 – 275. DOI: 10.1126/science.abn1421 21. Izvozchikova V. V., Zubarev M. A. (2024). Using recurrent neural networks in large data processing tasks. Nauchno-tekhnicheskiy vestnik Povolzh'ya, (4), 110 – 112. [in Russian language] 22. Gayfulina D. A., Kotenko I. V. (2020). Application of deep learning methods to cybersecurity tasks. Part 2. Voprosy kiberbezopasnosti, 38(4), 11 – 21. [in Russian language] 23. Shapson-Coe Alexander et al. (2024). A petavoxel fragment of human cerebral cortex reconstructed at nanoscale resolution. Science, 384. DOI: 10.1126/science.adk4858 24. Ovsyanitskiy A. D. (2019). On the use of the terms artificial intelligence, machine learning and deep learning. Digital Economy in the Socio-Economic Development of Russia: a view of the young: a collection of articles and abstracts of reports of the XV International Scientific and Practical Conference of Students, Masters and Postgraduates, 549 – 551. Chelyabinsk: Pero. [in Russian language] 25. Brown Tom B., Mann Benjamin, Ryder Nick et al. (2020). Language models are few-shot learners. In Proceedings of the 34th International Conference on Neural Information Processing Systems (NIPS '20). Curran Associates Inc. 26. Hebb D. O. (1949). The Organization of Behavior: A Neuropsychological Theory. New York: Wiley. 27. Abbass H. (2021). Editorial: What is Artificial Intelligence? IEEE Transactions on Artificial Intelligence, 2(2), 94 – 95. DOI: 10.1109/TAI.2021.3096243 28. Pei Wang. (2019). On Defining Artificial Intelligence. Journal of Artificial General Intelligence. Sciendo, 10(2), 1 – 37. 29. Krajna A., Kovac M., Brcic M., Sarcevic A. (2022). Explainable Artificial Intelligence: An Updated Perspective. 45th Jubilee International Convention on Information, Communication and Electronic Technology (MIPRO), 859 – 864. DOI: 10.23919/MIPRO55190.2022.9803681 30. Hayek F. A. (1945). The Use of Knowledge in Society. The American Economic Review, 35(4), 519 – 530. 31. Richard Evans, Jim Gao (2016). Deep-Mind AI Reduces Google Data Centre Cooling Bill by 40% DeepMind. Retrieved from https://deepmind.com/blog/deepmind-ai-reduces-google-data-centre-cooling-bill-4032. Sotnichenko E. A., Nikuyko E. A., Malyutina Ya. D. (2024). Analysis of the use of neural networks in the economy of the Russian Federation and improving their efficiency. Evraziyskoe prostranstvo: ekonomika, pravo, obschestvo, (5), 52 – 57. [in Russian language]
Статью можно приобрести в электронном виде (PDF формат).
Стоимость статьи 700 руб. (в том числе НДС 20%). После оформления заказа, в течение нескольких дней, на указанный вами e-mail придут счет и квитанция для оплаты в банке.
После поступления денег на счет издательства, вам будет выслан электронный вариант статьи.
Для заказа скопируйте doi статьи:
10.14489/vkit.2025.05.pp.024-033
и заполните форму
Отправляя форму вы даете согласие на обработку персональных данных.
.
This article is available in electronic format (PDF).
The cost of a single article is 700 rubles. (including VAT 20%). After you place an order within a few days, you will receive following documents to your specified e-mail: account on payment and receipt to pay in the bank.
After depositing your payment on our bank account we send you file of the article by e-mail.
To order articles please copy the article doi:
10.14489/vkit.2025.05.pp.024-033
and fill out the form
.
|