Анотація
Запропоновано нову архітектуру штучної нейронної мережі глибинного навчання eResNet для короткострокового прогнозування електричного навантаження електропостачальної компанії. Базовими блоками такої архітектури є шари автокодувального типу з обхідними з'єднаннями. Перший шар блока зменшує розмірність даних для виділення найбільш інформативних сигналів, другий – відновлює розмірність. Кожний шар включає нелінійну функцію SELU (scaled exponential linear unit). Обхідні з'єднання спрощують розповсюдження градієнта похибки, що дає змогу однаково ефективно навчати всі шари нейронної мережі. Проведено дослідження впливу розміру навчальної вибірки на точність прогнозування. Похибка MAPE нейронної мережі eResNet становить 3,69 % (у разі навчання на інформації за 11 років), похибка багатошарового персептрона становить 3,85 % (у разі використання інформації за вісім років). Бібл. 13, рис. 3, таблиця.
Посилання
Pro rynok elektrychnoi enerhii: Zakon Ukrainy vid 13.04.2017 r. № 2019-VIII. URL: http://zakon3.rada.gov.ua/laws/show/2019-19 (data zatverdzhennia 21.07.2017).
Postanova NKREKP Pro zatverdzhennia Pravyl rynku №307. URL: http://zakon2.rada.gov.ua/laws/show/v0307874-18#n9 (data zatverdzhennia 14.03.2018).
Chernenko P.O., Martyniuk O.V. Dekompozytsiia dobovoho hrafika elektrychnoho navantazhennia enerhosystemy ta modeliuvannia yoho skladovykh pid chas korotkostrokovoho prohnozuvannia. Visnyk Vinnytskoho politekhnichnoho instytutu. Vinnytsia, 2017. № 6. Vyp. 135. S. 86–93.
LeCunn Y., Bengio Y., Hinton G. Deep learning. Nature. 2015. Vol. 521. P. 436–444.
Amarasinghe K., Marino D.L., Manic M. Deep Neural Networks for Energy Load Forecasting. Proc. 2017 IEEE 26TH International Symposium on Industrial Electronics (ISIE). 2017. P. 1483–1488.
Kuo P.H., Huang, C.J. A High Precision Artificial Neural Networks Model for Short-Term Energy Load Forecasting. Energies. 2018. Vol. 11. Issue 1. P. 213–226.
He W. Load Forecasting via Deep Neural Networks. Proc. 5TH International Conference On Information Technology And Quantitative Management. 2017. Vol. 122. P. 308–314.
Zhang B., Wu J.L., Chang P.C. A multiple time series-based recurrent neural network for short-term load forecasting. Soft Computing. 2018. Vol. 22. Issue 12. P. 4099–4112.
Mhaskar H.N., Poggio T. Deep vs. shallow networks: An approximation theory perspective. Analysis and Applications. 2016. Vol.14. Issue 6. P. 829–848.
He K.M., Zhang X.Y., Ren S.Q., Sun J. Deep Residual Learning for Image Recognition. Proc. Conference on Computer Vision and Pattern Recognition. 2016. P. 770–778.
Veit A., Wilber M., Velongie S. Residual networks behave like ensembles of relatively shallow networks. Proc. Advances in Neural Information Processing Systems 29. 2016. P. 550–558.
Klambauer G., Unterthiner T., Mayr A., Hochreiter S. Self-Normalizing Neural Networks. Proc. Advances in Neural Information Processing Systems 30. 2017. P. 971–980.
Reddi S.J., Kale S., Kumar S. On the Convergence of Adam and Beyond. ICLR 2018 Conference Submission. URL: https://openreview.net/pdf?id=ryQu7f-RZ
Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Авторське право (c) 2023 П.О. Черненко, В.О. Мірошник