مقایسه روش‌های خودگردان و شبکه عصبی خودگردان در سری-های زمانی غیرخطی

نوع مقاله : مقاله پژوهشی

نویسندگان

1 گروه آمار، دانشگاه اصفهان

2 گروه مهندسی فناوری اطلاعات، دانشگاه اصفهان

چکیده

شبکه‌های عصبی مصنوعی‏، از جمله مد‎ل‎های ریاضی جدیدی هستند که با دقت بالا به مد‏‎ل‎بندی ساختار سر‏ی‌های زمانی غیرخطی می‌پردازند. مزیت این مدل‌ها در مقایسه با مدل‌های سری زمانی این است که نیاز به فرضیات محدود کننده نمی‌باشد. دقت برآوردگرهای حاصل از شبکه عصبی به عنوان یک مدل ناپارامتری از مسائل مهم می‌باشد. برای این منظور با استفاده از روش‌های خودگردان، می‌توان دقت برآوردگرها را در ساختارهای پیچیده و غیرخطی سری‌های زمانی محاسبه کرد. این روش‌ها که در سال‌های اخیر معرفی شده‌اند، در محاسبه اریبی و واریانس برآوردگرها، در مقایسه با سایر روش‌ها از دقت بالاتری برخوردار هستند. در این مقاله ابتدا به معرفی الگوریتم‌های شبکه عصبی خودگردان، خودگردان اتورگرسیو، خودگردان بلوک متحرک و خودگردان مانده‌ها در سری‌های زمانی پرداخته می‌شود. سپس این چهار الگوریتم در یک مطالعه شبیه‌سازی برای مدل‌های اتورگرسیو، اتورگرسیو نمایی، اتورگرسیو آستانه‌ای خودمحرک و اتورگرسیو تغییر وضعیت هموار برای اندازه دقت برآورد واریانس استاندارد شده سه برآوردگر میانگین، اتوکوواریانس مرتبه صفر(واریانس) و اتوکوواریانس مرتبه یک، مورد مقایسه قرار می‌گیرند. در نهایت با استفاده از داده‌های قیمت نفت سنگین ایران به ارائه یک مثال کاربردی پرداخته می‌شود.

کلیدواژه‌ها

موضوعات


عنوان مقاله [English]

Comparison of the bootstrap and bootstrap neural network methods in non linear time series

نویسندگان [English]

  • Masoud Isapareh 1
  • Nasrollah Iranpanah 1
  • Marjan Kaedi 2
1 Department of Statistics, University of Isfahan
2 Department of Information Technology Engineering , University of Isfahan
چکیده [English]

Neural networks are among those mathematical models which are used to model non-linear time series with high accuracy. The advantage with these linear times series as opposed to topical ones is that they don’t require restrictive assumptions. The accuracy of neural network based estimators as nonparametric models is of high importance. In that light, we can use bootstrapping to calculate the accuracy of estimators in the time series’ complex nonlinear structures. Though introduced in recent years these methods yield more accurate results in the bias calculation of estimators compared to the other ones. This paper introduces neural network bootstrap, bootstrap autoregressive, moving block bootstrap method and residual bootstrap methods in time series. Then these four algorithms are compared with each other in a simulation study. Finally an example related to Iran’s kerosene price monthly data is worked out.

کلیدواژه‌ها [English]

  • Artificial neural network
  • Auto regregressive bootstrap
  • Residual bootstrap
  • Moving block bootstrap
  • Nonlinear time series
  • Monte Carlo
[1] Thombs, L.A. and Schucany, W.R. (1990). Bootstrap prediction intervals for autoregression, Journal of American Statistic Associat, 85, 486–492. [2] Alonso, A.M., Pena, D. and Romo, J. (2002). Forecasting time series with sieve bootstrap, Journal of
Statistical Planning and Inference, 100, 1–11. [3] Bühlmann, P. (1997). Sieve bootstrap for time series, Bernoulli, 3, 123– 148. [4] Bühlmann, P. (2002a). Bootstraps for time series, Statistical Science, 17, 52–72. [5] Giordano, F., La Rocca, M. and Perna, C.
(2007). Forecasting nonlinear time series with neural network sieve bootstrap. Computational Statistics and Data Analysis, 51, 3871–3884. [6] Bühlmann, P. (2002b). Sieve bootstrap with variable -length Markov Chains for stationary categorical time series, Journal of the American Statistical Association, 97, 443–471. [7] Giordano, F., La Rocca, M. and Perna, C. (2011). Properties of
the Neural network sieve bootstrap. Jorunal of Nonparametric Statistics, 23, 803-817. [8] Pérez-Rodríguez J.V. and Andrada-Félix J. (2013). Estimating critical values for testing the i.i.d in standardized residuals from GARCH models in finite sampeles. Computational Statistics, 28, 701–734. [9] Siani, C. and de Peretti, C. (2007). Analysing the performance of bootstrap neural tests for conditional heteroskedasticity in ARCH-M models, Computational Statistics and Data Analysis, 51, 2442–2460. [10]
Efron, B. (1979). Another look at the jackknife. Annals of Statistics. 7, 1–26. [11] Akaike, H. (1969). Fitting autoregressive models for prediction. Ann. Inst.Statist. Math. 21, 243–247. [12] Akaike, H. (1973). Information theory and an extension of the
maximum likelihood principle. Proceedings of the Second International Symposium on Information Theory. Akademiai Kiado, Budapest. [13] Efron, B. and Tibshirani, R. (1993). An introduction to the Bootstrap. Chapman and Hall.