<div dir="ltr">Stability here is a key factor. If the model is unstable, the autocorrelation and multivariate portmanteau tests are not meaningful, as some basic assumptions underlying the test are violated.<div>Any statistical results derived from an unstable model should be rejected.<br>


</div><div><br></div><div>On the other hand, it's possible that because you have a short time window (and high model order), estimates of residual cross-correlation are poorly estimated at larger time lags leading to bias in the whiteness tests.</div>


How many cross-correlation time lags are being used for the whiteness tests here?<div><br></div><div><div>Tim</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Aug 20, 2013 at 4:58 AM, boglyas <span dir="ltr"><<a href="mailto:kamanbalazs@gmail.com" target="_blank">kamanbalazs@gmail.com</a>></span> wrote:<br>


<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Dear list,<br><br>I'm writing about two things:<br><br>- I'm using SIFT for my study on different subject groups. After trying out numerous parameter sets, 0.35 second window length, 0.01 second step size and 21 model order proved to be the best option. It works really well on the majority of the datasets (all datasets are: 250 Hz sampling rate, 60 epoch, 1250  frames per epoch,  5 second long trials:  1 second 'nothing', 1 second preparation [cross appeared on the screen], 3 seconds of motor imaginary [according to arrow direction, right hand, left hand, legs]), but for one of the datasets it gives really strange validation results.<br>



<br>The figure of validation is the following:<br><a href="http://i.imgur.com/AKbCojc.png" target="_blank">http://i.imgur.com/AKbCojc.png</a><br><br>100% whiteness, but there are some windows which are inconsistent and unstable (for the other datasets the validation gives 100% stability and ~ 85% consistency)<div>



<br></div><div>I tried different parameters, about 10 parameter sets, and it seems, that in case of high model fitting (high whiteness) the model is unstable or inconsistent.</div><div><br></div><div>What's your opinion, can I use this dataset with the fitted model, if the number of the unstable/inconsistent windows are low? Or it is mathematically incorrect, and it will have significant effect on the results of the whole recording? Should I keep on trying to find parameters that give correct validation?</div>



<div><br></div><div>- My second question would be:<br><br>Is it possible, that the validation figure is correct, but the results are false? Probably if the result seems to be nonsense, the problem is with the original EEG file (noise, etc.), just I want to be sure by asking you. </div>



<div><br></div><div>Thanks in advance,<br><br>Balazs Kaman</div></div>
<br>_______________________________________________<br>
Eeglablist page: <a href="http://sccn.ucsd.edu/eeglab/eeglabmail.html" target="_blank">http://sccn.ucsd.edu/eeglab/eeglabmail.html</a><br>
To unsubscribe, send an empty email to <a href="mailto:eeglablist-unsubscribe@sccn.ucsd.edu" target="_blank">eeglablist-unsubscribe@sccn.ucsd.edu</a><br>
For digest mode, send an email with the subject "set digest mime" to <a href="mailto:eeglablist-request@sccn.ucsd.edu" target="_blank">eeglablist-request@sccn.ucsd.edu</a><br></blockquote></div><br><br clear="all">

<div><br></div>
-- <br>---------  αντίληψη -----------
</div></div>