<div dir="ltr">Dear list,<br><br>I'm writing about two things:<br><br>- I'm using SIFT for my study on different subject groups. After trying out numerous parameter sets, 0.35 second window length, 0.01 second step size and 21 model order proved to be the best option. It works really well on the majority of the datasets (all datasets are: 250 Hz sampling rate, 60 epoch, 1250  frames per epoch,  5 second long trials:  1 second 'nothing', 1 second preparation [cross appeared on the screen], 3 seconds of motor imaginary [according to arrow direction, right hand, left hand, legs]), but for one of the datasets it gives really strange validation results.<br>
<br>The figure of validation is the following:<br><a href="http://i.imgur.com/AKbCojc.png">http://i.imgur.com/AKbCojc.png</a><br><br>100% whiteness, but there are some windows which are inconsistent and unstable (for the other datasets the validation gives 100% stability and ~ 85% consistency)<div>
<br></div><div>I tried different parameters, about 10 parameter sets, and it seems, that in case of high model fitting (high whiteness) the model is unstable or inconsistent.</div><div><br></div><div>What's your opinion, can I use this dataset with the fitted model, if the number of the unstable/inconsistent windows are low? Or it is mathematically incorrect, and it will have significant effect on the results of the whole recording? Should I keep on trying to find parameters that give correct validation?</div>
<div><br></div><div>- My second question would be:<br><br>Is it possible, that the validation figure is correct, but the results are false? Probably if the result seems to be nonsense, the problem is with the original EEG file (noise, etc.), just I want to be sure by asking you. </div>
<div><br></div><div>Thanks in advance,<br><br>Balazs Kaman</div></div>