<div dir="ltr">Dear Chrissy,<div><br></div><div>If I were you I would z-score the data too.</div><div><br></div><div>z-scoring by definition subtract means so you don't need to do it manually. Matlab command zscore does (X-mean(X))./std(X) so what you need to do is</div>

<div>EEG.data = single(zscore(double(EEG.data), 0, 2));</div><div>is the data are continuous (see also 'help zscore').</div><div>After zscoring the data you may want to make the variance matched by rescaling to the other dataset.</div>

<div><br></div><div>Before zscoring, you may also want to clean the data (i.e. discarding huge artifacts) so that std estimation works better.</div><div><br></div><div>Makoto</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">

2013/7/1 Chrissy Lackner <span dir="ltr"><<a href="mailto:cl02zz@brocku.ca" target="_blank">cl02zz@brocku.ca</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

EEGlab list,<br>
I have inherited a set of longitudinal EEG data from a colleague, and<br>
it seems as though there was an error made while recording the data<br>
during one of the two time points for one participant. The dB and uV<br>
are WAY off for time one. They are not even comparable to the uV for<br>
time two, or comparable to any other subject at time 1. It does look<br>
like there is meaningful data underlying all of this, and I am hoping<br>
someone can help me figure out a way to extract all of this data so I<br>
don't have to loose this participant.<br>
<br>
I've uploaded here  (<a href="http://db.tt/fqCZK0xM" target="_blank">http://db.tt/fqCZK0xM</a> OR here<br>
<a href="http://db.tt/sXxiYREU" target="_blank">http://db.tt/sXxiYREU</a>)  a screenshot of their time one data (note the<br>
scale on the bottom right and the odd TF decomposition) as well as<br>
their time two data (normal).<br>
<br>
I have tried re-referencing to average, refiltering, removing the<br>
'real' channel mean as discussed in a previous list message:<br>
<br>
> % remove *real* channel mean<br>
>      for numChans = 1:size(EEG.data,1);<br>
>      EEG.data(numChans, :) = single(double(EEG.data(numChans, :)) -<br>
> mean(double(EEG.data(numChans, :))));<br>
>     end<br>
<br>
And finally I've tried normalizing (zscoring the data). This last<br>
approach seems promising, although it means that I'd have to<br>
re-process all other participants in this manner. Perhaps there is a<br>
way to scale down the uV in a way that I haven't come across?<br>
<br>
  Any ideas?<br>
  Thanks for your help.<br>
  Chrissy<br>
<br>
<br>
<br>
  Chrissy Lackner, MSc<br>
  PhD Candidate, Behavioural Neuroscience<br>
  Brock University | Psychology Department<br>
  Niagara Region   |  500 Glenridge Ave.  |  St. Catharines, ON  L2S 3A1<br>
  <a href="http://brocku.ca" target="_blank">brocku.ca</a> | T  <a href="tel:905%20688%205550%20%20x5511" value="+19056885550">905 688 5550  x5511</a><br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
Eeglablist page: <a href="http://sccn.ucsd.edu/eeglab/eeglabmail.html" target="_blank">http://sccn.ucsd.edu/eeglab/eeglabmail.html</a><br>
To unsubscribe, send an empty email to <a href="mailto:eeglablist-unsubscribe@sccn.ucsd.edu">eeglablist-unsubscribe@sccn.ucsd.edu</a><br>
For digest mode, send an email with the subject "set digest mime" to <a href="mailto:eeglablist-request@sccn.ucsd.edu">eeglablist-request@sccn.ucsd.edu</a><br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br><div dir="ltr">Makoto Miyakoshi<br>Swartz Center for Computational Neuroscience<br>Institute for Neural Computation, University of California San Diego<br></div>


</div>