<div>Hi, </div><div><br></div><div>When I checked the code of runica.m, I found that there are two choices of block size in the algorithm:</div><div><br></div><div>% heuristic default - may need adjustment<br>%   for large or tiny data sets!<br></div><div>DEFAULT_BLOCK        = floor(sqrt(frames/4));  % heuristic default<br>DEFAULT_BLOCK          = ceil(min(5*log(frames),0.3*frames)); % heuristic</div><div><br></div><div>and by default the second one is used. I have tried using the first one to a the sample dataset inside EEGLAB, and keep the random number generator to a fixed seed, and it seems that the two blocks produce quite different results. The topography of top 10 major ICs changed, not just different order, or sign flip. Given that rejecting ICs can grossly changed the raw data, I wonder are there any *scientific guide* to choose the block size? Or is it a "dark area" where nobody bothers to explore?</div><div><br></div><div>The comments says different block size may suit different data size, but it is not clear whether I should use larger or smaller blocks for a larger dataset, and what kind of dataset can be considered "large".</div><div><br></div><div>Best,</div><div><br></div><div>Yunhui Zhou</div><div><br></div><br><br>