<div dir="auto"><div dir="auto">Hi,</div><div dir="auto">I have several large files (~7gb) that I am having trouble processing and was wondering whether I could get some advice. </div><div dir="auto"><br></div><div dir="auto">I managed to convert these files from .cnt to .set , but am unable to decimate them (to reduce file size) as I get the error below. </div><div dir="auto"><br></div>"Calling input name from the indexing overload subasgn is not supported. (Error occurred in function subasgn() at line 47).”<div dir="auto"><br></div><div dir="auto">I don't think it is a ram limitation as the PC has 64gb ram. <br><div dir="auto"><br></div><div dir="auto">This is after changing the eeglab memory options, converting to set file and attempting to decimate. </div><div dir="auto"><br></div><div dir="auto">Are there any workarounds? I was thinking I could try to convert to .mat and then use decimate.m or resample.m or down sample.m and then convert back to .set . However, I noticed that some of matlab's decimation functions actually include filters that might differ to what eeglab uses in pop_resample. </div><div dir="auto"><br></div><div dir="auto">I could probably do this in neuroscan too, but there are too many files to manually do this with each file individually. </div><div dir="auto"><br></div><div dir="auto">Any advice would be much appreciated. Presumably others have had this issue before and found a good work around. </div><div dir="auto"><br></div><div dir="auto">Many thanks!</div><div dir="auto"><br></div><div dir="auto"><br></div></div></div>