Klein testje gedaan: als ik de file in stukken van 100MB (m.b.v. comprimeren => RAR) opdeel dan gaat het kopieren van die stukken, een voor een, razend snel. Het lijkt erop dat, bij kopieren van een enkel groot bestand, het bestand eerst gebufferd wordt in de RAM. De USB stick is tenslotte relatief langzaam. Op dat moment heeft het systeem blijkbaar voor zichzelf te weinig RAM over en blijft hangen. Daarna gaat ook de filetransfer langzaam.
Nu ik dus de file opgeknipt heb in hapklare brokken van 100MB gaat alles prima. Er is immers RAM genoeg over. De laptop heeft 2GB RAM en een Intel Core2 T7400 @ 2.16GHz. Het schijnt allemaal te maken te hebben met de Tranparant Hugh Page feature in de Linux kernel. Zie link hierboven. Ik begrijp het verhaal niet helemaal (ben wel een techneut maar geen programmeur) maar dit is wat ik ervan maak. De theorie klopt in zoverre dat relatief kleine files inderdaad geen probleem geven.