高々700Mのデータなのに,なぜ

高々,700MBのデータで重複しているものだけを出したかったのに,
なんで,こんなので20G とかなってるの.(もちスワップアウト)
素直に,ばらばらに分割してsort | uniq -D のほうが早かったな....

perl -lane 'map { $h{int($_)}++ } @F; END {while(($k,$v) = each %h) { print $k if $v > 1}}'