这是一个要好很多吧?特别是因为 unshift(..)方法在这里并不需要担心前面的反向排序。 ES6的spead操作会更漂亮: a.push( …b ) 或 b.unshift( …a
数组最大长度
第一个主要的问题是,内存使用量增长了一倍(当然只是暂时的!)被追加内容基本上是通过函数调用将元素复制到堆栈中。此外,不同的JS引擎都有拷贝数据长度的。
所以,如果数组有一百万个元素,你肯定会超出了push(…)或unshift(…)允许调用堆栈的。唉,处理几千个元素它会做得很好,但你必须要小心,不能超过合理的长度限值。
注意: 你可以尝试一下splice(…),它跟push(…)和unshift(…)一样都有这种问题。
有一种方法可以避免这种最大长度。
function combineInto(a,b) { var len = a.length; for (var i=0; i < len; i=i+5000) { b.unshift.apply( b, a.slice( i, i+5000 ) ); } }
等一下,我们的可读性倒退了。 就这样吧,可能会越改越差,呵。
下载本文