视频1 视频21 视频41 视频61 视频文章1 视频文章21 视频文章41 视频文章61 推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37 推荐39 推荐41 推荐43 推荐45 推荐47 推荐49 关键词1 关键词101 关键词201 关键词301 关键词401 关键词501 关键词601 关键词701 关键词801 关键词901 关键词1001 关键词1101 关键词1201 关键词1301 关键词1401 关键词1501 关键词1601 关键词1701 关键词1801 关键词1901 视频扩展1 视频扩展6 视频扩展11 视频扩展16 文章1 文章201 文章401 文章601 文章801 文章1001 资讯1 资讯501 资讯1001 资讯1501 标签1 标签501 标签1001 关键词1 关键词501 关键词1001 关键词1501 专题2001
Python列表的长度调节方法(附代码)
2020-11-27 14:20:35 责编:小采
文档

本篇文章给大家带来的内容是关于Python列表的长度调节方法(附代码),有一定的参考价值,有需要的朋友可以参考一下,希望对你有所帮助。

Python 的列表(list)是一个非常灵活的数组,可以随意调整长度。正是因为这种便利,使得我们会情不自禁地去修改数组以满足我们的需求,其中相比于insert, pop 等等而言, append 用法更常见。

有像这样使用:

>>> test = []
>>> test.append(1)
>>> test.append({2})
>>> test.append([3])
>>> print test

# 
输出 [1, set([2]), [3]]

也有像这样使用的:

test = []

for i in range(4):
 test.append(i)
print test

# 
输出 [0, 1, 2, 3]

这样用很开心,也很满足。

但其实只要遇到能够动态修改数据长度场景,我们都应该马上反应过来一点,那就是内存管理的问题。

如果运行效率和便捷性同时满足的话,那简直就是大大的福音呀。

然而,上帝为你开启一扇窗的同时肯定也已经关上了一扇门了!

吝啬的初始化

深受预分配知识的熏陶,我们也是觉得 list 在初始化是有分配一定的长度的,要不然每次都申请内存那得多 ”low“ 啊。

然后实际上 list 真的就是这么 ”low“:

import sys

test = []
test_1 = [1]
print sys.getsizeof(test)
print sys.getsizeof(test_1) - sys.getsizeof(test)

# 
输出 72 # 空列表内存大小,也是 list 对象的总大小 8 # 代表增加一个成员,list 增加的大小

我们的猜测是,list 在定义之后,会预先分配好一个一定大小的池用来塞数据,以避免动不动就申请内存。

但是在上面的实验看出,一个成员的列表,比一个空列表,长度仅仅只是大了 8 字节,如果真的存在这样一个预分配的池,那么在预分配个数之内添加成员,两者的内存大小应该是保持不变才对。

所以可以猜测这块 list 应该是没有这样的一个预分配内存池。这里需要来个实锤

PyObject *
PyList_New(Py_ssize_t size)
{
 PyListObject *op;
 size_t nbytes;

 if (size < 0) {
 PyErr_BadInternalCall();
 return NULL;
 }
 /* Check for overflow without an actual overflow,
 * which can cause compiler to optimise out */
 if ((size_t)size > PY_SIZE_MAX / sizeof(PyObject *))
 return PyErr_NoMemory();
 
 // list对象指针的缓存
 if (numfree) {
 numfree--;
 op = free_list[numfree];
 _Py_NewReference((PyObject *)op);
 } else {
 op = PyObject_GC_New(PyListObject, &PyList_Type);
 if (op == NULL)
 return NULL;
 }
 
 // list 成员的内存申请
 nbytes = size * sizeof(PyObject *);
 if (size <= 0)
 op->ob_item = NULL;
 else {
 op->ob_item = (PyObject **) PyMem_MALLOC(nbytes);
 if (op->ob_item == NULL) {
 Py_DECREF(op);
 return PyErr_NoMemory();
 }
 memset(op->ob_item, 0, nbytes);
 }
 Py_SIZE(op) = size;
 op->allocated = size;
 _PyObject_GC_TRACK(op);
 return (PyObject *) op;
}

当我们在执行 test = [1] 时,实际上只做了两件事:

根据成员的数目,构建相应长度的空列表;(上述代码)

一个个将这些成员塞进去;

可能有童鞋会觉得,在塞成员的那一步,说不定会触发什么机制使它变大?

很可惜,因为初始化用的方法是 PyList_SET_ITEM, 所以这里是木有的触发什么机制,只是简单的数组成员赋值而已:

#define PyList_SET_ITEM(op, i, v) (((PyListObject *)(op))->ob_item[i] = (v))

所以整个 list 的初始化,还真的就是木有预分配的内存池,直接按需申请,一个萝卜一个坑,实在得狠;

可变长的关键

初始化过程是这样还可以理解,如果运行中还这样的话,那就有点说不过去了。

试想下,在文章开头用 append 的例子中,如果每 append 一个元素就申请一次内存,那么list 可能要被吐槽到怀疑人生了, 所以很明显,在对于内存的申请,它还是有自己的套路的。

在 list 里面,不管是 insert 、pop 还是 append,都会遇到 list_resize,故名思义,这个函数就是用来调整 list 对象的内存占用的。

static int
list_resize(PyListObject *self, Py_ssize_t newsize)
{
 PyObject **items;
 size_t new_allocated;
 Py_ssize_t allocated = self->allocated;

 /* Bypass realloc() when a previous overallocation is large enough
 to accommodate the newsize. If the newsize falls lower than half
 the allocated size, then proceed with the realloc() to shrink the list.
 */
 if (allocated >= newsize && newsize >= (allocated >> 1)) {
 assert(self->ob_item != NULL || newsize == 0);
 Py_SIZE(self) = newsize;
 return 0;
 }

 /* This over-allocates proportional to the list size, making room
 * for additional growth. The over-allocation is mild, but is
 * enough to give linear-time amortized behavior over a long
 * sequence of appends() in the presence of a poorly-performing
 * system realloc().
 * The growth pattern is: 0, 4, 8, 16, 25, 35, 46, 58, 72, 88, ...
 */
 # 确定新扩展之后的占坑数
 new_allocated = (newsize >> 3) + (newsize < 9 ? 3 : 6);

 /* check for integer overflow */
 if (new_allocated > PY_SIZE_MAX - newsize) {
 PyErr_NoMemory();
 return -1;
 } else {
 new_allocated += newsize;
 }

 if (newsize == 0)
 new_allocated = 0;

 # 申请内存
 items = self->ob_item;
 if (new_allocated <= (PY_SIZE_MAX / sizeof(PyObject *)))
 PyMem_RESIZE(items, PyObject *, new_allocated);
 else
 items = NULL;
 if (items == NULL) {
 PyErr_NoMemory();
 return -1;
 }
 self->ob_item = items;
 Py_SIZE(self) = newsize;
 self->allocated = new_allocated;
 return 0;
}

在上面的代码中,频繁看到两个名词:newsize 和 new_allocated, 这里需要解释下,newsize 并不是 增加/减少 的个数,而是 增加/减少 之后的成员总数目。比方说:

a = [1, 2, 3]
a.append(1)

上面的 append 触发list_resize 时, newsize 是 3 + 1, 而不是 1;这边比较重要,因为在 pop 这类减少列表成员时候,就是传入缩减后的总数目。

在 list 的结构定义中,关于长度的定义有两个,分别是 ob_size(实际的成员数),allocated(总成员数)

它们之间的关系就是:

 0 <= ob_size <= allocated
 len(list) == ob_size

所以 new_allocated 就很好理解了,这个就是新的总坑数。

当名词含义理解得差不多时,我们就能顺藤摸瓜知道一个列表在list_resize 之后,大小会变成怎样?

方法其实从上面注释和代码都说得很明白了,这里再简单整理下:

先确定一个基数:new_allocated = (newsize >> 3) + (newsize < 9 ? 3 : 6);

判断下 new_allocated + newsize 有没有超过 PY_SIZE_MAX, 如果超过了,直接报错;

最终确定新的总坑数是:new_allocated + newsize, 如果 newsize 是 0, 那么总坑数直接为 0 ;

下面演示下:

#coding: utf8
import sys

test = []
raw_size = sys.getsizeof(test)

test.append(1)
print "1 次 append 减去空列表的内存大小:%s " % (sys.getsizeof(test) - raw_size)

test.append(1)
print "2 次 append 减去空列表的内存大小:%s " % (sys.getsizeof(test) - raw_size)

test.append(1)
print "3 次 append 减去空列表的内存大小:%s " % (sys.getsizeof(test) - raw_size)

test.append(1)
print "4 次 append 减去空列表的内存大小:%s " % (sys.getsizeof(test) - raw_size)

test.append(1)
print "5 次 append 减去空列表的内存大小:%s " % (sys.getsizeof(test) - raw_size)

test.append(1)
print "6 次 append 减去空列表的内存大小:%s " % (sys.getsizeof(test) - raw_size)
# 
输出结果 1 次 append 减去空列表的内存大小:32 2 次 append 减去空列表的内存大小:32 3 次 append 减去空列表的内存大小:32 4 次 append 减去空列表的内存大小:32 5 次 append 减去空列表的内存大小: 6 次 append 减去空列表的内存大小:

开始简单的代入法一步步算:

其中:

new_allocated = (newsize >> 3) + (newsize < 9 ? 3 : 6) + newsize (因为下面的 newsize > 0)

当原allocated >= newsize 并且 newsize >= 原allocated / 2 时,不改变 allocated 不申请内存直接返回

第 n 次 append列表原长度新增成员数原 allocatednewsizenew_allocated
10100 + 1 = 13 + 1 = 4
21141 + 1 = 2无需改变
32142 + 1 = 3无需改变
43143 + 1 = 4无需改变
54144 + 1 = 53 + 5 = 8
65185 + 1 = 6无需改变

通过上面的表格,应该比较清楚看到什么时候会触发改变 allocated,并且当触发时它们是如何计算的。为什么我们需要这样关注 allocated?理由很简单,因为这个值决定了整个 list 的动态内存的占用大小;

扩容是这样,缩容也是照猫画虎。反正都是算出新的 allocated, 然后由 PyMem_RESIZE 来处理。

总结

综上所述,在一些明确列表成员或者简单处理再塞入列表的情况下,我们不应该再用下面的方式:

test = []

for i in range(4):
 test.append(i)
print test

而是应该用更加 pythonic 和 更加高效的列表推导式:test = [i for i in range(4)]。

下载本文
显示全文
专题