是什么:揭秘Python迭代器的核心概念与机制

在Python中,迭代器(Iterator)是一个极其核心的概念,它允许我们以一种高效、内存友好的方式遍历序列中的元素。理解迭代器,首先要区分它与可迭代对象(Iterable)这两个紧密相关但又有所区别的概念。

可迭代对象(Iterable)与迭代器(Iterator):理解基本区别

  • 可迭代对象 (Iterable)
    一个可迭代对象是指任何可以被for ... in ...语句遍历的对象。它通常实现了__iter__()方法,这个方法返回一个迭代器对象。常见的可迭代对象包括列表(list)、元组(tuple)、字符串(str)、字典(dict)和集合(set)等。它们可以被多次迭代,因为每次调用__iter__()都会生成一个新的迭代器实例。

    my_list = [1, 2, 3] # my_list 是一个可迭代对象
    iter1 = iter(my_list) # 第一次获取迭代器
    iter2 = iter(my_list) # 第二次获取迭代器,得到的是一个新的独立迭代器
                

  • 迭代器 (Iterator)
    一个迭代器是“状态”的记录者,它记住在遍历过程中的当前位置。它必须实现两个方法来遵循“迭代器协议”:

    • __iter__():该方法返回迭代器自身。这是为了让迭代器自身也可以被for循环直接使用,因为for循环首先会尝试获取其可迭代对象的迭代器。
    • __next__():该方法返回序列中的下一个元素。如果没有更多元素,它必须抛出StopIteration异常,通知遍历结束。

    迭代器是“一次性”的。一旦它被遍历完毕,通常不能被重置或重新使用,若想再次遍历,需要从原始的可迭代对象那里获取一个新的迭代器。

    my_iterator = iter([1, 2, 3]) # my_iterator 是一个迭代器
    print(next(my_iterator)) # 输出 1
    print(next(my_iterator)) # 输出 2
    print(next(my_iterator)) # 输出 3
    # print(next(my_iterator)) # 尝试获取下一个元素,但已无元素,将抛出 StopIteration 异常
                

迭代器协议:__iter____next__方法

迭代器协议是Python中实现迭代的核心机制。任何遵守这个协议的对象,都可以被视为一个迭代器或可迭代对象。

当您使用for element in iterable:这样的循环时,Python内部的执行流程大致如下:

  1. 调用iterable.__iter__()来获取一个迭代器对象。
  2. 重复调用迭代器对象的__next__()方法。
  3. __next__()返回的值赋给element
  4. __next__()抛出StopIteration异常时,循环终止。

理解这个协议对于创建自定义的数据遍历逻辑至关重要。

为什么:Python迭代器带来的设计优势与实际价值

迭代器不仅仅是一种遍历数据的方式,更是Python在处理数据时实现高效、优雅和灵活性的关键。

内存效率:处理海量数据的利器

这是迭代器最显著的优点之一。当处理非常大的数据集(例如,一个GB级别的日志文件、数据库查询结果集或通过网络传输的数据流)时,如果一次性将所有数据加载到内存中,很可能导致内存溢出。

迭代器的工作原理: 迭代器在任何给定时间点只在内存中保留一个元素(或少量元素)的状态,它按需生成下一个元素。这意味着无论数据集合有多大,内存消耗都保持相对恒定且很小。

例如,读取一个巨大的文件:使用迭代器(如文件对象本身就是迭代器),您可以逐行处理文件,而无需将整个文件内容读入内存。

# 传统方式 (不推荐处理大文件)
# with open('large_data.txt', 'r') as f:
#     all_lines = f.readlines() # 巨大的文件可能导致内存溢出
#     for line in all_lines:
#         process(line)

# 迭代器方式 (高效处理大文件)
import os
# 创建一个模拟的大文件
with open('large_data.txt', 'w') as f:
    for i in range(100000):
        f.write(f"This is line {i} of the large data file.\n")

with open('large_data.txt', 'r') as f: # f 是一个文件对象,同时也是一个迭代器
    for line in f: # 逐行读取,每次只加载一行到内存
        if "line 50000" in line:
            print(f"Found specific line: {line.strip()}")
            break # 找到就停止,无需读取整个文件
# 清理模拟文件
os.remove('large_data.txt')
    

延迟计算(Lazy Evaluation):按需生成与避免不必要开销

迭代器实现了延迟计算的原则,也称为“惰性求值”或“按需生成”。这意味着元素不会预先计算好并存储起来,而是在每次调用next()时才被计算出来。这种特性有以下好处:

  • 减少启动时间: 如果您只需要访问数据集合的前几个元素,使用迭代器可以避免计算和存储整个集合,从而节省了计算资源和时间。
  • 避免不必要的计算: 如果在遍历过程中,某些条件满足后您提前跳出了循环(例如,找到了第一个符合条件的元素),那么后续未被访问的元素将永远不会被计算,进一步节省了资源。

生成器(Generator)是实现延迟计算的典型方式,它本质上就是一种特殊的迭代器。

统一接口:简化代码与增强可读性

Python的迭代器协议为所有可遍历的数据结构提供了一个统一的接口。这意味着无论是列表、文件、数据库查询结果还是自定义的复杂数据流,都可以使用相同的for ... in ...循环语法来处理。这种统一性大大简化了代码,提高了其可读性和可维护性。

def process_data(data_source):
    # data_source 可以是列表、元组、文件对象、生成器等任何可迭代对象
    for item in data_source:
        print(f"正在处理: {item}")

print("--- 处理列表 ---")
process_data([1, 2, 3])

print("\n--- 处理文件 ---")
# 创建一个小型模拟文件
with open('small_data.txt', 'w') as f:
    f.write("Line A\nLine B\nLine C\n")
process_data(open('small_data.txt', 'r')) # 文件对象本身就是迭代器
os.remove('small_data.txt') # 清理模拟文件

print("\n--- 处理生成器表达式 ---")
process_data((x*x for x in range(3))) # 一个生成器表达式
    

无需针对不同类型的数据源编写不同的遍历逻辑,这使得代码更加通用和健壮。

无限序列:优雅处理无界数据流

由于迭代器是按需生成元素的,它们非常适合表示无限序列或理论上可以无限的数据流。例如,一个生成斐波那契数列的迭代器,或者一个持续监听网络端口的迭代器,它们可以无限地提供数据,而无需预先计算所有可能的值。

标准库的itertools模块提供了许多用于创建和操作无限迭代器的工具,例如itertools.count()itertools.cycle()itertools.repeat()

import itertools

# 一个无限迭代器,从10开始,每次加1
print("--- 无限计数迭代器 ---")
for i in itertools.count(10):
    if i > 15:
        break
    print(i) # 输出 10, 11, 12, 13, 14, 15

print("\n--- 循环迭代器 ---")
for item in itertools.cycle(['A', 'B', 'C']):
    if item == 'C': # 循环到 'C' 两次后停止
        print(item)
        break
    print(item) # 输出 A, B, C, A, B, C (然后break)
    

哪里:Python迭代器在何处大显身手?

迭代器无处不在,是Python语言的基石之一。它们渗透在标准库、各种数据结构以及许多第三方库中。

内置函数与数据结构中的迭代器

  • 列表、元组、字符串、字典、集合: 它们都是可迭代对象。当您对它们进行for循环时,Python会在内部为它们创建一个迭代器。
    • my_dict.keys(), my_dict.values(), my_dict.items() 这些方法返回的都是字典视图对象,它们是可迭代的,并且可以高效地生成迭代器。
  • range()函数: range()返回一个可迭代的“range对象”,它在内存中并不存储所有的数字,而是在需要时才生成。
  • map(), filter(), zip(), reversed(), enumerate() 这些内置函数都返回迭代器。它们的计算是延迟进行的,只在遍历时才生成结果。

    squares_iterator = map(lambda x: x*x, [1, 2, 3]) # map 返回一个迭代器
    print("--- map 迭代器 ---")
    for s in squares_iterator:
        print(s) # 输出 1, 4, 9
    
    filtered_iterator = filter(lambda x: x % 2 == 0, range(5)) # filter 返回一个迭代器
    print("\n--- filter 迭代器 ---")
    for f in filtered_iterator:
        print(f) # 输出 0, 2, 4
                

文件操作:高效读取大型文件

文件对象本身就是迭代器,可以逐行读取。这是处理大文件的标准和推荐方式。

# 创建一个模拟的日志文件
with open('huge_log.txt', 'w') as f:
    f.write("INFO: Application started.\n")
    f.write("DEBUG: Some debug message.\n")
    f.write("ERROR: Critical error occurred!\n")
    f.write("INFO: Application shutting down.\n")

print("--- 逐行读取大文件 ---")
with open('huge_log.txt', 'r') as log_file:
    for line in log_file: # 每次只读取一行到内存
        if "ERROR" in line:
            print(f"在日志中发现错误: {line.strip()}")
            break # 找到第一个错误就停止,无需读取整个文件
os.remove('huge_log.txt') # 清理模拟文件
    

生成器(Generators):创建自定义迭代器的便捷途径

生成器是Python中创建迭代器最简单、最常用的方式。它们可以是生成器函数(包含yield语句的函数)或生成器表达式(类似于列表推导式,但使用圆括号)。

  • 生成器函数:

    def fibonacci_sequence(limit):
        a, b = 0, 1
        while a < limit:
            yield a # 每次 yield 都会暂停函数执行,并返回一个值
            a, b = b, a + b
    
    print("--- 斐波那契数列生成器 ---")
    fib_gen = fibonacci_sequence(10) # fib_gen 是一个迭代器
    for num in fib_gen:
        print(num) # 输出 0, 1, 1, 2, 3, 5, 8
                

  • 生成器表达式:

    squared_numbers_gen = (x*x for x in range(5)) # 创建一个迭代器,不会立即计算所有平方数
    print("--- 平方数生成器表达式 ---")
    print(next(squared_numbers_gen)) # 输出 0
    print(next(squared_numbers_gen)) # 输出 1
    print(next(squared_numbers_gen)) # 输出 4
                

    相比于[x*x for x in range(1000000)](列表推导式,会立即在内存中创建所有元素),生成器表达式显著节省内存。

第三方库:处理数据流的基石

许多流行的Python库都广泛使用迭代器和生成器来处理数据流,尤其是那些需要高效处理大型数据集的库:

  • pandas 在读取大型CSV文件时,pd.read_csv('file.csv', chunksize=N)会返回一个迭代器,每次生成一个N行的DataFrame块,而不是一次性加载整个文件。
  • requests 当下载大文件时,requests.Response.iter_content()iter_lines()方法允许您以块或行的方式迭代响应内容,避免一次性加载到内存。
  • 数据库连接器: 许多数据库游标(cursors)在执行查询后,返回的结果集都是可迭代的,允许您逐行获取数据,而非一次性加载所有结果。
  • 数据科学与机器学习: 在处理大规模训练数据时,通常会构建自定义的数据加载器,这些加载器内部常使用迭代器来提供批次数据。

如何:获取、使用与定制Python迭代器

掌握迭代器的使用和创建是提升Python编程能力的关键。

从可迭代对象获取迭代器:iter()函数

这是获取一个可迭代对象对应迭代器的标准方式。

my_list = ['apple', 'banana', 'cherry']
list_iterator = iter(my_list) # 获取一个列表迭代器
print(f"列表迭代器: {next(list_iterator)}")

my_tuple = (10, 20, 30)
tuple_iterator = iter(my_tuple) # 获取一个元组迭代器
print(f"元组迭代器: {next(tuple_iterator)}")

my_string = "hello"
string_iterator = iter(my_string) # 获取一个字符串迭代器
print(f"字符串迭代器: {next(string_iterator)}")
    

手动推进迭代:next()函数

next()函数用于从迭代器中获取下一个元素。当没有更多元素时,它会抛出StopIteration异常。

my_iterator = iter([10, 20, 30])
print(next(my_iterator)) # 输出 10
print(next(my_iterator)) # 输出 20
print(next(my_iterator)) # 输出 30
try:
    print(next(my_iterator))
except StopIteration:
    print("尝试获取下一个元素,但已无元素,捕获到 StopIteration 异常。")
    

next()函数还可以接受一个可选的默认值参数,当迭代器耗尽时,返回该默认值而不是抛出异常。

my_iterator_with_default = iter([1, 2])
print(next(my_iterator_with_default, "没有更多项了")) # 输出 1
print(next(my_iterator_with_default, "没有更多项了")) # 输出 2
print(next(my_iterator_with_default, "没有更多项了")) # 输出 "没有更多项了"
    

使用for循环:Pythonic的迭代方式

在绝大多数情况下,您会使用for循环来迭代。Python的for循环在底层会自动处理iter()next()的调用以及StopIteration异常的捕获。

data = ['A', 'B', 'C']
print("--- 使用 for 循环遍历 ---")
for item in data: # Python 内部会获取迭代器并调用 next()
    print(item)
# 输出:
# A
# B
# C
    

构建自定义迭代器类:实现迭代器协议

当您需要对复杂的数据结构进行自定义遍历,或者创建一个非标准的序列时,可以编写一个实现__iter__()__next__()方法的类来创建自己的迭代器。

class MyRange:
    def __init__(self, start, end):
        self.current = start
        self.end = end

    def __iter__(self):
        # 对于迭代器,__iter__ 应该返回 self
        return self

    def __next__(self):
        if self.current < self.end:
            num = self.current
            self.current += 1
            return num
        else:
            raise StopIteration # 没有更多元素时抛出 StopIteration

print("--- 使用自定义迭代器类 (一次性迭代器) ---")
my_range_iter = MyRange(1, 5) # 这是一个迭代器实例
for num in my_range_iter:
    print(num) # 输出 1, 2, 3, 4

print("--- 再次尝试遍历已耗尽的迭代器 ---")
# 注意:my_range_iter 已经耗尽,不能再次遍历
for num in my_range_iter: # 这将不会打印任何东西
    print(f"再次遍历:{num}")
    

如果希望一个自定义类成为可迭代对象(即可以多次遍历),那么它的__iter__方法应该返回一个新的迭代器实例,而不是self

class MyIterable:
    def __init__(self, data):
        self.data = data

    def __iter__(self):
        # 每次调用 __iter__ 都返回一个新的 MyIterator 实例
        # 这样 MyIterable 对象就可以被多次遍历
        return MyIterator(self.data)

class MyIterator: # 这是一个辅助的迭代器类
    def __init__(self, data):
        self.data = data
        self.index = 0

    def __iter__(self):
        return self

    def __next__(self):
        if self.index < len(self.data):
            value = self.data[self.index]
            self.index += 1
            return value
        else:
            raise StopIteration

print("--- 使用可多次遍历的自定义可迭代对象 ---")
my_obj = MyIterable([10, 20, 30])

print("第一次遍历:")
for x in my_obj:
    print(x)

print("第二次遍历:")
for y in my_obj: # 再次调用 my_obj.__iter__() 获取新的迭代器
    print(y)
    

使用生成器函数:更简洁的自定义迭代器实现

对于大多数自定义迭代需求,生成器函数是更简洁、更Pythonic的选择。它们自动处理__iter__()__next__()方法的实现以及StopIteration异常的抛出。

def generate_even_numbers(limit):
    num = 0
    while num < limit:
        yield num
        num += 2

print("--- 使用生成器函数创建的迭代器 ---")
even_gen = generate_even_numbers(10)
for e in even_gen:
    print(e) # 输出 0, 2, 4, 6, 8

print("--- 再次调用生成器函数获取新的迭代器 ---")
# 注意:even_gen 同样是“一次性”的
# 如果想再次遍历,需要重新调用 generate_even_numbers(10) 来获取一个新的迭代器
new_even_gen = generate_even_numbers(6)
for e in new_even_gen:
    print(e) # 输出 0, 2, 4
    

多少:关于迭代器的使用限制与考量

虽然迭代器带来了巨大的优势,但了解其特性和一些“限制”也同样重要。

单次遍历:迭代器的“一次性”特性

一个核心概念是:大多数迭代器是“一次性”的。一旦一个迭代器被完全遍历(即所有元素都被next()获取过,直到抛出StopIteration),它就耗尽了,不能再用于后续的遍历。如果您需要再次遍历同样的数据,通常需要从原始的可迭代对象那里获取一个新的迭代器。

data = [1, 2, 3]
data_iter = iter(data)

print(next(data_iter)) # 1
print(next(data_iter)) # 2
print(next(data_iter)) # 3

try:
    print(next(data_iter))
except StopIteration:
    print("迭代器已耗尽,因为所有元素已被取出。")

print("--- 再次尝试遍历已耗尽的迭代器 ---")
for item in data_iter:
    print(f"再次遍历: {item}") # 此时 data_iter 已经指向末尾,无法再提供元素,无输出
    

这意味着您不能像列表那样,在不重新创建的情况下多次遍历同一个迭代器对象。如果您确实需要多次遍历同一个数据流,并且它是由迭代器生成的,您可能需要:

  1. 将迭代器结果转换为列表或元组(如果数据量不大,可以完全加载到内存)。
  2. 使用itertools.tee()函数复制迭代器,但请注意,tee()会缓存元素,如果原始迭代器很大,复制的迭代器也会占用大量内存。
  3. 重新创建迭代器(如果可能的话,例如重新调用生成器函数)。

处理大型数据集的策略

迭代器是处理大型数据集的最佳选择。它们避免了内存膨胀,使您能够处理那些无法一次性放入内存的数据。但这也意味着您不能直接获取迭代器的“长度”或通过索引访问元素。

  • 无法直接获取长度: 迭代器通常没有len()方法,因为它们可能代表无限序列,或者在生成元素之前无法确定总数。如果您需要计数,必须遍历迭代器。
  • 无法通过索引访问: 迭代器是序列化的,只能按顺序访问下一个元素,不支持随机访问(例如my_iterator[5])。

如果您需要这些功能,通常需要将迭代器消耗并转换为支持这些操作的数据结构(如列表),但这会牺牲内存效率。

性能考量:迭代器与列表的适用场景

虽然迭代器在内存效率方面表现卓越,但在某些情况下,使用列表或其他完整的数据结构可能会更简单或性能更好:

  • 小规模数据: 对于少量数据,将所有数据加载到内存中并使用列表通常更简单,并且由于缓存局部性等原因,随机访问速度可能更快。
  • 需要多次遍历和随机访问: 如果您需要对数据进行多次遍历,或者需要通过索引随机访问特定元素,那么将迭代器转换为列表通常是更实际的选择(假设内存允许)。
  • 计算密集型操作: 如果生成每个元素本身就是计算密集型的,并且您确定会使用所有元素,那么预先计算并存储到列表中可能不会带来明显的性能劣势,有时甚至会因为避免重复计算而更快。

怎么办:常见问题与迭代器进阶技巧

在日常开发中,理解一些关于迭代器的常见模式和进阶用法可以大大提升代码的效率和优雅性。

如何重置迭代器?

如前所述,迭代器通常是“一次性”的。要“重置”迭代器,实际上是需要获取一个新的迭代器实例。方法取决于迭代器是如何创建的:

  • 对于可迭代对象: 再次调用iter()函数或直接在for循环中使用原始可迭代对象。

    my_list = [1, 2, 3]
    iter1 = iter(my_list)
    print(next(iter1)) # 1
    # ... 消费 iter1 ...
    iter2 = iter(my_list) # 获取一个新的迭代器
    print(next(iter2)) # 1 (重新开始)
                

  • 对于生成器函数: 再次调用生成器函数。

    def my_generator():
        yield "Hello"
        yield "World"
    gen1 = my_generator()
    print(next(gen1)) # Hello
    # ... 消费 gen1 ...
    gen2 = my_generator() # 再次调用函数,获取一个新的生成器(迭代器)
    print(next(gen2)) # Hello (重新开始)
                

  • 对于自定义迭代器类: 如果您的自定义类只是迭代器(实现了__iter__返回self),那么您需要创建一个新的实例。

    # (假设 MyRange 类如上文定义)
    my_iter_instance = MyRange(1, 3) # 第一次使用
    print(list(my_iter_instance)) # [1, 2]
    # ... 消费 my_iter_instance ...
    new_my_iter_instance = MyRange(1, 3) # 再次创建新实例
    print(list(new_my_iter_instance)) # [1, 2] (重新开始)
                

    如果您的自定义类是可迭代对象(__iter__返回一个新的迭代器),那么直接再次使用该可迭代对象即可。

如何高效地组合多个迭代器?

Python的itertools模块提供了强大的工具来操作和组合迭代器,而无需将中间结果完全加载到内存。这对于构建数据处理管道非常有用。

  • itertools.chain(*iterables) 将多个迭代器或可迭代对象连接起来,形成一个更大的迭代器。

    import itertools
    print("--- itertools.chain 示例 ---")
    iter_a = iter([1, 2])
    iter_b = iter(['a', 'b'])
    combined_iter = itertools.chain(iter_a, iter_b)
    for item in combined_iter:
        print(item) # 输出 1, 2, a, b
                

  • itertools.zip_longest(*iterables, fillvalue=None) 类似于zip(),但会继续迭代直到最长的迭代器耗尽,并用fillvalue填充短的迭代器。

    import itertools
    print("\n--- itertools.zip_longest 示例 ---")
    nums = [1, 2, 3]
    letters = ['a', 'b']
    for item in itertools.zip_longest(nums, letters, fillvalue='-'):
        print(item) # (1, 'a'), (2, 'b'), (3, '-')
                

  • itertools.tee(iterable, n=2) 复制一个迭代器n次。返回n个独立的迭代器。请注意,它会在内部缓存元素。

    import itertools
    print("\n--- itertools.tee 示例 ---")
    def data_source_gen():
        yield "Start"
        yield "Middle"
        yield "End"
    
    original_iter = data_source_gen()
    iter1, iter2 = itertools.tee(original_iter, 2) # 从一个迭代器创建两个独立的迭代器
    
    print(f"第一个迭代器: {list(iter1)}") # 输出 ['Start', 'Middle', 'End']
    print(f"第二个迭代器: {list(iter2)}") # 输出 ['Start', 'Middle', 'End']
                

迭代器链与管道化数据处理

迭代器的真正力量在于构建“管道”(pipelines),其中一个迭代器的输出作为另一个迭代器的输入。这种模式在处理数据转换、过滤和聚合时非常高效。

# 场景:从文件中读取数字,过滤出偶数,然后计算它们的平方,最后求和
import os
import itertools

# 模拟一个大文件
file_path = 'numbers_data.txt'
with open(file_path, 'w') as f:
    for i in range(1000000):
        f.write(str(i) + '\n')

def read_numbers(filename):
    with open(filename, 'r') as f:
        for line in f:
            yield int(line.strip()) # 这是一个生成器,逐行读取并转换为整数

print("--- 迭代器链与管道化处理示例 ---")
# 1. 读取数字 (迭代器)
numbers_iter = read_numbers(file_path)

# 2. 过滤偶数 (生成器表达式,接收 numbers_iter 作为输入)
even_numbers_iter = (num for num in numbers_iter if num % 2 == 0)

# 3. 计算平方 (生成器表达式,接收 even_numbers_iter 作为输入)
squared_evens_iter = (num * num for num in even_numbers_iter)

# 4. 求和 (消耗迭代器)
total_sum = sum(squared_evens_iter)

print(f"偶数平方和: {total_sum}")
# 这个过程中,没有将百万个数字的列表、偶数列表或平方数列表全部加载到内存中。
# 所有计算都是延迟且按需进行的,大大节省了内存。
os.remove(file_path) # 清理模拟文件
    

这种管道式处理是Python中高效、可扩展数据处理的核心范式。

调试迭代器中的问题

由于迭代器的延迟计算和“一次性”特性,调试它们可能有点挑战。以下是一些建议:

  • 分步调试: 使用next()函数手动一步步推进迭代,观察每个阶段的值。

    def debug_gen():
        yield "Step 1"
        yield "Step 2"
        yield "Step 3"
    
    d_gen = debug_gen()
    print(next(d_gen)) # Step 1
    print(next(d_gen)) # Step 2
    # 此时可以检查其他变量状态
                

  • 转换为列表(临时): 如果迭代器数据量不大,或者只用于小范围测试,可以将其转换为列表list(my_iterator)进行检查。但请记住,这将消耗迭代器。

    temp_list = list(some_generator(5)) # 将前5个元素收集到列表
    print(temp_list)
                

  • 使用itertools.tee()进行检查: 如果迭代器很大且您想在不完全消耗它的情况下进行检查,可以使用tee()创建一个副本,用副本进行调试,而主迭代器保持不变。

    import itertools
    def large_data_generator():
        for i in range(5):
            yield f"item_{i}"
    
    original_iter = large_data_generator()
    debug_iter, processing_iter = itertools.tee(original_iter)
    
    # 使用 debug_iter 进行检查
    print("调试项 (消耗 debug_iter):", list(debug_iter))
    
    # original_iter 和 processing_iter 仍然可用
    # ... 继续使用 processing_iter 进行业务逻辑 ...
    print("继续处理 (使用 processing_iter):", list(processing_iter))
                

  • 日志记录: 在生成器函数内部或自定义迭代器的方法中添加print或日志语句,以观察元素何时被生成。

    def logged_generator():
        print("生成器开始运行...")
        yield "First"
        print("生成了 First,等待下一个请求...")
        yield "Second"
        print("生成了 Second,即将结束...")
    
    l_gen = logged_generator()
    next(l_gen)
    next(l_gen)
                

通过深入理解Python迭代器的“是什么”、“为什么”和“如何”,以及掌握它们在“哪里”被大量使用,您可以编写出更健壮、内存效率更高且更具Pythonic风格的代码。

python迭代器