找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

2499

积分

0

好友

359

主题
发表于 14 小时前 | 查看: 3| 回复: 0

有没有遇到过这种情况:写了一段 Python 代码,比如同时请求多个接口、批量处理文件,结果程序卡在那里“慢悠悠”地执行,CPU利用率却低得可怜?

这其实是同步编程的“通病”——程序会按顺序等待上一个任务完成,再执行下一个。而今天要讲的 Python 原生 asyncio,就是解决“等待浪费时间”的神器,它让你的代码学会“多任务并行干活”!

这篇文章将带你从零开始,通过生活化的例子和可运行的代码,快速理解并掌握 asyncio 的核心用法。

一、先搞懂:什么是“异步”?用生活例子秒懂

先别着急记语法,我们用“煮奶茶”的场景来理解核心区别:

  • 同步煮奶茶(普通代码):烧开水(等5分钟)→ 泡茶叶(等3分钟)→ 加牛奶(等2分钟)→ 加糖(等1分钟),全程11分钟,每一步都要等上一步结束。
  • 异步煮奶茶(asyncio 代码):先烧开水(启动后不用等)→ 同时泡茶叶(启动后不用等)→ 同时准备牛奶和糖 → 水开了直接兑茶叶,最后加糖加奶,全程只要5分钟(最长任务的时间)。

核心结论:异步编程的关键是 “不等待”——当程序遇到需要等待的操作(比如网络请求、文件IO)时,不闲着,转而执行其他任务,等等待结束后再回来继续处理。

而 asyncio 就是 Python 官方提供的“异步编程框架”,无需安装第三方库,原生就能用,专门处理这种“多任务等待”的场景。

二、新手必学:asyncio核心基础语法(3个核心点)

asyncio 的核心语法只有3个,记住就能写基础的异步代码,我们逐个拆解:

1. 定义协程:async def 关键字

“协程”(Coroutine)是异步编程的“最小任务单元”,相当于“异步版本的函数”。定义协程必须用 async def ,而不是普通的 def。

示例代码(可直接复制运行):

import asyncio

# 定义一个协程(异步函数)
async def make_milk_tea(flavor):
    print(f"开始做{flavor}奶茶...")
    # 模拟“等待”操作(比如煮开水、泡茶叶)
    await asyncio.sleep(2)  # 关键:等待2秒,期间会切换到其他任务
    print(f"{flavor}奶茶做好啦!")
    return f"{flavor}奶茶"

注意:协程不能直接调用!比如 make_milk_tea("珍珠") 不会执行,只会返回一个协程对象。必须通过 asyncio 提供的“事件循环”来运行。

2. 等待操作:await 关键字

await 是“等待协程完成”的关键字,只能用在 async def 定义的协程内部。

作用:当程序执行到 await 协程对象 时,会暂时“挂起”当前协程,去执行其他已经就绪的协程,直到被等待的协程完成,再回来继续执行。

比如上面代码中的 await asyncio.sleep(2) ,就是模拟2秒的等待时间,这期间程序会去处理其他任务,而不是傻等。

3. 运行协程:asyncio.run() 函数

asyncio.run() 是 Python 3.7+ 新增的函数,专门用来启动异步程序的“入口”,它会自动创建一个“事件循环”(相当于异步任务的“调度中心”),运行指定的协程,最后关闭循环。

示例:运行上面的奶茶协程

import asyncio

async def make_milk_tea(flavor):
    print(f"开始做{flavor}奶茶...")
    await asyncio.sleep(2)
    print(f"{flavor}奶茶做好啦!")
    return f"{flavor}奶茶"

# 启动协程(程序入口)
if __name__ == "__main__":
    result = asyncio.run(make_milk_tea("珍珠"))
    print("最终结果:", result)

运行结果:

开始做珍珠奶茶...(等待2秒)珍珠奶茶做好啦!最终结果: 珍珠奶茶

这是最基础的异步程序,虽然只有一个任务,但已经用上了 asyncio 的核心语法。

三、进阶:并发运行多个协程(核心实用场景)

asyncio 的真正价值是“同时运行多个任务”,比如同时做3杯不同口味的奶茶。这里需要用到 asyncio.gather() 函数,它能把多个协程打包成一个“任务组”,让事件循环同时调度它们。

示例:同时做3杯奶茶(并发执行)

import asyncio
import time

async def make_milk_tea(flavor):
    print(f"[{time.strftime('%H:%M:%S')}] 开始做{flavor}奶茶...")
    await asyncio.sleep(2)  # 每杯奶茶需要2秒“等待时间”
    print(f"[{time.strftime('%H:%M:%S')}] {flavor}奶茶做好啦!")
    return f"{flavor}奶茶"

async def main():
    # 打包3个协程,并发执行
    task1 = make_milk_tea("珍珠")
    task2 = make_milk_tea("芋圆")
    task3 = make_milk_tea("芒果")

    # 等待所有协程完成,返回结果列表
    results = await asyncio.gather(task1, task2, task3)
    print("所有奶茶都做好了:", results)

if __name__ == "__main__":
    start_time = time.time()
    asyncio.run(main())
    end_time = time.time()
    print(f"总耗时:{end_time - start_time:.2f}秒")

运行结果(重点看时间):

[15:30:00] 开始做珍珠奶茶...
[15:30:00] 开始做芋圆奶茶...
[15:30:00] 开始做芒果奶茶...
[15:30:02] 珍珠奶茶做好啦!
[15:30:02] 芋圆奶茶做好啦!
[15:30:02] 芒果奶茶做好啦!
所有奶茶都做好了: ['珍珠奶茶', '芋圆奶茶', '芒果奶茶']
总耗时:2.01秒

神奇吧!3杯奶茶,每杯需要2秒,同步做要6秒,异步做只要2秒,这就是并发的威力。

这里的 main() 也是一个协程,我们用它来管理多个任务,让代码结构更清晰。

四、实战:用 asyncio 爬取多个网页(贴近真实开发)

新手最常用的 异步编程 场景就是“批量爬取网页”,因为网络请求的“等待时间”很长,异步能大幅提升效率。

注意:普通的 requests 库是同步的,不能在 asyncio 中直接使用,需要用异步的网络库 aiohttp (需要先安装:pip install aiohttp)。

示例:异步爬取3个网站的标题

import asyncio
import aiohttp
from bs4 import BeautifulSoup  # 用于解析网页,需安装:pip install beautifulsoup4

# 异步爬取单个网页标题
async def fetch_title(session, url):
    try:
        # 用aiohttp的异步请求
        async with session.get(url, timeout=10) as response:
            html = await response.text()  # 等待响应内容
            soup = BeautifulSoup(html, "html.parser")
            title = soup.find("title").text.strip()
            print(f"成功获取 {url} 的标题:{title}")
            return title
    except Exception as e:
        print(f"爬取 {url} 失败:{e}")
        return None

async def main():
    # 要爬取的网站列表
    urls = [
        "https://www.baidu.com",
        "https://www.zhihu.com",
        "https://www.github.com"
    ]

    # 创建一个aiohttp会话(类似requests的session,复用连接)
    async with aiohttp.ClientSession() as session:
        # 批量创建任务
        tasks = [fetch_title(session, url) for url in urls]
        # 并发执行所有任务
        results = await asyncio.gather(*tasks)  # *用来解包列表

    print("爬取完成,所有标题:", [r for r in results if r is not None])

if __name__ == "__main__":
    asyncio.run(main())

运行效果:3个网站的爬取会同时进行,总耗时差不多等于最慢那个网站的响应时间,而不是3个时间相加。这清晰地展示了异步在处理 网络I/O 密集型任务时的优势。

五、新手必避的3个坑(踩过的都懂!)

坑1:在协程里用同步库(比如requests、time.sleep)

后果:程序会变成“伪异步”,还是会傻等。
解决:用异步替代方案——time.sleepasyncio.sleeprequestsaiohttp

坑2:直接调用协程,不通过asyncio.run()

后果:代码不执行,只返回一个 <coroutine object ...> 对象。
解决:所有协程必须通过事件循环运行,新手优先用 asyncio.run()

坑3:await用在非协程函数里

后果:直接报错 SyntaxError: 'await' outside async function
解决:await 只能写在 async def 定义的函数内部。

六、总结:asyncio适合谁?怎么进阶?

1. 适合场景

只要你的代码里有大量“等待操作”,都可以用 asyncio:

  • 批量网络请求(爬虫、接口调用)
  • 文件/数据库的异步IO操作
  • WebSocket实时通信(比如聊天机器人)

2. 不适合场景

如果是CPU密集型任务(比如大量计算、数据处理),用 asyncio 提升不大,建议用 multiprocessing (多进程)。

3. 进阶学习路径

新手先掌握本文的基础用法,后续可以深入:

  1. Task对象的手动创建和管理(asyncio.create_task()
  2. 事件循环的底层原理(了解即可,不用深钻)
  3. 异步上下文管理器(async with)的更多用法
  4. 官方文档https://docs.python.org/zh-cn/3/library/asyncio.html

最后:新手练习建议

  1. 把本文的代码逐个复制运行,修改参数(比如把 sleep 时间改成1秒、3秒),观察结果变化;
  2. 尝试修改“爬取网页”的例子,爬取你感兴趣的网站;
  3. 对比同步代码和异步代码的耗时,直观感受异步的优势。

掌握 asyncio 能显著提升涉及 I/O 操作的 Python 代码效率。如果在练习中遇到问题,欢迎在 云栈社区 交流探讨。




上一篇:深入对比:C++中std::make_shared与构造函数传指针的核心差异
下一篇:SlimToolkit动态分析优化Docker镜像:Nginx实战体积减少90%
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-1-16 19:56 , Processed in 0.226494 second(s), 38 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表