gpt4 book ai didi

python - 碎片 : storing the data

转载 作者:太空狗 更新时间:2023-10-29 18:17:21 27 4
gpt4 key购买 nike

我是 python 和 scrapy 的新手。我正在尝试遵循 Scrapy 教程,但我不明白 storage step 的逻辑.

scrapy crawl spidername -o items.json -t json

scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv

我不明白:

  • -o
  • -t
  • --设置

谢谢你的帮助

最佳答案

您可以通过在项目目录中键入 scrapy crawl -h 查看可用命令列表。

scrapy crawl spidername -o items.json -t json
  • -o 指定转储项目的输出文件名 (items.json)
  • -t 指定转储项的格式(json)

scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv

  • --set 用于设置/覆盖设置
  • FEED_URI 用于设置项目转储的存储后端。在这种情况下,它被设置为“output.csv”,它使用本地文件系统,即一个简单的输出文件。(对于当前示例 - output.csv)
  • FEED_FORMAT 用于设置(输出)提要的序列化格式,即(对于当前示例 csv)

引用资料(Scrapy 文档):

  1. Available tool commands (for the command line)
  2. Feed exports

关于python - 碎片 : storing the data,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/14073442/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com