gpt4 book ai didi

python - 作为黑盒测试人员,我如何验证页面上的所有链接

转载 作者:行者123 更新时间:2023-11-28 20:09:58 24 4
gpt4 key购买 nike

我正在尝试验证我所有的页面链接是否有效,以及与我类似的东西如果所有页面都有指定的链接比如联系方式 。我使用 python 单元测试和 selenium IDE 来记录需要测试的操作。所以我的问题是我可以循环验证链接还是我需要自己尝试每个链接?我试着用 __iter__ 来做到这一点但它没有任何关闭,可能有一个原因是我不擅长 oop,但我仍然认为我必须有另一种测试链接的方法,而不是单击它们并一个一个地记录。

最佳答案

我会为此使用标准的 shell 命令:

  • 你可以use wget to detect brokenlinks
  • 如果您使用 wget 下载页面,您可以然后使用 grep --files-without-match 扫描生成的文件以找到那些没有联系链接。

如果您使用的是 Windows,则可以安装 cygwin或安装 win32 ports这些工具。

编辑:从上面的 use wget to detect broken links 链接嵌入信息:

When ever we release a public site its always a good idea to run a spider on it, this way we can check for broken pages and bad urls. WGET has a recursive download command and mixed with --spider option it will just crawl the site.

1) Download WGET

Mac:
http://www.statusq.org/archives/2008/07/30/1954/
Or use macports and download wget.

Windows:
http://gnuwin32.sourceforge.net/packages/wget.htm

Linux:
Comes built in
----------------------------------------

2) In your console / terminal, run (without the $):

$ wget --spider -r -o log.txt http://yourdomain.com

3) After that just locate you "log.txt" file and at the very bottom
of the file will be a list of broken links, how many links there
are, etc.

关于python - 作为黑盒测试人员,我如何验证页面上的所有链接,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3397850/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com