作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我从网站主页开始。我正在解析整个网页,并收集该主页上的所有链接并将它们放入队列中。然后我从队列中删除每个链接并执行相同的操作,直到获得我想要的文本。但是,如果我得到像 youtube.com/something 这样的链接,那么我将访问 youtube 上的所有链接。我想限制这一点。
我只想在同一域内进行爬网。我该怎么做?
private void crawler() throws IOException {
while (!q.isEmpty()){
String link = q.remove();
System.out.println("------"+link);
Document doc = Jsoup.connect(link).ignoreContentType(true).timeout(0).get();
if(doc.text().contains("publicly intoxicated behavior or persistence")){
System.out.println("************ On this page ******************");
System.out.println(doc.text());
return;
}
Elements links = doc.select("a[href]");
for (Element link1 : links){
String absUrl = link1.attr("abs:href");
if (absUrl == null || absUrl.length() == 0) {
continue;
}
// System.out.println(absUrl);
q.add(absUrl);
}
}
}
最佳答案
This article展示如何编写网络爬虫。以下行强制所有已爬网链接位于 mit.edu
域中。
if(link.attr("href").contains("mit.edu"))
该行可能存在错误,因为相对 URL 没有域。我建议添加 abs:
可能会更好。
if(link.attr("abs:href").contains("mit.edu"))
关于java - 如何使用Jsoup爬取单个网站?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24892936/
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 要求我们推荐或查找工具、库或最喜欢的场外资源的问题对于 Stack Overflow 来说是偏离主题的,
我是一名优秀的程序员,十分优秀!