gpt4 book ai didi

javascript - QR码应用程序。静态 URL 对蜘蛛有点抵抗力?

转载 作者:行者123 更新时间:2023-11-29 14:03:28 25 4
gpt4 key购买 nike

我正在实现一个应用程序来创建将打印在纸质媒体上的二维码。该应用程序在 Perl 中,我正在成功生成代码。 (使用 GD::Barcode::QRCode 顺便说一句。铅管束带..)

二维码将包含一个静态 URL。目标扫描仪将是移动设备上的任何二维码阅读器。 “服务器”只是任何网络服务器。我的应用程序生成的代码包含指向服务器变量目录中众所周知的类型文件(vCard 或 vCalendar)的链接:http://www.server.com/dir[XYZ] 例如。

由于要打印二维码,所以URL需要是静态的。

我知道 X-Robots-Tag: no index 并放置一个 robot.txt 文件。虽然这可能会阻止谷歌,但我不确定其他蜘蛛是否尊重这些标签。垃圾邮件发送者的蜘蛛我无法想象。

背景:

此应用程序允许打印 Material 链接到网络上的动态元素。大多数 QR 阅读器(Android、i-nigma、QRReader 等)将正确处理 vCard 或 vCalendar 下载。虽然我可以将 vCard 或 vCalendar 的数据直接嵌入到 QR 码中,但最好将文件放在 Web 服务器上,并在 QR 码中提供指向该文件的 URL。虽然这些文件不需要安全,但我宁愿它们不是垃圾邮件发送者的奶酪。

我知道如果有人输入 http://www.myurl.com/random_string 可以下载那里的数据元素。这不是问题。我不想要用户确认或身份验证(除非这是客户端的行为。)只要访问 URL 时目录中的文件就会下载到 Web 客户端,并在客户端知道如何处理时进行处理。

问题

如果我有 http://www.myserver.com/randomXYZ 并且在互联网上没有指向该 URL 的其他链接,蜘蛛如何找到它?我可以在静态 URL 中使用一些 Javascript 来执行此操作吗?有没有一种方法(我目前没有看到)静态 URL 可以对蜘蛛和机器人有一定的抵抗力?

最佳答案

我不能肯定地说这将保证您的文件不受蜘蛛程序的影响,但我建议您查看以下网站,其中概述了目录权限的工作原理。

http://ag.arizona.edu/ecat/web/permissions.html

可以限制目录权限,以便必须通过服务器端请求才能访问文件,例如 (php) include、require。

当然,与任何网站一样,如果有人想从您的网站获得某些东西并投入足够的时间,他们就会得到它。

关于javascript - QR码应用程序。静态 URL 对蜘蛛有点抵抗力?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8362918/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com