gpt4 book ai didi

ruby-on-rails - Rails heroku 应用程序上的 Robots.txt 文件未更新

转载 作者:行者123 更新时间:2023-12-04 07:40:41 24 4
gpt4 key购买 nike

我在 Heroku 上托管了一个 rails 应用程序,我正在尝试更新 robots.txt 文件。

本地文件,位于 /public/robots.txt ,读到:

User-agent: *
Disallow: /admin/

但是,当我将应用程序部署到 Heroku 时,robots 文件似乎没有更新。远程版本如下:
# See http://www.robotstxt.org/wc/norobots.html for documentation on how to use the     robots.txt file
#
# To ban all spiders from the entire site uncomment the next two lines:
User-agent: *
Disallow: /

实时网址位于 http://www.cowboypicks.com/robots.txt .

运行 curl -I http://www.cowboypicks.com/robots.txt产量:
HTTP/1.1 200 OK
Age: 2317078
Cache-Control: public, max-age=2592000
Content-length: 200
Content-Type: text/plain
Date: Wed, 30 Apr 2014 17:01:43 GMT
Last-Modified: Thu, 03 Apr 2014 14:21:08 GMT
Status: 200 OK
X-Content-Digest: 10c5b29b9aa0c6be63a410671662a29a796bc772
X-Rack-Cache: fresh
Connection: keep-alive

表示该文件自 4 月 3 日以来未更新,但今天(4 月 30 日)已更新。更奇怪的是,当我跑 heroku run bash其次是 cat public/robots.txt我得到:
User-agent: *
Disallow: /admin/

表明该文件正在 Heroku 上更新,但由于某种原因它显示了较旧的(我假设是缓存的)版本。使用 dalli/memcache 的应用程序上有一些缓存,但我不认为这会影响静态文件?关于如何进一步调试问题的任何想法?

最佳答案

事实证明,Dalli 确实在生产中缓存了 robots.txt 文件。到期日期设置在 production.rb与线:

 config.static_cache_control = "public, max-age=2592000"

从 rails 控制台运行以下命令会刷新缓存并对问题进行排序:
Rails.cache.dalli.flush_all

关于ruby-on-rails - Rails heroku 应用程序上的 Robots.txt 文件未更新,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23389609/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com