- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我有一个部署到 Heroku 的 Django 1.9.6 站点。当 DEBUG=False
我收到服务器错误 (500)。日志中没有包含任何有用的信息,因此我尝试使用 DEBUG=True
运行它。现在它工作正常。我认为这个问题可能与我的 scss 文件处理有关,这让我很困惑,而且我一直在努力解决。我最近在我的设置文件中添加了 COMPRESS_OFFLINE = True
,并且将其注释掉似乎可以缓解问题(尽管我的 scss 文件无法正常工作)。
我的一些静态 settings.py
。如果您需要更多,请告诉我——这对我来说是个谜。我试图关注 this尽我所能。
BASE_DIR = os.path.dirname(os.path.dirname(os.path.abspath(__file__)))
STATIC_URL = '/static/'
STATIC_ROOT = os.path.join(BASE_DIR, 'staticfiles')
MEDIA_URL = "/media/"
MEDIA_ROOT = os.path.join(BASE_DIR, "media/")
STATICFILES_FINDERS = (
'django.contrib.staticfiles.finders.FileSystemFinder',
'django.contrib.staticfiles.finders.AppDirectoriesFinder',
# other finders..
'compressor.finders.CompressorFinder',
)
STATICFILES_STORAGE = 'whitenoise.django.GzipManifestStaticFilesStorage'
MEDIA_URL = "/media/"
MEDIA_ROOT = os.path.join(BASE_DIR, "media/")
在 urls.py
中:
urlpatterns += static(settings.MEDIA_URL, document_root=settings.MEDIA_ROOT)
urlpatterns += [
url(r'^media/(?P<path>.*)$', serve, {
'document_root': settings.MEDIA_ROOT
}),
]
urlpatterns += staticfiles_urlpatterns()
编辑:
我已经开始使用日志记录,而且我已经确认这是一个压缩错误。我收到错误消息:
Internal Server Error: /
OfflineGenerationError at /
You have offline compression enabled but key "171c3b7763dbc51a465d996f7d920cf5" is missing from offline manifest. You may need to run "python manage.py compress".
这与我在本地得到的相同,只是运行建议的命令解决了它。运行 heroku run python manage.py compress
没有任何效果(虽然运行它没有错误)
最佳答案
compress 生成的 list 存储在我的 .gitignore 中,因此生产环境中的 list 已过时。将它添加到 git 存储库修复了所有问题。
关于python - 不能在 Heroku 中使用 django-compress,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42262463/
zlib中的deflate()和compress()函数之间有什么区别? 我浏览了在线示例,其中一些使用deflate,而另一些使用compress。 我应该如何决定在哪种情况下使用另一种情况? 最佳
这是我的config.rb preferred_syntax = :sass http_path = '/' css_dir = 'css' sass_dir = 'sass' images_dir
我正在查看 Oracle 的 OLTP 表压缩(11g 及以上)文档以及在线资源以查找语法并遇到两个不同的版本: COMPRESS FOR ALL OPERATIONS 和 COMPRESS FOR
我目前在 .NET 2.0 下使用 SharpZipLib,通过它我需要将单个文件压缩为单个压缩存档。为此,我目前正在使用以下内容: string tempFilePath = @"C:\Users\
本文整理了Java中org.apache.hadoop.io.compress.zlib.ZlibCompressor.compress()方法的一些代码示例,展示了ZlibCompressor.co
我从 Azure Synapse 收到此建议。 推荐详情我们检测到您可以通过拆分存储帐户中暂存的压缩文件来提高负载吞吐量。一个好的经验法则是将压缩文件拆分为 60 个或更多,以最大限度地提高负载的并行
这个问题继续讨论开始 here 。我发现 HTTP 响应正文无法被解码为 JSON 对象,因为后者的 deflate 压缩。现在我想知道如何用Golang进行解压。我将不胜感激任何能够显示我的代码中的
我刚开始为新雇主工作。对于我的上一个雇主,我们使用 LESS 并将其编译为 .css 文件,然后将其压缩为 .min.css 文件。对于我的新雇主,我们也使用 LESS。但是这里我们不仅编译了LESS
我在终端中使用 compress file.txt 压缩了一个文件并得到了(如预期的那样)file.txt.Z 当我将该文件传递给 Go 中的 ioutil.ReadFile 时, buf0, err
当我打开Android Studio时,Android Studio将从commons-compress-1.12.jar下载https://jcenter.bintray.com/org/apach
我收到此错误,但我不知道为什么突然遇到 django-pipeline 问题。 我正在 virtualenv 下运行该项目,我尝试使用所需的基本应用程序创建一个新项目,看看它是否可以修复它,但我总是收
已关闭。此问题需要 debugging details 。目前不接受答案。 编辑问题以包含 desired behavior, a specific problem or error, and the
对于压缩由 fasta 核苷酸序列组成的数据集,推荐的压缩算法是什么(.xz、tar.gz、tar.bz2 等)? 此类数据的推荐压缩机制是什么? 基于字典的压缩 基于自适应字典的压缩 基于LZW算法
我正在寻找一个支持解压期间随机访问的通用压缩库。我想将维基百科压缩成单一的压缩格式,同时我想从中解压/提取个别文章。 当然,我可以单独压缩每篇文章,但这不会给出太大的压缩率。我听说 LZO 压缩文件由
我想压缩一串位,然后我想解压缩它。任何机构都可以通过提及快速无损压缩和解压缩技术来帮助我,如果可能的话,它的编程实现可以帮助我。 最佳答案 如果您正在寻找速度,那么考虑像 LZ4 这样的快速压缩算法是
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 4年前关闭。 Improve this qu
当我们压缩一个文件夹时,我们输入命令tar -cjf folder.tar.bz2 folder,它会将整个文件夹压缩到其中。 无论如何要压缩文件夹中的所有内容,但该文件夹不应出现在存档中? 示例 -
来自 Shannon's Source Coding Theorem我们知道压缩字符串的熵受原始字符串熵的限制,如下所示: H(X) <= L < H(X) + 1/N 其中 H(X) 是源字符串的熵
假设您有一个四字节整数,并且您想将其压缩为更少的字节。您可以压缩它,因为较小的值比较大的值更有可能(即,值的概率随其大小而降低)。您应用以下方案来生成 1、2、3 或 4 字节的结果: 请注意,在下面
是否有可能使用某种简单算法打包大文件,使我读取数据的速度比未压缩文件快(由于硬盘驱动器比未压缩速度慢)? 我需要什么样的压缩率?任何快速压缩算法都能做到吗? 最佳答案 是。当从硬盘上读取压缩系数为4的
我是一名优秀的程序员,十分优秀!