- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我在低源硬件配置的机器上有 1 个节点、1 个分片、1 个副本架构。我必须将 Elasticsearch 堆大小保持在总内存的 20%,并且我将 1k~1m 文档索引到 Elasticsearch 有关硬件配置。我有不同类型的机器,从 2GB 到 16GB 但由于它们是 32bit 架构,我只能使用 300m 到 1.5GB 堆大小的最大内存。
由于某些原因,我不知道为什么,Elasticsearch 使用未分配的分片创建了一些索引,并使集群健康状况变为红色。我试图在不创建新节点并将数据传输到其中的情况下恢复和分配分片,因为我不应该这样做。我还尝试使用此配置来使用此命令重新路由索引:
curl -XPUT 'localhost:9200/_settings' -d '{
"index.routing.allocation.disable_allocation": false
}'
这是我的节点信息:
{
name: mynode
transport_address: inet[/192.168.1.4:9300]
host: myhost
ip: 127.0.0.1
version: 1.0.0
build: a46900e
http_address: inet[/192.168.1.4:9200]
thrift_address: /192.168.1.4:9500
attributes: {
master: true
}
settings: {
threadpool: {
search: {
type: fixed
size: 600
queue_size: 10000
}
bulk: {
type: fixed
queue_size: 10000
size: 600
}
index: {
type: fixed
queue_size: 10000
size: 600
}
}
node: {
data: true
master: true
name: mynode
}
index: {
mapper: {
dynamic: false
}
routing: {
allocation: {
disable_allocation: false
}
}
store: {
fs: {
lock: none
}
compress: {
stored: true
}
}
number_of_replicas: 0
analysis: {
analyzer: {
string_lowercase: {
filter: lowercase
tokenizer: keyword
}
}
}
cache: {
field: {
type: soft
expire: 24h
max_size: 50000
}
}
number_of_shards: 1
}
bootstrap: {
mlockall: true
}
gateway: {
expected_nodes: 1
}
transport: {
tcp: {
compress: true
}
}
name: mynode
pidfile: /var/run/elasticsearch.pid
path: {
data: /var/lib/es/data
work: /tmp/es
home: /opt/elasticsearch
logs: /var/log/elasticsearch
}
indices: {
memory: {
index_buffer_size: 80%
}
}
cluster: {
routing: {
allocation: {
node_initial_primaries_recoveries: 1
node_concurrent_recoveries: 1
}
}
name: my-elasticsearch
}
max_open_files: false
discovery: {
zen: {
ping: {
multicast: {
enabled: false
}
}
}
}
}
os: {
refresh_interval: 1000
available_processors: 4
cpu: {
vendor: Intel
model: Core(TM) i3-3220 CPU @ 3.30GHz
mhz: 3292
total_cores: 4
total_sockets: 4
cores_per_socket: 16
cache_size_in_bytes: 3072
}
mem: {
total_in_bytes: 4131237888
}
swap: {
total_in_bytes: 4293591040
}
}
process: {
refresh_interval: 1000
id: 24577
max_file_descriptors: 65535
mlockall: true
}
jvm: {
pid: 24577
version: 1.7.0_55
vm_name: Java HotSpot(TM) Server VM
vm_version: 24.55-b03
vm_vendor: Oracle Corporation
start_time: 1405942239741
mem: {
heap_init_in_bytes: 845152256
heap_max_in_bytes: 818348032
non_heap_init_in_bytes: 19136512
non_heap_max_in_bytes: 117440512
direct_max_in_bytes: 818348032
}
gc_collectors: [
ParNew
ConcurrentMarkSweep
]
memory_pools: [
Code Cache
Par Eden Space
Par Survivor Space
CMS Old Gen
CMS Perm Gen
]
}
thread_pool: {
generic: {
type: cached
keep_alive: 30s
}
index: {
type: fixed
min: 600
max: 600
queue_size: 10k
}
get: {
type: fixed
min: 4
max: 4
queue_size: 1k
}
snapshot: {
type: scaling
min: 1
max: 2
keep_alive: 5m
}
merge: {
type: scaling
min: 1
max: 2
keep_alive: 5m
}
suggest: {
type: fixed
min: 4
max: 4
queue_size: 1k
}
bulk: {
type: fixed
min: 600
max: 600
queue_size: 10k
}
optimize: {
type: fixed
min: 1
max: 1
}
warmer: {
type: scaling
min: 1
max: 2
keep_alive: 5m
}
flush: {
type: scaling
min: 1
max: 2
keep_alive: 5m
}
search: {
type: fixed
min: 600
max: 600
queue_size: 10k
}
percolate: {
type: fixed
min: 4
max: 4
queue_size: 1k
}
management: {
type: scaling
min: 1
max: 5
keep_alive: 5m
}
refresh: {
type: scaling
min: 1
max: 2
keep_alive: 5m
}
}
network: {
refresh_interval: 5000
primary_interface: {
address: 192.168.1.2
name: eth0
mac_address: 00:90:0B:2F:A9:08
}
}
transport: {
bound_address: inet[/0:0:0:0:0:0:0:0:9300]
publish_address: inet[/192.168.1.4:9300]
}
http: {
bound_address: inet[/0:0:0:0:0:0:0:0:9200]
publish_address: inet[/192.168.1.4:9200]
max_content_length_in_bytes: 104857600
}
plugins: [
{
name: transport-thrift
version: NA
description: Exports elasticsearch REST APIs over thrift
jvm: true
site: false
}
]
}
最糟糕的情况是找到未分配的分片并删除所属索引,但我想防止创建未分配的分片。
有什么想法吗?
最佳答案
我找到了一个合乎逻辑的解决方案,这里是用 python 应用的:请查看代码中的注释 block ,如有任何改进,我们将不胜感激:
type_pattern = re.compile(r"""
(?P<type>\w*?)$ # Capture doc_type from index name
""", re.UNICODE|re.VERBOSE)
# Get mapping content from mapping file
mapping_file = utilities.system_config_path + "mapping.json"
server_mapping = None
try:
with open(mapping_file, "r") as mapper:
mapping = json.loads(unicode(mapper.read()))
# Loop all indices to get and find mapping
all_indices = [index for index in self.__conn.indices.get_aliases().iterkeys()]
for index in all_indices:
# Gather doc_type from index name
doc_type = type_pattern.search(index).groupdict("type")['type']
index_mapping = self.__conn.indices.get_mapping(index=index)
default_mapping = [key for key in [key for key in mapping[doc_type].itervalues()][0]["properties"].iterkeys()]
if len(index_mapping) > 0:
# Create lists by iter values to get columns and compare them either they are different or not
server_mapping = [key for key in [key for key in index_mapping[index]["mappings"].itervalues()][0]["properties"].iterkeys()]
# Check if index' status is red then delete it
if self.__conn.cluster.health(index=index)["status"] == "red":
# Then delete index
self.__conn.indices.delete(index)
print "%s has been deleted because of it was in status RED" % index
self.__conn.indices.create(
index=index,
body={
'settings': {
# just one shard, no replicas for testing
'number_of_shards': 1,
'number_of_replicas': 0,
}
},
# ignore already existing index
ignore=400
)
print "%s has been created." % index
self.__conn.indices.put_mapping(
index=index,
doc_type=doc_type,
body=mapping[doc_type]
)
print "%s mapping has been inserted." % index
# Check if server mapping is different than what it is supposed to be
elif server_mapping and len(set(server_mapping) - set(default_mapping)) > 0:
# Delete recent mapping from server regarding index
self.__conn.indices.delete_mapping(index=index, doc_type=doc_type)
print "%s mapping has been deleted." % index
# Put default mapping in order to match data store columns
self.__conn.indices.put_mapping(
index=index,
doc_type=doc_type,
body=mapping[doc_type])
print "%s mapping has been inserted." % index
# Check if index is healthy but has no mapping then put mapping into
elif len(index_mapping) == 0:
print "%s has no mapping. Thus the default mapping will be pushed into it." % index
self.__conn.indices.put_mapping(
index=index,
doc_type=doc_type,
body=mapping[doc_type])
print "%s mapping has been inserted." % index
return "Database has been successfully repaired."
except:
# Any exception you would like here
关于python - Elasticsearch:如何找到未分配的分片并分配它们?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24866352/
我正在处理一组标记为 160 个组的 173k 点。我想通过合并最接近的(到 9 或 10 个组)来减少组/集群的数量。我搜索过 sklearn 或类似的库,但没有成功。 我猜它只是通过 knn 聚类
我有一个扁平数字列表,这些数字逻辑上以 3 为一组,其中每个三元组是 (number, __ignored, flag[0 or 1]),例如: [7,56,1, 8,0,0, 2,0,0, 6,1,
我正在使用 pipenv 来管理我的包。我想编写一个 python 脚本来调用另一个使用不同虚拟环境(VE)的 python 脚本。 如何运行使用 VE1 的 python 脚本 1 并调用另一个 p
假设我有一个文件 script.py 位于 path = "foo/bar/script.py"。我正在寻找一种在 Python 中通过函数 execute_script() 从我的主要 Python
这听起来像是谜语或笑话,但实际上我还没有找到这个问题的答案。 问题到底是什么? 我想运行 2 个脚本。在第一个脚本中,我调用另一个脚本,但我希望它们继续并行,而不是在两个单独的线程中。主要是我不希望第
我有一个带有 python 2.5.5 的软件。我想发送一个命令,该命令将在 python 2.7.5 中启动一个脚本,然后继续执行该脚本。 我试过用 #!python2.7.5 和http://re
我在 python 命令行(使用 python 2.7)中,并尝试运行 Python 脚本。我的操作系统是 Windows 7。我已将我的目录设置为包含我所有脚本的文件夹,使用: os.chdir("
剧透:部分解决(见最后)。 以下是使用 Python 嵌入的代码示例: #include int main(int argc, char** argv) { Py_SetPythonHome
假设我有以下列表,对应于及时的股票价格: prices = [1, 3, 7, 10, 9, 8, 5, 3, 6, 8, 12, 9, 6, 10, 13, 8, 4, 11] 我想确定以下总体上最
所以我试图在选择某个单选按钮时更改此框架的背景。 我的框架位于一个类中,并且单选按钮的功能位于该类之外。 (这样我就可以在所有其他框架上调用它们。) 问题是每当我选择单选按钮时都会出现以下错误: co
我正在尝试将字符串与 python 中的正则表达式进行比较,如下所示, #!/usr/bin/env python3 import re str1 = "Expecting property name
考虑以下原型(prototype) Boost.Python 模块,该模块从单独的 C++ 头文件中引入类“D”。 /* file: a/b.cpp */ BOOST_PYTHON_MODULE(c)
如何编写一个程序来“识别函数调用的行号?” python 检查模块提供了定位行号的选项,但是, def di(): return inspect.currentframe().f_back.f_l
我已经使用 macports 安装了 Python 2.7,并且由于我的 $PATH 变量,这就是我输入 $ python 时得到的变量。然而,virtualenv 默认使用 Python 2.6,除
我只想问如何加快 python 上的 re.search 速度。 我有一个很长的字符串行,长度为 176861(即带有一些符号的字母数字字符),我使用此函数测试了该行以进行研究: def getExe
list1= [u'%app%%General%%Council%', u'%people%', u'%people%%Regional%%Council%%Mandate%', u'%ppp%%Ge
这个问题在这里已经有了答案: Is it Pythonic to use list comprehensions for just side effects? (7 个答案) 关闭 4 个月前。 告
我想用 Python 将两个列表组合成一个列表,方法如下: a = [1,1,1,2,2,2,3,3,3,3] b= ["Sun", "is", "bright", "June","and" ,"Ju
我正在运行带有最新 Boost 发行版 (1.55.0) 的 Mac OS X 10.8.4 (Darwin 12.4.0)。我正在按照说明 here构建包含在我的发行版中的教程 Boost-Pyth
学习 Python,我正在尝试制作一个没有任何第 3 方库的网络抓取工具,这样过程对我来说并没有简化,而且我知道我在做什么。我浏览了一些在线资源,但所有这些都让我对某些事情感到困惑。 html 看起来
我是一名优秀的程序员,十分优秀!