在elasticsearch.yml的文件末尾加上:
http.cors.enabled: true
http.cors.allow-origin: "*"
修改配置后重启容器即可。
docker restart elasticsearch2.4 安装ik分词器
es自带的分词器对中文分词不是很友好,所以我们下载开源的IK分词器来解决这个问题。首先进入到plugins目录中下载分词器,下载完成后然后解压,再重启es即可。具体步骤如下:
注意:elasticsearch的版本和ik分词器的版本需要保持一致,不然在重启的时候会失败。可以在这查看所有版本,选择合适自己版本的右键复制链接地址即可。点击这里
cd /usr/share/elasticsearch/plugins/
elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.2.0/elasticsearch-analysis-ik-7.2.0.zip
exit
docker restart elasticsearch
然后可以在kibana界面的dev tools中验证是否安装成功;
POST test/_analyze
{
"analyzer": "ik_max_word",
"text": "你好我是东邪Jiafly"
}
不添加”analyzer”: “ik_max_word”,则是每个字分词,可以在下面kibana安装完成以后尝试一下。
3.kibana安装
3.1 docker安装kibana
同样适用docker安装kibana命令如下:
docker pull kibana:7.2.0等待所有镜像下载完成即可。
3.2 启动kibana
安装完成以后需要启动kibana容器,使用–link连接到elasticsearch容器,命令如下:
docker run --name kibana --link=elasticsearch:test -p 5601:5601 -d kibana:7.2.0
docker start kibana启动以后可以打开浏览器输入http://localhost:5601就可以打开kibana的界面了。
4.结语
经过以上步骤就安装好了es和kibana,是不是很简单?这就是docker的好用处之一,也是我比较钟爱docker的原因之一。当然docker远不止这些功能,更多的我们以后慢慢写到,总之肯定是都能用上的。哈哈
您可能感兴趣的文章:详解Docker下使用Elasticsearch可视化Kibana










