前言
实验室维护的项目在用户使用量增大的时候,隔三差五就会出现OOM
OutOfMemory的情况,而且多数是发生在第二天的凌晨,为了缓解这个问题,写了一个定时任务,每次服务宕机的时候,就重启一下Tomcat
服务。但是这样子处理问题治标不治本,还是需要从代码的优化角度去减少这种情况的发生。
往elasticsearch中导入数据,可以采用curl -XPUT 'http://localhost:9200/megacorp/employee/1
的方式往里面导入数据,这样的插入可以用来测试,但是数据量比较大的时候,这样一条条的插入是不实际的。
当然elasticsearch可以采用_bulk的方式批量导入数据1
2
3
4
5curl -XPOST 'http://localhost:9200/_bulk' -d '
{ "create": { "_index": "website", "_type": "blog", "_id": "3" }}
{ "title": "My third blog post" }
{ "create": { "_index": "website", "_type": "blog", "_id": "4" }}
{ "title": "My fourth blog post" }
或者把我们的数据导成json的格式,然后导入1
curl 172.17.1.15:9200/_bulk?pretty --data-binary @E:\testdata\test.json
在之前solr使用过程中,我们是把数据库的数据导入到solr中,elasticsearch也可以,这篇主要是来记录一下logstash的安装以及使用。