当前位置: 首页 > news >正文

卖酒的网站做线下怎么做微网站怎么做的好名字吗

卖酒的网站做线下怎么做,微网站怎么做的好名字吗,网站建设都包含哪些内容,郑州网站建设那家好Elasticsearch 是一个基于Apache Lucene的开源分布式搜索和分析引擎#xff0c;广泛应用于全文搜索、结构化搜索、分析等多种场景。 Easysearch 作为Elasticsearch 的国产化替代方案#xff0c;不仅保持了与原生Elasticsearch 的高度兼容性#xff0c;还在功能、性能、稳定性…Elasticsearch 是一个基于Apache Lucene的开源分布式搜索和分析引擎广泛应用于全文搜索、结构化搜索、分析等多种场景。 Easysearch 作为Elasticsearch 的国产化替代方案不仅保持了与原生Elasticsearch 的高度兼容性还在功能、性能、稳定性和扩展性方面进行了全面提升。以下是Easysearch的基本知识和语法 基本概念 节点NodeElasticsearch集群中的单个服务器。集群Cluster由一个或多个节点组成拥有唯一的集群名。索引Index类似于关系数据库中的数据库一个索引包含了一系列的文档。类型Type索引中的一个逻辑分类在Elasticsearch 6.x以后已被弃用。文档Document索引中的基本数据单位类似于关系数据库中的行。字段Field文档中的一个属性类似于关系数据库中的列。分片Shard索引可以被分成多个分片来分布存储。副本Replica分片的副本用于高可用性和故障恢复。 查看集群信息 在Elasticsearch中可以通过多个API来查看集群的各种信息包括集群的健康状况、节点信息和索引状态。以下是一些常用的查看集群信息的API和示例 查看集群健康状况 _cluster/health API可以查看集群的健康状态包括集群是否处于正常状态、节点数量、分片状态等。 GET /_cluster/health示例响应 {cluster_name: my_cluster,status: green,timed_out: false,number_of_nodes: 3,number_of_data_nodes: 3,active_primary_shards: 5,active_shards: 10,relocating_shards: 0,initializing_shards: 0,unassigned_shards: 0,delayed_unassigned_shards: 0,number_of_pending_tasks: 0,number_of_in_flight_fetch: 0,task_max_waiting_in_queue_millis: 0,active_shards_percent_as_number: 100.0 }查看集群状态 _cluster/stats API可以查看集群的详细状态包括索引、节点、分片等信息。 GET /_cluster/stats示例响应 {cluster_name: my_cluster,status: green,indices: {count: 10,shards: {total: 20,primaries: 10,replication: 1.0,index: {shards: {min: 1,max: 5,avg: 2.0}}}},nodes: {count: {total: 3,data: 3,coordinating_only: 0,master: 1,ingest: 2},os: {available_processors: 12,allocated_processors: 12},process: {cpu: {percent: 10},open_file_descriptors: {min: 100,max: 300,avg: 200}}} }查看节点信息 _nodes API可以查看集群中节点的详细信息包括节点角色、IP地址、内存使用情况等。 GET /_nodes示例响应 {cluster_name: my_cluster,nodes: {node_id_1: {name: node_1,transport_address: 192.168.1.1:9300,host: 192.168.1.1,ip: 192.168.1.1,roles: [master, data, ingest],os: {available_processors: 4,allocated_processors: 4},process: {cpu: {percent: 10},open_file_descriptors: 200}},node_id_2: {name: node_2,transport_address: 192.168.1.2:9300,host: 192.168.1.2,ip: 192.168.1.2,roles: [data],os: {available_processors: 4,allocated_processors: 4},process: {cpu: {percent: 15},open_file_descriptors: 150}}} }查看索引状态 _cat/indices API可以查看集群中所有索引的状态包括文档数、存储大小、分片数等信息。 GET /_cat/indices?v示例响应 health status index uuid pri rep docs.count docs.deleted store.size pri.store.size green open index_1 SxNUd84vRl6QH5P7g0T4Vg 1 1 0 0 230b 230b green open index_2 NxEYib4yToCnA1PpQ8P4Xw 5 1 100 1 10mb 5mb这些API可以帮助你全面了解Elasticsearch集群的状态和健康状况从而更好地管理和维护集群。 增删改查 创建索引 PUT /my_index {settings: {number_of_shards: 3,number_of_replicas: 2} }删除索引 DELETE /my_index添加文档 POST /my_index/_doc/1 {name: John Doe,age: 30,occupation: Engineer }PUT /my_index/_doc/1 {name: John Doe,age: 30,occupation: Engineer }新建文档 PUT /my_index/_create/1 {a:1}新建之后再执行报错 {error: {root_cause: [{type: version_conflict_engine_exception,reason: [23]: version conflict, document already exists (current version [1]),index_uuid: 1xWdHLTaTm6l6HbqACaIEA,shard: 0,index: ss}],type: version_conflict_engine_exception,reason: [23]: version conflict, document already exists (current version [1]),index_uuid: 1xWdHLTaTm6l6HbqACaIEA,shard: 0,index: ss},status: 409 }获取文档 GET /my_index/_doc/1更新文档 原来的字段会保留更新age字段 POST /my_index/_update/1 {doc: {age: 31} }删除文档 DELETE /my_index/_doc/1 #### 查询所有文档 json GET /my_index/_search {query: {match_all: {}} }这个是《老杨玩搜索》里面的总结的图可以当作“小抄”来记忆。 _bulk API用于在一次请求中执行多个索引、删除和更新操作。这对于批量处理大规模数据特别有用可以显著提高性能和效率。以下是如何使用_bulk API的基本知识和示例 POST /my_index/_bulk { index: { _id: 1 } } { name: John Doe, age: 30, occupation: Engineer } { index: { _id: 2 } } { name: Jane Doe, age: 25, occupation: Designer } { update: { _id: 1 } } { doc: { age: 31 } }_bulk API的请求体由多个操作和文档组成。每个操作行包含一个动作描述行和一个可选的源文档行。动作描述行指明了操作的类型例如index、create、delete、update以及操作的元数据。源文档行则包含了实际的数据。 每个操作之间需要用换行符分隔并且请求体最后必须以换行符结尾。 POST _bulk { index: {_index:a ,_id: 1 } } { name: John Doe, age: 30, occupation: Engineer } { index: {_index:b , _id: 2 } } { name: Jane Doe, age: 25, occupation: Designer } { update: {_index:a , _id: 1 } } { doc: { age: 31 } } 全文检索 分词器 在Easysearch中分词器Analyzer用于将文本分解为词项terms是全文搜索和文本分析的基础。分词器通常由字符过滤器Character Filters、分词器Tokenizer和词项过滤器Token Filters组成。以下是关于ES分词器的详细介绍 字符过滤器Character Filters在分词之前对文本进行预处理。例如去除HTML标签替换字符等。分词器Tokenizer将文本分解为词项tokens。这是分词过程的核心。词项过滤器Token Filters对词项进行处理如小写化、去除停用词、词干提取等。 内置分词器 我们一起看下 POST /index/_mapping {properties: {content: {type: text,analyzer: ik_max_word,search_analyzer: ik_smart}} }POST /index/_mapping 这个部分表示要向名为index的索引添加或更新映射设置。 “properties”: properties定义了索引中文档的字段结构。在这个例子中定义了一个名为content的字段。 “content”: 定义了名为content的字段。 “type”: “text” type字段指定content字段的数据类型为text。text类型适用于需要分词和全文搜索的字段。 “analyzer”: “ik_max_word” analyzer字段指定索引时使用的分词器为ik_max_word。ik_max_word是IK分词器中的一种它会尽可能多地将文本分解为更多的词项。 “search_analyzer”: “ik_smart” search_analyzer字段指定搜索时使用的分词器为ik_smart。ik_smart是IK分词器中的另一种它会更智能地进行分词以提高搜索的准确性。 当然在设置这个mapping的时候可以使用同样的分词器也可以使用不同的分词器。这里介绍下IK分词器 IK分词器是一种中文分词器适用于中文文本的分词。IK分词器有两种分词模式ik_max_word和ik_smart。 ik_max_word将文本尽可能多地切分成词项适用于需要更高召回率的场景。ik_smart进行最智能的分词适用于需要更高精度的搜索场景。 这个DSL的设置意味着在向这个索引添加或更新文档时content字段的文本会使用ik_max_word分词器进行分词处理以确保文本被尽可能多地切分成词项。而在搜索时content字段的文本会使用ik_smart分词器进行分词处理以提高搜索的准确性和相关性。 以下是关于standardik_smartik_max_word这几个分词器的对比 GET /_analyze {tokenizer: standard,text: 我,机器人 }GET /_analyze {tokenizer: ik_smart,text: 我,机器人 }GET /_analyze {tokenizer: ik_max_word,text: 我,机器人 } 结果如下 # GET /_analyze standard {tokens: [{token: 我,start_offset: 0,end_offset: 1,type: IDEOGRAPHIC,position: 0},{token: 机,start_offset: 2,end_offset: 3,type: IDEOGRAPHIC,position: 1},{token: 器,start_offset: 3,end_offset: 4,type: IDEOGRAPHIC,position: 2},{token: 人,start_offset: 4,end_offset: 5,type: IDEOGRAPHIC,position: 3}] } # GET /_analyzeik_smart {tokens: [{token: 我,start_offset: 0,end_offset: 1,type: CN_CHAR,position: 0},{token: 机器人,start_offset: 2,end_offset: 5,type: CN_WORD,position: 1}] } # GET /_analyze ik_max_word {tokens: [{token: 我,start_offset: 0,end_offset: 1,type: CN_CHAR,position: 0},{token: 机器人,start_offset: 2,end_offset: 5,type: CN_WORD,position: 1},{token: 机器,start_offset: 2,end_offset: 4,type: CN_WORD,position: 2},{token: 人,start_offset: 4,end_offset: 5,type: CN_CHAR,position: 3}] }如果使用了不存在的分词器会出现这个错误。 {error: {root_cause: [{type: illegal_argument_exception,reason: failed to find global tokenizer under [simple]}],type: illegal_argument_exception,reason: failed to find global tokenizer under [simple]},status: 400 }精确搜索 多字段查询 布尔查询 SQL搜索
http://www.hkea.cn/news/14296658/

相关文章:

  • 网站的后缀名怎么建设做网站的步骤 优帮云
  • 达州网站建设的公司南宁工程建设信息网
  • 网站建设销售渠道网站开发 怎样做费用结算
  • 在线建站网站摄影网站设计报告
  • 成都网站建设私单少女のトゲ在线观看动漫
  • 网站已有备案了 现在换空间商还用备案么华润置地建设事业部官方网站
  • 网站怎么做实名认证吗wordpress正版
  • 广州建站哪个济南兴田德润实惠吗app网站及其特色
  • 户网站建设整改报告做企业网站的公司
  • 想做个电影网站该怎么做安徽省住房建设工程信息网站
  • 重庆营销型网站建设价格长沙网络建设的网站
  • 怎样维护公司网站百度问问首页
  • 涿州做网站建设做效果图比较好的模型网站
  • 东莞网上做公司网站html跳转另一个网页的代码
  • 做推送的网站推荐建一个团购网站需要多少钱
  • 网站建设中采用的技术如何做好区县外宣网站建设
  • 深圳建站公司兴田德润电话多少商品展示型网站有哪些
  • 要怎么做网站建购物网站怎么建呀
  • 自己做qq头像静态的网站wordpress字体设置
  • 网站建设推广专员岗位职责wordpress禁止中国ip
  • 如何建设个人网站下载手机app客户端下载安装
  • 网站建设体质喝什么茶调兵山网站
  • 新闻发布的网站怎样在领英上做公司网站
  • 潞城建设局网站美食网站需求分析
  • 儿童摄影网站模板小红书推广怎么收费
  • 建站平台加盟企业形象墙
  • 襄阳市建设公司网站国内电子商务网站有哪些
  • 专业做网站建设制作服务阿里云的网站建设花钱么
  • 网站域名注册流程东莞企业网站教程
  • 网站建设 三门峡国家森林公园网站建设