当前位置: 首页 > news >正文

做网站编辑需要学什么软件公司怎么赚钱

做网站编辑需要学什么,软件公司怎么赚钱,网站推广100种方法,怎么把自己做的网站让别人收到目录 1.部署3节点mongodb复制集。 1.1 安装mongodb 1.2 部署复制集 2.部署3节点Kafka集群 1.部署3节点mongodb复制集。 1.1 安装mongodb MongoDB安装包下载 下载地址#xff1a;https://www.mongodb.com/try/download/community 版本根据需求选择#xff0c;Mongodb6.…目录 1.部署3节点mongodb复制集。 1.1 安装mongodb 1.2 部署复制集 2.部署3节点Kafka集群 1.部署3节点mongodb复制集。   1.1 安装mongodb MongoDB安装包下载 下载地址https://www.mongodb.com/try/download/community 版本根据需求选择Mongodb6.0及以上的版本没有mongo命令 节点规划 10.0.0.100  10.0.0.200  10.0.0.201 例二进制安装 #部署环境 apt update apt install libcurl3 openssl # 创建所需用户和组 useradd mongod # 创建 mongodb 所需目录结构 mkdir -p /mongodb/{conf,data,log} # 创建 YAML 格式的配置文件 , 早期 3.0 版本以前是普通文本格式 cat /mongodb/conf/mongo.conf EOF # 日志相关 systemLog: destination: file path: /mongodb/log/mongodb.log   # 日志位置 logAppend: true                   # 追加日志 # 数据存储有关 storage: dbPath: /mongodb/data/             # 数据路径的位置 # 进程控制 processManagement: fork : true                         # 后台守护进程 # 网络配置有关 net: port: 27017                         # 端口号 , 默认不配置端口号是 27017 bindIp: 0 .0.0.0                     # 监听地址自 MongoDB 3.6 版本后默认监听在 localhost # 安全验证有关配置 #security: #authorization: enabled             # 是否打开用户名密码验证 , 默认此项为关掉 EOF cat /mongodb/conf/mongo.conf systemLog:   destination: file path: /mongodb/log/mongodb.log   logAppend: true storage:   dbPath: /mongodb/data/ processManagement:   fork: true net:   port: 27017   bindIp: 0 .0.0.0 replication:    replSetName: huangrepl    #指定复制集名称所有复制集成员此名称要一致 chown -R mongod.mongod /mongodb/ tar xf mongodb-linux-x86_64-ubuntu2004-5.0.3.tgz  -C /usr/local ln -s /usr/local/mongodb-linux-x86_64-rhel70-3.6.23-8-gc2609ed/  /usr/local/mongodb           #service配置文件 [Unit] Descriptionmongodb Afternetwork.target remote-fs.target nss-lookup.target [Service] Typeforking Usermongod Groupmongod ExecStart     /usr/local/mongodb/bin/mongod --config /mongodb/conf/mongo.conf ExecReload/bin/kill -s HUP \$MAINPID ExecStopusr/local/bin/mongod --config /mongodb/conf/mongo.conf --shutdown PrivateTmptrue # file size LimitFSIZEinfinity # cpu time LimitCPUinfinity # virtual memory size LimitASinfinity # open files LimitNOFILE64000 # processes/threads LimitNPROC64000 # locked memory LimitMEMLOCKinfinity # total threads (userkernel) TasksMaxinfinity TasksAccountingfalse [Install] WantedBymulti-user.target #启动服务 systemctl daemon-reload systemctl enable --now  mongod 1.2 部署复制集 # mongo管理工具下载 apt install mongodb-clients 或者安装mongosh  wget https://downloads.mongodb.com/compass/mongosh-1.6.0-linux-x64.tgz #在主机上指定复制集成员信息 mongo config { _id: huangrepl, members: [{_id: 0, host: 10.0.0.100:27017},{_id: 1, host: 10.0.0.200:27017},{_id: 3, host: 10.0.0.201:27017}]} #json格式显示变量内容 printjson(config) {     _id : huangrepl,     members : [         {             _id : 0,             host : 10.0.0.100:27017         },         {             _id : 1,             host : 10.0.0.200:27017         },         {             _id : 3,             host : 10.0.0.201:27017         }     ] }   #初始化并启动复制集 rs.initiate(config) { ok : 1 } huangrepl:PRIMARY #查看复制集信息 huangrepl:PRIMARY huangrepl:PRIMARY rs.status() {     set : huangrepl,     date : ISODate(2024-08-12T06:35:54.276Z),     myState : 1,     term : NumberLong(1),     syncSourceHost : ,     syncSourceId : -1,     heartbeatIntervalMillis : NumberLong(2000),     majorityVoteCount : 2,     writeMajorityCount : 2,     votingMembersCount : 3,     writableVotingMembersCount : 3 ................... members : [         {             _id : 0,             name : 10.0.0.100:27017,  #             health : 1,             state : 1,             stateStr : PRIMARY,             uptime : 896,             optime : {                 ts : Timestamp(1723444549, 1),                 t : NumberLong(1)             },             optimeDate : ISODate(2024-08-12T06:35:49Z),             syncSourceHost : ,             syncSourceId : -1,             infoMessage : ,             electionTime : Timestamp(1723444499, 1),             electionDate : ISODate(2024-08-12T06:34:59Z),             configVersion : 1,             configTerm : 1,             self : true,             lastHeartbeatMessage :         },         {             _id : 1,             name : 10.0.0.200:27017,             health : 1,             state : 2,             stateStr : SECONDARY,             uptime : 64,             optime : {                 ts : Timestamp(1723444549, 1),                 t : NumberLong(1)             },             optimeDurable : {                 ts : Timestamp(1723444549, 1),                 t : NumberLong(1)             },             optimeDate : ISODate(2024-08-12T06:35:49Z),             optimeDurableDate : ISODate(2024-08-12T06:35:49Z),             lastHeartbeat : ISODate(2024-08-12T06:35:53.853Z),             lastHeartbeatRecv : ISODate(2024-08-12T06:35:53.357Z),             pingMs : NumberLong(0),             lastHeartbeatMessage : ,             syncSourceHost : 10.0.0.100:27017,             syncSourceId : 0,             infoMessage : ,             configVersion : 1,             configTerm : 1         },         {             _id : 3,             name : 10.0.0.201:27017,             health : 1,             state : 2,             stateStr : SECONDARY,             uptime : 64,             optime : {                 ts : Timestamp(1723444549, 1),                 t : NumberLong(1)             },             optimeDurable : {                 ts : Timestamp(1723444549, 1),                 t : NumberLong(1)             },             optimeDate : ISODate(2024-08-12T06:35:49Z),             optimeDurableDate : ISODate(2024-08-12T06:35:49Z),             lastHeartbeat : ISODate(2024-08-12T06:35:53.853Z),             lastHeartbeatRecv : ISODate(2024-08-12T06:35:53.357Z),             pingMs : NumberLong(0),             lastHeartbeatMessage : ,             syncSourceHost : 10.0.0.100:27017,             syncSourceId : 0,             infoMessage : ,             configVersion : 1,             configTerm : 1   2.部署3节点Kafka集群 安装kafka 当前版本 Kafka 依赖 Zookeeper 服务 , 但以后将不再依赖 环境说明 # 在三个 Ubuntu20.04 节点提前部署 zookeeper 和 kafka 三个节点复用 node1:10.0.0.100 node2:10.0.0.200 node3:10.0.0.201 # 注意 : 生产中 zookeeper 和 kafka 一般是分开独立部署的 ,kafka 安装前需要安装 java 环境 例 #部署java环境 apt install openjdk-8-jdk -y #下载二进制包 wget -P /usr/local/src  https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/3.5.0/kafka_2.13-3.5.0.tgz tar kafka_2.13-3.5.0.tgz -C /usr/local ln -s /usr/local/kafka_2.13-3.5.0 /usr/local/kafka #修改环境变量 echo PATH/usr/local/kafka/bin:$PATH /etc/profile.d/kafka.sh . /etc/profile.d/kafka.sh #生成配置文件 vim /usr/local/kafka/conf/server.properties # broker 的 id 值为整数且必须唯一在一个集群中不能重复 broker .id 1 ############################# Socket ServerSettings ###################### # kafka 监听端口默认 9092 listeners PLAINTEXT://10.0.0.101:9092 # 处理网络请求的线程数量默认为 3 个 num.network .threads 3 # 执行磁盘 IO 操作的线程数量默认为 8 个 num.io .threads 8 # socket 服务发送数据的缓冲区大小默认 100KB socket.send.buffer .bytes 102400 # socket 服务接受数据的缓冲区大小默认 100KB socket.receive.buffer .bytes 102400 # socket 服务所能接受的一个请求的最大大小默认为 100M socket.request.max .bytes 104857600 ############################# Log Basics################################### # kafka 存储消息数据的目录 log .dirs ../data # 每个 topic 默认的 partition num .partitions 1 # 设置副本数量为 3, 当 Leader 的 Replication 故障会进行故障自动转移。 default.replication .factor 3 # 在启动时恢复数据和关闭时刷新数据时每个数据目录的线程数量 num.recovery.threads.per.data .dir 1 ############################# Log FlushPolicy ############################# # 消息刷新到磁盘中的消息条数阈值 log.flush.interval .messages 10000 # 消息刷新到磁盘中的最大时间间隔 ,1s log.flush.interval .ms 1000 ############################# Log RetentionPolicy ######################### # 日志保留小时数超时会自动删除默认为 7 天 log.retention .hours 168 # 日志保留大小超出大小会自动删除默认为 1G #log.retention.bytes1073741824 # 日志分片策略单个日志文件的大小最大为 1G 超出后则创建一个新的日志文件 log.segment .bytes 1073741824 # 每隔多长时间检测数据是否达到删除条件 ,300s log.retention.check.interval .ms 300000 ############################# Zookeeper #################################### # Zookeeper 连接信息如果是 zookeeper 集群则以逗号隔开 zookeeper .connect 10 .0.0.100:2181,10.0.0.200:2181,10.0.0.201:2181 # 连接 zookeeper 的超时时间 ,6s zookeeper.connection.timeout .ms 6000 # 是否允许删除 topic 默认为 false topic 只会标记为 marked for deletion delete.topic .enable true #创建数据目录 mkdir /usr/local/kafka/data #创建service服务文件 cat /lib/systemd/system/kafka.service EOF [Unit]                                                                           DescriptionApache kafka Afternetwork.target [Service] Typesimple #EnvironmentJAVA_HOME/data/server/java #PIDFile/usr/local/kafka/kafka.pid ExecStart/usr/local/kafka/bin/kafka-server-start.sh  /usr/local/kafka/config/server.properties ExecStop/bin/kill  -TERM \${MAINPID} Restartalways RestartSec20 [Install] WantedBymulti-user.target #启动服务 systemctl daemon-reload systemctl enable --now kafka.service kafka-server-start.sh -daemon /usr/local/kafka/config/server.properties #验证 kafka-topics.sh --create --topic huang --bootstrap-server 10.0.0.100:9092 -partitions 3 --replication-factor 2 在其他节点上查询可以得到: ls /usr/local/kafka/data/ cleaner-offset-checkpoint  huang-2                      meta.properties                   replication-offset-checkpoint huang-0                    log-start-offset-checkpoint  recovery-point-offset-checkpoint
http://www.hkea.cn/news/14303092/

相关文章:

  • 网站备案号显示红色织梦网站手机版端设置
  • 前端网站开发总结全媒体广告策划与营销
  • 可做设计任务的网站在线法律咨询免费
  • 外贸营销型网站策划中seo层面包括广东网站开发推荐
  • 国外网站阻止国内访问怎么做网站建设图标素材免费
  • 官方网站如何做广告推广哪个平台好
  • 浦西网站建设美叶设计网站
  • 江阴做网站哪家好徐州企业网站推广
  • 自己做的网站怎么维护专门做图表的网站
  • 各大网站投稿邮箱关键词优化排名
  • 学校网站建设项目要多少钱北京app制作公司
  • 站群管理软件客户案例 网站设计
  • 做电影网站需要注意什么软件服装设计网站模板下载
  • 织梦网站模板怎么用腾讯企业邮箱域名续费
  • 宁波网站设计服务收费价格服装设计公司室内平面图
  • 网站内页怎么做室内设计联盟官网app
  • 郑州网站科技wordpress tag 优化
  • .net 网站开发权限设计网上商城流程图
  • 阿里云备案 网站服务内容域名注册好了怎么登录
  • 企业站群cms中国互联网上网服务行业协会
  • 网站制作详细报价表烟台企业宣传片制作公司
  • 网站运营建设职业规划ppt模板免费下载
  • 礼县住房和城乡建设局网站长春最新发布信息
  • 室内设计论坛网站大石桥网站
  • 手机网站 设计趋势资阳网络营销顾问招聘
  • 南通住房和城乡建设部网站用织梦做的网站 图片打开很慢
  • cms网站栏目介绍django网站开发规范
  • 青岛网站seo分析镇江佳鑫网络科技有限公司
  • 企业申报网站移动端优质网页
  • 网站运营推广方案做一个电商网站多少钱