当前位置:   article > 正文

docker 部分插件安装命令_nps nextcloud

nps nextcloud
  1. 安装npshttps://github.com/ehang-io/nps/blob/master/docs/run.md
  2. //查看docker版本,docker命令大全url=https://www.runoob.com/docker/docker-command-manual.html
  3. //docker 配置查看 https://hub.docker.com/
  4. docker version
  5. //查看已安装的镜像或容器,包括redis,MySQL等安装过的镜像
  6. docker images
  7. //列出容器命令 docker ps [OPTIONS]
  8. //[OPTIONS] 参数-a :显示所有的容器,包括未运行的。-f :根据条件过滤显示的内容。--format :指定返回值的模板文件。-l :显示最近创建的容器。-n :列出最近创建的n个容器。--no-trunc :不截断输出。-q :静默模式,只显示容器编号。-s :显示总的文件大小。
  9. //输出内容 CONTAINER ID: 容器 ID。IMAGE: 使用的镜像。COMMAND: 启动容器时运行的命令。CREATED: 容器的创建时间。
  10. //STATUS: 容器状态<created(已创建)restarting(重启中)running(运行中)removing(迁移中)paused(暂停)exited(停止)dead(死亡)>。
  11. //PORTS: 容器的端口信息和使用的连接类型(tcp\udp)。NAMES: 自动分配的容器名称。
  12. docker ps -a
  13. //首次运行acti mq,其他命令同理,-d:让容器后台运行,-P:将容器内部使用的网络端口映射到我们使用的主机上端口上,格式为:-p 主机(宿主)端口:容器端口
  14. docker run -d --name activemq -p 61617:61616 -p 8162:8161 webcenter/activemq
  15. //启动容器 非首次运行acti mq 通过docker ps -a 获取容器ID,使用启动容器命令 docker start <容器ID>||<容器别名>
  16. docker start ae77a442c80b
  17. //重启容器
  18. docker restart ae77a442c80b
  19. //停止一个容器,例如停止容器ID为ae77a442c80b的actmq ,使用停止容器命令 docker stop <容器 ID>|<容器别名>
  20. docker stop ae77a442c80b
  21. //删除一个镜像或容器,使用docker rm <容器ID>命令,-f 则不需要确认
  22. docker rm -f 1e560fca3906
  23. //查询docker 内存占用情况
  24. docker stats --no-stream
  25. ############################################安装nps内网穿透工具############################################
  26. docker pull ffdfgdfg/nps
  27. https://minhaskamal.github.io/DownGit/#/home?url=https://github.com/ehang-io/nps/tree/master/conf
  28. 下载conf文件夹并解压,或前往项目主页自行下载(升级请忽略)
  29. 继续阅读文档修改配置文件(升级请忽略)
  30. 启动:docker run -d --name nps --net=host -v <本机conf目录>:/conf ffdfgdfg/nps
  31. docker run -d --name nps --net=host -v /usr/local/nps/conf:/conf ffdfgdfg/nps
  32. 请确保为conf文件夹
  33. 查看日志docker logs nps
  34. nps的客户端npc
  35. 一款轻量级、功能强大的内网穿透代理服务器。支持tcp、udp流量转发,支持内网http代理、内网socks5代理,同时支持snappy压缩、站点保护、加密传输、多路复用、header修改等。支持web图形化管理,集成多用户模式。
  36. 使用方式
  37. docker pull ffdfgdfg/npc
  38. 下载conf文件夹并解压,或前往项目主页自行下载(升级请忽略)
  39. 继续阅读文档按照不同的启动方式启动(升级请忽略)
  40. 无配置文件:docker run -d --name npc --net=host ffdfgdfg/npc -server=<ip:port> -vkey=<web界面中显示的密钥> <以及一些其他参数>
  41. 配置文件:docker run -d --name npc --net=host -v <本机conf目录>:/conf ffdfgdfg/npc -config=/conf/npc.conf
  42. docker run -d --name npc --net=host ffdfgdfg/npc -server=81.71.66.164:8082 -vkey=do1cloudlocal
  43. 参数附在后面即可 请确保为conf文件夹下的npc.conf
  44. 查看日志docker logs npc
  45. ############################################安装activemq############################################
  46. #查询镜像
  47. docker search activemq
  48. #拉取镜像,此处推荐使用webcenter/activemq
  49. docker pull webcenter/activemq
  50. #首次运行acti mq,其他命令同理,-d:让容器后台运行,-P:将容器内部使用的网络端口映射到我们使用的主机上端口上,格式为:-p 主机(宿主)端口:容器端口
  51. #运行后,浏览器访问8162端口,就可以查看到activemq管理端
  52. docker run -d --name activemq -p 61617:61616 -p 8162:8161 webcenter/activemq
  53. ############################################安装rabbitmq############################################
  54. #拉取镜像,此处推荐使用rabbitmq:management,rabbitmq版本不带控制台,无法通过浏览器访问后台地址,故推荐使用带management标签的版本rabbitmq:management
  55. #docker pull rabbitmq
  56. docker pull rabbitmq:management
  57. #首次运行rabbitmq,其他命令同理,-d:让容器后台运行,-P:将容器内部使用的网络端口映射到我们使用的主机上端口上,格式为:-p 主机(宿主)端口:容器端口
  58. #运行后,浏览器访问15672 端口,就可以查看到rabbitmq管理端,命名为设置的admin/admin
  59. #docker run -d --name rabbitmq -p 5672:5672 -p 15672:15672 -v /usr/local/rabbitmq/data:/var/lib/rabbitmq -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin rabbitmq
  60. docker run -d --name rabbitmq -p 5672:5672 -p 15672:15672 -v /usr/local/rabbitmq/data:/var/lib/rabbitmq -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin rabbitmq:management
  61. ############################################安装dockercompose组件############################################
  62. #安装dockercompose组件
  63. apt install docker-compose
  64. #查看dockercompose版本
  65. docker-compose version
  66. #使用dockercompose组件构建命令,参考文件 https://blog.51cto.com/9291927/2310444
  67. docker-compose -f XXX.yml up -d
  68. ############################################安装Jenkins#####################################################
  69. //安装Jenkins之前,需要安装jdk,jdk在容器外安装也可以使用
  70. //拉取Jenkins镜像
  71. docker pull jenkins/jenkins
  72. //首次运行Jenkins,非首次运行请使用docker start 命令启动, --restart=always 系统启动时自动启动
  73. docker run -d -p 8082:8080 -p 50000:50000 --restart=always -v jenkins:/var/jenkins_home -v /etc/localtime:/etc/localtime --name jenkins docker.io/jenkins/jenkins
  74. docker run -d -p 9999:8080 -p 50000:50000 --restart=always -v /root/jenkins:/var/jenkins_home -v /etc/localtime:/etc/localtime --name jenkins docker.io/jenkins/jenkins
  75. #获取管理员密码,
  76. //进入docker容器 使用命令 docker exec -u 0 -it <容器ID>  /bin/bash #-u 0是使用root权限 9f9992ec0a4e是Jenkins的容器id
  77. docker exec -u 0 -it 9f9992ec0a4e  /bin/bash
  78. //在进入容器后,查看密码命令,执行后返回的就是密码
  79. cat /var/jenkins_home/secrets/initialAdminPassword
  80. f0f1d3c7f78a49409efd09c489f4dd56
  81. //安装中文语言包
  82. Manage Jenkins --> Manage Jenkins-->available -->filter 搜索Localization: Chinese (Simplified) 点击安装 安装进度可以在updateCenter中查看
  83. ############################################安装mysql#####################################################
  84. //拉取MySQL镜像
  85. docker pull mysql
  86. //首次启动MySQL,#如果不需要挂载数据到外部系统,则不需要 -v 后面参数, -v参数中 冒号前面为挂载到外部系统的目录,冒号后面为docker容器中的目录
  87. docker run -it -d -p 3306:3306 --name docker_mysql -v $PWD/conf/my.cnf:/usr/local/mysql/my.cnf -v $PWD/logs:/usr/local/mysql/log -v $PWD/data:/usr/local/mysql/data -e MYSQL_ROOT_PASSWORD=123456 docker.io/mysql
  88. //进入容器内部
  89. docker exec -it docker_mysql bash
  90. //登录MySQL,输入密码
  91. mysql -u root -p
  92. //使用MySQL数据库
  93. use mysql
  94. //设置远程访问权限
  95. grant all privileges on *.* to 'root'@'%';
  96. //刷新缓存
  97. FLUSH PRIVILEGES;
  98. //更改MySQL 8 采用caching_sha2_password,如果需要更改为旧版本密码策略,使用下面语句更改
  99. ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
  100. ############################################安装fastDFS#####################################################
  101. //查找Docker Hub上的fastdfs镜像
  102. docker search fastdfs
  103. //拉取镜像
  104. docker pull delron/fastdfs
  105. //启动tracker 首次启动 二次启动 可以使用 docker start tracker
  106. //跟踪服务器,主要做调度工作,起到均衡的作用;负责管理所有的 storage server和 group,每个 storage 在启动后会连接 Tracker,
  107. //告知自己所属 group 等信息,并保持周期性心跳。
  108. docker run -dti --network=host --name tracker -v /var/fdfs/tracker:/var/fdfs delron/fastdfs tracker
  109. //4.启动storage服务 IP 192.168.74.128 首次启动 二次启动 可以使用 docker start storage
  110. //存储服务器,主要提供容量和备份服务;以 group 为单位,每个 group 内可以有多台 storage server,组内的storage server上的数据互为备份
  111. docker run -d --network=host --name storage -e TRACKER_SERVER=192.168.74.128:22122 -v /home/storage:/var/fdfs -e GROUP_NAME=group1 delron/fastdfs storage
  112. //该版本的fastdfs自带nginx 默认端口8888
  113. ############################################安装mongoDB#####################################################
  114. //查询服务器中MongoDB镜像
  115. docker search mongo
  116. //拉取最近的镜像
  117. docker pull mongo
  118. //首次运行 #如果不需要挂载数据到外部系统,则不需要 -v 后面参数, -v参数中 冒号前面为挂载到外部系统的目录,冒号后面为docker容器中的目录
  119. docker run -itd --name mongo -p 27017:27017 -v /usr/local/mongo/db:/data/db  -e MONGO_INITDB_ROOT_USERNAME=root -e MONGO_INITDB_ROOT_PASSWORD=root -d mongo --auth
  120. //不需要指定账户的话
  121. docker run -itd --name mongo -p 27017:27017 -v /usr/local/mongo/db:/data/db -d mongo --auth
  122. //MongoDB 管理工具下载 https://nosqlbooster.com/downloads
  123. ############################################安装redis#####################################################
  124. //拉取最近的镜像
  125. docker pull redis
  126. //首次启动redis
  127. ##############单机模式#############################
  128. docker run -itd --name redis -p 6379:6379 redis
  129. ##############集群模式############################# 参考文件:https://www.cnblogs.com/qianbing-li/p/11357068.html
  130. #创建容器
  131. docker create --name redis-node01 --net host -v /data/redis-data/node01:/data redis --cluster-enabled yes --cluster-config-file nodes-node-01.conf --port 6379
  132. docker create --name redis-node02 --net host -v /data/redis-data/node02:/data redis --cluster-enabled yes --cluster-config-file nodes-node-02.conf --port 6380
  133. docker create --name redis-node03 --net host -v /data/redis-data/node03:/data redis --cluster-enabled yes --cluster-config-file nodes-node-03.conf --port 6381
  134. #启动容器
  135. docker start redis-node01 redis-node02 redis-node03
  136. #进入redis-node01容器进行操作
  137. docker exec -it redis-node01 /bin/bash
  138. #组建集群(注意端口的变化),提示创建分片,选择yes
  139. redis-cli --cluster create 192.168.74.128:6379 192.168.74.128:6380 192.168.74.128:6381 --cluster-replicas 0
  140. #查看集群信息:
  141. root@91df3e5228b1:/data# redis-cli
  142. 127.0.0.1:6379> CLUSTER NODES
  143. ############################################部署zookeeper集群############################################
  144. #拉取zookeeper镜像
  145. docker pull zookeeper
  146. # 配置集群 https://hub.docker.com/_/zookeeper
  147. #官方推荐方式,使用docker-compose安装(docker-compose在上面有提及安装方式).在https://hub.docker.com/_/zookeeper上拷贝stack.yml的内容到安装docker容器的主机上启动以下命令
  148. docker-compose -f stack.yml up -d
  149. #执行docker-compose安装后,使用docker ps -a 查看是否有该镜像,有的话便可以直接执行下面命令起送
  150. #合并启动
  151. docker start dockercompose_zoo1_1 dockercompose_zoo2_1 dockercompose_zoo3_1
  152. #或者分别启动
  153. docker start dockercompose_zoo1_1
  154. docker start dockercompose_zoo2_1
  155. docker start dockercompose_zoo3_1
  156. ############################################安装solr############################################
  157. #拉取solr镜像
  158. docker pull solr
  159. #单机版
  160. #运行创建容器
  161. docker run -p 8983:8983 --name solr -t solr
  162. #将容器中的配置文件拷贝到外部系统/var/solr目录
  163. docker cp solr:/opt/solr/ /var/solr/
  164. #赋予目录下所有文件最高操作权限, -R为循环遍历赋予权限
  165. chmod -R 777 /var/solr/
  166. #将容器中data内容拷贝到外部系统 /usr/local/solr目录
  167. docker cp solr:/var/solr /usr/local/solr/
  168. #赋予目录下所有文件最高操作权限, -R为循环遍历赋予权限
  169. chmod -R 777 /usr/local/solr/
  170. #删除容器后,-f 为强制删除,建议停止容器后再删除,重新使用下面挂载外部目录方式创建容器
  171. docker rm -f solr
  172. #重新创建容器并将配置文件夹挂载到var/solr目录,将数据文件夹挂载到/usr/local/solr 目录
  173. docker run -d -p 8983:8983 --name solr -v /var/solr:/opt/solr -v /usr/local/solr:/var/solr -t solr
  174. #进入solr容器
  175. docker exec -it solr /bin/bash
  176. #创建core实例,拷贝默认配置到需要创建的core目录,未指定前在容器/opt/solr/server/solr/configsets/_default/conf/,指定外部挂载后,在挂载目录中
  177. #容器数据默认为/var/solr/data目录,挂载后在/usr/local/solr/data
  178. #外部使用以下命令进行复制
  179. cp -r /var/solr/server/solr/configsets/_default/conf/ /usr/local/solr/data/user
  180. #赋予操作权限,否则后台创建字段时
  181. chmod -R 777 /usr/local/solr/data/user
  182. ############################################安装jaeger############################################
  183. # 多合一版本安装
  184. #拉取最新版镜像
  185. docker pull jaegertracing/all-in-one
  186. #首次运行(依赖于zipkin)
  187. docker run -d --name jaeger -e COLLECTOR_ZIPKIN_HTTP_PORT=9411 -p 5775:5775/udp -p 6831:6831/udp -p 6832:6832/udp -p 5778:5778 -p 16686:16686 -p 14268:14268 -p 9411:9411 jaegertracing/all-in-one
  188. ############################################安装hadoop############################################
  189. #拉取镜像sequenceiq/hadoop-docker
  190. docker pull sequenceiq/hadoop-docker
  191. #运行hadoop单机版,50070是namenode的页面(主页面),50075是datanode的页面,50090是status的页面,9000是客户端使用hdfs协议连接的端口
  192. #浏览器打开50070端口,查看是否能够
  193. docker run -i -t --name hadoop -p 50070:50070 -p 9000:9000 -p 8088:8088 -p 8040:8040 -p 8042:8042  -p 49707:49707  -p 50010:50010  -p 50075:50075  -p 50090:50090 sequenceiq/hadoop-docker /etc/bootstrap.sh -bash
  194. ############################################安装memcached############################################
  195. #拉取memcached镜像
  196. docker pull memcached
  197. #首次运行memcached,-m 默认启动 memcached设置的最大容量是 64M,设置其他的容量,如 128M
  198. docker run -d --name memcached -p 11211:11211 memcached -m 256
  199. ############################################安装kafka############################################
  200. #拉取kafka镜像,安装参考https://www.cnblogs.com/telwanggs/p/10857182.html
  201. docker pull wurstmeister/kafka
  202. #首次运行,kafka依赖zookeeper,运行前需要安装并启动zookeeper,KAFKA_AUTO_CREATE_TOPICS_ENABLE参数设置是够启用自动创建话题
  203. docker run -d --name kafka --publish 9092:9092 \
  204. -e KAFKA_BROKER_ID=0 \
  205. -e KAFKA_AUTO_CREATE_TOPICS_ENABLE=true \
  206. -e KAFKA_ZOOKEEPER_CONNECT=192.168.74.128:2182 \
  207. -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 \
  208. -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.74.128:9092 wurstmeister/kafka
  209. ############################################安装consul注册中心集群############################################
  210. #参考文件https://www.cnblogs.com/zhouqi666/p/11894670.html
  211. docker pull consul
  212. #1.启动第一个节点, 叫consul1
  213.  docker run --name consul1 -d -p 8500:8500 -p 8300:8300 -p 8301:8301 -p 8302:8302 -p 8600:8600 consul agent -server -bootstrap-expect 2 -ui -bind=0.0.0.0 -client=0.0.0.0 
  214. #端口详解
  215. #8500 : http 端口,用于 http 接口和 web ui访问;
  216. #8300 : server rpc 端口,同一数据中心 consul server 之间通过该端口通信
  217. #8301 : serf lan 端口,同一数据中心 consul client 通过该端口通信; 用于处理当前datacenter中LAN的gossip通信
  218. #8302 : serf wan 端口,不同数据中心 consul server 通过该端口通信; agent Server使用,处理与其他datacenter的gossip通信;
  219. #8600 : dns 端口,用于已注册的服务发现;
  220. #2.查看容器ip地址
  221. docker inspect --format='{{.NetworkSettings.IPAddress}}' consul1
  222. # 输出172.17.0.3
  223. #3.启动第二个consul服务(端口8501):consul2, 并加入consul1(使用join命令)
  224.  docker run --name consul2 -d -p 8501:8500 consul agent -server -ui -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.3 
  225. #4.启动第三个consul服务(端口8502):consul3, 并加入consul1(使用join命令)
  226.  docker run --name consul3 -d -p 8502:8500 consul agent -server -ui -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.3  
  227. #5.查看consul集群信息
  228.  docker exec -it consul1 consul members 
  229. ## 可以看到集群里的三个节点
  230. #Node Address Status Type Build Protocol DC Segment
  231. #618e9f617509 172.17.0.5:8301 alive server 1.6.2 2 dc1 <all>
  232. #6ba34e2feb66 172.17.0.6:8301 alive server 1.6.2 2 dc1 <all>
  233. #8cba36da0384 172.17.0.7:8301 alive server 1.6.2 2 dc1 <all>
  234. #6.通过访问8500/8501/8502端口查看web界面
  235. ############################################安装rancher############################################
  236. Pulling from rancher/rancher
  237. docker run -d --restart=unless-stopped \
  238. -p 80:80 -p 443:443 \
  239. rancher/rancher:latest
  240. ############################################安装skywalking 链路监控############################################
  241. #docker仓库 https://hub.docker.com/r/apache/skywalking-oap-server/tags
  242. #此处使用es7作为存储,所以需要拉取es7相关的版本
  243. docker pull apache/skywalking-oap-server:7.0.0-es7
  244. #首次启动 ,启动之前需要先启动es7
  245. docker run --name oap --net somenetwork --restart always -d -e SW_STORAGE=elasticsearch7 -e SW_STORAGE_ES_CLUSTER_NODES=elasticsearch:9200 apache/skywalking-oap-server:7.0.0-es7
  246. docker run --name oap -p 1234:1234 -p 11800:11800 -p 12800:12800 --restart always -d -e SW_STORAGE=elasticsearch7 -e SW_STORAGE_ES_CLUSTER_NODES=elasticsearch:9200 apache/skywalking-oap-server:7.0.0-es7
  247. docker run --name oap --restart always -d apache/skywalking-oap-server:7.0.0-es7
  248. ### 安装skywalking-ui
  249. docker pull apache/skywalking-ui
  250. #首次启动, 将8080改成9090端口,访问9090端口即可看到UI界面
  251. docker run --name oap-ui --net somenetwork -p 9090:8080 --restart always -d -e SW_OAP_ADDRESS=oap:12800 apache/skywalking-ui
  252. docker run --name oap-ui -d -p 9090:8080 --link oap:oap -e SW_OAP_ADDRESS=oap:12800 --restart always apache/skywalking-ui
  253. kubeadm init \
  254. --image-repository registry.aliyuncs.com/google_containers \
  255. --kubernetes-version=v1.18.3 \
  256. --pod-network-cidr=10.244.0.0/16 \
  257. --v=10
  258. kubeadm join 192.168.159.128:6443 --token z469is.h6w1kd84ifxcy1um \
  259. --discovery-token-ca-cert-hash sha256:891eff23c79c6430ebe991359e2b6270f4886455aba413cf2c0f5c29bef3b2f4
  260. docker pull kubernetesui/dashboard:v2.0.1
  261. docker tag kubernetesui/dashboard:v2.0.1 k8s.gcr.io/kubernetes-dashboard-amd64:v2.0.1
  262. docker rmi kubernetesui/dashboard:v2.0.1:v2.0.1
  263. kubectl get secret -n kube-system | grep k8sadmin | cut -d " " -f1 | xargs -n 1 | xargs kubectl get secret -o 'jsonpath={.data.token}' -n kube-system | base64 --decode
  264. sudo mkdir -p /etc/docker
  265. sudo tee /etc/docker/daemon.json <<-'EOF'
  266. {
  267. "registry-mirrors": ["https://*****.mirror.aliyuncs.com"]
  268. }
  269. EOF
  270. sudo systemctl daemon-reload
  271. sudo systemctl restart docker
  272. kubeadm init \
  273. --kubernetes-version=v1.18.3 \
  274. --pod-network-cidr=10.244.0.0/16 \
  275. cat <<EOF > dashboard-admin.yaml
  276. apiVersion: rbac.authorization.k8s.io/v1beta1
  277. kind: ClusterRoleBinding
  278. metadata:
  279. name: kubernetes-dashboard
  280. labels:
  281. k8s-app: kubernetes-dashboard
  282. roleRef:
  283. apiGroup: rbac.authorization.k8s.io
  284. kind: ClusterRole
  285. name: cluster-admin
  286. subjects:
  287. - kind: ServiceAccount
  288. name: kubernetes-dashboard
  289. namespace: kube-system
  290. EOF
  291. docker stop $(docker ps -a | grep "k8s" | awk '{print $1}')
  292. docker rm -f $(docker ps -a | grep "k8s" | awk '{print $1}')
  293. docker pull mirrorgcrio/kube-apiserver:v1.18.3
  294. docker pull mirrorgcrio/kube-controller-manager:v1.18.3
  295. docker pull mirrorgcrio/kube-scheduler:v1.18.3
  296. docker pull mirrorgcrio/kube-proxy:v1.18.3
  297. docker pull mirrorgcrio/pause:3.2
  298. docker pull mirrorgcrio/etcd:3.4.3-0
  299. docker pull mirrorgcrio/coredns:1.6.7
  300.   
  301.   
  302. docker tag mirrorgcrio/kube-apiserver:v1.18.3 k8s.gcr.io/kube-apiserver:v1.18.3
  303. docker tag mirrorgcrio/kube-controller-manager:v1.18.3 k8s.gcr.io/kube-controller-manager:v1.18.3
  304. docker tag mirrorgcrio/kube-scheduler:v1.18.3 k8s.gcr.io/kube-scheduler:v1.18.3
  305. docker tag mirrorgcrio/kube-proxy:v1.18.3 k8s.gcr.io/kube-proxy:v1.18.3
  306. docker tag mirrorgcrio/pause:3.2 k8s.gcr.io/pause:3.2
  307. docker tag mirrorgcrio/etcd:3.4.3-0 k8s.gcr.io/etcd:3.4.3-0
  308. docker tag mirrorgcrio/coredns:1.6.7 k8s.gcr.io/coredns:1.6.7
  309.   
  310.   
  311. docker image rm mirrorgcrio/kube-apiserver:v1.18.3
  312. docker image rm mirrorgcrio/kube-controller-manager:v1.18.3
  313. docker image rm mirrorgcrio/kube-scheduler:v1.18.3
  314. docker image rm mirrorgcrio/kube-proxy:v1.18.3
  315. docker image rm mirrorgcrio/pause:3.2
  316. docker image rm mirrorgcrio/etcd:3.4.3-0
  317. docker image rm mirrorgcrio/coredns:1.6.7
  318. [addons] Applied essential addon: CoreDNS
  319. [addons] Applied essential addon: kube-proxy
  320. Your Kubernetes control-plane has initialized successfully!
  321. To start using your cluster, you need to run the following as a regular user:
  322. mkdir -p $HOME/.kube
  323. sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  324. sudo chown $(id -u):$(id -g) $HOME/.kube/config
  325. You should now deploy a pod network to the cluster.
  326. Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  327. https://kubernetes.io/docs/concepts/cluster-administration/addons/
  328. Then you can join any number of worker nodes by running the following on each as root:
  329. kubeadm join 192.168.159.129:6443 --token p12p2p.5vlp54nsjc24n2aw \
  330. --discovery-token-ca-cert-hash sha256:344f1a09063663f6c50487b58830005d650085eceeb4179204484bd33a36f3de
  331. kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
  332. sudo vi /etc/hosts
  333. 151.101.76.133 raw.githubusercontent.com
  334. root@moodincode-virtual-machine:~/桌面# kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
  335. podsecuritypolicy.policy/psp.flannel.unprivileged created
  336. clusterrole.rbac.authorization.k8s.io/flannel created
  337. clusterrolebinding.rbac.authorization.k8s.io/flannel created
  338. serviceaccount/flannel created
  339. configmap/kube-flannel-cfg created
  340. daemonset.apps/kube-flannel-ds-amd64 created
  341. daemonset.apps/kube-flannel-ds-arm64 created
  342. daemonset.apps/kube-flannel-ds-arm created
  343. daemonset.apps/kube-flannel-ds-ppc64le created
  344. daemonset.apps/kube-flannel-ds-s390x created
  345. wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.1/aio/deploy/recommended.yaml
  346. kubectl apply -f recommended.yaml
  347. root@moodincode-virtual-machine:~/桌面# kubectl apply -f recommended.yaml
  348. namespace/kubernetes-dashboard created
  349. serviceaccount/kubernetes-dashboard created
  350. service/kubernetes-dashboard created
  351. secret/kubernetes-dashboard-certs created
  352. secret/kubernetes-dashboard-csrf created
  353. secret/kubernetes-dashboard-key-holder created
  354. configmap/kubernetes-dashboard-settings created
  355. role.rbac.authorization.k8s.io/kubernetes-dashboard created
  356. clusterrole.rbac.authorization.k8s.io/kubernetes-dashboard created
  357. rolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
  358. clusterrolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
  359. deployment.apps/kubernetes-dashboard created
  360. service/dashboard-metrics-scraper created
  361. deployment.apps/dashboard-metrics-scraper created
  362. cat <<EOF > dashboard-admin.yaml
  363. apiVersion: rbac.authorization.k8s.io/v1beta1
  364. kind: ClusterRoleBinding
  365. metadata:
  366. name: kubernetes-dashboard
  367. labels:
  368. k8s-app: kubernetes-dashboard
  369. roleRef:
  370. apiGroup: rbac.authorization.k8s.io
  371. kind: ClusterRole
  372. name: cluster-admin
  373. subjects:
  374. - kind: ServiceAccount
  375. name: kubernetes-dashboard
  376. namespace: kube-system
  377. EOF
  378. kubectl create -f dashboard-admin.yaml
  379. kubectl -n kubernetes-dashboard edit service kubernetes-dashboard
  380. kind: ClusterRoleBinding
  381. apiVersion: rbac.authorization.k8s.io/v1beta1
  382. metadata:
  383. name: admin
  384. annotations:
  385. rbac.authorization.kubernetes.io/autoupdate: "true"
  386. roleRef:
  387. kind: ClusterRole
  388. name: cluster-admin
  389. apiGroup: rbac.authorization.k8s.io
  390. subjects:
  391. - kind: ServiceAccount
  392. name: admin
  393. namespace: kubernetes-dashboard
  394. ---
  395. apiVersion: v1
  396. kind: ServiceAccount
  397. metadata:
  398. name: admin
  399. namespace: kubernetes-dashboard
  400. labels:
  401. kubernetes.io/cluster-service: "true"
  402. addonmanager.kubernetes.io/mode: Reconcile
  403. docker start $(docker ps -a | awk '{ print $1}' | tail -n +2)
  404. kubectl get srv --all-namespaces
  405. kubectl get pods --all-namespaces
  406. kubectl get node --all-namespaces
  407. 透過 journalctl -f -u kubelet 指令查詢 log
  408. kubectl -n kubernetes-dashboard describe secret $(kubectl -n kubernetes-dashboard get secret | grep admin-user | awk '{print $1}')
  409. ###################################################安装mariab##################################################
  410. docker pull mariadb
  411. docker run -d --name mariadb -p 3306:3306 -e PUID=1000 -e PGID=100 -e MYSQL_ROOT_PASSWORD=123456 -e MYSQL_DATEBASE=nextcloud -v /opt/nextcloud/mariadb:/var/lib/mysql --restart=unless-stopped mariadb
  412. ############################################安装nextcloud##################################################################
  413. #nextcloud依赖数据库,可以安装Mariadb或者mysql等数据库
  414. docker pull nextcloud
  415. docker run -d --name nextcloud -p 807:80 -v /opt/nextcloud/html:/var/www/html -v /opt/nextcloud/data:/var/www/html/data -v /opt/nextcloud/apps:/var/www/html/custom_apps -v /opt/nextcloud/config:/var/www/html/config --restart=unless-stopped nextcloud

 

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号