赞
踩
- 安装npshttps://github.com/ehang-io/nps/blob/master/docs/run.md
- //查看docker版本,docker命令大全url=https://www.runoob.com/docker/docker-command-manual.html
- //docker 配置查看 https://hub.docker.com/
- docker version
- //查看已安装的镜像或容器,包括redis,MySQL等安装过的镜像
- docker images
- //列出容器命令 docker ps [OPTIONS]
- //[OPTIONS] 参数-a :显示所有的容器,包括未运行的。-f :根据条件过滤显示的内容。--format :指定返回值的模板文件。-l :显示最近创建的容器。-n :列出最近创建的n个容器。--no-trunc :不截断输出。-q :静默模式,只显示容器编号。-s :显示总的文件大小。
- //输出内容 CONTAINER ID: 容器 ID。IMAGE: 使用的镜像。COMMAND: 启动容器时运行的命令。CREATED: 容器的创建时间。
- //STATUS: 容器状态<created(已创建)restarting(重启中)running(运行中)removing(迁移中)paused(暂停)exited(停止)dead(死亡)>。
- //PORTS: 容器的端口信息和使用的连接类型(tcp\udp)。NAMES: 自动分配的容器名称。
- docker ps -a
- //首次运行acti mq,其他命令同理,-d:让容器后台运行,-P:将容器内部使用的网络端口映射到我们使用的主机上端口上,格式为:-p 主机(宿主)端口:容器端口
- docker run -d --name activemq -p 61617:61616 -p 8162:8161 webcenter/activemq
- //启动容器 非首次运行acti mq 通过docker ps -a 获取容器ID,使用启动容器命令 docker start <容器ID>||<容器别名>
- docker start ae77a442c80b
- //重启容器
- docker restart ae77a442c80b
- //停止一个容器,例如停止容器ID为ae77a442c80b的actmq ,使用停止容器命令 docker stop <容器 ID>|<容器别名>
- docker stop ae77a442c80b
- //删除一个镜像或容器,使用docker rm <容器ID>命令,-f 则不需要确认
- docker rm -f 1e560fca3906
- //查询docker 内存占用情况
- docker stats --no-stream
- ############################################安装nps内网穿透工具############################################
- docker pull ffdfgdfg/nps
- https://minhaskamal.github.io/DownGit/#/home?url=https://github.com/ehang-io/nps/tree/master/conf
- 下载conf文件夹并解压,或前往项目主页自行下载(升级请忽略)
- 继续阅读文档修改配置文件(升级请忽略)
- 启动:docker run -d --name nps --net=host -v <本机conf目录>:/conf ffdfgdfg/nps
- docker run -d --name nps --net=host -v /usr/local/nps/conf:/conf ffdfgdfg/nps
-
- 请确保为conf文件夹
- 查看日志docker logs nps
-
- nps的客户端npc
- 一款轻量级、功能强大的内网穿透代理服务器。支持tcp、udp流量转发,支持内网http代理、内网socks5代理,同时支持snappy压缩、站点保护、加密传输、多路复用、header修改等。支持web图形化管理,集成多用户模式。
- 使用方式
- docker pull ffdfgdfg/npc
- 下载conf文件夹并解压,或前往项目主页自行下载(升级请忽略)
- 继续阅读文档按照不同的启动方式启动(升级请忽略)
- 无配置文件:docker run -d --name npc --net=host ffdfgdfg/npc -server=<ip:port> -vkey=<web界面中显示的密钥> <以及一些其他参数>
- 配置文件:docker run -d --name npc --net=host -v <本机conf目录>:/conf ffdfgdfg/npc -config=/conf/npc.conf
- docker run -d --name npc --net=host ffdfgdfg/npc -server=81.71.66.164:8082 -vkey=do1cloudlocal
- 参数附在后面即可 请确保为conf文件夹下的npc.conf
- 查看日志docker logs npc
- ############################################安装activemq############################################
- #查询镜像
- docker search activemq
- #拉取镜像,此处推荐使用webcenter/activemq
- docker pull webcenter/activemq
- #首次运行acti mq,其他命令同理,-d:让容器后台运行,-P:将容器内部使用的网络端口映射到我们使用的主机上端口上,格式为:-p 主机(宿主)端口:容器端口
- #运行后,浏览器访问8162端口,就可以查看到activemq管理端
- docker run -d --name activemq -p 61617:61616 -p 8162:8161 webcenter/activemq
-
- ############################################安装rabbitmq############################################
- #拉取镜像,此处推荐使用rabbitmq:management,rabbitmq版本不带控制台,无法通过浏览器访问后台地址,故推荐使用带management标签的版本rabbitmq:management
- #docker pull rabbitmq
- docker pull rabbitmq:management
- #首次运行rabbitmq,其他命令同理,-d:让容器后台运行,-P:将容器内部使用的网络端口映射到我们使用的主机上端口上,格式为:-p 主机(宿主)端口:容器端口
- #运行后,浏览器访问15672 端口,就可以查看到rabbitmq管理端,命名为设置的admin/admin
- #docker run -d --name rabbitmq -p 5672:5672 -p 15672:15672 -v /usr/local/rabbitmq/data:/var/lib/rabbitmq -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin rabbitmq
- docker run -d --name rabbitmq -p 5672:5672 -p 15672:15672 -v /usr/local/rabbitmq/data:/var/lib/rabbitmq -e RABBITMQ_DEFAULT_USER=admin -e RABBITMQ_DEFAULT_PASS=admin rabbitmq:management
-
- ############################################安装dockercompose组件############################################
- #安装dockercompose组件
- apt install docker-compose
- #查看dockercompose版本
- docker-compose version
- #使用dockercompose组件构建命令,参考文件 https://blog.51cto.com/9291927/2310444
- docker-compose -f XXX.yml up -d
- ############################################安装Jenkins#####################################################
- //安装Jenkins之前,需要安装jdk,jdk在容器外安装也可以使用
- //拉取Jenkins镜像
- docker pull jenkins/jenkins
- //首次运行Jenkins,非首次运行请使用docker start 命令启动, --restart=always 系统启动时自动启动
- docker run -d -p 8082:8080 -p 50000:50000 --restart=always -v jenkins:/var/jenkins_home -v /etc/localtime:/etc/localtime --name jenkins docker.io/jenkins/jenkins
- docker run -d -p 9999:8080 -p 50000:50000 --restart=always -v /root/jenkins:/var/jenkins_home -v /etc/localtime:/etc/localtime --name jenkins docker.io/jenkins/jenkins
-
- #获取管理员密码,
- //进入docker容器 使用命令 docker exec -u 0 -it <容器ID> /bin/bash #-u 0是使用root权限 9f9992ec0a4e是Jenkins的容器id
- docker exec -u 0 -it 9f9992ec0a4e /bin/bash
- //在进入容器后,查看密码命令,执行后返回的就是密码
- cat /var/jenkins_home/secrets/initialAdminPassword
- f0f1d3c7f78a49409efd09c489f4dd56
- //安装中文语言包
- Manage Jenkins --> Manage Jenkins-->available -->filter 搜索Localization: Chinese (Simplified) 点击安装 安装进度可以在updateCenter中查看
-
- ############################################安装mysql#####################################################
- //拉取MySQL镜像
- docker pull mysql
- //首次启动MySQL,#如果不需要挂载数据到外部系统,则不需要 -v 后面参数, -v参数中 冒号前面为挂载到外部系统的目录,冒号后面为docker容器中的目录
- docker run -it -d -p 3306:3306 --name docker_mysql -v $PWD/conf/my.cnf:/usr/local/mysql/my.cnf -v $PWD/logs:/usr/local/mysql/log -v $PWD/data:/usr/local/mysql/data -e MYSQL_ROOT_PASSWORD=123456 docker.io/mysql
- //进入容器内部
- docker exec -it docker_mysql bash
- //登录MySQL,输入密码
- mysql -u root -p
- //使用MySQL数据库
- use mysql
- //设置远程访问权限
- grant all privileges on *.* to 'root'@'%';
- //刷新缓存
- FLUSH PRIVILEGES;
- //更改MySQL 8 采用caching_sha2_password,如果需要更改为旧版本密码策略,使用下面语句更改
- ALTER USER 'root'@'%' IDENTIFIED WITH mysql_native_password BY '123456';
-
-
- ############################################安装fastDFS#####################################################
- //查找Docker Hub上的fastdfs镜像
- docker search fastdfs
- //拉取镜像
- docker pull delron/fastdfs
- //启动tracker 首次启动 二次启动 可以使用 docker start tracker
- //跟踪服务器,主要做调度工作,起到均衡的作用;负责管理所有的 storage server和 group,每个 storage 在启动后会连接 Tracker,
- //告知自己所属 group 等信息,并保持周期性心跳。
- docker run -dti --network=host --name tracker -v /var/fdfs/tracker:/var/fdfs delron/fastdfs tracker
- //4.启动storage服务 IP 192.168.74.128 首次启动 二次启动 可以使用 docker start storage
- //存储服务器,主要提供容量和备份服务;以 group 为单位,每个 group 内可以有多台 storage server,组内的storage server上的数据互为备份
- docker run -d --network=host --name storage -e TRACKER_SERVER=192.168.74.128:22122 -v /home/storage:/var/fdfs -e GROUP_NAME=group1 delron/fastdfs storage
- //该版本的fastdfs自带nginx 默认端口8888
- ############################################安装mongoDB#####################################################
- //查询服务器中MongoDB镜像
- docker search mongo
- //拉取最近的镜像
- docker pull mongo
- //首次运行 #如果不需要挂载数据到外部系统,则不需要 -v 后面参数, -v参数中 冒号前面为挂载到外部系统的目录,冒号后面为docker容器中的目录
- docker run -itd --name mongo -p 27017:27017 -v /usr/local/mongo/db:/data/db -e MONGO_INITDB_ROOT_USERNAME=root -e MONGO_INITDB_ROOT_PASSWORD=root -d mongo --auth
- //不需要指定账户的话
- docker run -itd --name mongo -p 27017:27017 -v /usr/local/mongo/db:/data/db -d mongo --auth
- //MongoDB 管理工具下载 https://nosqlbooster.com/downloads
-
- ############################################安装redis#####################################################
- //拉取最近的镜像
- docker pull redis
- //首次启动redis
- ##############单机模式#############################
- docker run -itd --name redis -p 6379:6379 redis
- ##############集群模式############################# 参考文件:https://www.cnblogs.com/qianbing-li/p/11357068.html
- #创建容器
- docker create --name redis-node01 --net host -v /data/redis-data/node01:/data redis --cluster-enabled yes --cluster-config-file nodes-node-01.conf --port 6379
- docker create --name redis-node02 --net host -v /data/redis-data/node02:/data redis --cluster-enabled yes --cluster-config-file nodes-node-02.conf --port 6380
- docker create --name redis-node03 --net host -v /data/redis-data/node03:/data redis --cluster-enabled yes --cluster-config-file nodes-node-03.conf --port 6381
- #启动容器
- docker start redis-node01 redis-node02 redis-node03
- #进入redis-node01容器进行操作
- docker exec -it redis-node01 /bin/bash
- #组建集群(注意端口的变化),提示创建分片,选择yes
- redis-cli --cluster create 192.168.74.128:6379 192.168.74.128:6380 192.168.74.128:6381 --cluster-replicas 0
- #查看集群信息:
- root@91df3e5228b1:/data# redis-cli
- 127.0.0.1:6379> CLUSTER NODES
-
- ############################################部署zookeeper集群############################################
- #拉取zookeeper镜像
- docker pull zookeeper
- # 配置集群 https://hub.docker.com/_/zookeeper
- #官方推荐方式,使用docker-compose安装(docker-compose在上面有提及安装方式).在https://hub.docker.com/_/zookeeper上拷贝stack.yml的内容到安装docker容器的主机上启动以下命令
- docker-compose -f stack.yml up -d
- #执行docker-compose安装后,使用docker ps -a 查看是否有该镜像,有的话便可以直接执行下面命令起送
- #合并启动
- docker start dockercompose_zoo1_1 dockercompose_zoo2_1 dockercompose_zoo3_1
- #或者分别启动
- docker start dockercompose_zoo1_1
- docker start dockercompose_zoo2_1
- docker start dockercompose_zoo3_1
-
- ############################################安装solr############################################
- #拉取solr镜像
- docker pull solr
- #单机版
- #运行创建容器
- docker run -p 8983:8983 --name solr -t solr
- #将容器中的配置文件拷贝到外部系统/var/solr目录
- docker cp solr:/opt/solr/ /var/solr/
- #赋予目录下所有文件最高操作权限, -R为循环遍历赋予权限
- chmod -R 777 /var/solr/
- #将容器中data内容拷贝到外部系统 /usr/local/solr目录
- docker cp solr:/var/solr /usr/local/solr/
- #赋予目录下所有文件最高操作权限, -R为循环遍历赋予权限
- chmod -R 777 /usr/local/solr/
- #删除容器后,-f 为强制删除,建议停止容器后再删除,重新使用下面挂载外部目录方式创建容器
- docker rm -f solr
- #重新创建容器并将配置文件夹挂载到var/solr目录,将数据文件夹挂载到/usr/local/solr 目录
- docker run -d -p 8983:8983 --name solr -v /var/solr:/opt/solr -v /usr/local/solr:/var/solr -t solr
- #进入solr容器
- docker exec -it solr /bin/bash
- #创建core实例,拷贝默认配置到需要创建的core目录,未指定前在容器/opt/solr/server/solr/configsets/_default/conf/,指定外部挂载后,在挂载目录中
- #容器数据默认为/var/solr/data目录,挂载后在/usr/local/solr/data
- #外部使用以下命令进行复制
- cp -r /var/solr/server/solr/configsets/_default/conf/ /usr/local/solr/data/user
- #赋予操作权限,否则后台创建字段时
- chmod -R 777 /usr/local/solr/data/user
-
- ############################################安装jaeger############################################
- # 多合一版本安装
- #拉取最新版镜像
- docker pull jaegertracing/all-in-one
- #首次运行(依赖于zipkin)
- docker run -d --name jaeger -e COLLECTOR_ZIPKIN_HTTP_PORT=9411 -p 5775:5775/udp -p 6831:6831/udp -p 6832:6832/udp -p 5778:5778 -p 16686:16686 -p 14268:14268 -p 9411:9411 jaegertracing/all-in-one
-
- ############################################安装hadoop############################################
- #拉取镜像sequenceiq/hadoop-docker
- docker pull sequenceiq/hadoop-docker
- #运行hadoop单机版,50070是namenode的页面(主页面),50075是datanode的页面,50090是status的页面,9000是客户端使用hdfs协议连接的端口
- #浏览器打开50070端口,查看是否能够
- docker run -i -t --name hadoop -p 50070:50070 -p 9000:9000 -p 8088:8088 -p 8040:8040 -p 8042:8042 -p 49707:49707 -p 50010:50010 -p 50075:50075 -p 50090:50090 sequenceiq/hadoop-docker /etc/bootstrap.sh -bash
-
- ############################################安装memcached############################################
- #拉取memcached镜像
- docker pull memcached
- #首次运行memcached,-m 默认启动 memcached设置的最大容量是 64M,设置其他的容量,如 128M
- docker run -d --name memcached -p 11211:11211 memcached -m 256
-
- ############################################安装kafka############################################
- #拉取kafka镜像,安装参考https://www.cnblogs.com/telwanggs/p/10857182.html
- docker pull wurstmeister/kafka
- #首次运行,kafka依赖zookeeper,运行前需要安装并启动zookeeper,KAFKA_AUTO_CREATE_TOPICS_ENABLE参数设置是够启用自动创建话题
- docker run -d --name kafka --publish 9092:9092 \
- -e KAFKA_BROKER_ID=0 \
- -e KAFKA_AUTO_CREATE_TOPICS_ENABLE=true \
- -e KAFKA_ZOOKEEPER_CONNECT=192.168.74.128:2182 \
- -e KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 \
- -e KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://192.168.74.128:9092 wurstmeister/kafka
-
- ############################################安装consul注册中心集群############################################
- #参考文件https://www.cnblogs.com/zhouqi666/p/11894670.html
- docker pull consul
- #1.启动第一个节点, 叫consul1
- docker run --name consul1 -d -p 8500:8500 -p 8300:8300 -p 8301:8301 -p 8302:8302 -p 8600:8600 consul agent -server -bootstrap-expect 2 -ui -bind=0.0.0.0 -client=0.0.0.0
- #端口详解
- #8500 : http 端口,用于 http 接口和 web ui访问;
- #8300 : server rpc 端口,同一数据中心 consul server 之间通过该端口通信
- #8301 : serf lan 端口,同一数据中心 consul client 通过该端口通信; 用于处理当前datacenter中LAN的gossip通信
- #8302 : serf wan 端口,不同数据中心 consul server 通过该端口通信; agent Server使用,处理与其他datacenter的gossip通信;
- #8600 : dns 端口,用于已注册的服务发现;
- #2.查看容器ip地址
- docker inspect --format='{{.NetworkSettings.IPAddress}}' consul1
- # 输出172.17.0.3
-
- #3.启动第二个consul服务(端口8501):consul2, 并加入consul1(使用join命令)
- docker run --name consul2 -d -p 8501:8500 consul agent -server -ui -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.3
- #4.启动第三个consul服务(端口8502):consul3, 并加入consul1(使用join命令)
- docker run --name consul3 -d -p 8502:8500 consul agent -server -ui -bind=0.0.0.0 -client=0.0.0.0 -join 172.17.0.3
- #5.查看consul集群信息
- docker exec -it consul1 consul members
- ## 可以看到集群里的三个节点
- #Node Address Status Type Build Protocol DC Segment
- #618e9f617509 172.17.0.5:8301 alive server 1.6.2 2 dc1 <all>
- #6ba34e2feb66 172.17.0.6:8301 alive server 1.6.2 2 dc1 <all>
- #8cba36da0384 172.17.0.7:8301 alive server 1.6.2 2 dc1 <all>
-
- #6.通过访问8500/8501/8502端口查看web界面
-
- ############################################安装rancher############################################
- Pulling from rancher/rancher
- docker run -d --restart=unless-stopped \
- -p 80:80 -p 443:443 \
- rancher/rancher:latest
-
- ############################################安装skywalking 链路监控############################################
- #docker仓库 https://hub.docker.com/r/apache/skywalking-oap-server/tags
- #此处使用es7作为存储,所以需要拉取es7相关的版本
- docker pull apache/skywalking-oap-server:7.0.0-es7
- #首次启动 ,启动之前需要先启动es7
- docker run --name oap --net somenetwork --restart always -d -e SW_STORAGE=elasticsearch7 -e SW_STORAGE_ES_CLUSTER_NODES=elasticsearch:9200 apache/skywalking-oap-server:7.0.0-es7
- docker run --name oap -p 1234:1234 -p 11800:11800 -p 12800:12800 --restart always -d -e SW_STORAGE=elasticsearch7 -e SW_STORAGE_ES_CLUSTER_NODES=elasticsearch:9200 apache/skywalking-oap-server:7.0.0-es7
- docker run --name oap --restart always -d apache/skywalking-oap-server:7.0.0-es7
- ### 安装skywalking-ui
- docker pull apache/skywalking-ui
- #首次启动, 将8080改成9090端口,访问9090端口即可看到UI界面
- docker run --name oap-ui --net somenetwork -p 9090:8080 --restart always -d -e SW_OAP_ADDRESS=oap:12800 apache/skywalking-ui
- docker run --name oap-ui -d -p 9090:8080 --link oap:oap -e SW_OAP_ADDRESS=oap:12800 --restart always apache/skywalking-ui
- kubeadm init \
- --image-repository registry.aliyuncs.com/google_containers \
- --kubernetes-version=v1.18.3 \
- --pod-network-cidr=10.244.0.0/16 \
- --v=10
- kubeadm join 192.168.159.128:6443 --token z469is.h6w1kd84ifxcy1um \
- --discovery-token-ca-cert-hash sha256:891eff23c79c6430ebe991359e2b6270f4886455aba413cf2c0f5c29bef3b2f4
-
- docker pull kubernetesui/dashboard:v2.0.1
- docker tag kubernetesui/dashboard:v2.0.1 k8s.gcr.io/kubernetes-dashboard-amd64:v2.0.1
- docker rmi kubernetesui/dashboard:v2.0.1:v2.0.1
-
- kubectl get secret -n kube-system | grep k8sadmin | cut -d " " -f1 | xargs -n 1 | xargs kubectl get secret -o 'jsonpath={.data.token}' -n kube-system | base64 --decode
-
- sudo mkdir -p /etc/docker
- sudo tee /etc/docker/daemon.json <<-'EOF'
- {
- "registry-mirrors": ["https://*****.mirror.aliyuncs.com"]
- }
- EOF
- sudo systemctl daemon-reload
- sudo systemctl restart docker
- kubeadm init \
- --kubernetes-version=v1.18.3 \
- --pod-network-cidr=10.244.0.0/16 \
-
- cat <<EOF > dashboard-admin.yaml
- apiVersion: rbac.authorization.k8s.io/v1beta1
- kind: ClusterRoleBinding
- metadata:
- name: kubernetes-dashboard
- labels:
- k8s-app: kubernetes-dashboard
- roleRef:
- apiGroup: rbac.authorization.k8s.io
- kind: ClusterRole
- name: cluster-admin
- subjects:
- - kind: ServiceAccount
- name: kubernetes-dashboard
- namespace: kube-system
- EOF
-
- docker stop $(docker ps -a | grep "k8s" | awk '{print $1}')
- docker rm -f $(docker ps -a | grep "k8s" | awk '{print $1}')
-
- docker pull mirrorgcrio/kube-apiserver:v1.18.3
- docker pull mirrorgcrio/kube-controller-manager:v1.18.3
- docker pull mirrorgcrio/kube-scheduler:v1.18.3
- docker pull mirrorgcrio/kube-proxy:v1.18.3
- docker pull mirrorgcrio/pause:3.2
- docker pull mirrorgcrio/etcd:3.4.3-0
- docker pull mirrorgcrio/coredns:1.6.7
-
-
- docker tag mirrorgcrio/kube-apiserver:v1.18.3 k8s.gcr.io/kube-apiserver:v1.18.3
- docker tag mirrorgcrio/kube-controller-manager:v1.18.3 k8s.gcr.io/kube-controller-manager:v1.18.3
- docker tag mirrorgcrio/kube-scheduler:v1.18.3 k8s.gcr.io/kube-scheduler:v1.18.3
- docker tag mirrorgcrio/kube-proxy:v1.18.3 k8s.gcr.io/kube-proxy:v1.18.3
- docker tag mirrorgcrio/pause:3.2 k8s.gcr.io/pause:3.2
- docker tag mirrorgcrio/etcd:3.4.3-0 k8s.gcr.io/etcd:3.4.3-0
- docker tag mirrorgcrio/coredns:1.6.7 k8s.gcr.io/coredns:1.6.7
-
-
- docker image rm mirrorgcrio/kube-apiserver:v1.18.3
- docker image rm mirrorgcrio/kube-controller-manager:v1.18.3
- docker image rm mirrorgcrio/kube-scheduler:v1.18.3
- docker image rm mirrorgcrio/kube-proxy:v1.18.3
- docker image rm mirrorgcrio/pause:3.2
- docker image rm mirrorgcrio/etcd:3.4.3-0
- docker image rm mirrorgcrio/coredns:1.6.7
-
- [addons] Applied essential addon: CoreDNS
- [addons] Applied essential addon: kube-proxy
-
- Your Kubernetes control-plane has initialized successfully!
-
- To start using your cluster, you need to run the following as a regular user:
-
- mkdir -p $HOME/.kube
- sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
- sudo chown $(id -u):$(id -g) $HOME/.kube/config
-
- You should now deploy a pod network to the cluster.
- Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
- https://kubernetes.io/docs/concepts/cluster-administration/addons/
-
- Then you can join any number of worker nodes by running the following on each as root:
-
- kubeadm join 192.168.159.129:6443 --token p12p2p.5vlp54nsjc24n2aw \
- --discovery-token-ca-cert-hash sha256:344f1a09063663f6c50487b58830005d650085eceeb4179204484bd33a36f3de
- kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
- sudo vi /etc/hosts
- 151.101.76.133 raw.githubusercontent.com
-
- root@moodincode-virtual-machine:~/桌面# kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
- podsecuritypolicy.policy/psp.flannel.unprivileged created
- clusterrole.rbac.authorization.k8s.io/flannel created
- clusterrolebinding.rbac.authorization.k8s.io/flannel created
- serviceaccount/flannel created
- configmap/kube-flannel-cfg created
- daemonset.apps/kube-flannel-ds-amd64 created
- daemonset.apps/kube-flannel-ds-arm64 created
- daemonset.apps/kube-flannel-ds-arm created
- daemonset.apps/kube-flannel-ds-ppc64le created
- daemonset.apps/kube-flannel-ds-s390x created
-
-
- wget https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.1/aio/deploy/recommended.yaml
- kubectl apply -f recommended.yaml
- root@moodincode-virtual-machine:~/桌面# kubectl apply -f recommended.yaml
-
- namespace/kubernetes-dashboard created
- serviceaccount/kubernetes-dashboard created
- service/kubernetes-dashboard created
- secret/kubernetes-dashboard-certs created
- secret/kubernetes-dashboard-csrf created
- secret/kubernetes-dashboard-key-holder created
- configmap/kubernetes-dashboard-settings created
- role.rbac.authorization.k8s.io/kubernetes-dashboard created
- clusterrole.rbac.authorization.k8s.io/kubernetes-dashboard created
- rolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
- clusterrolebinding.rbac.authorization.k8s.io/kubernetes-dashboard created
- deployment.apps/kubernetes-dashboard created
- service/dashboard-metrics-scraper created
- deployment.apps/dashboard-metrics-scraper created
-
-
- cat <<EOF > dashboard-admin.yaml
- apiVersion: rbac.authorization.k8s.io/v1beta1
- kind: ClusterRoleBinding
- metadata:
- name: kubernetes-dashboard
- labels:
- k8s-app: kubernetes-dashboard
- roleRef:
- apiGroup: rbac.authorization.k8s.io
- kind: ClusterRole
- name: cluster-admin
- subjects:
- - kind: ServiceAccount
- name: kubernetes-dashboard
- namespace: kube-system
- EOF
-
- kubectl create -f dashboard-admin.yaml
-
- kubectl -n kubernetes-dashboard edit service kubernetes-dashboard
- kind: ClusterRoleBinding
- apiVersion: rbac.authorization.k8s.io/v1beta1
- metadata:
- name: admin
- annotations:
- rbac.authorization.kubernetes.io/autoupdate: "true"
- roleRef:
- kind: ClusterRole
- name: cluster-admin
- apiGroup: rbac.authorization.k8s.io
- subjects:
- - kind: ServiceAccount
- name: admin
- namespace: kubernetes-dashboard
- ---
- apiVersion: v1
- kind: ServiceAccount
- metadata:
- name: admin
- namespace: kubernetes-dashboard
- labels:
- kubernetes.io/cluster-service: "true"
- addonmanager.kubernetes.io/mode: Reconcile
-
- docker start $(docker ps -a | awk '{ print $1}' | tail -n +2)
- kubectl get srv --all-namespaces
- kubectl get pods --all-namespaces
- kubectl get node --all-namespaces
- 透過 journalctl -f -u kubelet 指令查詢 log,
-
- kubectl -n kubernetes-dashboard describe secret $(kubectl -n kubernetes-dashboard get secret | grep admin-user | awk '{print $1}')
-
-
- ###################################################安装mariab##################################################
- docker pull mariadb
-
- docker run -d --name mariadb -p 3306:3306 -e PUID=1000 -e PGID=100 -e MYSQL_ROOT_PASSWORD=123456 -e MYSQL_DATEBASE=nextcloud -v /opt/nextcloud/mariadb:/var/lib/mysql --restart=unless-stopped mariadb
-
- ############################################安装nextcloud##################################################################
- #nextcloud依赖数据库,可以安装Mariadb或者mysql等数据库
- docker pull nextcloud
- docker run -d --name nextcloud -p 807:80 -v /opt/nextcloud/html:/var/www/html -v /opt/nextcloud/data:/var/www/html/data -v /opt/nextcloud/apps:/var/www/html/custom_apps -v /opt/nextcloud/config:/var/www/html/config --restart=unless-stopped nextcloud

Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。