티스토리 뷰

728x90

master노드와 worker노드를 구축하고 마스터에 직접 접속하지 않고 local에서 kubectl 명령어를 통해 k8s를 사용하려고 했다.

 

master node의 ~/.kube/config를 로컬서버의 ~/.kube/config로 복사를 해주고, 서버 정보를 master node의 public IP로 지정을 해주고 kubectl 명령어를 쳤는데 아래와 같은 에러가 났다. (kubectl 설치 되어있어야합니다!)

 

잉..?

master노드와 같은 네트워크망에 서버를 하나 생성하고 거기에서도 똑같이 했는데 에러가 났다..🤔

근데 이상한건 master node의 public ip가 아니라  private ip로 하니까 정상적으로 실행 되었다.

같은 네트워크망의 서버 config

 

 

 

 

 

 

hmmmmm...방화벽의 문제는 아니다.. 왜냐 난 6443을 열어주었으니까..

증거..

 

구글링을 해보니..tls-san을 언급한 내용이 있었다.. 많이 봤는데..이거..

 

https://github.com/k3s-io/k3s/issues/1381

 

Remote kubectl x509: certificate is valid for 127.0.0.1 · Issue #1381 · k3s-io/k3s

Version: k3s version v1.17.2+k3s1 (cdab19b) kubectl v1.17.2 Describe the bug I just did a fresh k3s install, and it's working fine locally. And I'm trying to connect the server remotely. I did a co...

github.com

 

master node의  /etc/rancher/rke2/config.yaml 를 확인해보면 설정 할 수 있다.

vi /etc/rancher/rke2/config.yaml

 

나는 아무것도 설정되어있지 않아서 에러가 났당.. 마스터노드의 퍼블릭 아이피를 적어주자..(띄어쓰기 주의..)

 

그리고 잊지말자 재시작..

 

sudo systemctl restart rke2-server.service
sudo systemctl status  rke2-server.service

 

이후 다시 local에서 kubectl을 시도 한 경우 정상적으로 동작 된다.

 

 

공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/11   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
글 보관함