출처 : https://acropolis.ninja/helpful-nutanix-commands-cheat-sheet/

AHV

configure mgt IP address / network

vi /etc/sysconfig/network-scripts/ifcfg-br0

VLAN tag mgt network

ovs-vsctl set port br0 tag=####

Show OVS configuration

ovs-vsctl show

Show configuration of bond0

ovs-appctl bond/show bond0

Show br0 configuration (for example to confirm VLAN tag)

ovs-vsctl list port br0

List VMs on host / find CVM

virsh list –all | grep CVM

Power On powered off CVM

virsh start [name of CVM from above command]

Increase RAM configuration of CVM

virsh setmaxmem [name of CVM from above command] –config –size ram_gbGiB

virsh setmem [name of CVM from above command] –config –size ram_gbGiB

 

ESXi

Show vSwitch configurations

esxcfg-vswitch -l

Show physical nic list

esxcfg-nics -l

Show vmkernel interfaces configured

esxcfg-vmknic -l

Remove vmnic from vSwitch0

esxcfg-vswitch -U vmnic# vSwitch0

Add vmnic to vSwitch0

esxcfg-vswitch -L vmnic# vSwitch0

Set VLAN for default VM portgroup

esxcfg-vswitch -v [vlan####] -p “VM Network” vSwitch0

Set VLAN for default management portgroup

esxcfg-vswitch -v [vlan id####] -p “Management Network” vSwitch0

Set IP address for default management interface (vmk0)

esxcli network ip interface ipv4 set -i vmk0 -I [ip address] -N [netmask] -t static

Set default gateway

esxcfg-route [gateway ip]

List VMs on host/find CVM

vim-cmd vmsvc/getallvms | grep -i cvm

Power on powered off CVM

vim-cmd vmsvc/power.on [vm id# from above command]

 

CVM

VLAN tag CVM  (only for AHV or ESXi using VGT)

change_cvm_vlan ####

Show AHV host physical uplink configuration

manage_ovs show_uplinks

Remove 1gb pNICs from bond0 on AHV host

manage_ovs –bridge_name br0 –bond_name bond0 –interfaces 10g update_uplinks

Configure mgt IP address / network

vi /etc/sysconfig/network-scripts/ifcfg-eth0

Create cluster

cluster -s [cvmip1,cvmip2,cvmipN…] create

Get cluster status

cluster status

Get detailed local to current CVM services’ status

genesis status

Restart specific service across entire cluster (example below:  cluster_health)

allssh genesis stop cluster_health; cluster start

Show Prism leader

curl localhost:2019/prism/leader

Stop cluster

cluster stop

Start a stopped cluster

cluster start

Destroy cluster

cluster destroy

Discover nodes

discover_nodes

Gracefully shutdown CVM

cvm_shutdown -P now

Upgrade non-cluster joined node from cluster CVM without expanding the cluster

cluster -u [remote node cvmip] upgrade_node

Check running AOS upgrade status for cluster

upgrade_status

Check running hypervisor upgrade status for cluster

host_upgrade_status

Get CVM AOS version

cat /etc/nutanix/release_version

Get cluster AOS version

ncli cluster version

Create Prism Central instance (should be ran on deployed PC vm, not cluster CVM)

cluster –cluster_function_list multicluster -s [pcipaddress] create

Run all NCC health checks

ncc health_checks run_all

Export all logs (optionally scrubbed for IP info)

ncc log_collector –anonymize_output=true run_all

 

ipmitool (NX platform)

(hypervisor agnostic), leading / required for ESXi (/ipmitool)

Configure IPMI to use static ip

ipmitool lan set 1 ipsrc static

Configure IPMI IP address

ipmitool lan set 1 ipaddr [ip address]

Configure IPMI network mask

ipmitool lan set 1 netmask [netmask]

Configure IPMI default gateway

ipmitool lan set 1 defgw ipaddr [gateway ip]

Configure IPMI VLAN tag

ipmitool lan set 1 vlan id [####]

Remove IPMI VLAN tag

ipmitool lan set 1 vlan id off

Show current IPMI configuration

ipmitool lan print 1

Show IPMI mode (failover/dedicated)

ipmitool raw 0x30 0x70 0x0c 0

The result will be one of the following

  1. 00 = Dedicated
  2. 01 = Onboard / Shared
  3. 02 = Failover (default mode)

Get IPMI user list

ipmitool user list

Reset IPMI ADMIN user password back to factory (trailing ADMIN is the password)

ipmitool user set password [# of ADMIN user from command above] ADMIN

Reboot the BMC (reboot the IPMI only)

ipmitool mc reset cold

 

URLs

CVM built-in foundation

http://[cvmip]:8000/gui

Legacy cluster-init (should attempt redirect to foundation on newer AOS)

http://[cvmip]:2100/cluster_init.html

Get cluster status

http://[cvmip]:2100/cluster_status.html

'Nutanix' 카테고리의 다른 글

Karbon  (0) 2019.09.18
K8s  (0) 2019.09.18
Bonding active-slave 변경  (0) 2019.07.01
Nutanix - component master node 찾기  (0) 2019.07.01
Data intensive ??  (0) 2019.03.28

 

[Acropolis master]

 


nutanix@cvm:10.1.1.11:~$ allssh "links -dump http:0:2030 | grep Master"
Executing links -dump http:0:2030 | grep Master on the cluster
================== 10.1.1.11 =================
   Acropolis Master: [5]10.1.1.13:2030
Connection to 10.1.1.11 closed.
================== 10.1.1.12 =================
   Acropolis Master: [5]10.1.1.13:2030
Connection to 10.1.1.12 closed.
================== 10.1.1.13 =================
Connection to 10.1.1.13 closed.

 

 


nutanix@cvm:10.1.1.13:~$ cluster status | grep -v UP
The state of the cluster: start
Lockdown mode: Disabled

CVM: 10.1.1.11 Up, ZeusLeader

CVM: 10.1.1.12 Up

CVM: 10.1.1.13 Up

 

 

 

'Nutanix' 카테고리의 다른 글

Karbon  (0) 2019.09.18
K8s  (0) 2019.09.18
Bonding active-slave 변경  (0) 2019.07.01
Helpful Nutanix Commands Cheat Sheet  (0) 2019.07.01
Data intensive ??  (0) 2019.03.28

Data Intensive Computing은 대용량 데이터를 처리하기 위해 데이터 병렬 처리를 사용하는 병렬 컴퓨팅 클래스입니다. 이 데이터의 크기는 일반적으로 테라 바이트 단위 또는 페타 바이트 단위입니다. 이 대량의 데이터는 매일 생성되며 큰 데이터로 참조됩니다.

정확히 10 년 전, EMC Corporation이 후원 하는 백서는 2007 년 현재 디지털 형식으로 저장된 정보량을 281 엑사 바이트로 추정했습니다. 오늘날 얼마나 거대한 지 상상 만 할 수 있습니다.

IDC에 의해 밝혀진 수치는 생성 된 데이터의 양이 데이터를 분석 할 수있는 능력을 넘어서는 것을 증명합니다. 이 경우에는 동일한 방법을 사용할 수 없으며 일반적으로 전산 과학의 일반적인 문제를 해결하는 데 사용됩니다.

문제를 해결하기 위해 회사는 도구 또는 도구 모음을 제공합니다.

데이터 집약적 인 컴퓨팅은 다른 형태의 컴퓨팅과 다른 몇 가지 특성을 가지고 있습니다. 그들은:

  • 데이터 집약적 인 컴퓨팅에서 높은 성능을 달성하려면 데이터 이동을 최소화해야합니다. 이렇게하면 시스템 오버 헤드가 줄어들고 데이터가있는 노드에서 알고리즘을 실행할 수 있으므로 성능이 향상됩니다.
  • 데이터 집약적 컴퓨팅 시스템은 런타임 시스템이 스케줄링, 실행,로드 밸런싱, 통신 및 프로그램 이동을 제어하는 ​​기계 독립적 접근법을 사용합니다.
  • 데이터 집약적 인 컴퓨팅은 데이터의 신뢰성 및 가용성에 크게 중점을 둡니다. 기존의 대규모 시스템은 하드웨어 오류, 통신 오류 및 소프트웨어 버그의 영향을 받기 쉽고 데이터 집약적 인 컴퓨팅은 이러한 문제를 해결할 수 있습니다.
  • 데이터 집약적 인 컴퓨팅은 확장 성을 위해 설계 되었기 때문에 모든 양의 데이터를 수용 할 수 있으므로 시간이 중요한 요구 사항을 충족시킬 수 있습니다. 하드웨어 및 소프트웨어 아키텍처의 확장 성은 데이터 집약적 인 컴퓨팅의 가장 큰 장점 중 하나입니다.

'Nutanix' 카테고리의 다른 글

Karbon  (0) 2019.09.18
K8s  (0) 2019.09.18
Bonding active-slave 변경  (0) 2019.07.01
Helpful Nutanix Commands Cheat Sheet  (0) 2019.07.01
Nutanix - component master node 찾기  (0) 2019.07.01

+ Recent posts