-
IT café
"A Proxmox Virtual Environment (röviden: Proxmox VE, PVE vagy proxmox) egy szerver virtualizációra optimalizált nyilt forráskódú Debian alapú Linux disztribúció. Lehetővé teszi a virtuális gépek és konténerek egyszerű telepítését és kezelését web konzol és command line felülettel. A programcsomag két LXC és OpenVZ konténerek, valamint a KVM alapú virtualizáció kezelését támogatja" (Wikipédia)
Hivatalos oldal: https://proxmox.com/en/
Hivatalos fórum: https://forum.proxmox.com/Véreshurka hozzászólásából
ESXi -> Proxmox migráció
Új hozzászólás Aktív témák
-
amargo
addikt
Igen, de igazából csak ezért felesleges, ha amúgy nem használod ki a többi szolgáltatását. Szerintem a proxmox is tud mDNS-t, így elég csak a proxmox-os root CA-t berakni a megbízható cert tárba.
“The workdays are long and the weekend is short? Make a turn! Bike every day, bike to work too!”
-
inf3rno
nagyúr
Az a baj, hogy nincs Windows PC-m. Egyedül a laptop Windows, de az is csak azért, hogy legyen valami teszt rendszer a kódoknak.
Az SSD-k SK Hynix PC801-esek, de csak Gen3 x4-es alaplapokban vannak. Szóval elvileg 32Gbps-nél nem fog többet tudni. Viszont zsigerből ez jön, hogy csináljam meg 56-osra, ahogy terveztem. Gondolom minél elcseszettebb valami, annál jobban vonzódok hozzá, vagy passz.
Buliban hasznos! =]
-
sutszi
veterán
Proxmox esetében van olyan mint vmware vsphere(ESXI) esetében a vmware toolbox?
Mondja, Mr. Babbage, ha rossz adatokat ad meg a gépnek, akkor is jó válasz fog kijönni belőle?" Képtelen vagyok felfogni azt az értelmi zavart, ami valakit egy ilyen kérdés feltevésére késztethet. - by Charles Babbage
-
amargo
addikt
milyen címen próbálod meg elérni?
Ha megcsináltad, amit leírtak és a root CA bekerült a trusted store-ba, akkor utána, ha a cert-ed önmagában valid, azaz pl: nem járt le és megfelelő az url azaz a subject alternative names között ott van, akkor be kell jönnie az oldalnak.“The workdays are long and the weekend is short? Make a turn! Bike every day, bike to work too!”
-
inf3rno
nagyúr
-
tasiadam
Topikgazda
válasz inf3rno #1760 üzenetére
én erős overkillnek érzem azt a 40gigát is. 4x25-el toltunk le SAN és VM Host között kapcsolatot, de hálózatra már csak 10 majd 1g-n mentek, de sosem láttak többet, netre meg 100 mega körül. Az is sok, ami most van. Én nem bántanám.
Gyermektelen, nem házas, másodrangú állampolgár
-
inf3rno
nagyúr
Lerántottam innen a Debian 11.3-as drivert, de nem megy. Elvileg a mostani Debian verzió 11.5 a Proxmox alatt, amihez nincsen Mellanox driver, legalábbis ezen az oldalon nem látok ilyen verziót. Esetleg meg tudja valaki erősíteni, hogy kuka a rendszer, ha ezzel a hálókártyával akarom járatni?
[ Szerkesztve ]
Buliban hasznos! =]
-
inf3rno
nagyúr
válasz inf3rno #1762 üzenetére
Ja izé a hálókártya adatai:
Device #1:
----------
Device Type: ConnectX3Pro
Part Number: 764284-B21_Ax
Description: HP InfiniBand FDR/Ethernet 10Gb/40Gb 2-port 544+QSFP Adapter
PSID: HP_1370110017
PCI Device Name: /dev/mst/mt4103_pci_cr0
Port1 MAC: ...
Port2 MAC: ...
Versions: Current Available
FW 2.42.5052 N/A
CLP 8025 N/A
PXE 3.4.0754 N/A
UEFI 14.11.0049 N/A[ Szerkesztve ]
Buliban hasznos! =]
-
Chal
addikt
válasz inf3rno #1762 üzenetére
Olvastad amit írtam fentebb? Milyen módban van a kártya? dmesg mit mond? Nem kell hozzá semmilyen gyártói driver külön, a nvidia sok éve biztosítja az un. "inbox" drivert a linux maninstream kernelekbe, az összes disztribúció használja, ezzel tökéletesen megy a CX3(pro). Egyébként az most ugrott be, hogy az 56G eleve egy zárt szabvány, az ethernet nem ismer ilyet, ezért csak Mellanox switch-el menne (CX3-al amúgy ez csak annyit jelentene hogy ezt a connection speedet látnád, de ~32G fölé nem igen tudnál menni, azt is csak sok szálas iperf-el, erős cpu-val, real world scenarioknál ennél jóval kevesebb hozható ki belőle).
Nem lehet, hogy IB módban van a kártyád? Van nálad /sys/bus/pci/devices/PCI_ID/mlx4_port* file?
PCI_ID: lspci | grep Mellanox megmondja.
[ Szerkesztve ]
-
inf3rno
nagyúr
A dmesg-ben ezt látom: "mlx4_core 0000:0a:00.0: Missing UAR, aborting"
0a:00.0 Network controller: Mellanox Technologies MT27520 Family [ConnectX-3 Pro]
mstflint -d 0a:00.0 q
Image type: FS2
FW Version: 2.42.5052
FW Release Date: 7.7.2019
Product Version: 02.42.50.52
Rom Info: version_id=8025 type=CLP
type=UEFI version=14.11.49 cpu=AMD64
type=PXE version=3.4.754
Device ID: 4103
Description: Node Port1 Port2 Sys image
GUIDs: ... ... ... ...
MACs: ... ...
VSD:
PSID: HP_1370110017Az 56G-t szerintem elfelejthetjük. Amúgy nem switch-el próbálom, hanem direktbe összekötve vele a gépeket, de nem fog menni. Inkább a 40, amire koncentrálok.
Akkor viszont elvileg működésre lehet bírni valahogyan, és nem is kell külön driver. Az jó hír.
[ Szerkesztve ]
Buliban hasznos! =]
-
inf3rno
nagyúr
Ezzel [link] valamelyest előrébb jutottam, de továbbra sem tűnik jónak:
dmesg | grep mlx4
[ 1.092182] mlx4_core: Mellanox ConnectX core driver v4.0-0
[ 1.092213] mlx4_core: Initializing 0000:0a:00.0
[ 9.512279] mlx4_core 0000:0a:00.0: DMFS high rate steer mode is: disabled performance optimized steering
[ 9.512482] mlx4_core 0000:0a:00.0: 15.752 Gb/s available PCIe bandwidth, limited by 8.0 GT/s PCIe x2 link at 0000:00:03.1 (capable of 63.008 Gb/s with 8.0 GT/s PCIe x8 link)
[ 9.613786] mlx4_en: Mellanox ConnectX HCA Ethernet driver v4.0-0
[ 9.613902] mlx4_en 0000:0a:00.0: Activating port:1
[ 9.615806] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 9.615814] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 9.616000] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 9.616267] mlx4_en 0000:0a:00.0: registered PHC clock
[ 9.617047] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0
[ 9.617899] <mlx4_ib> mlx4_ib_add: mlx4_ib: Mellanox ConnectX InfiniBand driver v4.0-0
[ 9.639778] <mlx4_ib> mlx4_ib_add: counter index 2 for port 1 allocated 1
[ 9.639783] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 14.168134] mlx4_en 0000:0a:00.0: removed PHC
[ 14.170863] mlx4_en 0000:0a:00.0: Activating port:2
[ 14.172633] mlx4_en: 0000:0a:00.0: Port 2: Using 12 TX rings
[ 14.172639] mlx4_en: 0000:0a:00.0: Port 2: Using 8 RX rings
[ 14.172828] mlx4_en: 0000:0a:00.0: Port 2: Initializing port
[ 14.173096] mlx4_en 0000:0a:00.0: registered PHC clock
[ 14.173573] <mlx4_ib> mlx4_ib_add: counter index 0 for port 1 allocated 0
[ 14.173577] <mlx4_ib> mlx4_ib_add: counter index 3 for port 2 allocated 1
[ 14.174692] mlx4_core 0000:0a:00.0 enp10s0d1: renamed from eth0
[ 18.656484] mlx4_en 0000:0a:00.0: removed PHC
[ 18.659291] mlx4_en 0000:0a:00.0: Activating port:1
[ 18.660841] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 18.660845] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 18.661066] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 18.666007] mlx4_en 0000:0a:00.0: registered PHC clock
[ 18.666577] <mlx4_ib> mlx4_ib_add: counter index 4 for port 1 allocated 1
[ 18.666581] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 18.667812] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0
[ 22.873870] mlx4_en 0000:0a:00.0: removed PHC
[ 22.876841] mlx4_en 0000:0a:00.0: Activating port:2
[ 22.878478] mlx4_en: 0000:0a:00.0: Port 2: Using 12 TX rings
[ 22.878483] mlx4_en: 0000:0a:00.0: Port 2: Using 8 RX rings
[ 22.878669] mlx4_en: 0000:0a:00.0: Port 2: Initializing port
[ 22.880373] mlx4_en 0000:0a:00.0: registered PHC clock
[ 22.880904] <mlx4_ib> mlx4_ib_add: counter index 0 for port 1 allocated 0
[ 22.880909] <mlx4_ib> mlx4_ib_add: counter index 5 for port 2 allocated 1
[ 22.882058] mlx4_core 0000:0a:00.0 enp10s0d1: renamed from eth0
[ 27.698321] mlx4_en 0000:0a:00.0: removed PHC
[ 27.701367] mlx4_en 0000:0a:00.0: Activating port:1
[ 27.702978] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 27.702983] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 27.703159] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 27.705446] mlx4_en 0000:0a:00.0: registered PHC clock
[ 27.705955] <mlx4_ib> mlx4_ib_add: counter index 6 for port 1 allocated 1
[ 27.705961] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 27.707053] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0
[ 32.658505] mlx4_en 0000:0a:00.0: removed PHC
[ 32.661345] mlx4_en 0000:0a:00.0: Activating port:2
[ 32.662944] mlx4_en: 0000:0a:00.0: Port 2: Using 12 TX rings
[ 32.662948] mlx4_en: 0000:0a:00.0: Port 2: Using 8 RX rings
[ 32.663136] mlx4_en: 0000:0a:00.0: Port 2: Initializing port
[ 32.665227] mlx4_en 0000:0a:00.0: registered PHC clock
[ 32.665701] <mlx4_ib> mlx4_ib_add: counter index 0 for port 1 allocated 0
[ 32.665705] <mlx4_ib> mlx4_ib_add: counter index 7 for port 2 allocated 1
[ 32.666797] mlx4_core 0000:0a:00.0 enp10s0d1: renamed from eth0
[ 37.282530] mlx4_en 0000:0a:00.0: removed PHC
[ 37.285178] mlx4_en 0000:0a:00.0: Activating port:1
[ 37.286706] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 37.286712] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 37.286937] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 37.290885] mlx4_en 0000:0a:00.0: registered PHC clock
[ 37.291460] <mlx4_ib> mlx4_ib_add: counter index 8 for port 1 allocated 1
[ 37.291464] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 37.292595] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0
[ 42.174517] mlx4_en 0000:0a:00.0: removed PHC
[ 42.177403] mlx4_en 0000:0a:00.0: Activating port:2
[ 42.179000] mlx4_en: 0000:0a:00.0: Port 2: Using 12 TX rings
[ 42.179004] mlx4_en: 0000:0a:00.0: Port 2: Using 8 RX rings
[ 42.179192] mlx4_en: 0000:0a:00.0: Port 2: Initializing port
[ 42.180958] mlx4_en 0000:0a:00.0: registered PHC clock
[ 42.181436] <mlx4_ib> mlx4_ib_add: counter index 0 for port 1 allocated 0
[ 42.181443] <mlx4_ib> mlx4_ib_add: counter index 9 for port 2 allocated 1
[ 42.182582] mlx4_core 0000:0a:00.0 enp10s0d1: renamed from eth0
[ 47.134568] mlx4_en 0000:0a:00.0: removed PHC
[ 47.137696] mlx4_en 0000:0a:00.0: Activating port:1
[ 47.139301] mlx4_en: 0000:0a:00.0: Port 1: Using 12 TX rings
[ 47.139306] mlx4_en: 0000:0a:00.0: Port 1: Using 8 RX rings
[ 47.139481] mlx4_en: 0000:0a:00.0: Port 1: Initializing port
[ 47.141685] mlx4_en 0000:0a:00.0: registered PHC clock
[ 47.142161] <mlx4_ib> mlx4_ib_add: counter index 10 for port 1 allocated 1
[ 47.142166] <mlx4_ib> mlx4_ib_add: counter index 1 for port 2 allocated 0
[ 47.143364] mlx4_core 0000:0a:00.0 enp10s0: renamed from eth0Ami nekem fura: "15.752 Gb/s available PCIe bandwidth, limited by 8.0 GT/s PCIe x2 link at 0000:00:03.1 (capable of 63.008 Gb/s with 8.0 GT/s PCIe x8 link)" amikor egy fullos x16 PCIE slotban van benne...
[ Szerkesztve ]
Buliban hasznos! =]
-
TheMiller
tag
Sziasztok,
A proxmoxban (host) van öngyógyítás mint az OMV-nél? Tegnap véletlen a host ablakában futtattam az OMV telepítést, amit uninstalláltam gyorsan ész nelkül, de egy mai restart után úgy látom jogosan megadta magát. (Pve mappa üres, GUI, tűzfal és pve net szolgáltatások failed-en)
Net és terminal van, és persze mindenről van mentés csak a hostról nem
Vagy csak a pendrive-s telepítés marad?The World is Yours
-
inf3rno
nagyúr
Na jó nálam ez marad holnapra. Azt írják, hogy konfigurálni kell a portokat, és akkor működni fog. Hát lövésem sincs hogyan kell, ennyire nem vagyok hálózatos guru... Odáig eljutottam, hogy látom a két portot, és van nevük a hálózatoknál, illetve adtam nekik IP-t, de pingelni már nem tudom őket, és nem aktívak. Gondolom valahogyan aktívvá lehet tenni őket. Ami jóval aggasztóbb, hogy azt írja csak 2 PCIE lane-t használ a 8-ból. Ha ez így marad, akkor visszasírom a 10Gbps kártyáimat, azokkal legalább nem volt szívás, mentek out of the box kb.
[ Szerkesztve ]
Buliban hasznos! =]
-
sutszi
veterán
válasz tasiadam #1757 üzenetére
Jó kérdés... igazából az adta a kérdést, hogy ESXI alá ha feldobtam eddig bármit...win, bsd, linux...etc.. Akkor nagyon erősen javasolt volt a vmware tools vagy open-vm-tools... ha kintről akartam normálisan vezérelni a vm-et. Pl, egy restart vagy leállítás, hogy szabályosan menjen le a guest-en. És alapvetően az a kérdés, hogy proxmox, hogy kezeli a guest OS ilyen és egyéb szolgáltatásait? Itt is mondhatni kötelező egy open-vm-tools?
Mondja, Mr. Babbage, ha rossz adatokat ad meg a gépnek, akkor is jó válasz fog kijönni belőle?" Képtelen vagyok felfogni azt az értelmi zavart, ami valakit egy ilyen kérdés feltevésére késztethet. - by Charles Babbage
-
ViZion
félisten
válasz TheMiller #1768 üzenetére
Az OMV addig OK, amig az extras-t nem rakod fel...
Az a baj, h az OMV, csakúgy, mint a PVE lecseréli a fél Debiant. Lehet azokat a közös fájlokat is törölte. Ha van terminál, akkor azért megpróbálnám az újratelepítését: [link]
Elvileg a konfig fájlokat nem szedhette le az OMV, se mást, amihez nem volt köze.Hold on, trying to give a fuck... Nope, not Happening • Powered by Fedora Linux • "Az élet olyan sz@r, szerencsére a felén már túl vagyok" Al Bundy
-
inf3rno
nagyúr
Nekem összejött közben, Linux bridge kellett mindkét portra. Így már lehet pingelni, bár a portokat még mindig inaktívnak írja a proxmox. A sávszélesség is jónak tűnik 47Gbps.
Buliban hasznos! =]
-
rgqjx
aktív tag
Vadász, vadász....
-
sutszi
veterán
válasz tasiadam #1772 üzenetére
Köszi. Hát ha odaérek a gyakorlati részhez, akkor jövök még.
Mondja, Mr. Babbage, ha rossz adatokat ad meg a gépnek, akkor is jó válasz fog kijönni belőle?" Képtelen vagyok felfogni azt az értelmi zavart, ami valakit egy ilyen kérdés feltevésére késztethet. - by Charles Babbage
-
wicktor93
csendes tag
Sziasztok,
Gondoltam beruházok egy HP 800 G4 SFF-be és Proxmox-szal kiváltom a jelenlegi OpenMediaVault szerverem és előkészülök a Home Assistant és egyéb jövőbeli projektekre.
Azzal szembesültem, hogy a Helper Script által telepített qBittorrent container idővel lecsökken 5-10MB/s-es sebességgre és semmi túlterhelés nem látható. Ha egy OMV VM-en belül telepítem dockerben, akkor az elején ki tudja használni a gigabites netet, Viszont elég hamar teleírja a memóriát (akár 12GB-t is), majd 40-60 MB/s sebességre beáll. Eközben a CPU IO delay 30-40%-ig is el tud menni.
Ami eddig találtam erről, hogy a jelenleg használt WD RED HDD-m SMR és nem CMR. Az előző konfigban ugyanezt a HDD-t 70-80 MB/s sebességgel tudtam írni tartósan.
Elképzelhető, hogy valóban a HDD a probléma, vagy esetleg más is szóba jöhet (pl. NIC) és érdemes lenne másik VE-t kipróbálni?
Előre is köszönöm. -
tasiadam
Topikgazda
-
TheMiller
tag
válasz wicktor93 #1781 üzenetére
Akkor lxc-re raktad? Privileged a konténer? Hdd-t használja más is? Hogyan van hozzá csatolva? Mennyire van tele a HDD?
Amúgy ha ekkora CPU IO-d van akkor az biztosan storage probléma.Nekem pl. (privileged) Lxc-n van a qbit, 2mag, 2gb ram, ssd, storage-ként felcsatolva egy külön "eldobós" SSD-re tölt. Ha kész, megy át HDD-re. 80-ra van korlátozva a letöltés, ezt bármely erre képes torrent megosztás hozza. Ha nem korlátoznám, leszakadnának a smart cuccok itthon, szóval ki lehet bőven facsarni a maxot
The World is Yours
-
wicktor93
csendes tag
válasz TheMiller #1782 üzenetére
LXC a Helper Script alapbeállításaival (úgy látom unprivileged) és pct paranccsal csatoltam a teljesen üres ext4 HDD-t. Ilyenkor ugyanúgy nagy sebességgel kezd és végül lemegy kb 5MB/s-re, de nem látok semmi kiugrót a grafikonokon. Próbáltam úgyis, hogy csak ide volt csatolva, de a cél a lenne, hogy ugyanezt a mappát látja a jellyfin/plex lxc is.
Az OMV VM-ben próbáltam sata/scsi/virtio2 csatolással is, de ott a memóriát tömi meg, utána lassul be.
Ami furcsa, hogy az előző konfigban OMV alatt ez a hdd simán ment hosszabb ideig 80-nal, Proxmox alatt szenvedek most. -
ViZion
félisten
jómunkások, nálam ennél jóval nagyobb a probléma!
Brave browserre váltottam pár hete, mert a Chrome sem az igazi.
Ennél viszont a PVE oldala néha visszakapcsol light témára, az oszlopaimat, stb. elfelejti, mintha a sütiket törölte volna. De már mindenféle kivételbe beraktam. Azt feldolgozom, h pár óránként újra be kell jelentkezni, de a light téma...
Valami javaslat, ötlet?Hold on, trying to give a fuck... Nope, not Happening • Powered by Fedora Linux • "Az élet olyan sz@r, szerencsére a felén már túl vagyok" Al Bundy
-
TheMiller
tag
válasz wicktor93 #1783 üzenetére
Elsőként megpróbálnám privileged konténerrel, illetve a qbitorrentet is beállítanám rendesen (google/youtube segít), pl. használj incomplete könyvtárat ne a plex-et is használó könyvtárba tölts egyből, valamint a terület lefoglalást is állítsd be. Lehet ez mind megvan, nem tudom, nyilván nem látom, szóval csak szimpla ötlet.
The World is Yours
-
inf3rno
nagyúr
Hátha később valakinek lesz ugyanez Mellanox kártyákkal. Nálam nagyjából ennyit kellett csinálni:
nano /etc/default/grub
GRUB_CMDLINE_LINUX_DEFAULT="pci=realloc=off"
Ha az elején az aborting-os hiba van dmesg-ben. [link]echo eth > /sys/bus/pci/devices/0000:0a:00.0/mlx4_port1
echo eth > /sys/bus/pci/devices/0000:0a:00.0/mlx4_port2
Ha nincs ETH mode-ban. Ugyanezekkel a fájlokkal lehet kiolvasni, hogy abban van e simán nanoval. Itt a "0000:0a:00.0" a PCIE eszköz neve, azt hiszem dmesg-ből jött. Sajnos nekem csak ez működött, ezzel viszont kell startup bash script, mert rebootnál elveszik a beállítás. Itt a teljes leírása: [link]ip link set dev enp10s0 up
ip link set dev enp10s0d1 up
Ha nem aktív, bár a GUI-ban ezzel sem lesz active, de létrejött nekem a kapcsolat. Az enp10s0 és enp10s0d1 a két port azonosítója a GUI-ból kiolvasható, de gondolom ip-vel hálózati eszközök listázásával is.Tesztelni ha 2-portos és saját magával van összekötve, akkor csak így lehet: [link]
Én közben eljutottam oda, hogy működik a kártya, viszont csak PCIE 1x sávszélességgel. Elég nagy csalódás ez nekem. Kénytelen vagyok másikat rendelni helyette. Már régóta próbálkozom ezzel a 40 vagy 56Gbps belső hálóval, de csak nem akar összejönni...
[ Szerkesztve ]
Buliban hasznos! =]
-
ViZion
félisten
válasz KaqXar19 #1790 üzenetére
Igen, ez a helper scriptes. Korábban használtam, most írta, h ha nem jó, akkor bugreport... egyelőre jó. De majd kiderül, néha napokig jó, majd husss... Nem tudom, h miért, az a baj.
Hold on, trying to give a fuck... Nope, not Happening • Powered by Fedora Linux • "Az élet olyan sz@r, szerencsére a felén már túl vagyok" Al Bundy
-
ViZion
félisten
Hááát, nálam mindig van valami furaság...
Ma ránézek, swap valami 90% felett, de a ram meg 42% használt... WTF?
Top szerint is ez a szituáció. Swappiness 10, meg minden a helyén, ahogy kell.
Casa OS-t leállítottam, mert annak a ram használatát szokta félrenézni.
Nem segített, 30% ram használat és 90% swap...
Akkor hardcore lettem :swapoff -a
kicsi várás, kikapcsolta.swapon -a
Bódottá, swap üres. Még pár fontos parancs az utókornak:cat /proc/swaps
listázza a swap partíciókat, fájlokat.free -m
Nem tudom, h mi volt a hiba oka, az sem biztos, h hiba talán csak a swap/ram démon tudná megmondani, esetleg a logok, de így nem fogom turkálni a múltat.[ Szerkesztve ]
Hold on, trying to give a fuck... Nope, not Happening • Powered by Fedora Linux • "Az élet olyan sz@r, szerencsére a felén már túl vagyok" Al Bundy
-
ViZion
félisten
válasz tasiadam #1795 üzenetére
hoston, a PVE töltötte meg a swapot. De így legalább Casa OS-re is ránéztem, az is csinált magának egy fain nagy swapfile-t, de minek? Van HDD, ott kapott swapot, ha a 10 GB ramból kifutna... a swapfilet nem fogom backupolni ezután.
Nem tudom, egy éve van Proxmox, kicsit több, ez most jelentkezett. Zram-ot majd megolvasomHold on, trying to give a fuck... Nope, not Happening • Powered by Fedora Linux • "Az élet olyan sz@r, szerencsére a felén már túl vagyok" Al Bundy
-
amargo
addikt
Itt hagyok én is egy kis infót, mert már többször észrevettem a logokban, de nem foglalkoztam vele, mert nem mindig volt jelen.
A lényeg, hogy LXC mentésekor, amiben használok docker-t ott fordult elő. Nálam egy ZFS-es pool-ba történik a rsync és onnen tömörít ugye (tar.zst).
Többször láttam ilyen hibaüzenetet az rsync-től:
rsync: [generator] set_acl: sys_acl_set_file(var/log/journal, ACL_TYPE_ACCESS): Operation not supported
failed: exit code 23A megoldás pedig, hogy be kell kapcsolni a tmp mappára, ahova történik az rsync a posixacl-t (
zfs set acltype=posixacl pool/tmp
)“The workdays are long and the weekend is short? Make a turn! Bike every day, bike to work too!”
-
tasiadam
Topikgazda
-
ViZion
félisten
válasz tasiadam #1798 üzenetére
OK, de a swappiness és a ram kihasználtság nem indokolta a swappolást, 24 GB ram van, elég bőven nekem. Amúgy nem vettem volna észre, ha nincs ez a betegségem, h végignézem naponta, h mi mennyit használ
Ez meg onnan jött, h PVE szerint a Casaa OS (ami csak egy web UI + docker manager a Buguntun) 80% felett használ ramot. Tudom, h az Ubuntu csak akkor pakolja ki a ramból a felesleget, ha kell a hely, ezért van a "hiba". De azé' ránézek mindig.Hold on, trying to give a fuck... Nope, not Happening • Powered by Fedora Linux • "Az élet olyan sz@r, szerencsére a felén már túl vagyok" Al Bundy
-
nerozol
tag
Sziasztok szeretnék segítséget kérni. Most fogok bele proxmox szerver építésébe. A konfigurációmban van egy samsung 860 EVO ssd 250 GB és van kettő 1 TB intel server magas írás-olvasást bíró ssd. Hogyan érdemes konfigurálni egy-két fórumon azt olvastam, hogy a zfs fájlrendszert nem érdemes samsungra rakni az intelek bírnák a strapát.
Lehet-e olyat beállítani, hogy a rendszer a samsungról bootoljon, a 2 db intel pedig legyen RAID1 ben?
Milyen fájlrendszert érdemes használni?
Új hozzászólás Aktív témák
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- A fociról könnyedén, egy baráti társaságban
- Futás, futópályák
- Szinte csak formaság: bemutatkozott a Pixel 6 és Pixel 6 Pro
- Politika
- Tőzsde és gazdaság
- Napelem
- Forza sorozat (Horizon/Motorsport)
- Android alkalmazások - szoftver kibeszélő topik
- Hobby rádiós topik
- További aktív témák...
- Microsoft licencek a KIVÉTELES ÁRAK - UTALÁSSAL IS AUTOMATIKUS KÉZBESÍTÉS - Windows és Office
- Windows 10 11 Pro Office 19 21 Pro Plus Retail kulcs 1 PC Mac AKCIÓ! LEGOLCSÓBB! Automatikus 0-24
- Steam,EA,Epic és egyébb játékok Pc-re vagy XBox!
- Bontatlan - BATTLEFIELD 1 Collectors Edition - Játékszoftver nélkül
- Steames kulcsok jó áron eladóak!