El miércoles, 11 de septiembre de 2019 14:21:12 CDT Rommel Rodriguez Toirac 
escribieron:
> El miércoles, 11 de septiembre de 2019 14:14:59 CDT Ulises Gonzalez Horta
> 
> escribieron:
> > On 2019-09-11 13:46, Rommel Rodriguez Toirac wrote:
> > > Mis saludos;
> > > utilizo Proxmox 5.4 y contenedores CentOS 7.
> > > Acabo de empezar a tener un problema en un contenedor que tiene squid
> > > (Squid Cache: Version 3.5.20), el mismo detuvo el servicio de squid.
> > > Cuando reviso las trazas de squid me dice algo así al tratar de arrancar
> > > el
> > > servicio (solo una porción de las trazas)
> > > 
> > > -----------------------
> > > 2019/09/11 13:28:24 kid1| Swap maxSize 2097152 + 524288 KB, estimated
> > > 201649 objects
> > > 2019/09/11 13:28:24 kid1| Target number of buckets: 10082
> > > 2019/09/11 13:28:24 kid1| Using 16384 Store buckets
> > > 2019/09/11 13:28:24 kid1| Max Mem  size: 524288 KB
> > > 2019/09/11 13:28:24 kid1| Max Swap size: 2097152 KB
> > > 2019/09/11 13:28:24 kid1| ERROR: while opening swap log/var/spool/squid/
> > > swap.state.new: (28) No space left on device
> > > FATAL: Failed to open swap log /var/spool/squid/swap.state.new
> > > Squid Cache (Version 3.5.20): Terminated abnormally.
> > > CPU Usage: 0.018 seconds = 0.018 user + 0.000 sys
> > > Maximum Resident Size: 81088 KB
> > > Page faults with physical i/o: 0
> > > 2019/09/11 13:28:24| Set Current Directory to /var/spool/squid
> > > -----------------------
> > > 
> > > Como ven, me da un aviso de que no queda espacio en el dispositivo; pero
> > > cuando chequeo el espacio del disco para ese contenedor, sí tengo
> > > espacio:
> > > 
> > > [root@gtmpx ~]# df -h
> > > S.ficheros                       Tamaño Usados  Disp Uso% Montado en
> > > /dev/mapper/pve-vm--103--disk--0    40G    20G   19G  52% /
> > > none                               492K      0  492K   0% /dev
> > > tmpfs                              2,0G      0  2,0G   0% /dev/shm
> > > tmpfs                              2,0G   8,2M  2,0G   1% /run
> > > tmpfs                              2,0G      0  2,0G   0% /sys/fs/cgroup
> > > tmpfs                              103M      0  103M   0% /run/user/0
> > > 
> > > Pero además de eso, intenté crear un directorio para hacer alguna salva
> > > antes de empezar a hacer cambios y el comando , también me da un aviso
> > > de
> > > no espacio:
> > > 
> > > [root@gtmpx ~]# mkdir /root/tempora
> > > mkdir: no se puede crear el directorio «/root/tempora»: No queda espacio
> > > en el dispositivo
> > > 
> > > Cerré el contenedor (que por cierto, con pct shutdown 103 no lo hizo,
> > > tuve
> > > que parar el contenedor pct stop 103) e hice una comprobación del
> > > dispositivo de almacenamiento del contenedor y no me dio ningún error:
> > > 
> > > root@proxmox:~# pct fsck 103
> > > fsck from util-linux 2.29.2
> > > /dev/mapper/pve-vm--103--disk--0: clean, 2621434/2621440 files,
> > > 5211276/10485760 blocks
> > > 
> > > root@proxmox:~# pct fsck 103 --force  1
> > > fsck from util-linux 2.29.2
> > > /dev/mapper/pve-vm--103--disk--0: 2621434/2621440 files (0.0%
> > > non-contiguous), 5211276/10485760 blocks
> > > 
> > > Comprobé en otros contenedores de ese mismo Proxmox para ver si me
> > > sucedía
> > > lo mismo y todo están bien, es decir, al menos el comando para crear un
> > > directorio funciona... (esto lo hice pensando en problemas del disco del
> > > Proxmox como tal)
> > > 
> > > Si alguien tiene alguna idea de qué puede estar sucediendo o como
> > > solucionarlo, sería de gran ayuda.
> > 
> > Se acabaron los inodes???
> > 
> > dh -ih
> > 
> > si se acabaron los inodos debido a muchos archivos pequenhos vas a tener
> > el mismo error que si estuviera lleno...
> 
> aún no he probado, pero  ¿eso hay alguna manera de resolverlo?


 Bien, es eso de cero inodes disponibles.


[root@gtmpx ~]# df -ih
S.ficheros                       Nodos-i NUsados NLibres NUso% Montado en
/dev/mapper/pve-vm--103--disk--0    2,5M    2,5M       0  100% /
none                                490K      26    490K    1% /dev
tmpfs                               490K       4    490K    1% /dev/shm
tmpfs                               490K     107    490K    1% /run
tmpfs                               490K      17    490K    1% /sys/fs/cgroup
tmpfs                               490K       1    490K    1% /run/user/0


 tendré que borrar algo, pero ¿qué? :-)
 eso es un servidor proxy con squid y squish, solamente.

-- 
Rommel Rodriguez Toirac
rommel.rodrig...@gtm.onat.gob.cu
Teléfono: 21327444 ext 120


_______________________________________________
Gutl-l mailing list -- gutl-l@listas.jovenclub.cu
To unsubscribe send an email to gutl-l-le...@listas.jovenclub.cu

Reply via email to