Results 1 to 9 of 9

Thread: Problemas con Zimbra Webmail Lentitud y Servicios tardan en correr

  1. #1
    Join Date
    Nov 2011
    Posts
    3
    Rep Power
    3

    Unhappy Problemas con Zimbra Webmail Lentitud y Servicios tardan en correr

    Hola A todos, les comento que recientemente mi servidor de zimbra esta teniendo los siguentes problemas.

    Tengo diversos usuarios de la versión de Webmail que no pueden acceder o bien, lo hacen de forma muy lenta. Por consiguiente, ciertas acciones como adjuntar archivos no lo pueden realizar.
    La interface de administración reacciona lentamente y presenta apagados todos los servicios.
    La línea de comandos de Zimbra (CLI) presenta de forma recurrente que los servicios tardan demasiado en ejecutarse (hasta 22 minutos). Esto se refiere específicamente a los relativos al servicio de correo



    Se han corrido las pruebas que regularmente se efectúan, que en general son las siguientes:

    Resolución interna y externa de DNS, sin problemas y con una velocidad adecuada.
    Velocidad del flujo de mensajes entrantes y salientes a otros servidores, que dependiendo de la hora fluctúa entre 1 y 7 minutos, lo que se considera normal.
    Consumo de memoria RAM, procesador y espacio en discos duros, que en general presentan una operación normal.
    Volumen de correo procesado, mismo que está dentro de los parámetros normales.
    La línea de comandos del sistema operativo permite ejecutar todas las acciones de forma normal.
    Los usuarios pueden trabajar de forma normal desde clientes locales de correo.
    Las bitácoras de operación del servidor y del servicio de correo no indican que exista un error que se identifique como la causa raíz.

    Tendran alguna idea que le este pasando a mi Zimbra.

    Mi version de Zimbra es : 6.0.6_GA_2324.RHEL5_64-FOSS

    Utilizando el Cliente Gratuito de Zimbra Mis usuarios pueden enviar sin ningun problema como si estuvieran en el WebMail.

    Gracias Anticipadas por su ayuda.
    Last edited by Antonio Vargas; 11-15-2011 at 12:07 PM. Reason: Update Clientes Zimbra

  2. #2
    Join Date
    May 2009
    Posts
    18
    Rep Power
    6

    Default

    revisate el espacio en Disco , lo Log?? para saber en realida el problema!!

  3. #3
    Join Date
    Nov 2011
    Posts
    3
    Rep Power
    3

    Default

    Quote Originally Posted by cejodrake View Post
    revisate el espacio en Disco , lo Log?? para saber en realida el problema!!
    Hola Cejodrake, Gracias por contestar.
    Te comento que el espacio en disco esta normal 60% ocupado y revision de Log´s tanto de S.O. como Zimbra Sin ningún mensaje de error. Saludos

  4. #4
    Join Date
    Aug 2012
    Posts
    7
    Rep Power
    3

    Default

    Estimado, resolvio el problema? ya que tengo el mismo caso que tu pero aun no logro dar con la solucion, me podrias ayudar?

  5. #5
    Join Date
    Jun 2011
    Location
    Caracas Venezuela
    Posts
    476
    Rep Power
    4

    Default

    Hola,

    Puedes dar detalles sobre cantidad de RAM instalada, accesos a disco, etc.

    ccelis

  6. #6
    Join Date
    Aug 2012
    Posts
    7
    Rep Power
    3

    Default

    Quote Originally Posted by ccelis5215 View Post
    Hola,

    Puedes dar detalles sobre cantidad de RAM instalada, accesos a disco, etc.

    ccelis
    resulta que de un dia para otro mi servidor zimbra se puso lento al entrar por el webmail, para leer un correo se demora como 15 seg en abrirlo, en ocasiones aparece un mensaje de que el servidor se esta demorando en responder, en los log no logro identificar el error que puedan estar causando el problema.

    La version de zimbra que tengo instalada es Release 5.0.24_GA_3356.DEBIAN4.0 DEBIAN4.0, tengo alrededor de 300 cuentas de correos registradas, de las cuales un promedio de 15 usuarios mantiene abierta la session de webmail. el resto entra y sale o lo asen mediante el cliente de correo outlook express.

    Pense que podria ser por memoria o por disco, pero el equipo tiene 4gb de ram y el top me dice que le quedan 1,2gb libres, el zimbra lo tengo instalado en un disco de 500gb de los cuales solo se an utilzado 23gb, lo que me llama la atencion es que el led del disco duro esta mucho rato encendido como si estubiera asiendo un uso intensivo del disco y no logro descubrir por que.

    Saludos

    Code:
    mail:~# free -m
                 total       used       free     shared    buffers     cached
    Mem:          3977       3291        685          0        534        964
    -/+ buffers/cache:       1792       2184
    Swap:         9444          0       9444
    Code:
    mail:~# uptime
     20:36:13 up 2 days,  1:55,  1 user,  load average: 3.76, 3.18, 2.60
    Code:
    mail:~# vmstat 2 10
    procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu----
     r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa
     0  1      0 646376 547596 1039468    0    0     2    22    4   48  3  0 91  6
     0  1      0 646368 547600 1039468    0    0     0    28   21  356  0  0 75 25
     0  2      0 646508 547600 1039468    0    0     0    52   11  353  0  0 74 26
     0  2      0 646624 547600 1039472    0    0     0     8   26  340  0  0 51 49
     0  1      0 646864 547604 1039484    0    0     0   214   30  408  0  0 58 42
     0  2      0 646872 547616 1039508    0    0    66   360   33  429  0  0 65 35
     0  2      0 646700 547620 1039744    0    0    88    66   26  268  0  0 61 39
     0  2      0 643632 547628 1042988    0    0  1582   192   56  351  0  0 56 44
     0  2      0 643468 547628 1042936    0    0     0     0   13  328  0  0 50 50
     0  2      0 643592 547628 1042936    0    0     0     2    4  260  0  0 52 48
    Code:
    mail:~# iostat 2 10
    Linux 2.6.24-etchnhalf.1-686-bigmem (mail)     16/08/12     _i686_
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
               2,56    0,00    0,36    6,15    0,00   90,93
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda               2,87         2,35        67,67     422474   12177446
    sdb               0,00         0,01         0,00       1584          0
    sdc               4,50        10,95       112,08    1970026   20169928
    md0              11,94        10,94       107,88    1968730   19414616
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
               0,00    0,00    0,00    0,00    0,00  100,00
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda               0,00         0,00         0,00          0          0
    sdb               0,00         0,00         0,00          0          0
    sdc               0,50         0,00         8,00          0         16
    md0               0,00         0,00         0,00          0          0
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
               0,36    0,00    0,00    0,00    0,00   99,64
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda               6,50         0,00       276,00          0        552
    sdb               0,00         0,00         0,00          0          0
    sdc               1,50         0,00        24,00          0         48
    md0               1,00         0,00         8,00          0         16
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
              35,14    0,00    3,26    0,00    0,00   61,59
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda              17,50         0,00       220,00          0        440
    sdb               0,00         0,00         0,00          0          0
    sdc               6,00         0,00       144,00          0        288
    md0              16,00         0,00       128,00          0        256
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
              18,91    0,00    2,49    0,00    0,00   78,61
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda              10,50         0,00       172,00          0        344
    sdb               0,00         0,00         0,00          0          0
    sdc               1,50         0,00        16,00          0         32
    md0               1,00         0,00         8,00          0         16
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
               5,03    0,00    0,75    0,00    0,00   94,21
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda               3,50         0,00       368,00          0        736
    sdb               0,00         0,00         0,00          0          0
    sdc               0,50         0,00         8,00          0         16
    md0               0,00         0,00         0,00          0          0
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
               0,00    0,00    0,12    0,00    0,00   99,88
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda               0,00         0,00         0,00          0          0
    sdb               0,00         0,00         0,00          0          0
    sdc               0,00         0,00         0,00          0          0
    md0               0,00         0,00         0,00          0          0
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
               0,00    0,00    0,00    0,00    0,00  100,00
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda               1,00         0,00        12,00          0         24
    sdb               0,00         0,00         0,00          0          0
    sdc               0,00         0,00         0,00          0          0
    md0               0,00         0,00         0,00          0          0
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
               0,00    0,00    0,13    0,00    0,00   99,87
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda               1,50         0,00       100,00          0        200
    sdb               0,00         0,00         0,00          0          0
    sdc               0,00         0,00         0,00          0          0
    md0               0,00         0,00         0,00          0          0
    
    avg-cpu:  %user   %nice %system %iowait  %steal   %idle
               2,28    0,00    0,00    2,40    0,00   95,32
    
    Device:            tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn
    sda               0,00         0,00         0,00          0          0
    sdb               0,00         0,00         0,00          0          0
    sdc              38,50         0,00       820,00          0       1640
    md0              52,50         0,00       820,00          0       1640
    Code:
    mail:~# mpstat -P ALL 2 10
    Linux 2.6.24-etchnhalf.1-686-bigmem (mail)     16/08/12     _i686_
    
    20:43:56     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:43:58     all    0,12    0,00    0,00   50,06    0,00    0,00    0,00   49,81      3,00
    20:43:58       0    0,00    0,00    0,00  100,00    0,00    0,00    0,00    0,00      0,50
    20:43:58       1    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      1,00
    20:43:58       2    0,00    0,00    0,00  100,00    0,00    0,00    0,00    0,00      1,00
    20:43:58       3    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      0,50
    
    20:43:58     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:44:00     all    0,00    0,00    0,00   50,89    0,00    0,00    0,00   49,11      3,50
    20:44:00       0    0,00    0,00    0,00  100,00    0,00    0,00    0,00    0,00      1,00
    20:44:00       1    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      1,00
    20:44:00       2    0,00    0,00    0,00  100,00    0,00    0,00    0,00    0,00      0,50
    20:44:00       3    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      1,00
    
    20:44:00     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:44:02     all    9,60    0,00    1,68   39,74    0,00    0,00    0,00   48,98     36,00
    20:44:02       0   10,24    0,00    0,98   72,20    0,00    0,00    0,00   16,59      9,00
    20:44:02       1   12,22    0,00    2,26   13,57    0,00    0,00    0,00   71,95      9,00
    20:44:02       2    7,92    0,00    1,49   61,39    0,00    0,00    0,00   29,21      9,00
    20:44:02       3    8,29    0,00    1,95   13,66    0,00    0,00    0,00   76,10      9,00
    
    20:44:02     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:44:04     all   30,24    0,00    4,22   33,61    0,00    0,00    0,00   31,93     77,00
    20:44:04       0   43,20    0,00    4,85   24,27    0,00    0,00    0,00   27,67     19,00
    20:44:04       1   30,62    0,00    4,31   26,79    0,00    0,00    0,00   38,28     19,00
    20:44:04       2   31,88    0,00    2,90   39,13    0,00    0,00    0,00   26,09     19,50
    20:44:04       3   15,38    0,00    4,81   44,23    0,00    0,00    0,00   35,58     19,50
    
    20:44:04     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:44:06     all    0,39    0,00    0,13   45,53    0,00    0,00    0,00   53,96     24,00
    20:44:06       0    0,00    0,00    0,56   92,22    0,00    0,00    0,00    7,22      6,00
    20:44:06       1    0,53    0,00    0,00   46,03    0,00    0,00    0,00   53,44      6,00
    20:44:06       2    0,00    0,00    0,00   13,50    0,00    0,00    0,00   86,50      6,00
    20:44:06       3    0,50    0,00    0,00   35,00    0,00    0,00    0,00   64,50      6,00
    
    20:44:06     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:44:08     all    0,48    0,00    0,00   38,59    0,00    0,00    0,00   60,93     41,00
    20:44:08       0    0,00    0,00    0,00   79,45    0,00    0,00    0,00   20,55     10,50
    20:44:08       1    0,46    0,00    0,00    6,48    0,00    0,00    0,00   93,06     10,50
    20:44:08       2    0,50    0,00    0,00   30,35    0,00    0,00    0,00   69,15     10,00
    20:44:08       3    0,50    0,00    0,00   36,82    0,00    0,00    0,00   62,69     10,00
    
    20:44:08     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:44:10     all    0,13    0,00    0,13   24,32    0,00    0,00    0,00   75,42     30,00
    20:44:10       0    0,55    0,00    0,00   12,02    0,00    0,00    0,00   87,43      7,50
    20:44:10       1    0,52    0,00    0,00    7,77    0,00    0,00    0,00   91,71      7,50
    20:44:10       2    0,00    0,00    0,50    0,50    0,00    0,00    0,00   99,01      7,50
    20:44:10       3    0,00    0,00    0,00   75,74    0,00    0,00    0,00   24,26      7,50
    
    20:44:10     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:44:12     all    0,61    0,00    0,00   24,82    0,00    0,00    0,00   74,57     26,00
    20:44:12       0    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      6,50
    20:44:12       1    2,54    0,00    0,00    0,00    0,00    0,00    0,00   97,46      6,50
    20:44:12       2    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      6,50
    20:44:12       3    0,00    0,00    0,00  100,00    0,00    0,00    0,00    0,00      6,50
    
    20:44:12     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:44:14     all    0,00    0,00    0,00   25,12    0,00    0,00    0,00   74,88      4,00
    20:44:14       0    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      1,00
    20:44:14       1    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      1,00
    20:44:14       2    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      1,00
    20:44:14       3    0,00    0,00    0,00  100,00    0,00    0,00    0,00    0,00      1,00
    
    20:44:14     CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    20:44:16     all    0,00    0,00    0,00   25,25    0,00    0,00    0,00   74,75      2,00
    20:44:16       0    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      0,50
    20:44:16       1    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      0,50
    20:44:16       2    0,00    0,00    0,00    0,00    0,00    0,00    0,00  100,00      0,50
    20:44:16       3    0,00    0,00    0,00  100,00    0,00    0,00    0,00    0,00      0,50
    
    Media:       CPU   %user   %nice    %sys %iowait    %irq   %soft  %steal   %idle    intr/s
    Media:       all    4,28    0,00    0,63   35,76    0,00    0,00    0,00   59,32     24,65
    Media:         0    5,55    0,00    0,65   48,00    0,00    0,00    0,00   45,80      6,15
    Media:         1    4,91    0,00    0,69   10,02    0,00    0,00    0,00   84,37      6,20
    Media:         2    4,12    0,00    0,50   34,52    0,00    0,00    0,00   60,86      6,15
    Media:         3    2,52    0,00    0,69   50,54    0,00    0,00    0,00   46,24      6,15
    Code:
    mail:~# df -hT
    S.ficheros    Tipo  Tamaño Usado  Disp Uso% Montado en
    /dev/sda2     ext3     74G   31G   40G  44% /
    tmpfs        tmpfs    2,0G     0  2,0G   0% /lib/init/rw
    udev         tmpfs     10M  100K   10M   1% /dev
    tmpfs        tmpfs    2,0G     0  2,0G   0% /dev/shm
    /dev/sda1     ext3     92M   44M   43M  51% /boot
    /dev/sda6     ext3     19G  173M   18G   1% /tmp
    /dev/sda5     ext3     46G   15G   29G  34% /var
    /dev/md0      ext3    459G   22G  414G   5% /opt
    Code:
    mail:~# netstat -i
    Kernel Interface table
    Iface   MTU Met   RX-OK RX-ERR RX-DRP RX-OVR    TX-OK TX-ERR TX-DRP TX-OVR Flg
    eth0       1500 0    242570      0      0 0        240570      0      0      0 BMRU
    eth1       1500 0    773775      0      0 0        488834      0      0      0 BMRU
    lo        16436 0   1604730      0      0 0       1604730      0      0      0 LRU
    Code:
    mail:~# ifconfig
    eth0      Link encap:Ethernet  HWaddr 00:1c:f0:15:45:32
              inet addr:190.82.x.x  Bcast:190.82.x.x  Mask:255.255.255.248
              inet6 addr: fe80::21c:f0ff:fe15:4532/64 Scope:Link
              UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
              RX packets:242690 errors:0 dropped:0 overruns:0 frame:0
              TX packets:240727 errors:0 dropped:0 overruns:0 carrier:0
              collisions:0 txqueuelen:1000
              RX bytes:205510922 (195.9 MiB)  TX bytes:189179187 (180.4 MiB)
              Interrupt:22
    
    eth1      Link encap:Ethernet  HWaddr 00:1c:c0:1b:1f:ab
              inet addr:10.0.2.108  Bcast:10.0.2.127  Mask:255.255.255.128
              inet6 addr: fe80::21c:c0ff:fe1b:1fab/64 Scope:Link
              UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
              RX packets:773923 errors:0 dropped:0 overruns:0 frame:0
              TX packets:488895 errors:0 dropped:0 overruns:0 carrier:0
              collisions:0 txqueuelen:100
              RX bytes:182288200 (173.8 MiB)  TX bytes:377388497 (359.9 MiB)
              Memory:e0380000-e03a0000
    
    lo        Link encap:Local Loopback
              inet addr:127.0.0.1  Mask:255.0.0.0
              inet6 addr: ::1/128 Scope:Host
              UP LOOPBACK RUNNING  MTU:16436  Metric:1
              RX packets:1618621 errors:0 dropped:0 overruns:0 frame:0
              TX packets:1618621 errors:0 dropped:0 overruns:0 carrier:0
              collisions:0 txqueuelen:0
              RX bytes:1315155192 (1.2 GiB)  TX bytes:1315155192 (1.2 GiB)
    Code:
    mail:~# fdisk -l
    
    Disco /dev/sda: 160.0 GB, 160041885696 bytes
    255 heads, 63 sectors/track, 19457 cylinders
    Units = cilindros of 16065 * 512 = 8225280 bytes
    Disk identifier: 0x0007e0c6
    
    Disposit. Inicio    Comienzo      Fin      Bloques  Id  Sistema
    /dev/sda1   *           1          12       96358+  83  Linux
    /dev/sda2              13        9738    78124095   83  Linux
    /dev/sda3            9739       10942     9671130   82  Linux swap / Solaris
    /dev/sda4           10943       19457    68396737+   5  Extendida
    /dev/sda5           10943       17021    48829536   83  Linux
    /dev/sda6           17022       19457    19567138+  83  Linux
    
    Disco /dev/sdb: 500.1 GB, 500107862016 bytes
    255 heads, 63 sectors/track, 60801 cylinders
    Units = cilindros of 16065 * 512 = 8225280 bytes
    Disk identifier: 0x00090d0d
    
    Disposit. Inicio    Comienzo      Fin      Bloques  Id  Sistema
    /dev/sdb1               1       60801   488384001   fd  Linux raid autodetect
    
    Disco /dev/sdc: 500.1 GB, 500107862016 bytes
    255 heads, 63 sectors/track, 60801 cylinders
    Units = cilindros of 16065 * 512 = 8225280 bytes
    Disk identifier: 0x97be5b6a
    
    Disposit. Inicio    Comienzo      Fin      Bloques  Id  Sistema
    /dev/sdc1               1       60801   488384001   fd  Linux raid autodetect
    
    Disco /dev/md0: 500.1 GB, 500105150464 bytes
    2 heads, 4 sectors/track, 122095984 cylinders
    Units = cilindros of 8 * 512 = 4096 bytes
    Disk identifier: 0x00000000
    
    El disco /dev/md0 no contiene una tabla de particiones válida
    Code:
    mail:~# hdparm -tT $( df -PhT|grep -w "/dev \|/"|awk {'print $1'}|grep -v rootfs)
    
    /dev/sda2:
     Timing cached reads:   7238 MB in  2.00 seconds = 3622.10 MB/sec
     Timing buffered disk reads:  216 MB in  3.03 seconds =  71.36 MB/sec
    Estimado aca me entre a procupar, donde dice State : active, degraded y mas abajo removed me podrias explicar que pasa con el raid?

    Code:
    mail:~# mdadm --detail /dev/md0
    /dev/md0:
            Version : 00.90
      Creation Time : Sat Apr 12 15:14:22 2008
         Raid Level : raid1
         Array Size : 488383936 (465.76 GiB 500.11 GB)
      Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
       Raid Devices : 2
      Total Devices : 1
    Preferred Minor : 0
        Persistence : Superblock is persistent
    
        Update Time : Thu Aug 16 21:35:19 2012
              State : active, degraded
     Active Devices : 1
    Working Devices : 1
     Failed Devices : 0
      Spare Devices : 0
    
               UUID : e55c5503:c725da6b:f71c6e1d:abf9c60e
             Events : 0.22326027
    
        Number   Major   Minor   RaidDevice State
           0       0        0        0      removed
           1       8       33        1      active sync   /dev/sdc1
    Code:
    mail:~# cat /proc/mdstat
    Personalities : [raid1]
    md0 : active raid1 sdc1[1]
          488383936 blocks [2/1] [_U]
    
    unused devices: <none>
    Last edited by KDS; 08-16-2012 at 07:05 PM.

  7. #7
    Join Date
    Aug 2012
    Posts
    7
    Rep Power
    3

    Default

    Code:
    mail:~# cat /proc/cpuinfo
    processor    : 0
    vendor_id    : GenuineIntel
    cpu family    : 6
    model        : 15
    model name    : Intel(R) Core(TM)2 Quad CPU    Q6600  @ 2.40GHz
    stepping    : 11
    cpu MHz        : 2400.132
    cache size    : 4096 KB
    physical id    : 0
    siblings    : 4
    core id        : 0
    cpu cores    : 4
    fdiv_bug    : no
    hlt_bug        : no
    f00f_bug    : no
    coma_bug    : no
    fpu        : yes
    fpu_exception    : yes
    cpuid level    : 10
    wp        : yes
    flags        : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe nx lm constant_tsc arch_perfmon pebs bts pni monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr lahf_lm
    bogomips    : 4803.87
    clflush size    : 64
    
    processor    : 1
    vendor_id    : GenuineIntel
    cpu family    : 6
    model        : 15
    model name    : Intel(R) Core(TM)2 Quad CPU    Q6600  @ 2.40GHz
    stepping    : 11
    cpu MHz        : 2400.132
    cache size    : 4096 KB
    physical id    : 0
    siblings    : 4
    core id        : 1
    cpu cores    : 4
    fdiv_bug    : no
    hlt_bug        : no
    f00f_bug    : no
    coma_bug    : no
    fpu        : yes
    fpu_exception    : yes
    cpuid level    : 10
    wp        : yes
    flags        : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe nx lm constant_tsc arch_perfmon pebs bts pni monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr lahf_lm
    bogomips    : 4800.51
    clflush size    : 64
    
    processor    : 2
    vendor_id    : GenuineIntel
    cpu family    : 6
    model        : 15
    model name    : Intel(R) Core(TM)2 Quad CPU    Q6600  @ 2.40GHz
    stepping    : 11
    cpu MHz        : 2400.132
    cache size    : 4096 KB
    physical id    : 0
    siblings    : 4
    core id        : 2
    cpu cores    : 4
    fdiv_bug    : no
    hlt_bug        : no
    f00f_bug    : no
    coma_bug    : no
    fpu        : yes
    fpu_exception    : yes
    cpuid level    : 10
    wp        : yes
    flags        : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe nx lm constant_tsc arch_perfmon pebs bts pni monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr lahf_lm
    bogomips    : 4800.54
    clflush size    : 64
    
    processor    : 3
    vendor_id    : GenuineIntel
    cpu family    : 6
    model        : 15
    model name    : Intel(R) Core(TM)2 Quad CPU    Q6600  @ 2.40GHz
    stepping    : 11
    cpu MHz        : 2400.132
    cache size    : 4096 KB
    physical id    : 0
    siblings    : 4
    core id        : 3
    cpu cores    : 4
    fdiv_bug    : no
    hlt_bug        : no
    f00f_bug    : no
    coma_bug    : no
    fpu        : yes
    fpu_exception    : yes
    cpuid level    : 10
    wp        : yes
    flags        : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe nx lm constant_tsc arch_perfmon pebs bts pni monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr lahf_lm
    bogomips    : 4800.54
    clflush size    : 64
    Estimado aca me entre a procupar, donde dice State : active, degraded y mas abajo removed me podrias explicar que pasa con el raid?

    Code:
    mail:~# mdadm --detail /dev/md0
    /dev/md0:
            Version : 00.90
      Creation Time : Sat Apr 12 15:14:22 2008
         Raid Level : raid1
         Array Size : 488383936 (465.76 GiB 500.11 GB)
      Used Dev Size : 488383936 (465.76 GiB 500.11 GB)
       Raid Devices : 2
      Total Devices : 1
    Preferred Minor : 0
        Persistence : Superblock is persistent
    
        Update Time : Thu Aug 16 21:35:19 2012
              State : active, degraded
     Active Devices : 1
    Working Devices : 1
     Failed Devices : 0
      Spare Devices : 0
    
               UUID : e55c5503:c725da6b:f71c6e1d:abf9c60e
             Events : 0.22326027
    
        Number   Major   Minor   RaidDevice State
           0       0        0        0      removed
           1       8       33        1      active sync   /dev/sdc1
    Code:
    mail:~# cat /proc/mdstat
    Personalities : [raid1]
    md0 : active raid1 sdc1[1]
          488383936 blocks [2/1] [_U]
    
    unused devices: <none>
    Code:
    mail:~# ps aux |sort -k 3 -r |head -50
    USER       PID %CPU %MEM    VSZ   RSS TTY      STAT START   TIME COMMAND
    zimbra   18473  0.1  7.3 1430636 297640 ?      Sl   Aug14   3:20 /opt/zimbra/mysql/libexec/mysqld --defaults-file=/opt/zimbra/conf/my.cnf --basedir=/opt/zimbra/mysql --datadir=/opt/zimbra/db/data --pid-file=/opt/zimbra/db/mysql.pid --skip-external-locking --port=7306 --socket=/opt/zimbra/db/mysql.sock --external-locking
    zimbra   19379  0.1 24.9 1908664 1014208 ?     Sl   Aug14   5:39 /opt/zimbra/java/bin/java -Xms1511m -Xmx1511m -client -XX:NewRatio=2 -Djava.awt.headless=true -XX:MaxPermSize=128m -XX:SoftRefLRUPolicyMSPerMB=1 -Xss256k -Djava.io.tmpdir=/opt/zimbra/mailboxd/work -Djava.library.path=/opt/zimbra/lib -Djava.endorsed.dirs=/opt/zimbra/mailboxd/common/endorsed -Dzimbra.config=/opt/zimbra/conf/localconfig.xml -Djetty.home=/opt/zimbra/mailboxd -DSTART=/opt/zimbra/mailboxd/etc/start.config -jar /opt/zimbra/mailboxd/start.jar /opt/zimbra/mailboxd/etc/jetty.properties /opt/zimbra/mailboxd/etc/jetty-setuid.xml /opt/zimbra/mailboxd/etc/jetty.xml
    zimbra   18258  0.1  0.4 108520 20020 ?        Sl   Aug14   4:47 /opt/zimbra/logger/mysql/libexec/mysqld --defaults-file=/opt/zimbra/conf/my.logger.cnf --basedir=/opt/zimbra/logger/mysql --datadir=/opt/zimbra/logger/db/data --pid-file=/opt/zimbra/logger/db/mysql.pid --skip-external-locking --port=7307 --socket=/opt/zimbra/logger/db/mysql.sock --external-locking
    zimbra   19776  0.0  3.2 160832 133160 ?       Ssl  Aug14   1:01 /opt/zimbra/clamav/sbin/clamd --config-file=/opt/zimbra/conf/clamd.conf
    zimbra    9182  0.0  1.4  68504 58088 ?        S    15:23   0:04 amavisd (ch19-avail)
    zimbra   21882  0.0  1.3  67392 56704 ?        S    16:25   0:05 amavisd (ch18-avail)
    zimbra   26391  0.0  1.3  66420 55568 ?        S    17:11   0:01 amavisd (ch9-avail)
    zimbra   18856  0.0  1.3  65436 54748 ?        S    15:41   0:02 amavisd (ch14-avail)
    zimbra   31587  0.0  1.3  64884 54124 ?        S    16:43   0:03 amavisd (ch12-avail)
    zimbra   27060  0.0  1.3  64784 54036 ?        S    17:12   0:01 amavisd (ch9-avail)
    zimbra   29934  0.0  1.3  64404 53744 ?        S    17:19   0:03 amavisd (ch12-avail)
    zimbra   32274  0.0  1.3  64084 53268 ?        S    16:44   0:02 amavisd (ch9-avail)
    zimbra   18679  0.0  1.3  63988 53256 ?        S    16:19   0:02 amavisd (ch13-avail)
    zimbra    9713  0.0  1.2  62240 51356 ?        S    20:39   0:00 amavisd (ch1-avail)
    zimbra   19747  0.0  1.2  61328 49924 ?        Ss   Aug14   0:01 amavisd (master)
    zimbra   17791  0.0  0.8 252344 34424 ?        Ssl  Aug14   0:33 /opt/zimbra/openldap/libexec/slapd -l LOCAL0 -4 -u zimbra -h ldap://mail.sangabriel.cl:389 -f /opt/zimbra/conf/slapd.conf
    root     20648  0.0  0.3 263124 14680 ?        Rl   21:42   0:00 /opt/zimbra/java/bin/java -client -Dzimbra.home=/opt/zimbra -cp /opt/zimbra/lib/jars/zimbracommon.jar:/opt/zimbra/lib/jars/commons-logging.jar:/opt/zimbra/lib/jars/commons-cli-2.0.jar:/opt/zimbra/lib/jars/dom4j-1.5.jar:/opt/zimbra/lib/jars/log4j-1.2.8.jar:/opt/zimbra/lib/jars/commons-httpclient-2.0.1.jar com.zimbra.common.localconfig.Main -x -s -q -m shell
    zimbra    3000  0.0  0.1   9452  7736 ?        S    06:25   0:03 /usr/bin/perl /tmp/.swatch_script.2969
    zimbra    2767  0.0  0.1   9316  6940 ?        Ss   06:25   0:03 /opt/zimbra/libexec/logswatch --config-file=/opt/zimbra/conf/logswatchrc --use-cpan-file-tail --pid-file=/opt/zimbra/log/logswatch.pid --daemon --script-dir=/tmp -t /var/log/zimbra.log
    zimbra    3263  0.0  0.1   8692  4788 ?        S    06:25   0:00 /usr/bin/perl /opt/zimbra/libexec/zmlogger
    snmp      4698  0.0  0.1   7348  4332 ?        S    Aug14   0:13 /usr/sbin/snmpd -Lf /dev/null -u snmp -I -smux -p /var/run/snmpd.pid 127.0.0.1 10.0.2.108
    zimbra    3090  0.0  0.1   7092  4936 ?        S    06:25   0:38 /usr/bin/perl /opt/zimbra/libexec/zmmtaconfig
    zimbra    2969  0.0  0.1   6368  4744 ?        S    06:25   0:00 /usr/bin/perl /opt/zimbra/libexec/swatch --config-file=/opt/zimbra/conf/swatchrc --use-cpan-file-tail --script-dir=/tmp -t /var/log/zimbra.log
    root      5330  0.0  0.1  56328  4272 ?        Sl   Aug14   0:54 /usr/bin/python /usr/bin/fail2ban-server -b -s /var/run/fail2ban/fail2ban.sock
    zimbra   19793  0.0  0.1  14100  6740 ?        Ss   Aug14   0:01 /opt/zimbra/httpd-2.2.8/bin/httpd -k start -f /opt/zimbra/conf/httpd.conf
    zimbra   19799  0.0  0.1  14100  6036 ?        S    Aug14   0:00 /opt/zimbra/httpd-2.2.8/bin/httpd -k start -f /opt/zimbra/conf/httpd.conf
    zimbra   19798  0.0  0.1  14100  6036 ?        S    Aug14   0:00 /opt/zimbra/httpd-2.2.8/bin/httpd -k start -f /opt/zimbra/conf/httpd.conf
    zimbra   19797  0.0  0.1  14100  6036 ?        S    Aug14   0:00 /opt/zimbra/httpd-2.2.8/bin/httpd -k start -f /opt/zimbra/conf/httpd.conf
    zimbra   19796  0.0  0.1  14100  6036 ?        S    Aug14   0:00 /opt/zimbra/httpd-2.2.8/bin/httpd -k start -f /opt/zimbra/conf/httpd.conf
    zimbra   19794  0.0  0.1  14100  6036 ?        S    Aug14   0:00 /opt/zimbra/httpd-2.2.8/bin/httpd -k start -f /opt/zimbra/conf/httpd.conf
    postfix   7880  0.0  0.0   9652  3840 ?        S    21:17   0:00 smtpd -n smtp -t inet -u -o stress
    postfix  16898  0.0  0.0   9652  3780 ?        S    21:35   0:00 smtpd -n smtp -t inet -u -o stress
    postfix  18697  0.0  0.0   9316  3208 ?        S    21:39   0:00 smtpd -n 127.0.0.1:10025 -t inet -u -o content_filter  -o local_recipient_maps  -o virtual_mailbox_maps  -o virtual_alias_maps  -o relay_recipient_maps  -o smtpd_restriction_classes  -o smtpd_delay_reject no -o smtpd_client_restrictions permit_mynetworks,reject -o smtpd_helo_restrictions  -o smtpd_milters  -o smtpd_sender_restrictions  -o smtpd_recipient_restrictions permit_mynetworks,reject -o mynetworks_style host -o mynetworks 127.0.0.0/8 -o strict_rfc821_envelopes yes -o smtpd_error_sleep_time 0 -o smtpd_soft_error_limit 1001 -o smtpd_hard_error_limit 1000 -o smtpd_client_connection_count_limit 0 -o smtpd_client_connection_rate_limit 0 -o receive_override_options no_header_body_checks,no_unknown_recipient_checks,no_address_mappings
    root     15618  0.0  0.0   8240  2752 ?        Ss   21:33   0:00 sshd: root@pts/0
    root     15508  0.0  0.0   8236  2752 ?        Ss   21:33   0:00 sshd: root@notty
    zimbra   20513  0.0  0.0   7904  3288 ?        Ss   Aug14   0:00 /opt/zimbra/cyrus-sasl/sbin/saslauthd -r -a zimbra
    zimbra   20934  0.0  0.0   7904  3276 ?        S    Aug14   0:01 /opt/zimbra/cyrus-sasl/sbin/saslauthd -r -a zimbra
    zimbra   20937  0.0  0.0   7904  3276 ?        S    Aug14   0:00 /opt/zimbra/cyrus-sasl/sbin/saslauthd -r -a zimbra
    zimbra   20935  0.0  0.0   7904  3276 ?        S    Aug14   0:00 /opt/zimbra/cyrus-sasl/sbin/saslauthd -r -a zimbra
    zimbra   20933  0.0  0.0   7904  3276 ?        S    Aug14   0:00 /opt/zimbra/cyrus-sasl/sbin/saslauthd -r -a zimbra
    postfix  20509  0.0  0.0   7068  2020 ?        S    Aug14   0:00 qmgr -l -t fifo -u
    postfix  19175  0.0  0.0   7056  2040 ?        S    21:40   0:00 lmtp -t unix -u
    postfix  18694  0.0  0.0   7056  1976 ?        S    21:39   0:00 smtp -n smtp-amavis -t unix -u -o smtp_data_done_timeout 1200 -o smtp_send_xforward_command yes -o disable_dns_lookups yes -o max_use 20
    postfix  18688  0.0  0.0   7024  2044 ?        S    21:39   0:00 cleanup -z -t unix -u
    root      4686  0.0  0.0   6964  1540 ?        Ss   Aug14   0:01 /usr/sbin/nmbd -D
    zimbra   21011  0.0  0.0   6928  3672 ?        S    Aug14   0:34 /usr/bin/perl -w /opt/zimbra/libexec/zmstat-proc
    postfix   4445  0.0  0.0   6920  1776 ?        S    21:10   0:00 pickup -l -t fifo -u
    postfix  20809  0.0  0.0   6916  1856 ?        S    Aug14   0:00 tlsmgr -l -t unix -u
    postfix  13387  0.0  0.0   6912  1812 ?        S    21:29   0:00 anvil -l -t unix -u
    Code:
    mail:~# uname -a
    Linux mail 2.6.24-etchnhalf.1-686-bigmem #1 SMP Fri Dec 26 04:53:15 UTC 2008 i686 GNU/Linux

  8. #8
    Join Date
    Jun 2011
    Location
    Caracas Venezuela
    Posts
    476
    Rep Power
    4

    Default

    Ciertamente debes estar preocupado, el RAID1 solo tiene un disco en funcionamiento.

    Ademas, el MPSTAT muestra tiempos altos de acceso a disco lo cual puede estar causando lentitud en Zimbra.

    ccelis.

  9. #9
    Join Date
    Sep 2012
    Posts
    14
    Rep Power
    3

    Default

    Quote Originally Posted by ccelis5215 View Post
    Ciertamente debes estar preocupado, el RAID1 solo tiene un disco en funcionamiento.

    Ademas, el MPSTAT muestra tiempos altos de acceso a disco lo cual puede estar causando lentitud en Zimbra.

    ccelis.

    Claramente ademas de que el un disco n o funciona.. y otro esta con dificultades de lectura y escritura, quiere decir que en cualquier momento ese disco morira tambien..

    eso es una muestra clara de lo que puede afectar el desempeño de tu equipo.

    Quedo atento a tus comentarios.

Similar Threads

  1. Zimbra Admin Interface issue
    By Jack_Redington in forum Administrators
    Replies: 9
    Last Post: 08-04-2012, 04:51 AM
  2. ZCS7 Beta only Listens on IPv6
    By tobru in forum Installation
    Replies: 2
    Last Post: 03-25-2011, 03:31 AM
  3. Old Backup stay in TO_DELETE status and no clearing..
    By bartounet in forum Administrators
    Replies: 0
    Last Post: 10-05-2010, 07:40 AM
  4. Major Issue - 5.0RC2 NE to 5.0GA NE failed
    By DougWare in forum Installation
    Replies: 7
    Last Post: 01-06-2008, 08:56 PM
  5. huge log size
    By rmvg in forum Administrators
    Replies: 5
    Last Post: 01-02-2007, 09:39 AM

Tags for this Thread

Posting Permissions

  • You may not post new threads
  • You may not post replies
  • You may not post attachments
  • You may not edit your posts
  •