bufwaits too high 
Author Message
 bufwaits too high

Can anybody tell me why BR is consistently 30% or more?

I've calculated Bufwait Ratio using:

BR = (bufwaits / (dskreads + bufwrits)) * 100.00

I have 32 LRU queues pairs.
onstat -R shows the free queues are almost always 98% or greater.

There are 32 Cleaners that are almost always idle.

Checkpoints durations are 0.

BUFFERS are 100000.

LRU_MAX_DIRTY and LRU_MIN_DIRTY are 60 and 50 respectively.

The queries are SELECTS only although some of them can get quite
complicated. There are no UPDATES, DELETES or INSERTS.

There is 1GB of physical memory on the machine.

Thanks, here's the specifics.

=============================

# Root Dbspace Configuration

ROOTNAME        rootdbs         # Root dbspace name
ROOTPATH        /data01/rootdbs # Path for device containing root
dbspace
ROOTOFFSET      0               # Offset of root dbspace into device
(Kbytes)
ROOTSIZE        30000           # Size of root dbspace (Kbytes)

# Physical Log Configuration

PHYSDBS         rootdbs         # Location (dbspace) of physical log
PHYSFILE        2000            # Physical log file size (Kbytes)

# Logical Log Configuration

LOGFILES        6               # Number of logical log files
LOGSIZE         1500            # Logical log size (Kbytes)

SERVERNUM       0               # Unique id corresponding to a OnLine
instance
DBSERVERNAME    atlas           # Name of default database server
DBSERVERALIASES atlas1          # List of alternate dbservernames
NETTYPE         soctcp,3,75,NET # Configure poll thread(s) for nettype
DEADLOCK_TIMEOUT        60      # Max time to wait of lock in
distributed env.
RESIDENT        0               # Forced residency flag (Yes = 1, No =
0)

MULTIPROCESSOR  1               # 0 for single-processor, 1 for
multi-processor
NUMCPUVPS       2               # Number of user (cpu) vps
SINGLE_CPU_VP   0               # If non-zero, limit number of cpu vps
to one
LOCKS           2000            # Maximum number of locks
BUFFERS         100000          # Maximum number of shared buffers
NUMAIOVPS       16              # Number of IO vps
PHYSBUFF        32              # Physical log buffer size (Kbytes)
LOGBUFF         32              # Logical log buffer size (Kbytes)
LOGSMAX         6               # Maximum number of logical log files
CLEANERS        32               # Number of buffer cleaner processes
SHMBASE         #define SHMBASE 0x10000000L     # Shared memory base
address
SHMVIRTSIZE     32768           # initial virtual shared memory
segment size
SHMADD          32000            # Size of new shared memory segments
(Kbytes)
SHMTOTAL        0               # Total shared memory (Kbytes).
0=>unlimited
CKPTINTVL       300             # Check point interval (in sec)
LRUS            32              # Number of LRU queues
LRU_MAX_DIRTY   60              # LRU percent dirty begin cleaning
limit
LRU_MIN_DIRTY   50              # LRU percent dirty end cleaning limit
LTXHWM          50              # Long transaction high water mark
percentage
LTXEHWM         60              # Long transaction high water mark
(exclusive)
TXTIMEOUT       300             # Transaction timeout (in sec)
STACKSIZE       32              # Stack size (Kbytes)

RA_PAGES                        # Number of pages to attempt to read
ahead
RA_THRESHOLD                    # Number of pages left before next
group

Profile
dskreads pagreads bufreads %cached dskwrits pagwrits bufwrits %cached
275230   287251   24949998 98.90   3694     10712    11502    67.88  

isamtot  open     start    read     write    rewrite  delete   commit
 rollbk
20259305 116397   981099   16305880 1017     45       0        8      
 0

gp_read  gp_write gp_rewrt gp_del   gp_alloc gp_free  gp_curs
0        0        0        0        0        0        0      

ovlock   ovuserthread ovbuff   usercpu  syscpu   numckpts flushes
0        0            0        451.31   21.63    27       54      

bufwaits lokwaits lockreqs deadlks  dltouts  ckpwaits compress
seqscans
102818   0        1171693  0        0        1        601      1398

ixda-RA  idx-RA   da-RA    RA-pgsused lchwaits
115494   18301    10293    144046     1521    

32 buffer LRU queue pairs                     priority levels
# f/m  pair total  % of    length     LOW   MED_LOW  MED_HIGH   HIGH
 0 f      2500    99.8%     2494        0        0     1917      540  
    37
 1 m               0.2%        6        0        0        6        0  
     0
 2 f      2499   100.0%     2499        0        0     1988      481  
    30
 3 m               0.0%        0        0        0        0        0  
     0
 4 f      2498   100.0%     2497        0        0     1972      496  
    29
 5 m               0.0%        1        0        0        1        0  
     0
 6 f      2497    99.8%     2493        0        0     1934      516  
    43
 7 m               0.2%        4        0        0        4        0  
     0
 8 f      2498   100.0%     2498        0        0     1980      482  
    36
 9 m               0.0%        0        0        0        0        0  
     0
10 f      2495   100.0%     2494        0        0     1924      526  
    44
11 m               0.0%        1        0        0        1        0  
     0
12 f      2498   100.0%     2497        0        0     1910      543  
    44
13 m               0.0%        1        0        0        1        0  
     0
14 f      2501   100.0%     2500        0        0     2003      457  
    40
15 m               0.0%        1        0        0        1        0  
     0
16 F      2492    99.8%     2488        0        0     1918      537  
    33
17 m               0.2%        4        0        0        4        0  
     0
18 f      2500    99.9%     2497        0        0     1954      490  
    53
19 m               0.1%        3        0        0        3        0  
     0
20 f      2499   100.0%     2499        0        0     1946      507  
    46
21 m               0.0%        0        0        0        0        0  
     0
22 f      2497    99.9%     2494        0        0     1915      539  
    40
23 m               0.1%        3        0        0        3        0  
     0
24 f      2500   100.0%     2499        0        0     1979      479  
    41
25 m               0.0%        1        0        0        1        0  
     0
26 f      2497   100.0%     2497        0        0     1928      531  
    38
27 m               0.0%        0        0        0        0        0  
     0
28 f      2501   100.0%     2501        0        0     1943      518  
    40
29 m               0.0%        0        0        0        0        0  
     0
30 f      2500   100.0%     2499        0        0     1955      508  
    36
31 m               0.0%        1        0        0        1        0  
     0
32 f      2499    99.8%     2495        0        0     1934      522  
    39
33 m               0.2%        4        0        0        4        0  
     0
34 f      2498   100.0%     2498        0        0     1938      509  
    51
35 m               0.0%        0        0        0        0        0  
     0
36 f      2494   100.0%     2494        0        0     1907      549  
    38
37 m               0.0%        0        0        0        0        0  
     0
38 f      2496   100.0%     2496        0        0     1976      478  
    42
39 m               0.0%        0        0        0        0        0  
     0
40 f      2501    99.9%     2498        0        0     1952      510  
    36
41 m               0.1%        3        0        0        3        0  
     0
42 f      2499   100.0%     2498        0        0     1943      511  
    44
43 m               0.0%        1        0        0        1        0  
     0
44 f      2500   100.0%     2499        0        0     1935      528  
    36
45 m               0.0%        1        0        0        1        0  
     0
46 f      2499    99.9%     2496        0        0     1932      525  
    39
47 m               0.1%        3        0        0        3        0  
     0
48 f      2496   100.0%     2496        0        0     1990      463  
    43
49 m               0.0%        0        0        0        0        0  
     0
50 f      2498   100.0%     2498        0        0     1937      527  
    34
51 m               0.0%        0        0        0        0        0  
     0
52 f      2498   100.0%     2498        0        0     1927      543  
    28
53 m               0.0%        0        0        0        0        0  
     0
54 f      2499    99.9%     2497        0        0     1993      467  
    37
55 m               0.1%        2        0        0        2        0  
     0
56 f      2499   100.0%     2499        0        0     1966      495  
    38
57 m               0.0%        0        0        0        0        0  
     0
58 f      2499   100.0%     2499        0        0     1977      485  
    37
59 m               0.0%        0        0        0        0        0  
     0
60 f      2498    99.9%     2496        0        0     1923      535  
    38
61 m               0.1%        2        0        0        2        0  
     0
62 f      2497   100.0%     2496        0        0     1959      500  
    37
63 m               0.0%        1        0        0        1        0  
     0
43 dirty, 79942 queued, 80000 total, 131072 hash buckets, 2048 buffer
size
start clean at 60% (of pair total) dirty, or 1500 buffs dirty, stop at
50%
0 priority downgrades, 0 priority upgrades

Fg Writes     LRU Writes    Chunk Writes
0             0             1729        

address  flusher  state    data    
1a72e5d8 0        I        0        = 0X0      
1a72eb98 1        I        0        = 0X0      
1a72f158 2        I        0        = 0X0      
1a72f718 3        I        0        = 0X0      
1a72fcd8 4        I        0        = 0X0      
1a730298 5        I        0        = 0X0      
1a730858 6        I        0        = 0X0      
1a730e18 7        I        0        = 0X0  
...

read more »



Wed, 23 Jun 2004 01:40:02 GMT
 bufwaits too high

I don't see anything wrong with the config below.  You might want to try
tinkering with LRUPRIORITY to try to tune the bufwait ratio.  Check the
Informix FAQ for details on LRUPRIORITY.

http://www.smooth1.demon.co.uk/ifaq08.htm#8.13

Regards,

Bill Dare

Quote:
> -----Original Message-----

> Sent:      Friday, January 04, 2002 12:40 PM

> Subject:   bufwaits too high

> Can anybody tell me why BR is consistently 30% or more?

> I've calculated Bufwait Ratio using:

> BR = (bufwaits / (dskreads + bufwrits)) * 100.00

> I have 32 LRU queues pairs.
> onstat -R shows the free queues are almost always 98% or greater.

> There are 32 Cleaners that are almost always idle.

> Checkpoints durations are 0.

> BUFFERS are 100000.

> LRU_MAX_DIRTY and LRU_MIN_DIRTY are 60 and 50 respectively.

> The queries are SELECTS only although some of them can get quite
> complicated. There are no UPDATES, DELETES or INSERTS.

> There is 1GB of physical memory on the machine.

> Thanks, here's the specifics.

> =============================

> # Root Dbspace Configuration

> ROOTNAME        rootdbs         # Root dbspace name
> ROOTPATH        /data01/rootdbs # Path for device containing root
> dbspace
> ROOTOFFSET      0               # Offset of root dbspace into device
> (Kbytes)
> ROOTSIZE        30000           # Size of root dbspace (Kbytes)

> # Physical Log Configuration

> PHYSDBS         rootdbs         # Location (dbspace) of physical log
> PHYSFILE        2000            # Physical log file size (Kbytes)

> # Logical Log Configuration

> LOGFILES        6               # Number of logical log files
> LOGSIZE         1500            # Logical log size (Kbytes)

> SERVERNUM       0               # Unique id corresponding to a OnLine
> instance
> DBSERVERNAME    atlas           # Name of default database server
> DBSERVERALIASES atlas1          # List of alternate dbservernames
> NETTYPE         soctcp,3,75,NET # Configure poll thread(s) for nettype
> DEADLOCK_TIMEOUT        60      # Max time to wait of lock in
> distributed env.
> RESIDENT        0               # Forced residency flag (Yes = 1, No =
> 0)

> MULTIPROCESSOR  1               # 0 for single-processor, 1 for
> multi-processor
> NUMCPUVPS       2               # Number of user (cpu) vps
> SINGLE_CPU_VP   0               # If non-zero, limit number of cpu vps
> to one
> LOCKS           2000            # Maximum number of locks
> BUFFERS         100000          # Maximum number of shared buffers
> NUMAIOVPS       16              # Number of IO vps
> PHYSBUFF        32              # Physical log buffer size (Kbytes)
> LOGBUFF         32              # Logical log buffer size (Kbytes)
> LOGSMAX         6               # Maximum number of logical log files
> CLEANERS        32               # Number of buffer cleaner processes
> SHMBASE         #define SHMBASE 0x10000000L     # Shared memory base
> address
> SHMVIRTSIZE     32768           # initial virtual shared memory
> segment size
> SHMADD          32000            # Size of new shared memory segments
> (Kbytes)
> SHMTOTAL        0               # Total shared memory (Kbytes).
> 0=>unlimited
> CKPTINTVL       300             # Check point interval (in sec)
> LRUS            32              # Number of LRU queues
> LRU_MAX_DIRTY   60              # LRU percent dirty begin cleaning
> limit
> LRU_MIN_DIRTY   50              # LRU percent dirty end cleaning limit
> LTXHWM          50              # Long transaction high water mark
> percentage
> LTXEHWM         60              # Long transaction high water mark
> (exclusive)
> TXTIMEOUT       300             # Transaction timeout (in sec)
> STACKSIZE       32              # Stack size (Kbytes)

> RA_PAGES                        # Number of pages to attempt to read
> ahead
> RA_THRESHOLD                    # Number of pages left before next
> group

> Profile
> dskreads pagreads bufreads %cached dskwrits pagwrits bufwrits %cached
> 275230   287251   24949998 98.90   3694     10712    11502    67.88  

> isamtot  open     start    read     write    rewrite  delete   commit
>  rollbk
> 20259305 116397   981099   16305880 1017     45       0        8      
>  0

> gp_read  gp_write gp_rewrt gp_del   gp_alloc gp_free  gp_curs
> 0        0        0        0        0        0        0      

> ovlock   ovuserthread ovbuff   usercpu  syscpu   numckpts flushes
> 0        0            0        451.31   21.63    27       54      

> bufwaits lokwaits lockreqs deadlks  dltouts  ckpwaits compress
> seqscans
> 102818   0        1171693  0        0        1        601      1398

> ixda-RA  idx-RA   da-RA    RA-pgsused lchwaits
> 115494   18301    10293    144046     1521    

> 32 buffer LRU queue pairs                     priority levels
> # f/m  pair total  % of    length     LOW   MED_LOW  MED_HIGH   HIGH
>  0 f      2500    99.8%     2494        0        0     1917      540  
>     37
>  1 m               0.2%        6        0        0        6        0  
>      0
>  2 f      2499   100.0%     2499        0        0     1988      481  
>     30
>  3 m               0.0%        0        0        0        0        0  
>      0
>  4 f      2498   100.0%     2497        0        0     1972      496  
>     29
>  5 m               0.0%        1        0        0        1        0  
>      0
>  6 f      2497    99.8%     2493        0        0     1934      516  
>     43
>  7 m               0.2%        4        0        0        4        0  
>      0
>  8 f      2498   100.0%     2498        0        0     1980      482  
>     36
>  9 m               0.0%        0        0        0        0        0  
>      0
> 10 f      2495   100.0%     2494        0        0     1924      526  
>     44
> 11 m               0.0%        1        0        0        1        0  
>      0
> 12 f      2498   100.0%     2497        0        0     1910      543  
>     44
> 13 m               0.0%        1        0        0        1        0  
>      0
> 14 f      2501   100.0%     2500        0        0     2003      457  
>     40
> 15 m               0.0%        1        0        0        1        0  
>      0
> 16 F      2492    99.8%     2488        0        0     1918      537  
>     33
> 17 m               0.2%        4        0        0        4        0  
>      0
> 18 f      2500    99.9%     2497        0        0     1954      490  
>     53
> 19 m               0.1%        3        0        0        3        0  
>      0
> 20 f      2499   100.0%     2499        0        0     1946      507  
>     46
> 21 m               0.0%        0        0        0        0        0  
>      0
> 22 f      2497    99.9%     2494        0        0     1915      539  
>     40
> 23 m               0.1%        3        0        0        3        0  
>      0
> 24 f      2500   100.0%     2499        0        0     1979      479  
>     41
> 25 m               0.0%        1        0        0        1        0  
>      0
> 26 f      2497   100.0%     2497        0        0     1928      531  
>     38
> 27 m               0.0%        0        0        0        0        0  
>      0
> 28 f      2501   100.0%     2501        0        0     1943      518  
>     40
> 29 m               0.0%        0        0        0        0        0  
>      0
> 30 f      2500   100.0%     2499        0        0     1955      508  
>     36
> 31 m               0.0%        1        0        0        1        0  
>      0
> 32 f      2499    99.8%     2495        0        0     1934      522  
>     39
> 33 m               0.2%        4        0        0        4        0  
>      0
> 34 f      2498   100.0%     2498        0        0     1938      509  
>     51
> 35 m               0.0%        0        0        0        0        0  
>      0
> 36 f      2494   100.0%     2494        0        0     1907      549  
>     38
> 37 m               0.0%        0        0        0        0        0  
>      0
> 38 f      2496   100.0%     2496        0        0     1976      478  
>     42
> 39 m               0.0%        0        0        0        0        0  
>      0
> 40 f      2501    99.9%     2498        0        0     1952      510  
>     36
> 41 m               0.1%        3        0        0        3        0  
>      0
> 42 f      2499   100.0%     2498        0        0     1943      511  
>     44
> 43 m               0.0%        1        0        0        1        0  
>      0
> 44 f      2500   100.0%     2499        0        0     1935      528  
>     36
> 45 m               0.0%        1        0        0        1        0  
>      0
> 46 f      2499    99.9%     2496        0        0     1932      525  
>     39
> 47 m               0.1%        3        0        0        3        0  
>      0
> 48 f      2496   100.0%     2496        0        0     1990      463  
>     43
> 49 m               0.0%        0        0        0        0        0  
>      0
> 50 f      2498   100.0%     2498        0        0     1937      527  
>     34
> 51 m               0.0%        0        0        0        0        0  
>      0
> 52 f      2498   100.0%     2498        0        0     1927      543  
>     28
> 53 m               0.0%        0        0        0        0        0  
>      0
> 54 f      2499    99.9%     2497        0        0     1993      467  
>     37
> 55 m               0.1%        2        0        0        2        0  
>      0
> 56 f      2499   100.0%     2499        0        0     1966      495  
>     38
> 57 m               0.0%        0        0        0        0        0  
>      0
> 58 f      2499   100.0%     2499        0        0     1977      485  
>     37
> 59 m               0.0%        0        0        0        0        0  
>      0
> 60 f      2498    99.9%     2496        0        0     1923      535  
>     38
> 61 m

...

read more »



Wed, 23 Jun 2004 03:21:09 GMT
 bufwaits too high
What version?  7.31???  There is/was a problem with the priority
algorithm that meant your data is slowly shoved out of the buffer and
the index pages take over, onstat -P.

Personally I'd set LRU to 127 but I'm odd like that

Quote:

> Can anybody tell me why BR is consistently 30% or more?

> I've calculated Bufwait Ratio using:

> BR = (bufwaits / (dskreads + bufwrits)) * 100.00

> I have 32 LRU queues pairs.
> onstat -R shows the free queues are almost always 98% or greater.

> There are 32 Cleaners that are almost always idle.

> Checkpoints durations are 0.

> BUFFERS are 100000.

> LRU_MAX_DIRTY and LRU_MIN_DIRTY are 60 and 50 respectively.

> The queries are SELECTS only although some of them can get quite
> complicated. There are no UPDATES, DELETES or INSERTS.

> There is 1GB of physical memory on the machine.

> Thanks, here's the specifics.

> =============================

> # Root Dbspace Configuration

> ROOTNAME        rootdbs         # Root dbspace name
> ROOTPATH        /data01/rootdbs # Path for device containing root
> dbspace
> ROOTOFFSET      0               # Offset of root dbspace into device
> (Kbytes)
> ROOTSIZE        30000           # Size of root dbspace (Kbytes)

> # Physical Log Configuration

> PHYSDBS         rootdbs         # Location (dbspace) of physical log
> PHYSFILE        2000            # Physical log file size (Kbytes)

> # Logical Log Configuration

> LOGFILES        6               # Number of logical log files
> LOGSIZE         1500            # Logical log size (Kbytes)

> SERVERNUM       0               # Unique id corresponding to a OnLine
> instance
> DBSERVERNAME    atlas           # Name of default database server
> DBSERVERALIASES atlas1          # List of alternate dbservernames
> NETTYPE         soctcp,3,75,NET # Configure poll thread(s) for nettype
> DEADLOCK_TIMEOUT        60      # Max time to wait of lock in
> distributed env.
> RESIDENT        0               # Forced residency flag (Yes = 1, No =
> 0)

> MULTIPROCESSOR  1               # 0 for single-processor, 1 for
> multi-processor
> NUMCPUVPS       2               # Number of user (cpu) vps
> SINGLE_CPU_VP   0               # If non-zero, limit number of cpu vps
> to one
> LOCKS           2000            # Maximum number of locks
> BUFFERS         100000          # Maximum number of shared buffers
> NUMAIOVPS       16              # Number of IO vps
> PHYSBUFF        32              # Physical log buffer size (Kbytes)
> LOGBUFF         32              # Logical log buffer size (Kbytes)
> LOGSMAX         6               # Maximum number of logical log files
> CLEANERS        32               # Number of buffer cleaner processes
> SHMBASE         #define SHMBASE 0x10000000L     # Shared memory base
> address
> SHMVIRTSIZE     32768           # initial virtual shared memory
> segment size
> SHMADD          32000            # Size of new shared memory segments
> (Kbytes)
> SHMTOTAL        0               # Total shared memory (Kbytes).
> 0=>unlimited
> CKPTINTVL       300             # Check point interval (in sec)
> LRUS            32              # Number of LRU queues
> LRU_MAX_DIRTY   60              # LRU percent dirty begin cleaning
> limit
> LRU_MIN_DIRTY   50              # LRU percent dirty end cleaning limit
> LTXHWM          50              # Long transaction high water mark
> percentage
> LTXEHWM         60              # Long transaction high water mark
> (exclusive)
> TXTIMEOUT       300             # Transaction timeout (in sec)
> STACKSIZE       32              # Stack size (Kbytes)

> RA_PAGES                        # Number of pages to attempt to read
> ahead
> RA_THRESHOLD                    # Number of pages left before next
> group

> Profile
> dskreads pagreads bufreads %cached dskwrits pagwrits bufwrits %cached
> 275230   287251   24949998 98.90   3694     10712    11502    67.88

> isamtot  open     start    read     write    rewrite  delete   commit
>  rollbk
> 20259305 116397   981099   16305880 1017     45       0        8
>  0

> gp_read  gp_write gp_rewrt gp_del   gp_alloc gp_free  gp_curs
> 0        0        0        0        0        0        0

> ovlock   ovuserthread ovbuff   usercpu  syscpu   numckpts flushes
> 0        0            0        451.31   21.63    27       54

> bufwaits lokwaits lockreqs deadlks  dltouts  ckpwaits compress
> seqscans
> 102818   0        1171693  0        0        1        601      1398

> ixda-RA  idx-RA   da-RA    RA-pgsused lchwaits
> 115494   18301    10293    144046     1521

> 32 buffer LRU queue pairs                     priority levels
> # f/m  pair total  % of    length     LOW   MED_LOW  MED_HIGH   HIGH
>  0 f      2500    99.8%     2494        0        0     1917      540
>     37
>  1 m               0.2%        6        0        0        6        0
>      0
>  2 f      2499   100.0%     2499        0        0     1988      481
>     30
>  3 m               0.0%        0        0        0        0        0
>      0
>  4 f      2498   100.0%     2497        0        0     1972      496
>     29
>  5 m               0.0%        1        0        0        1        0
>      0
>  6 f      2497    99.8%     2493        0        0     1934      516
>     43
>  7 m               0.2%        4        0        0        4        0
>      0
>  8 f      2498   100.0%     2498        0        0     1980      482
>     36
>  9 m               0.0%        0        0        0        0        0
>      0
> 10 f      2495   100.0%     2494        0        0     1924      526
>     44
> 11 m               0.0%        1        0        0        1        0
>      0
> 12 f      2498   100.0%     2497        0        0     1910      543
>     44
> 13 m               0.0%        1        0        0        1        0
>      0
> 14 f      2501   100.0%     2500        0        0     2003      457
>     40
> 15 m               0.0%        1        0        0        1        0
>      0
> 16 F      2492    99.8%     2488        0        0     1918      537
>     33
> 17 m               0.2%        4        0        0        4        0
>      0
> 18 f      2500    99.9%     2497        0        0     1954      490
>     53
> 19 m               0.1%        3        0        0        3        0
>      0
> 20 f      2499   100.0%     2499        0        0     1946      507
>     46
> 21 m               0.0%        0        0        0        0        0
>      0
> 22 f      2497    99.9%     2494        0        0     1915      539
>     40
> 23 m               0.1%        3        0        0        3        0
>      0
> 24 f      2500   100.0%     2499        0        0     1979      479
>     41
> 25 m               0.0%        1        0        0        1        0
>      0
> 26 f      2497   100.0%     2497        0        0     1928      531
>     38
> 27 m               0.0%        0        0        0        0        0
>      0
> 28 f      2501   100.0%     2501        0        0     1943      518
>     40
> 29 m               0.0%        0        0        0        0        0
>      0
> 30 f      2500   100.0%     2499        0        0     1955      508
>     36
> 31 m               0.0%        1        0        0        1        0
>      0
> 32 f      2499    99.8%     2495        0        0     1934      522
>     39
> 33 m               0.2%        4        0        0        4        0
>      0
> 34 f      2498   100.0%     2498        0        0     1938      509
>     51
> 35 m               0.0%        0        0        0        0        0
>      0
> 36 f      2494   100.0%     2494        0        0     1907      549
>     38
> 37 m               0.0%        0        0        0        0        0
>      0
> 38 f      2496   100.0%     2496        0        0     1976      478
>     42
> 39 m               0.0%        0        0        0        0        0
>      0
> 40 f      2501    99.9%     2498        0        0     1952      510
>     36
> 41 m               0.1%        3        0        0        3        0
>      0
> 42 f      2499   100.0%     2498        0        0     1943      511
>     44
> 43 m               0.0%        1        0        0        1        0
>      0
> 44 f      2500   100.0%     2499        0        0     1935      528
>     36
> 45 m               0.0%        1        0        0        1        0
>      0
> 46 f      2499    99.9%     2496        0        0     1932      525
>     39
> 47 m               0.1%        3        0        0        3        0
>      0
> 48 f      2496   100.0%     2496        0        0     1990      463
>     43
> 49 m               0.0%        0        0        0        0        0
>      0
> 50 f      2498   100.0%     2498        0        0     1937      527
>     34
> 51 m               0.0%        0        0        0        0        0
>      0
> 52 f      2498   100.0%     2498        0        0     1927      543
>     28
> 53 m               0.0%        0        0        0        0        0
>      0
> 54 f      2499    99.9%     2497        0        0     1993      467
>     37
> 55 m               0.1%        2        0        0        2        0
>      0
> 56 f      2499   100.0%     2499        0        0     1966      495
>     38
> 57 m               0.0%        0        0        0        0        0
>      0
> 58 f      2499   100.0%     2499        0        0     1977      485
>     37
> 59 m               0.0%        0        0        0        0        0
>      0
> 60 f      2498    99.9%     2496        0        0     1923      535
>     38
> 61 m               0.1%        2        0        0        2        0
>      0
> 62 f      2497   100.0%     2496        0        0     1959      500
>     37
> 63 m               0.0%        1        0        0        1        0
>      0
> 43 dirty, 79942 queued, 80000 total, 131072 hash buckets, 2048 buffer
> size
> start clean at 60% (of pair total) dirty, or 1500

...

read more »



Wed, 23 Jun 2004 18:53:03 GMT
 bufwaits too high
Try to put the LRUs to 127. This would offer high granularity to the queues.
All the buffers are devided into N LRU queues (hash technique). The smaller
LRUs the higher probability to have waits. From my experience, I always used
the maximum # of LRUs and everything was fine. Do not put 128 or 96 since
they are buggy.

Also monitor the AIO VPs and the disk Read Ahead. From what I've seen the RA
is proper used. There are few dozen of pages over-read but that's ok.

The Cache-hit ratio is good.

On the other hand, you cannot have Buff Waits ratio nearly zero. The
checkpoint time is 0 because as you stated the changes against the DB are
minimal.


Quote:
> Can anybody tell me why BR is consistently 30% or more?

> I've calculated Bufwait Ratio using:

> BR = (bufwaits / (dskreads + bufwrits)) * 100.00

> I have 32 LRU queues pairs.
> onstat -R shows the free queues are almost always 98% or greater.

> There are 32 Cleaners that are almost always idle.

> Checkpoints durations are 0.

> BUFFERS are 100000.

> LRU_MAX_DIRTY and LRU_MIN_DIRTY are 60 and 50 respectively.

> The queries are SELECTS only although some of them can get quite
> complicated. There are no UPDATES, DELETES or INSERTS.

> There is 1GB of physical memory on the machine.

> Thanks, here's the specifics.

> =============================

> # Root Dbspace Configuration

> ROOTNAME        rootdbs         # Root dbspace name
> ROOTPATH        /data01/rootdbs # Path for device containing root
> dbspace
> ROOTOFFSET      0               # Offset of root dbspace into device
> (Kbytes)
> ROOTSIZE        30000           # Size of root dbspace (Kbytes)

> # Physical Log Configuration

> PHYSDBS         rootdbs         # Location (dbspace) of physical log
> PHYSFILE        2000            # Physical log file size (Kbytes)

> # Logical Log Configuration

> LOGFILES        6               # Number of logical log files
> LOGSIZE         1500            # Logical log size (Kbytes)

> SERVERNUM       0               # Unique id corresponding to a OnLine
> instance
> DBSERVERNAME    atlas           # Name of default database server
> DBSERVERALIASES atlas1          # List of alternate dbservernames
> NETTYPE         soctcp,3,75,NET # Configure poll thread(s) for nettype
> DEADLOCK_TIMEOUT        60      # Max time to wait of lock in
> distributed env.
> RESIDENT        0               # Forced residency flag (Yes = 1, No =
> 0)

> MULTIPROCESSOR  1               # 0 for single-processor, 1 for
> multi-processor
> NUMCPUVPS       2               # Number of user (cpu) vps
> SINGLE_CPU_VP   0               # If non-zero, limit number of cpu vps
> to one
> LOCKS           2000            # Maximum number of locks
> BUFFERS         100000          # Maximum number of shared buffers
> NUMAIOVPS       16              # Number of IO vps
> PHYSBUFF        32              # Physical log buffer size (Kbytes)
> LOGBUFF         32              # Logical log buffer size (Kbytes)
> LOGSMAX         6               # Maximum number of logical log files
> CLEANERS        32               # Number of buffer cleaner processes
> SHMBASE         #define SHMBASE 0x10000000L     # Shared memory base
> address
> SHMVIRTSIZE     32768           # initial virtual shared memory
> segment size
> SHMADD          32000            # Size of new shared memory segments
> (Kbytes)
> SHMTOTAL        0               # Total shared memory (Kbytes).
> 0=>unlimited
> CKPTINTVL       300             # Check point interval (in sec)
> LRUS            32              # Number of LRU queues
> LRU_MAX_DIRTY   60              # LRU percent dirty begin cleaning
> limit
> LRU_MIN_DIRTY   50              # LRU percent dirty end cleaning limit
> LTXHWM          50              # Long transaction high water mark
> percentage
> LTXEHWM         60              # Long transaction high water mark
> (exclusive)
> TXTIMEOUT       300             # Transaction timeout (in sec)
> STACKSIZE       32              # Stack size (Kbytes)

> RA_PAGES                        # Number of pages to attempt to read
> ahead
> RA_THRESHOLD                    # Number of pages left before next
> group

> Profile
> dskreads pagreads bufreads %cached dskwrits pagwrits bufwrits %cached
> 275230   287251   24949998 98.90   3694     10712    11502    67.88

> isamtot  open     start    read     write    rewrite  delete   commit
>  rollbk
> 20259305 116397   981099   16305880 1017     45       0        8
>  0

> gp_read  gp_write gp_rewrt gp_del   gp_alloc gp_free  gp_curs
> 0        0        0        0        0        0        0

> ovlock   ovuserthread ovbuff   usercpu  syscpu   numckpts flushes
> 0        0            0        451.31   21.63    27       54

> bufwaits lokwaits lockreqs deadlks  dltouts  ckpwaits compress
> seqscans
> 102818   0        1171693  0        0        1        601      1398

> ixda-RA  idx-RA   da-RA    RA-pgsused lchwaits
> 115494   18301    10293    144046     1521

> 32 buffer LRU queue pairs                     priority levels
> # f/m  pair total  % of    length     LOW   MED_LOW  MED_HIGH   HIGH
>  0 f      2500    99.8%     2494        0        0     1917      540
>     37
>  1 m               0.2%        6        0        0        6        0
>      0
>  2 f      2499   100.0%     2499        0        0     1988      481
>     30
>  3 m               0.0%        0        0        0        0        0
>      0
>  4 f      2498   100.0%     2497        0        0     1972      496
>     29
>  5 m               0.0%        1        0        0        1        0
>      0
>  6 f      2497    99.8%     2493        0        0     1934      516
>     43
>  7 m               0.2%        4        0        0        4        0
>      0
>  8 f      2498   100.0%     2498        0        0     1980      482
>     36
>  9 m               0.0%        0        0        0        0        0
>      0
> 10 f      2495   100.0%     2494        0        0     1924      526
>     44
> 11 m               0.0%        1        0        0        1        0
>      0
> 12 f      2498   100.0%     2497        0        0     1910      543
>     44
> 13 m               0.0%        1        0        0        1        0
>      0
> 14 f      2501   100.0%     2500        0        0     2003      457
>     40
> 15 m               0.0%        1        0        0        1        0
>      0
> 16 F      2492    99.8%     2488        0        0     1918      537
>     33
> 17 m               0.2%        4        0        0        4        0
>      0
> 18 f      2500    99.9%     2497        0        0     1954      490
>     53
> 19 m               0.1%        3        0        0        3        0
>      0
> 20 f      2499   100.0%     2499        0        0     1946      507
>     46
> 21 m               0.0%        0        0        0        0        0
>      0
> 22 f      2497    99.9%     2494        0        0     1915      539
>     40
> 23 m               0.1%        3        0        0        3        0
>      0
> 24 f      2500   100.0%     2499        0        0     1979      479
>     41
> 25 m               0.0%        1        0        0        1        0
>      0
> 26 f      2497   100.0%     2497        0        0     1928      531
>     38
> 27 m               0.0%        0        0        0        0        0
>      0
> 28 f      2501   100.0%     2501        0        0     1943      518
>     40
> 29 m               0.0%        0        0        0        0        0
>      0
> 30 f      2500   100.0%     2499        0        0     1955      508
>     36
> 31 m               0.0%        1        0        0        1        0
>      0
> 32 f      2499    99.8%     2495        0        0     1934      522
>     39
> 33 m               0.2%        4        0        0        4        0
>      0
> 34 f      2498   100.0%     2498        0        0     1938      509
>     51
> 35 m               0.0%        0        0        0        0        0
>      0
> 36 f      2494   100.0%     2494        0        0     1907      549
>     38
> 37 m               0.0%        0        0        0        0        0
>      0
> 38 f      2496   100.0%     2496        0        0     1976      478
>     42
> 39 m               0.0%        0        0        0        0        0
>      0
> 40 f      2501    99.9%     2498        0        0     1952      510
>     36
> 41 m               0.1%        3        0        0        3        0
>      0
> 42 f      2499   100.0%     2498        0        0     1943      511
>     44
> 43 m               0.0%        1        0        0        1        0
>      0
> 44 f      2500   100.0%     2499        0        0     1935      528
>     36
> 45 m               0.0%        1        0        0        1        0
>      0
> 46 f      2499    99.9%     2496        0        0     1932      525
>     39
> 47 m               0.1%        3        0        0        3        0
>      0
> 48 f      2496   100.0%     2496        0        0     1990      463
>     43
> 49 m               0.0%        0        0        0        0        0
>      0
> 50 f      2498   100.0%     2498        0        0     1937      527
>     34
> 51 m               0.0%        0        0        0        0        0
>      0
> 52 f      2498   100.0%     2498        0        0     1927      543
>     28
> 53 m               0.0%        0        0        0        0        0
>      0
> 54 f      2499    99.9%     2497        0        0     1993      467
>     37
> 55 m               0.1%        2        0        0        2        0
>      0
> 56 f      2499   100.0%     2499        0        0     1966      495
>     38
> 57 m               0.0%        0        0        0        0        0
>      0
> 58 f      2499   100.0%     2499        0        0     1977      485
>     37
> 59 m               0.0%        0      

...

read more »



Mon, 05 Jul 2004 05:06:34 GMT
 bufwaits too high

Quote:

> Try to put the LRUs to 127. This would offer high granularity to the queues.
> All the buffers are devided into N LRU queues (hash technique). The smaller
> LRUs the higher probability to have waits. From my experience, I always used
> the maximum # of LRUs and everything was fine. Do not put 128 or 96 since
> they are buggy.

FYI, 128 is not a buggy value for LRUS.  In versions prior to 7.30 it caused a
harmless but annoying dire warning at startup.  However, 96 and
64 ARE buggy values causing extreme increases in BUFWAITS likely
caused by some harmonic in the hashing algorithm which Informix
has never tracked down.

Art S. Kagel

Quote:
> Also monitor the AIO VPs and the disk Read Ahead. From what I've seen the RA
> is proper used. There are few dozen of pages over-read but that's ok.

> The Cache-hit ratio is good.

> On the other hand, you cannot have Buff Waits ratio nearly zero. The
> checkpoint time is 0 because as you stated the changes against the DB are
> minimal.



>> Can anybody tell me why BR is consistently 30% or more?

>> I've calculated Bufwait Ratio using:

>> BR = (bufwaits / (dskreads + bufwrits)) * 100.00

>> I have 32 LRU queues pairs.
>> onstat -R shows the free queues are almost always 98% or greater.

>> There are 32 Cleaners that are almost always idle.

>> Checkpoints durations are 0.

>> BUFFERS are 100000.

>> LRU_MAX_DIRTY and LRU_MIN_DIRTY are 60 and 50 respectively.

>> The queries are SELECTS only although some of them can get quite
>> complicated. There are no UPDATES, DELETES or INSERTS.

>> There is 1GB of physical memory on the machine.

>> Thanks, here's the specifics.

>> =============================

>> # Root Dbspace Configuration

>> ROOTNAME        rootdbs         # Root dbspace name
>> ROOTPATH        /data01/rootdbs # Path for device containing root
>> dbspace
>> ROOTOFFSET      0               # Offset of root dbspace into device
>> (Kbytes)
>> ROOTSIZE        30000           # Size of root dbspace (Kbytes)

>> # Physical Log Configuration

>> PHYSDBS         rootdbs         # Location (dbspace) of physical log
>> PHYSFILE        2000            # Physical log file size (Kbytes)

>> # Logical Log Configuration

>> LOGFILES        6               # Number of logical log files
>> LOGSIZE         1500            # Logical log size (Kbytes)

>> SERVERNUM       0               # Unique id corresponding to a OnLine
>> instance
>> DBSERVERNAME    atlas           # Name of default database server
>> DBSERVERALIASES atlas1          # List of alternate dbservernames
>> NETTYPE         soctcp,3,75,NET # Configure poll thread(s) for nettype
>> DEADLOCK_TIMEOUT        60      # Max time to wait of lock in
>> distributed env.
>> RESIDENT        0               # Forced residency flag (Yes = 1, No =
>> 0)

>> MULTIPROCESSOR  1               # 0 for single-processor, 1 for
>> multi-processor
>> NUMCPUVPS       2               # Number of user (cpu) vps
>> SINGLE_CPU_VP   0               # If non-zero, limit number of cpu vps
>> to one
>> LOCKS           2000            # Maximum number of locks
>> BUFFERS         100000          # Maximum number of shared buffers
>> NUMAIOVPS       16              # Number of IO vps
>> PHYSBUFF        32              # Physical log buffer size (Kbytes)
>> LOGBUFF         32              # Logical log buffer size (Kbytes)
>> LOGSMAX         6               # Maximum number of logical log files
>> CLEANERS        32               # Number of buffer cleaner processes
>> SHMBASE         #define SHMBASE 0x10000000L     # Shared memory base
>> address
>> SHMVIRTSIZE     32768           # initial virtual shared memory
>> segment size
>> SHMADD          32000            # Size of new shared memory segments
>> (Kbytes)
>> SHMTOTAL        0               # Total shared memory (Kbytes).
>> 0=>unlimited
>> CKPTINTVL       300             # Check point interval (in sec)
>> LRUS            32              # Number of LRU queues
>> LRU_MAX_DIRTY   60              # LRU percent dirty begin cleaning
>> limit
>> LRU_MIN_DIRTY   50              # LRU percent dirty end cleaning limit
>> LTXHWM          50              # Long transaction high water mark
>> percentage
>> LTXEHWM         60              # Long transaction high water mark
>> (exclusive)
>> TXTIMEOUT       300             # Transaction timeout (in sec)
>> STACKSIZE       32              # Stack size (Kbytes)

>> RA_PAGES                        # Number of pages to attempt to read
>> ahead
>> RA_THRESHOLD                    # Number of pages left before next
>> group

>> Profile
>> dskreads pagreads bufreads %cached dskwrits pagwrits bufwrits %cached
>> 275230   287251   24949998 98.90   3694     10712    11502    67.88

>> isamtot  open     start    read     write    rewrite  delete   commit
>>  rollbk
>> 20259305 116397   981099   16305880 1017     45       0        8
>>  0

>> gp_read  gp_write gp_rewrt gp_del   gp_alloc gp_free  gp_curs
>> 0        0        0        0        0        0        0

>> ovlock   ovuserthread ovbuff   usercpu  syscpu   numckpts flushes
>> 0        0            0        451.31   21.63    27       54

>> bufwaits lokwaits lockreqs deadlks  dltouts  ckpwaits compress
>> seqscans
>> 102818   0        1171693  0        0        1        601      1398

>> ixda-RA  idx-RA   da-RA    RA-pgsused lchwaits
>> 115494   18301    10293    144046     1521

>> 32 buffer LRU queue pairs                     priority levels
>> # f/m  pair total  % of    length     LOW   MED_LOW  MED_HIGH   HIGH
>>  0 f      2500    99.8%     2494        0        0     1917      540
>>     37
>>  1 m               0.2%        6        0        0        6        0
>>      0
>>  2 f      2499   100.0%     2499        0        0     1988      481
>>     30
>>  3 m               0.0%        0        0        0        0        0
>>      0
>>  4 f      2498   100.0%     2497        0        0     1972      496
>>     29
>>  5 m               0.0%        1        0        0        1        0
>>      0
>>  6 f      2497    99.8%     2493        0        0     1934      516
>>     43
>>  7 m               0.2%        4        0        0        4        0
>>      0
>>  8 f      2498   100.0%     2498        0        0     1980      482
>>     36
>>  9 m               0.0%        0        0        0        0        0
>>      0
>> 10 f      2495   100.0%     2494        0        0     1924      526
>>     44
>> 11 m               0.0%        1        0        0        1        0
>>      0
>> 12 f      2498   100.0%     2497        0        0     1910      543
>>     44
>> 13 m               0.0%        1        0        0        1        0
>>      0
>> 14 f      2501   100.0%     2500        0        0     2003      457
>>     40
>> 15 m               0.0%        1        0        0        1        0
>>      0
>> 16 F      2492    99.8%     2488        0        0     1918      537
>>     33
>> 17 m               0.2%        4        0        0        4        0
>>      0
>> 18 f      2500    99.9%     2497        0        0     1954      490
>>     53
>> 19 m               0.1%        3        0        0        3        0
>>      0
>> 20 f      2499   100.0%     2499        0        0     1946      507
>>     46
>> 21 m               0.0%        0        0        0        0        0
>>      0
>> 22 f      2497    99.9%     2494        0        0     1915      539
>>     40
>> 23 m               0.1%        3        0        0        3        0
>>      0
>> 24 f      2500   100.0%     2499        0        0     1979      479
>>     41
>> 25 m               0.0%        1        0        0        1        0
>>      0
>> 26 f      2497   100.0%     2497        0        0     1928      531
>>     38
>> 27 m               0.0%        0        0        0        0        0
>>      0
>> 28 f      2501   100.0%     2501        0        0     1943      518
>>     40
>> 29 m               0.0%        0        0        0        0        0
>>      0
>> 30 f      2500   100.0%     2499        0        0     1955      508
>>     36
>> 31 m               0.0%        1        0        0        1        0
>>      0
>> 32 f      2499    99.8%     2495        0        0     1934      522
>>     39
>> 33 m               0.2%        4        0        0        4        0
>>      0
>> 34 f      2498   100.0%     2498        0        0     1938      509
>>     51
>> 35 m               0.0%        0        0        0        0        0
>>      0
>> 36 f      2494   100.0%     2494        0        0     1907      549
>>     38
>> 37 m               0.0%        0        0        0        0        0
>>      0
>> 38 f      2496   100.0%     2496        0        0     1976      478
>>     42
>> 39 m               0.0%        0        0        0        0        0
>>      0
>> 40 f      2501    99.9%     2498        0        0     1952      510
>>     36
>> 41 m               0.1%        3        0        0        3        0
>>      0
>> 42 f      2499   100.0%     2498        0        0     1943      511
>>     44
>> 43 m               0.0%        1        0        0        1        0
>>      0
>> 44 f      2500   100.0%     2499        0        0     1935      528
>>     36
>> 45 m               0.0%        1        0        0        1        0
>>      0
>> 46 f      2499    99.9%     2496        0        0     1932      525
>>     39
>> 47 m               0.1%        3        0        0        3        0
>>      0
>> 48 f      2496   100.0%     2496        0        0     1990      463
>>     43
>> 49 m               0.0%        0        0        0        0        0
>>      0
>> 50 f      2498   100.0%     2498        0        0     1937      527
>>     34
>> 51 m               0.0%        0        0        0  

...

read more »



Mon, 05 Jul 2004 21:27:36 GMT
 bufwaits too high
Here's the changes I made:

#  BUFFERS changed from 80000 to 150000
#  LRUPOLICY definitions added. LRUPOLICY set to 0x11
#  NUMAIOVPS changed from 16 to 32

My BR is now about 12%. Much better than 30%.

I'm not sure if it's the LRUPOLICY settings or just adding more memory
that did it. Good case for making incremental changes. I'm sure if I
were to up the memory even more, say to 200000 BUFFERS, I could
probably get BR down to the magic 7%.

However, I only have 1 GB of total RAM. Setting 200000 BUFFERS would
allocate 40% of total memory to Informix. That seems quite high. All
the tuning docs I reviewed suggest not more that 25%. Any comments?

Quote:

> I don't see anything wrong with the config below.  You might want to try
> tinkering with LRUPRIORITY to try to tune the bufwait ratio.  Check the
> Informix FAQ for details on LRUPRIORITY.

> http://www.smooth1.demon.co.uk/ifaq08.htm#8.13

> Regards,

> Bill Dare



Tue, 06 Jul 2004 01:20:21 GMT
 bufwaits too high
Quote:

> I don't see anything wrong with the config below.  You might want to try
> tinkering with LRUPRIORITY to try to tune the bufwait ratio.  Check the
> Informix FAQ for details on LRUPRIORITY.

> http://www.smooth1.demon.co.uk/ifaq08.htm#8.13

> Regards,

> Bill Dare

> > -----Original Message-----

> > Sent: Friday, January 04, 2002 12:40 PM

> > Subject:      bufwaits too high

> > Can anybody tell me why BR is consistently 30% or more?

> > I've calculated Bufwait Ratio using:

> > BR = (bufwaits / (dskreads + bufwrits)) * 100.00

> > I have 32 LRU queues pairs.
> > onstat -R shows the free queues are almost always 98% or greater.

> > There are 32 Cleaners that are almost always idle.

> > Checkpoints durations are 0.

> > BUFFERS are 100000.

> > LRU_MAX_DIRTY and LRU_MIN_DIRTY are 60 and 50 respectively.

> > The queries are SELECTS only although some of them can get quite
> > complicated. There are no UPDATES, DELETES or INSERTS.

> > There is 1GB of physical memory on the machine.

> > Thanks, here's the specifics.

> > =============================

> > # Root Dbspace Configuration

> > ROOTNAME        rootdbs         # Root dbspace name
> > ROOTPATH        /data01/rootdbs # Path for device containing root
> > dbspace
> > ROOTOFFSET      0               # Offset of root dbspace into device
> > (Kbytes)
> > ROOTSIZE        30000           # Size of root dbspace (Kbytes)

> > # Physical Log Configuration

> > PHYSDBS         rootdbs         # Location (dbspace) of physical log
> > PHYSFILE        2000            # Physical log file size (Kbytes)

> > # Logical Log Configuration

> > LOGFILES        6               # Number of logical log files
> > LOGSIZE         1500            # Logical log size (Kbytes)

> > SERVERNUM       0               # Unique id corresponding to a OnLine
> > instance
> > DBSERVERNAME    atlas           # Name of default database server
> > DBSERVERALIASES atlas1          # List of alternate dbservernames
> > NETTYPE         soctcp,3,75,NET # Configure poll thread(s) for nettype
> > DEADLOCK_TIMEOUT        60      # Max time to wait of lock in
> > distributed env.
> > RESIDENT        0               # Forced residency flag (Yes = 1, No =
> > 0)

> > MULTIPROCESSOR  1               # 0 for single-processor, 1 for
> > multi-processor
> > NUMCPUVPS       2               # Number of user (cpu) vps
> > SINGLE_CPU_VP   0               # If non-zero, limit number of cpu vps
> > to one
> > LOCKS           2000            # Maximum number of locks
> > BUFFERS         100000          # Maximum number of shared buffers
> > NUMAIOVPS       16              # Number of IO vps
> > PHYSBUFF        32              # Physical log buffer size (Kbytes)
> > LOGBUFF         32              # Logical log buffer size (Kbytes)
> > LOGSMAX         6               # Maximum number of logical log files
> > CLEANERS        32               # Number of buffer cleaner processes
> > SHMBASE         #define SHMBASE 0x10000000L     # Shared memory base
> > address
> > SHMVIRTSIZE     32768           # initial virtual shared memory
> > segment size
> > SHMADD          32000            # Size of new shared memory segments
> > (Kbytes)
> > SHMTOTAL        0               # Total shared memory (Kbytes).
> > 0=>unlimited
> > CKPTINTVL       300             # Check point interval (in sec)
> > LRUS            32              # Number of LRU queues
> > LRU_MAX_DIRTY   60              # LRU percent dirty begin cleaning
> > limit
> > LRU_MIN_DIRTY   50              # LRU percent dirty end cleaning limit
> > LTXHWM          50              # Long transaction high water mark
> > percentage
> > LTXEHWM         60              # Long transaction high water mark
> > (exclusive)
> > TXTIMEOUT       300             # Transaction timeout (in sec)
> > STACKSIZE       32              # Stack size (Kbytes)

> > RA_PAGES                        # Number of pages to attempt to read
> > ahead
> > RA_THRESHOLD                    # Number of pages left before next
> > group

> > Profile
> > dskreads pagreads bufreads %cached dskwrits pagwrits bufwrits %cached
> > 275230   287251   24949998 98.90   3694     10712    11502    67.88  

> > isamtot  open     start    read     write    rewrite  delete   commit
> >  rollbk
> > 20259305 116397   981099   16305880 1017     45       0        8      
> >  0

> > gp_read  gp_write gp_rewrt gp_del   gp_alloc gp_free  gp_curs
> > 0        0        0        0        0        0        0      

> > ovlock   ovuserthread ovbuff   usercpu  syscpu   numckpts flushes
> > 0        0            0        451.31   21.63    27       54      

> > bufwaits lokwaits lockreqs deadlks  dltouts  ckpwaits compress
> > seqscans
> > 102818   0        1171693  0        0        1        601      1398

> > ixda-RA  idx-RA   da-RA    RA-pgsused lchwaits
> > 115494   18301    10293    144046     1521    

> > 32 buffer LRU queue pairs                     priority levels
> > # f/m  pair total  % of    length     LOW   MED_LOW  MED_HIGH   HIGH
> >  0 f      2500    99.8%     2494        0        0     1917      540  
> >     37
> >  1 m               0.2%        6        0        0        6        0  
> >      0
> >  2 f      2499   100.0%     2499        0        0     1988      481  
> >     30
> >  3 m               0.0%        0        0        0        0        0  
> >      0
> >  4 f      2498   100.0%     2497        0        0     1972      496  
> >     29
> >  5 m               0.0%        1        0        0        1        0  
> >      0
> >  6 f      2497    99.8%     2493        0        0     1934      516  
> >     43
> >  7 m               0.2%        4        0        0        4        0  
> >      0
> >  8 f      2498   100.0%     2498        0        0     1980      482  
> >     36
> >  9 m               0.0%        0        0        0        0        0  
> >      0
> > 10 f      2495   100.0%     2494        0        0     1924      526  
> >     44
> > 11 m               0.0%        1        0        0        1        0  
> >      0
> > 12 f      2498   100.0%     2497        0        0     1910      543  
> >     44
> > 13 m               0.0%        1        0        0        1        0  
> >      0
> > 14 f      2501   100.0%     2500        0        0     2003      457  
> >     40
> > 15 m               0.0%        1        0        0        1        0  
> >      0
> > 16 F      2492    99.8%     2488        0        0     1918      537  
> >     33
> > 17 m               0.2%        4        0        0        4        0  
> >      0
> > 18 f      2500    99.9%     2497        0        0     1954      490  
> >     53
> > 19 m               0.1%        3        0        0        3        0  
> >      0
> > 20 f      2499   100.0%     2499        0        0     1946      507  
> >     46
> > 21 m               0.0%        0        0        0        0        0  
> >      0
> > 22 f      2497    99.9%     2494        0        0     1915      539  
> >     40
> > 23 m               0.1%        3        0        0        3        0  
> >      0
> > 24 f      2500   100.0%     2499        0        0     1979      479  
> >     41
> > 25 m               0.0%        1        0        0        1        0  
> >      0
> > 26 f      2497   100.0%     2497        0        0     1928      531  
> >     38
> > 27 m               0.0%        0        0        0        0        0  
> >      0
> > 28 f      2501   100.0%     2501        0        0     1943      518  
> >     40
> > 29 m               0.0%        0        0        0        0        0  
> >      0
> > 30 f      2500   100.0%     2499        0        0     1955      508  
> >     36
> > 31 m               0.0%        1        0        0        1        0  
> >      0
> > 32 f      2499    99.8%     2495        0        0     1934      522  
> >     39
> > 33 m               0.2%        4        0        0        4        0  
> >      0
> > 34 f      2498   100.0%     2498        0        0     1938      509  
> >     51
> > 35 m               0.0%        0        0        0        0        0  
> >      0
> > 36 f      2494   100.0%     2494        0        0     1907      549  
> >     38
> > 37 m               0.0%        0        0        0        0        0  
> >      0
> > 38 f      2496   100.0%     2496        0        0     1976      478  
> >     42
> > 39 m               0.0%        0        0        0        0        0  
> >      0
> > 40 f      2501    99.9%     2498        0        0     1952      510  
> >     36
> > 41 m               0.1%        3        0        0        3        0  
> >      0
> > 42 f      2499   100.0%     2498        0        0     1943      511  
> >     44
> > 43 m               0.0%        1        0        0        1        0  
> >      0
> > 44 f      2500   100.0%     2499        0        0     1935      528  
> >     36
> > 45 m               0.0%        1        0        0        1        0  
> >      0
> > 46 f      2499    99.9%     2496        0        0     1932      525  
> >     39
> > 47 m               0.1%        3        0        0        3        0  
> >      0
> > 48 f      2496   100.0%     2496        0        0     1990      463  
> >     43
> > 49 m               0.0%        0        0        0        0        0  
> >      0
> > 50 f      2498   100.0%     2498        0        0     1937      527  
> >     34
> > 51 m               0.0%        0        0        0        0        0  
> >      0
> > 52 f      2498   100.0%     2498        0        0     1927      543  
> >     28
> > 53 m               0.0%        0        0        0        0        0  
> >      0

...

read more »



Tue, 06 Jul 2004 04:27:50 GMT
 bufwaits too high
Would it be advisable to then increase NUMAIOVPS to handle the added
LRUs? Somewhere I read:

LRU == CLEANERS <= NUMAIOVP

Where the rule of thumb being to adjust NUMAIOVP as 1.5 * #chunks
and/or onstat -g iov analysis.

Since all my aio vps seem to be doing something for every wakeup, I
could probably add some more. Right now I have 32. Is there any
downside to adding that many AIOVPs?

Quote:

> Try to put the LRUs to 127. This would offer high granularity to the queues.
> All the buffers are devided into N LRU queues (hash technique). The smaller
> LRUs the higher probability to have waits. From my experience, I always used
> the maximum # of LRUs and everything was fine. Do not put 128 or 96 since
> they are buggy.

> Also monitor the AIO VPs and the disk Read Ahead. From what I've seen the RA
> is proper used. There are few dozen of pages over-read but that's ok.

> The Cache-hit ratio is good.

> On the other hand, you cannot have Buff Waits ratio nearly zero. The
> checkpoint time is 0 because as you stated the changes against the DB are
> minimal.



> > Can anybody tell me why BR is consistently 30% or more?

> > I've calculated Bufwait Ratio using:

> > BR = (bufwaits / (dskreads + bufwrits)) * 100.00

> > I have 32 LRU queues pairs.
> > onstat -R shows the free queues are almost always 98% or greater.

> > There are 32 Cleaners that are almost always idle.

> > Checkpoints durations are 0.

> > BUFFERS are 100000.

> > LRU_MAX_DIRTY and LRU_MIN_DIRTY are 60 and 50 respectively.

> > The queries are SELECTS only although some of them can get quite
> > complicated. There are no UPDATES, DELETES or INSERTS.

> > There is 1GB of physical memory on the machine.

> > Thanks, here's the specifics.

> > =============================

> > # Root Dbspace Configuration

> > ROOTNAME        rootdbs         # Root dbspace name
> > ROOTPATH        /data01/rootdbs # Path for device containing root
> > dbspace
> > ROOTOFFSET      0               # Offset of root dbspace into device
> > (Kbytes)
> > ROOTSIZE        30000           # Size of root dbspace (Kbytes)

> > # Physical Log Configuration

> > PHYSDBS         rootdbs         # Location (dbspace) of physical log
> > PHYSFILE        2000            # Physical log file size (Kbytes)

> > # Logical Log Configuration

> > LOGFILES        6               # Number of logical log files
> > LOGSIZE         1500            # Logical log size (Kbytes)

> > SERVERNUM       0               # Unique id corresponding to a OnLine
> > instance
> > DBSERVERNAME    atlas           # Name of default database server
> > DBSERVERALIASES atlas1          # List of alternate dbservernames
> > NETTYPE         soctcp,3,75,NET # Configure poll thread(s) for nettype
> > DEADLOCK_TIMEOUT        60      # Max time to wait of lock in
> > distributed env.
> > RESIDENT        0               # Forced residency flag (Yes = 1, No =
> > 0)

> > MULTIPROCESSOR  1               # 0 for single-processor, 1 for
> > multi-processor
> > NUMCPUVPS       2               # Number of user (cpu) vps
> > SINGLE_CPU_VP   0               # If non-zero, limit number of cpu vps
> > to one
> > LOCKS           2000            # Maximum number of locks
> > BUFFERS         100000          # Maximum number of shared buffers
> > NUMAIOVPS       16              # Number of IO vps
> > PHYSBUFF        32              # Physical log buffer size (Kbytes)
> > LOGBUFF         32              # Logical log buffer size (Kbytes)
> > LOGSMAX         6               # Maximum number of logical log files
> > CLEANERS        32               # Number of buffer cleaner processes
> > SHMBASE         #define SHMBASE 0x10000000L     # Shared memory base
> > address
> > SHMVIRTSIZE     32768           # initial virtual shared memory
> > segment size
> > SHMADD          32000            # Size of new shared memory segments
> > (Kbytes)
> > SHMTOTAL        0               # Total shared memory (Kbytes).
> > 0=>unlimited
> > CKPTINTVL       300             # Check point interval (in sec)
> > LRUS            32              # Number of LRU queues
> > LRU_MAX_DIRTY   60              # LRU percent dirty begin cleaning
> > limit
> > LRU_MIN_DIRTY   50              # LRU percent dirty end cleaning limit
> > LTXHWM          50              # Long transaction high water mark
> > percentage
> > LTXEHWM         60              # Long transaction high water mark
> > (exclusive)
> > TXTIMEOUT       300             # Transaction timeout (in sec)
> > STACKSIZE       32              # Stack size (Kbytes)

> > RA_PAGES                        # Number of pages to attempt to read
> > ahead
> > RA_THRESHOLD                    # Number of pages left before next
> > group

> > Profile
> > dskreads pagreads bufreads %cached dskwrits pagwrits bufwrits %cached
> > 275230   287251   24949998 98.90   3694     10712    11502    67.88

> > isamtot  open     start    read     write    rewrite  delete   commit
> >  rollbk
> > 20259305 116397   981099   16305880 1017     45       0        8
> >  0

> > gp_read  gp_write gp_rewrt gp_del   gp_alloc gp_free  gp_curs
> > 0        0        0        0        0        0        0

> > ovlock   ovuserthread ovbuff   usercpu  syscpu   numckpts flushes
> > 0        0            0        451.31   21.63    27       54

> > bufwaits lokwaits lockreqs deadlks  dltouts  ckpwaits compress
> > seqscans
> > 102818   0        1171693  0        0        1        601      1398

> > ixda-RA  idx-RA   da-RA    RA-pgsused lchwaits
> > 115494   18301    10293    144046     1521

> > 32 buffer LRU queue pairs                     priority levels
> > # f/m  pair total  % of    length     LOW   MED_LOW  MED_HIGH   HIGH
> >  0 f      2500    99.8%     2494        0        0     1917      540
> >     37
> >  1 m               0.2%        6        0        0        6        0
> >      0
> >  2 f      2499   100.0%     2499        0        0     1988      481
> >     30
> >  3 m               0.0%        0        0        0        0        0
> >      0
> >  4 f      2498   100.0%     2497        0        0     1972      496
> >     29
> >  5 m               0.0%        1        0        0        1        0
> >      0
> >  6 f      2497    99.8%     2493        0        0     1934      516
> >     43
> >  7 m               0.2%        4        0        0        4        0
> >      0
> >  8 f      2498   100.0%     2498        0        0     1980      482
> >     36
> >  9 m               0.0%        0        0        0        0        0
> >      0
> > 10 f      2495   100.0%     2494        0        0     1924      526
> >     44
> > 11 m               0.0%        1        0        0        1        0
> >      0
> > 12 f      2498   100.0%     2497        0        0     1910      543
> >     44
> > 13 m               0.0%        1        0        0        1        0
> >      0
> > 14 f      2501   100.0%     2500        0        0     2003      457
> >     40
> > 15 m               0.0%        1        0        0        1        0
> >      0
> > 16 F      2492    99.8%     2488        0        0     1918      537
> >     33
> > 17 m               0.2%        4        0        0        4        0
> >      0
> > 18 f      2500    99.9%     2497        0        0     1954      490
> >     53
> > 19 m               0.1%        3        0        0        3        0
> >      0
> > 20 f      2499   100.0%     2499        0        0     1946      507
> >     46
> > 21 m               0.0%        0        0        0        0        0
> >      0
> > 22 f      2497    99.9%     2494        0        0     1915      539
> >     40
> > 23 m               0.1%        3        0        0        3        0
> >      0
> > 24 f      2500   100.0%     2499        0        0     1979      479
> >     41
> > 25 m               0.0%        1        0        0        1        0
> >      0
> > 26 f      2497   100.0%     2497        0        0     1928      531
> >     38
> > 27 m               0.0%        0        0        0        0        0
> >      0
> > 28 f      2501   100.0%     2501        0        0     1943      518
> >     40
> > 29 m               0.0%        0        0        0        0        0
> >      0
> > 30 f      2500   100.0%     2499        0        0     1955      508
> >     36
> > 31 m               0.0%        1        0        0        1        0
> >      0
> > 32 f      2499    99.8%     2495        0        0     1934      522
> >     39
> > 33 m               0.2%        4        0        0        4        0
> >      0
> > 34 f      2498   100.0%     2498        0        0     1938      509
> >     51
> > 35 m               0.0%        0        0        0        0        0
> >      0
> > 36 f      2494   100.0%     2494        0        0     1907      549
> >     38
> > 37 m               0.0%        0        0        0        0        0
> >      0
> > 38 f      2496   100.0%     2496        0        0     1976      478
> >     42
> > 39 m               0.0%        0        0        0        0        0
> >      0
> > 40 f      2501    99.9%     2498        0        0     1952      510
> >     36
> > 41 m               0.1%        3        0        0        3        0
> >      0
> > 42 f      2499   100.0%     2498        0        0     1943      511
> >     44
> > 43 m               0.0%        1        0        0        1        0
> >      0
> > 44 f      2500   100.0%     2499        0        0     1935      528
> >     36
> > 45 m               0.0%        1        0        0        1        0
> >      0
> > 46 f      2499    99.9%     2496        0        0     1932      525
> >     39
> > 47 m               0.1%        3      

...

read more »



Wed, 07 Jul 2004 02:43:13 GMT
 bufwaits too high

Quote:

> Would it be advisable to then increase NUMAIOVPS to handle the added
> LRUs? Somewhere I read:

Yes

Quote:
> LRU == CLEANERS <= NUMAIOVP

Right.

Quote:
> Where the rule of thumb being to adjust NUMAIOVP as 1.5 * #chunks
> and/or onstat -g iov analysis.

Correct. Increase NUMAIOVPS until one or a few show io/wkup < 1.0.

Quote:
> Since all my aio vps seem to be doing something for every wakeup, I
> could probably add some more. Right now I have 32. Is there any
> downside to adding that many AIOVPs?

No, unless your kernel is configured with a rather low number of
concurrent processes permitted and you have many other tasks running.

Art S. Kagel

Quote:

> > Try to put the LRUs to 127. This would offer high granularity to the queues.
> > All the buffers are devided into N LRU queues (hash technique). The smaller
> > LRUs the higher probability to have waits. From my experience, I always used
> > the maximum # of LRUs and everything was fine. Do not put 128 or 96 since
> > they are buggy.

> > Also monitor the AIO VPs and the disk Read Ahead. From what I've seen the RA
> > is proper used. There are few dozen of pages over-read but that's ok.

> > The Cache-hit ratio is good.

> > On the other hand, you cannot have Buff Waits ratio nearly zero. The
> > checkpoint time is 0 because as you stated the changes against the DB are
> > minimal.



> > > Can anybody tell me why BR is consistently 30% or more?

> > > I've calculated Bufwait Ratio using:

> > > BR = (bufwaits / (dskreads + bufwrits)) * 100.00

> > > I have 32 LRU queues pairs.
> > > onstat -R shows the free queues are almost always 98% or greater.

> > > There are 32 Cleaners that are almost always idle.

> > > Checkpoints durations are 0.

> > > BUFFERS are 100000.

> > > LRU_MAX_DIRTY and LRU_MIN_DIRTY are 60 and 50 respectively.

> > > The queries are SELECTS only although some of them can get quite
> > > complicated. There are no UPDATES, DELETES or INSERTS.

> > > There is 1GB of physical memory on the machine.

> > > Thanks, here's the specifics.

> > > =============================

> > > # Root Dbspace Configuration

> > > ROOTNAME        rootdbs         # Root dbspace name
> > > ROOTPATH        /data01/rootdbs # Path for device containing root
> > > dbspace
> > > ROOTOFFSET      0               # Offset of root dbspace into device
> > > (Kbytes)
> > > ROOTSIZE        30000           # Size of root dbspace (Kbytes)

> > > # Physical Log Configuration

> > > PHYSDBS         rootdbs         # Location (dbspace) of physical log
> > > PHYSFILE        2000            # Physical log file size (Kbytes)

> > > # Logical Log Configuration

> > > LOGFILES        6               # Number of logical log files
> > > LOGSIZE         1500            # Logical log size (Kbytes)

> > > SERVERNUM       0               # Unique id corresponding to a OnLine
> > > instance
> > > DBSERVERNAME    atlas           # Name of default database server
> > > DBSERVERALIASES atlas1          # List of alternate dbservernames
> > > NETTYPE         soctcp,3,75,NET # Configure poll thread(s) for nettype
> > > DEADLOCK_TIMEOUT        60      # Max time to wait of lock in
> > > distributed env.
> > > RESIDENT        0               # Forced residency flag (Yes = 1, No =
> > > 0)

> > > MULTIPROCESSOR  1               # 0 for single-processor, 1 for
> > > multi-processor
> > > NUMCPUVPS       2               # Number of user (cpu) vps
> > > SINGLE_CPU_VP   0               # If non-zero, limit number of cpu vps
> > > to one
> > > LOCKS           2000            # Maximum number of locks
> > > BUFFERS         100000          # Maximum number of shared buffers
> > > NUMAIOVPS       16              # Number of IO vps
> > > PHYSBUFF        32              # Physical log buffer size (Kbytes)
> > > LOGBUFF         32              # Logical log buffer size (Kbytes)
> > > LOGSMAX         6               # Maximum number of logical log files
> > > CLEANERS        32               # Number of buffer cleaner processes
> > > SHMBASE         #define SHMBASE 0x10000000L     # Shared memory base
> > > address
> > > SHMVIRTSIZE     32768           # initial virtual shared memory
> > > segment size
> > > SHMADD          32000            # Size of new shared memory segments
> > > (Kbytes)
> > > SHMTOTAL        0               # Total shared memory (Kbytes).
> > > 0=>unlimited
> > > CKPTINTVL       300             # Check point interval (in sec)
> > > LRUS            32              # Number of LRU queues
> > > LRU_MAX_DIRTY   60              # LRU percent dirty begin cleaning
> > > limit
> > > LRU_MIN_DIRTY   50              # LRU percent dirty end cleaning limit
> > > LTXHWM          50              # Long transaction high water mark
> > > percentage
> > > LTXEHWM         60              # Long transaction high water mark
> > > (exclusive)
> > > TXTIMEOUT       300             # Transaction timeout (in sec)
> > > STACKSIZE       32              # Stack size (Kbytes)

> > > RA_PAGES                        # Number of pages to attempt to read
> > > ahead
> > > RA_THRESHOLD                    # Number of pages left before next
> > > group

> > > Profile
> > > dskreads pagreads bufreads %cached dskwrits pagwrits bufwrits %cached
> > > 275230   287251   24949998 98.90   3694     10712    11502    67.88

> > > isamtot  open     start    read     write    rewrite  delete   commit
> > >  rollbk
> > > 20259305 116397   981099   16305880 1017     45       0        8
> > >  0

> > > gp_read  gp_write gp_rewrt gp_del   gp_alloc gp_free  gp_curs
> > > 0        0        0        0        0        0        0

> > > ovlock   ovuserthread ovbuff   usercpu  syscpu   numckpts flushes
> > > 0        0            0        451.31   21.63    27       54

> > > bufwaits lokwaits lockreqs deadlks  dltouts  ckpwaits compress
> > > seqscans
> > > 102818   0        1171693  0        0        1        601      1398

> > > ixda-RA  idx-RA   da-RA    RA-pgsused lchwaits
> > > 115494   18301    10293    144046     1521

> > > 32 buffer LRU queue pairs                     priority levels
> > > # f/m  pair total  % of    length     LOW   MED_LOW  MED_HIGH   HIGH
> > >  0 f      2500    99.8%     2494        0        0     1917      540
> > >     37
> > >  1 m               0.2%        6        0        0        6        0
> > >      0
> > >  2 f      2499   100.0%     2499        0        0     1988      481
> > >     30
> > >  3 m               0.0%        0        0        0        0        0
> > >      0
> > >  4 f      2498   100.0%     2497        0        0     1972      496
> > >     29
> > >  5 m               0.0%        1        0        0        1        0
> > >      0
> > >  6 f      2497    99.8%     2493        0        0     1934      516
> > >     43
> > >  7 m               0.2%        4        0        0        4        0
> > >      0
> > >  8 f      2498   100.0%     2498        0        0     1980      482
> > >     36
> > >  9 m               0.0%        0        0        0        0        0
> > >      0
> > > 10 f      2495   100.0%     2494        0        0     1924      526
> > >     44
> > > 11 m               0.0%        1        0        0        1        0
> > >      0
> > > 12 f      2498   100.0%     2497        0        0     1910      543
> > >     44
> > > 13 m               0.0%        1        0        0        1        0
> > >      0
> > > 14 f      2501   100.0%     2500        0        0     2003      457
> > >     40
> > > 15 m               0.0%        1        0        0        1        0
> > >      0
> > > 16 F      2492    99.8%     2488        0        0     1918      537
> > >     33
> > > 17 m               0.2%        4        0        0        4        0
> > >      0
> > > 18 f      2500    99.9%     2497        0        0     1954      490
> > >     53
> > > 19 m               0.1%        3        0        0        3        0
> > >      0
> > > 20 f      2499   100.0%     2499        0        0     1946      507
> > >     46
> > > 21 m               0.0%        0        0        0        0        0
> > >      0
> > > 22 f      2497    99.9%     2494        0        0     1915      539
> > >     40
> > > 23 m               0.1%        3        0        0        3        0
> > >      0
> > > 24 f      2500   100.0%     2499        0        0     1979      479
> > >     41
> > > 25 m               0.0%        1        0        0        1        0
> > >      0
> > > 26 f      2497   100.0%     2497        0        0     1928      531
> > >     38
> > > 27 m               0.0%        0        0        0        0        0
> > >      0
> > > 28 f      2501   100.0%     2501        0        0     1943      518
> > >     40
> > > 29 m               0.0%        0        0        0        0        0
> > >      0
> > > 30 f      2500   100.0%     2499        0        0     1955      508
> > >     36
> > > 31 m               0.0%        1        0        0        1        0
> > >      0
> > > 32 f      2499    99.8%     2495        0        0     1934      522
> > >     39
> > > 33 m               0.2%        4        0        0        4        0
> > >      0
> > > 34 f      2498   100.0%     2498        0        0     1938      509
> > >     51
> > > 35 m               0.0%        0        0        0        0        0
> > >      0
> > > 36 f      2494   100.0%     2494        0        0     1907      549
> > >     38
> > > 37 m               0.0%        0        0        0        0        0
> > >      0
> > > 38 f      2496   100.0%     2496        0        0     1976      478
> > >     42
> > > 39

...

read more »



Tue, 13 Jul 2004 03:37:33 GMT
 
 [ 9 post ] 

 Relevant Pages 

1. Bufwaits too high/write cache too low

2. Bufwaits too high/write cache too low

3. I/O bottleneck, bufwaits too high

4. Question about high-volume, high-speed data import.

5. SQL 6.5 Confilicting Performance: Memory-Page Faults: High AND Cache-Avg Free Page Scan High

6. High sqlsrvr.exe utilization and high user connections

7. Suggestions/advice on choosing/configuring a high load/high reliabilty system

8. BUFFERS: How high is too high?

9. TechTips: High-volume / High-performance Paradox

10. Bufwaits and tuning

11. Bufwaits?

12. Read-aheads and bufwaits


 
Powered by phpBB® Forum Software