hw/timer/hpet: Fix debug format strings
[qemu/ar7.git] / docs / specs / ppc-spapr-numa.rst
blobe7620380220d50fc1f8e659eb1a7533d9cc85056
2 NUMA mechanics for sPAPR (pseries machines)
3 ============================================
5 NUMA in sPAPR works different than the System Locality Distance
6 Information Table (SLIT) in ACPI. The logic is explained in the LOPAPR
7 1.1 chapter 15, "Non Uniform Memory Access (NUMA) Option". This
8 document aims to complement this specification, providing details
9 of the elements that impacts how QEMU views NUMA in pseries.
11 Associativity and ibm,associativity property
12 --------------------------------------------
14 Associativity is defined as a group of platform resources that has
15 similar mean performance (or in our context here, distance) relative to
16 everyone else outside of the group.
18 The format of the ibm,associativity property varies with the value of
19 bit 0 of byte 5 of the ibm,architecture-vec-5 property. The format with
20 bit 0 equal to zero is deprecated. The current format, with the bit 0
21 with the value of one, makes ibm,associativity property represent the
22 physical hierarchy of the platform, as one or more lists that starts
23 with the highest level grouping up to the smallest. Considering the
24 following topology:
28     Mem M1 ---- Proc P1    |
29     -----------------      | Socket S1  ---|
30           chip C1          |               |
31                                            | HW module 1 (MOD1)
32     Mem M2 ---- Proc P2    |               |
33     -----------------      | Socket S2  ---|
34           chip C2          |
36 The ibm,associativity property for the processors would be:
38 * P1: {MOD1, S1, C1, P1}
39 * P2: {MOD1, S2, C2, P2}
41 Each allocable resource has an ibm,associativity property. The LOPAPR
42 specification allows multiple lists to be present in this property,
43 considering that the same resource can have multiple connections to the
44 platform.
46 Relative Performance Distance and ibm,associativity-reference-points
47 --------------------------------------------------------------------
49 The ibm,associativity-reference-points property is an array that is used
50 to define the relevant performance/distance  related boundaries, defining
51 the NUMA levels for the platform.
53 The definition of its elements also varies with the value of bit 0 of byte 5
54 of the ibm,architecture-vec-5 property. The format with bit 0 equal to zero
55 is also deprecated. With the current format, each integer of the
56 ibm,associativity-reference-points represents an 1 based ordinal index (i.e.
57 the first element is 1) of the ibm,associativity array. The first
58 boundary is the most significant to application performance, followed by
59 less significant boundaries. Allocated resources that belongs to the
60 same performance boundaries are expected to have relative NUMA distance
61 that matches the relevancy of the boundary itself. Resources that belongs
62 to the same first boundary will have the shortest distance from each
63 other. Subsequent boundaries represents greater distances and degraded
64 performance.
66 Using the previous example, the following setting reference points defines
67 three NUMA levels:
69 * ibm,associativity-reference-points = {0x3, 0x2, 0x1}
71 The first NUMA level (0x3) is interpreted as the third element of each
72 ibm,associativity array, the second level is the second element and
73 the third level is the first element. Let's also consider that elements
74 belonging to the first NUMA level have distance equal to 10 from each
75 other, and each NUMA level doubles the distance from the previous. This
76 means that the second would be 20 and the third level 40. For the P1 and
77 P2 processors, we would have the following NUMA levels:
81   * ibm,associativity-reference-points = {0x3, 0x2, 0x1}
83   * P1: associativity{MOD1, S1, C1, P1}
85   First NUMA level (0x3) => associativity[2] = C1
86   Second NUMA level (0x2) => associativity[1] = S1
87   Third NUMA level (0x1) => associativity[0] = MOD1
89   * P2: associativity{MOD1, S2, C2, P2}
91   First NUMA level (0x3) => associativity[2] = C2
92   Second NUMA level (0x2) => associativity[1] = S2
93   Third NUMA level (0x1) => associativity[0] = MOD1
95   P1 and P2 have the same third NUMA level, MOD1: Distance between them = 40
97 Changing the ibm,associativity-reference-points array changes the performance
98 distance attributes for the same associativity arrays, as the following
99 example illustrates:
103   * ibm,associativity-reference-points = {0x2}
105   * P1: associativity{MOD1, S1, C1, P1}
107   First NUMA level (0x2) => associativity[1] = S1
109   * P2: associativity{MOD1, S2, C2, P2}
111   First NUMA level (0x2) => associativity[1] = S2
113   P1 and P2 does not have a common performance boundary. Since this is a one level
114   NUMA configuration, distance between them is one boundary above the first
115   level, 20.
118 In a hypothetical platform where all resources inside the same hardware module
119 is considered to be on the same performance boundary:
123   * ibm,associativity-reference-points = {0x1}
125   * P1: associativity{MOD1, S1, C1, P1}
127   First NUMA level (0x1) => associativity[0] = MOD0
129   * P2: associativity{MOD1, S2, C2, P2}
131   First NUMA level (0x1) => associativity[0] = MOD0
133   P1 and P2 belongs to the same first order boundary. The distance between then
134   is 10.
137 How the pseries Linux guest calculates NUMA distances
138 =====================================================
140 Another key difference between ACPI SLIT and the LOPAPR regarding NUMA is
141 how the distances are expressed. The SLIT table provides the NUMA distance
142 value between the relevant resources. LOPAPR does not provide a standard
143 way to calculate it. We have the ibm,associativity for each resource, which
144 provides a common-performance hierarchy,  and the ibm,associativity-reference-points
145 array that tells which level of associativity is considered to be relevant
146 or not.
148 The result is that each OS is free to implement and to interpret the distance
149 as it sees fit. For the pseries Linux guest, each level of NUMA duplicates
150 the distance of the previous level, and the maximum amount of levels is
151 limited to MAX_DISTANCE_REF_POINTS = 4 (from arch/powerpc/mm/numa.c in the
152 kernel tree). This results in the following distances:
154 * both resources in the first NUMA level: 10
155 * resources one NUMA level apart: 20
156 * resources two NUMA levels apart: 40
157 * resources three NUMA levels apart: 80
158 * resources four NUMA levels apart: 160
161 Consequences for QEMU NUMA tuning
162 ---------------------------------
164 The way the pseries Linux guest calculates NUMA distances has a direct effect
165 on what QEMU users can expect when doing NUMA tuning. As of QEMU 5.1, this is
166 the default ibm,associativity-reference-points being used in the pseries
167 machine:
169 ibm,associativity-reference-points = {0x4, 0x4, 0x2}
171 The first and second level are equal, 0x4, and a third one was added in
172 commit a6030d7e0b35 exclusively for NVLink GPUs support. This means that
173 regardless of how the ibm,associativity properties are being created in
174 the device tree, the pseries Linux guest will only recognize three scenarios
175 as far as NUMA distance goes:
177 * if the resources belongs to the same first NUMA level = 10
178 * second level is skipped since it's equal to the first
179 * all resources that aren't a NVLink GPU, it is guaranteed that they will belong
180   to the same third NUMA level, having distance = 40
181 * for NVLink GPUs, distance = 80 from everything else
183 In short, we can summarize the NUMA distances seem in pseries Linux guests, using
184 QEMU up to 5.1, as follows:
186 * local distance, i.e. the distance of the resource to its own NUMA node: 10
187 * if it's a NVLink GPU device, distance: 80
188 * every other resource, distance: 40
190 This also means that user input in QEMU command line does not change the
191 NUMA distancing inside the guest for the pseries machine.