arch/x86: Use ENV_X86_64 instead of _x86_64_
[coreboot.git] / src / cpu / x86 / smm / smmhandler.S
blobb7805d06ab73143adb382c7a05742f94e31e3dd8
1 /* SPDX-License-Identifier: GPL-2.0-only */
3 /* NOTE: This handler assumes the SMM window goes from 0xa0000
4  * to 0xaffff. In fact, at least on Intel Core CPUs (i945 chipset)
5  * the SMM window is 128K big, covering 0xa0000 to 0xbffff.
6  * So there is a lot of potential for growth in here. Let's stick
7  * to 64k if we can though.
8  */
10 #include <cpu/x86/lapic_def.h>
11 #include <cpu/x86/msr.h>
14  * +--------------------------------+ 0xaffff
15  * |  Save State Map Node 0         |
16  * |  Save State Map Node 1         |
17  * |  Save State Map Node 2         |
18  * |  Save State Map Node 3         |
19  * |  ...                           |
20  * +--------------------------------+ 0xaf000
21  * |                                |
22  * |                                |
23  * |                                |
24  * +--------------------------------+ 0xa8400
25  * | SMM Entry Node 0 (+ stack)     |
26  * +--------------------------------+ 0xa8000
27  * | SMM Entry Node 1 (+ stack)     |
28  * | SMM Entry Node 2 (+ stack)     |
29  * | SMM Entry Node 3 (+ stack)     |
30  * | ...                            |
31  * +--------------------------------+ 0xa7400
32  * |                                |
33  * | SMM Handler                    |
34  * |                                |
35  * +--------------------------------+ 0xa0000
36  *
37  */
39 /* SMM_HANDLER_OFFSET is the 16bit offset within the ASEG
40  * at which smm_handler_start lives. At the moment the handler
41  * lives right at 0xa0000, so the offset is 0.
42  */
44 #define SMM_HANDLER_OFFSET 0x0000
46 #if ENV_X86_64
47 .bss
48 ia32efer_backup_eax:
49 .long 0
50 ia32efer_backup_edx:
51 .long 0
52 #endif
54 /* initially SMM is some sort of real mode. Let gcc know
55  * how to treat the SMM handler stub
56  */
58 .section ".handler", "a", @progbits
60 .code16
62 /**
63  * SMM code to enable protected mode and jump to the
64  * C-written function void smi_handler(u32 smm_revision)
65  *
66  * All the bad magic is not all that bad after all.
67  */
68 #define SMM_START 0xa0000
69 #define SMM_END   0xb0000
70 #if SMM_END <= SMM_START
71 #error invalid SMM configuration
72 #endif
73 .global smm_handler_start
74 smm_handler_start:
75 #if CONFIG(SMM_LAPIC_REMAP_MITIGATION)
76         /* Check if the LAPIC register block overlaps with SMM.
77          * This block needs to work without data accesses because they
78          * may be routed into the LAPIC register block.
79          * Code accesses, on the other hand, are never routed to LAPIC,
80          * which is what makes this work in the first place.
81          */
82         mov     $LAPIC_BASE_MSR, %ecx
83         rdmsr
84         and     $(~0xfff), %eax
85         sub     $(SMM_START), %eax
86         cmp     $(SMM_END - SMM_START), %eax
87         ja      untampered_lapic
89         /* emit "Crash" on serial */
90         mov     $(CONFIG_TTYS0_BASE), %dx
91         mov     $'C', %al
92         out     %al, (%dx)
93         mov     $'r', %al
94         out     %al, (%dx)
95         mov     $'a', %al
96         out     %al, (%dx)
97         mov     $'s', %al
98         out     %al, (%dx)
99         mov     $'h', %al
100         out     %al, (%dx)
101         /* now crash for real */
102         ud2
103 untampered_lapic:
104 #endif
105         movw    $(smm_gdtptr16 - smm_handler_start + SMM_HANDLER_OFFSET), %bx
106         lgdtl   %cs:(%bx)
108         movl    %cr0, %eax
109         andl    $0x7FFAFFD1, %eax /* PG,AM,WP,NE,TS,EM,MP = 0 */
110         orl     $0x60000001, %eax /* CD, NW, PE = 1 */
111         movl    %eax, %cr0
113         /* Enable protected mode */
114         ljmpl   $0x08, $1f
116 .code32
118         /* flush the cache after disabling it */
119         wbinvd
121         /* Use flat data segment */
122         movw    $0x10, %ax
123         movw    %ax, %ds
124         movw    %ax, %es
125         movw    %ax, %ss
126         movw    %ax, %fs
127         movw    %ax, %gs
129         /* FIXME: Incompatible with X2APIC_SUPPORT. */
130         /* Get this CPU's LAPIC ID */
131         movl    $(LAPIC_DEFAULT_BASE | LAPIC_ID), %esi
132         movl    (%esi), %ecx
133         shr     $24, %ecx
135         /* This is an ugly hack, and we should find a way to read the CPU index
136          * without relying on the LAPIC ID.
137          */
138 #if CONFIG(CPU_AMD_AGESA_FAMILY15_TN)
139         /* LAPIC IDs start from 0x10; map that to the proper core index */
140         subl    $0x10, %ecx
141 #endif
143         /* calculate stack offset by multiplying the APIC ID
144          * by 1024 (0x400), and save that offset in ebp.
145          */
146         shl     $10, %ecx
147         movl    %ecx, %ebp
149         /* We put the stack for each core right above
150          * its SMM entry point. Core 0 starts at 0xa8000,
151          * we spare 0x10 bytes for the jump to be sure.
152          */
153         movl    $0xa8010, %eax
154         subl    %ecx, %eax              /* subtract offset, see above */
155         movl    %eax, %ebx              /* Save bottom of stack in ebx */
157 #define SMM_STACK_SIZE  (0x400 - 0x10)
158         /* clear stack */
159         cld
160         movl    %eax, %edi
161         movl    $(SMM_STACK_SIZE >> 2), %ecx
162         xorl    %eax, %eax
163         rep     stosl
165         /* set new stack */
166         addl    $SMM_STACK_SIZE, %ebx
167         movl    %ebx, %esp
169 #if ENV_X86_64
170         /* Backup IA32_EFER. Preserves ebx. */
171         movl    $(IA32_EFER), %ecx
172         rdmsr
173         movl    %eax, ia32efer_backup_eax
174         movl    %edx, ia32efer_backup_edx
176         /* Enable long mode. Preserves ebx. */
177 #include <cpu/x86/64bit/entry64.inc>
179 #endif
180         /* Call C handler */
181         call    smi_handler
183 #if ENV_X86_64
184         /*
185          * The only reason to go back to protected mode is that RSM doesn't restore
186          * MSR registers and MSR IA32_EFER was modified by entering long mode.
187          * Drop to protected mode to safely operate on the IA32_EFER MSR.
188          */
190         /* Disable long mode. */
191         #include <cpu/x86/64bit/exit32.inc>
193         /* Restore IA32_EFER as RSM doesn't restore MSRs. */
194         movl    $(IA32_EFER), %ecx
195         movl    ia32efer_backup_eax, %eax
196         movl    ia32efer_backup_edx, %edx
197         wrmsr
198 #endif
200         /* To return, just do rsm. It will "clean up" protected mode */
201         rsm
203 .code16
205 .align  4, 0xff
207 smm_gdtptr16:
208         .word   smm_gdt_end - smm_gdt - 1
209         .long   smm_gdt - smm_handler_start + 0xa0000 + SMM_HANDLER_OFFSET
211 .code32
213 smm_gdt:
214         /* The first GDT entry can not be used. Keep it zero */
215         .long   0x00000000, 0x00000000
217         /* gdt selector 0x08, flat code segment */
218         .word   0xffff, 0x0000
219         .byte   0x00, 0x9b, 0xcf, 0x00 /* G=1 and 0x0f, 4GB limit */
221         /* gdt selector 0x10, flat data segment */
222         .word   0xffff, 0x0000
223         .byte   0x00, 0x93, 0xcf, 0x00
225         /* gdt selector 0x18, flat code segment (64-bit) */
226         .word   0xffff, 0x0000
227         .byte   0x00, 0x9b, 0xaf, 0x00
228 smm_gdt_end:
231 .section ".jumptable", "a", @progbits
233 /* This is the SMM jump table. All cores use the same SMM handler
234  * for simplicity. But SMM Entry needs to be different due to the
235  * save state area. The jump table makes sure all CPUs jump into the
236  * real handler on SMM entry.
237  */
239 /* This code currently supports up to 4 CPU cores. If more than 4 CPU cores
240  * shall be used, below table has to be updated, as well as smm.ld
241  */
243 /* GNU AS/LD will always generate code that assumes CS is 0xa000. In reality
244  * CS will be set to SMM_BASE[19:4] though. Knowing that the smm handler is the
245  * first thing in the ASEG, we do a far jump here, to set CS to 0xa000.
246  */
248 .code16
249 jumptable:
250         /* core 3 */
251         ljmp    $0xa000, $SMM_HANDLER_OFFSET
252 .align 1024, 0x00
253         /* core 2 */
254         ljmp    $0xa000, $SMM_HANDLER_OFFSET
255 .align 1024, 0x00
256         /* core 1 */
257         ljmp    $0xa000, $SMM_HANDLER_OFFSET
258 .align 1024, 0x00
259         /* core 0 */
260         ljmp    $0xa000, $SMM_HANDLER_OFFSET
261 .align 1024, 0x00