[PATCH] i386: PTRACE_POKEUSR: allow changing RF bit in EFLAGS register.
[linux-2.6/zen-sources.git] / arch / ppc / kernel / head.S
blobc5a890dca9cf20405eacb7a4985f5b4eeab314aa
1 /*
2  *  PowerPC version
3  *    Copyright (C) 1995-1996 Gary Thomas (gdt@linuxppc.org)
4  *
5  *  Rewritten by Cort Dougan (cort@cs.nmt.edu) for PReP
6  *    Copyright (C) 1996 Cort Dougan <cort@cs.nmt.edu>
7  *  Adapted for Power Macintosh by Paul Mackerras.
8  *  Low-level exception handlers and MMU support
9  *  rewritten by Paul Mackerras.
10  *    Copyright (C) 1996 Paul Mackerras.
11  *  MPC8xx modifications Copyright (C) 1997 Dan Malek (dmalek@jlc.net).
12  *  Amiga/APUS changes by Jesper Skov (jskov@cygnus.co.uk).
13  *
14  *  This file contains the low-level support and setup for the
15  *  PowerPC platform, including trap and interrupt dispatch.
16  *  (The PPC 8xx embedded CPUs use head_8xx.S instead.)
17  *
18  *  This program is free software; you can redistribute it and/or
19  *  modify it under the terms of the GNU General Public License
20  *  as published by the Free Software Foundation; either version
21  *  2 of the License, or (at your option) any later version.
22  *
23  */
25 #include <linux/config.h>
26 #include <asm/processor.h>
27 #include <asm/page.h>
28 #include <asm/mmu.h>
29 #include <asm/pgtable.h>
30 #include <asm/cputable.h>
31 #include <asm/cache.h>
32 #include <asm/thread_info.h>
33 #include <asm/ppc_asm.h>
34 #include <asm/asm-offsets.h>
36 #ifdef CONFIG_APUS
37 #include <asm/amigappc.h>
38 #endif
40 #ifdef CONFIG_PPC64BRIDGE
41 #define LOAD_BAT(n, reg, RA, RB)        \
42         ld      RA,(n*32)+0(reg);       \
43         ld      RB,(n*32)+8(reg);       \
44         mtspr   SPRN_IBAT##n##U,RA;     \
45         mtspr   SPRN_IBAT##n##L,RB;     \
46         ld      RA,(n*32)+16(reg);      \
47         ld      RB,(n*32)+24(reg);      \
48         mtspr   SPRN_DBAT##n##U,RA;     \
49         mtspr   SPRN_DBAT##n##L,RB;     \
51 #else /* CONFIG_PPC64BRIDGE */
53 /* 601 only have IBAT; cr0.eq is set on 601 when using this macro */
54 #define LOAD_BAT(n, reg, RA, RB)        \
55         /* see the comment for clear_bats() -- Cort */ \
56         li      RA,0;                   \
57         mtspr   SPRN_IBAT##n##U,RA;     \
58         mtspr   SPRN_DBAT##n##U,RA;     \
59         lwz     RA,(n*16)+0(reg);       \
60         lwz     RB,(n*16)+4(reg);       \
61         mtspr   SPRN_IBAT##n##U,RA;     \
62         mtspr   SPRN_IBAT##n##L,RB;     \
63         beq     1f;                     \
64         lwz     RA,(n*16)+8(reg);       \
65         lwz     RB,(n*16)+12(reg);      \
66         mtspr   SPRN_DBAT##n##U,RA;     \
67         mtspr   SPRN_DBAT##n##L,RB;     \
69 #endif /* CONFIG_PPC64BRIDGE */
71         .text
72         .stabs  "arch/ppc/kernel/",N_SO,0,0,0f
73         .stabs  "head.S",N_SO,0,0,0f
75         .globl  _stext
76 _stext:
79  * _start is defined this way because the XCOFF loader in the OpenFirmware
80  * on the powermac expects the entry point to be a procedure descriptor.
81  */
82         .text
83         .globl  _start
84 _start:
85         /*
86          * These are here for legacy reasons, the kernel used to
87          * need to look like a coff function entry for the pmac
88          * but we're always started by some kind of bootloader now.
89          *  -- Cort
90          */
91         nop     /* used by __secondary_hold on prep (mtx) and chrp smp */
92         nop     /* used by __secondary_hold on prep (mtx) and chrp smp */
93         nop
95 /* PMAC
96  * Enter here with the kernel text, data and bss loaded starting at
97  * 0, running with virtual == physical mapping.
98  * r5 points to the prom entry point (the client interface handler
99  * address).  Address translation is turned on, with the prom
100  * managing the hash table.  Interrupts are disabled.  The stack
101  * pointer (r1) points to just below the end of the half-meg region
102  * from 0x380000 - 0x400000, which is mapped in already.
104  * If we are booted from MacOS via BootX, we enter with the kernel
105  * image loaded somewhere, and the following values in registers:
106  *  r3: 'BooX' (0x426f6f58)
107  *  r4: virtual address of boot_infos_t
108  *  r5: 0
110  * APUS
111  *   r3: 'APUS'
112  *   r4: physical address of memory base
113  *   Linux/m68k style BootInfo structure at &_end.
115  * PREP
116  * This is jumped to on prep systems right after the kernel is relocated
117  * to its proper place in memory by the boot loader.  The expected layout
118  * of the regs is:
119  *   r3: ptr to residual data
120  *   r4: initrd_start or if no initrd then 0
121  *   r5: initrd_end - unused if r4 is 0
122  *   r6: Start of command line string
123  *   r7: End of command line string
125  * This just gets a minimal mmu environment setup so we can call
126  * start_here() to do the real work.
127  * -- Cort
128  */
130         .globl  __start
131 __start:
133  * We have to do any OF calls before we map ourselves to KERNELBASE,
134  * because OF may have I/O devices mapped into that area
135  * (particularly on CHRP).
136  */
137         mr      r31,r3                  /* save parameters */
138         mr      r30,r4
139         mr      r29,r5
140         mr      r28,r6
141         mr      r27,r7
142         li      r24,0                   /* cpu # */
145  * early_init() does the early machine identification and does
146  * the necessary low-level setup and clears the BSS
147  *  -- Cort <cort@fsmlabs.com>
148  */
149         bl      early_init
152  * On POWER4, we first need to tweak some CPU configuration registers
153  * like real mode cache inhibit or exception base
154  */
155 #ifdef CONFIG_POWER4
156         bl      __970_cpu_preinit
157 #endif /* CONFIG_POWER4 */
159 #ifdef CONFIG_APUS
160 /* On APUS the __va/__pa constants need to be set to the correct
161  * values before continuing.
162  */
163         mr      r4,r30
164         bl      fix_mem_constants
165 #endif /* CONFIG_APUS */
167 /* Switch MMU off, clear BATs and flush TLB. At this point, r3 contains
168  * the physical address we are running at, returned by early_init()
169  */
170         bl      mmu_off
171 __after_mmu_off:
172 #ifndef CONFIG_POWER4
173         bl      clear_bats
174         bl      flush_tlbs
176         bl      initial_bats
177 #if !defined(CONFIG_APUS) && defined(CONFIG_BOOTX_TEXT)
178         bl      setup_disp_bat
179 #endif
180 #else /* CONFIG_POWER4 */
181         bl      reloc_offset
182         bl      initial_mm_power4
183 #endif /* CONFIG_POWER4 */
186  * Call setup_cpu for CPU 0 and initialize 6xx Idle
187  */
188         bl      reloc_offset
189         li      r24,0                   /* cpu# */
190         bl      call_setup_cpu          /* Call setup_cpu for this CPU */
191 #ifdef CONFIG_6xx
192         bl      reloc_offset
193         bl      init_idle_6xx
194 #endif /* CONFIG_6xx */
195 #ifdef CONFIG_POWER4
196         bl      reloc_offset
197         bl      init_idle_power4
198 #endif /* CONFIG_POWER4 */
201 #ifndef CONFIG_APUS
203  * We need to run with _start at physical address 0.
204  * On CHRP, we are loaded at 0x10000 since OF on CHRP uses
205  * the exception vectors at 0 (and therefore this copy
206  * overwrites OF's exception vectors with our own).
207  * If the MMU is already turned on, we copy stuff to KERNELBASE,
208  * otherwise we copy it to 0.
209  */
210         bl      reloc_offset
211         mr      r26,r3
212         addis   r4,r3,KERNELBASE@h      /* current address of _start */
213         cmpwi   0,r4,0                  /* are we already running at 0? */
214         bne     relocate_kernel
215 #endif /* CONFIG_APUS */
217  * we now have the 1st 16M of ram mapped with the bats.
218  * prep needs the mmu to be turned on here, but pmac already has it on.
219  * this shouldn't bother the pmac since it just gets turned on again
220  * as we jump to our code at KERNELBASE. -- Cort
221  * Actually no, pmac doesn't have it on any more. BootX enters with MMU
222  * off, and in other cases, we now turn it off before changing BATs above.
223  */
224 turn_on_mmu:
225         mfmsr   r0
226         ori     r0,r0,MSR_DR|MSR_IR
227         mtspr   SPRN_SRR1,r0
228         lis     r0,start_here@h
229         ori     r0,r0,start_here@l
230         mtspr   SPRN_SRR0,r0
231         SYNC
232         RFI                             /* enables MMU */
235  * We need __secondary_hold as a place to hold the other cpus on
236  * an SMP machine, even when we are running a UP kernel.
237  */
238         . = 0xc0                        /* for prep bootloader */
239         li      r3,1                    /* MTX only has 1 cpu */
240         .globl  __secondary_hold
241 __secondary_hold:
242         /* tell the master we're here */
243         stw     r3,4(0)
244 #ifdef CONFIG_SMP
245 100:    lwz     r4,0(0)
246         /* wait until we're told to start */
247         cmpw    0,r4,r3
248         bne     100b
249         /* our cpu # was at addr 0 - go */
250         mr      r24,r3                  /* cpu # */
251         b       __secondary_start
252 #else
253         b       .
254 #endif /* CONFIG_SMP */
257  * Exception entry code.  This code runs with address translation
258  * turned off, i.e. using physical addresses.
259  * We assume sprg3 has the physical address of the current
260  * task's thread_struct.
261  */
262 #define EXCEPTION_PROLOG        \
263         mtspr   SPRN_SPRG0,r10; \
264         mtspr   SPRN_SPRG1,r11; \
265         mfcr    r10;            \
266         EXCEPTION_PROLOG_1;     \
267         EXCEPTION_PROLOG_2
269 #define EXCEPTION_PROLOG_1      \
270         mfspr   r11,SPRN_SRR1;          /* check whether user or kernel */ \
271         andi.   r11,r11,MSR_PR; \
272         tophys(r11,r1);                 /* use tophys(r1) if kernel */ \
273         beq     1f;             \
274         mfspr   r11,SPRN_SPRG3; \
275         lwz     r11,THREAD_INFO-THREAD(r11);    \
276         addi    r11,r11,THREAD_SIZE;    \
277         tophys(r11,r11);        \
278 1:      subi    r11,r11,INT_FRAME_SIZE  /* alloc exc. frame */
281 #define EXCEPTION_PROLOG_2      \
282         CLR_TOP32(r11);         \
283         stw     r10,_CCR(r11);          /* save registers */ \
284         stw     r12,GPR12(r11); \
285         stw     r9,GPR9(r11);   \
286         mfspr   r10,SPRN_SPRG0; \
287         stw     r10,GPR10(r11); \
288         mfspr   r12,SPRN_SPRG1; \
289         stw     r12,GPR11(r11); \
290         mflr    r10;            \
291         stw     r10,_LINK(r11); \
292         mfspr   r12,SPRN_SRR0;  \
293         mfspr   r9,SPRN_SRR1;   \
294         stw     r1,GPR1(r11);   \
295         stw     r1,0(r11);      \
296         tovirt(r1,r11);                 /* set new kernel sp */ \
297         li      r10,MSR_KERNEL & ~(MSR_IR|MSR_DR); /* can take exceptions */ \
298         MTMSRD(r10);                    /* (except for mach check in rtas) */ \
299         stw     r0,GPR0(r11);   \
300         SAVE_4GPRS(3, r11);     \
301         SAVE_2GPRS(7, r11)
304  * Note: code which follows this uses cr0.eq (set if from kernel),
305  * r11, r12 (SRR0), and r9 (SRR1).
307  * Note2: once we have set r1 we are in a position to take exceptions
308  * again, and we could thus set MSR:RI at that point.
309  */
312  * Exception vectors.
313  */
314 #define EXCEPTION(n, label, hdlr, xfer)         \
315         . = n;                                  \
316 label:                                          \
317         EXCEPTION_PROLOG;                       \
318         addi    r3,r1,STACK_FRAME_OVERHEAD;     \
319         xfer(n, hdlr)
321 #define EXC_XFER_TEMPLATE(n, hdlr, trap, copyee, tfer, ret)     \
322         li      r10,trap;                                       \
323         stw     r10,TRAP(r11);                                  \
324         li      r10,MSR_KERNEL;                                 \
325         copyee(r10, r9);                                        \
326         bl      tfer;                                           \
327 i##n:                                                           \
328         .long   hdlr;                                           \
329         .long   ret
331 #define COPY_EE(d, s)           rlwimi d,s,0,16,16
332 #define NOCOPY(d, s)
334 #define EXC_XFER_STD(n, hdlr)           \
335         EXC_XFER_TEMPLATE(n, hdlr, n, NOCOPY, transfer_to_handler_full, \
336                           ret_from_except_full)
338 #define EXC_XFER_LITE(n, hdlr)          \
339         EXC_XFER_TEMPLATE(n, hdlr, n+1, NOCOPY, transfer_to_handler, \
340                           ret_from_except)
342 #define EXC_XFER_EE(n, hdlr)            \
343         EXC_XFER_TEMPLATE(n, hdlr, n, COPY_EE, transfer_to_handler_full, \
344                           ret_from_except_full)
346 #define EXC_XFER_EE_LITE(n, hdlr)       \
347         EXC_XFER_TEMPLATE(n, hdlr, n+1, COPY_EE, transfer_to_handler, \
348                           ret_from_except)
350 /* System reset */
351 /* core99 pmac starts the seconary here by changing the vector, and
352    putting it back to what it was (unknown_exception) when done.  */
353 #if defined(CONFIG_GEMINI) && defined(CONFIG_SMP)
354         . = 0x100
355         b       __secondary_start_gemini
356 #else
357         EXCEPTION(0x100, Reset, unknown_exception, EXC_XFER_STD)
358 #endif
360 /* Machine check */
362  * On CHRP, this is complicated by the fact that we could get a
363  * machine check inside RTAS, and we have no guarantee that certain
364  * critical registers will have the values we expect.  The set of
365  * registers that might have bad values includes all the GPRs
366  * and all the BATs.  We indicate that we are in RTAS by putting
367  * a non-zero value, the address of the exception frame to use,
368  * in SPRG2.  The machine check handler checks SPRG2 and uses its
369  * value if it is non-zero.  If we ever needed to free up SPRG2,
370  * we could use a field in the thread_info or thread_struct instead.
371  * (Other exception handlers assume that r1 is a valid kernel stack
372  * pointer when we take an exception from supervisor mode.)
373  *      -- paulus.
374  */
375         . = 0x200
376         mtspr   SPRN_SPRG0,r10
377         mtspr   SPRN_SPRG1,r11
378         mfcr    r10
379 #ifdef CONFIG_PPC_CHRP
380         mfspr   r11,SPRN_SPRG2
381         cmpwi   0,r11,0
382         bne     7f
383 #endif /* CONFIG_PPC_CHRP */
384         EXCEPTION_PROLOG_1
385 7:      EXCEPTION_PROLOG_2
386         addi    r3,r1,STACK_FRAME_OVERHEAD
387 #ifdef CONFIG_PPC_CHRP
388         mfspr   r4,SPRN_SPRG2
389         cmpwi   cr1,r4,0
390         bne     cr1,1f
391 #endif
392         EXC_XFER_STD(0x200, machine_check_exception)
393 #ifdef CONFIG_PPC_CHRP
394 1:      b       machine_check_in_rtas
395 #endif
397 /* Data access exception. */
398         . = 0x300
399 #ifdef CONFIG_PPC64BRIDGE
400         b       DataAccess
401 DataAccessCont:
402 #else
403 DataAccess:
404         EXCEPTION_PROLOG
405 #endif /* CONFIG_PPC64BRIDGE */
406         mfspr   r10,SPRN_DSISR
407         andis.  r0,r10,0xa470           /* weird error? */
408         bne     1f                      /* if not, try to put a PTE */
409         mfspr   r4,SPRN_DAR             /* into the hash table */
410         rlwinm  r3,r10,32-15,21,21      /* DSISR_STORE -> _PAGE_RW */
411         bl      hash_page
412 1:      stw     r10,_DSISR(r11)
413         mr      r5,r10
414         mfspr   r4,SPRN_DAR
415         EXC_XFER_EE_LITE(0x300, handle_page_fault)
417 #ifdef CONFIG_PPC64BRIDGE
418 /* SLB fault on data access. */
419         . = 0x380
420         b       DataSegment
421 #endif /* CONFIG_PPC64BRIDGE */
423 /* Instruction access exception. */
424         . = 0x400
425 #ifdef CONFIG_PPC64BRIDGE
426         b       InstructionAccess
427 InstructionAccessCont:
428 #else
429 InstructionAccess:
430         EXCEPTION_PROLOG
431 #endif /* CONFIG_PPC64BRIDGE */
432         andis.  r0,r9,0x4000            /* no pte found? */
433         beq     1f                      /* if so, try to put a PTE */
434         li      r3,0                    /* into the hash table */
435         mr      r4,r12                  /* SRR0 is fault address */
436         bl      hash_page
437 1:      mr      r4,r12
438         mr      r5,r9
439         EXC_XFER_EE_LITE(0x400, handle_page_fault)
441 #ifdef CONFIG_PPC64BRIDGE
442 /* SLB fault on instruction access. */
443         . = 0x480
444         b       InstructionSegment
445 #endif /* CONFIG_PPC64BRIDGE */
447 /* External interrupt */
448         EXCEPTION(0x500, HardwareInterrupt, do_IRQ, EXC_XFER_LITE)
450 /* Alignment exception */
451         . = 0x600
452 Alignment:
453         EXCEPTION_PROLOG
454         mfspr   r4,SPRN_DAR
455         stw     r4,_DAR(r11)
456         mfspr   r5,SPRN_DSISR
457         stw     r5,_DSISR(r11)
458         addi    r3,r1,STACK_FRAME_OVERHEAD
459         EXC_XFER_EE(0x600, alignment_exception)
461 /* Program check exception */
462         EXCEPTION(0x700, ProgramCheck, program_check_exception, EXC_XFER_STD)
464 /* Floating-point unavailable */
465         . = 0x800
466 FPUnavailable:
467         EXCEPTION_PROLOG
468         bne     load_up_fpu             /* if from user, just load it up */
469         addi    r3,r1,STACK_FRAME_OVERHEAD
470         EXC_XFER_EE_LITE(0x800, kernel_fp_unavailable_exception)
472 /* Decrementer */
473         EXCEPTION(0x900, Decrementer, timer_interrupt, EXC_XFER_LITE)
475         EXCEPTION(0xa00, Trap_0a, unknown_exception, EXC_XFER_EE)
476         EXCEPTION(0xb00, Trap_0b, unknown_exception, EXC_XFER_EE)
478 /* System call */
479         . = 0xc00
480 SystemCall:
481         EXCEPTION_PROLOG
482         EXC_XFER_EE_LITE(0xc00, DoSyscall)
484 /* Single step - not used on 601 */
485         EXCEPTION(0xd00, SingleStep, single_step_exception, EXC_XFER_STD)
486         EXCEPTION(0xe00, Trap_0e, unknown_exception, EXC_XFER_EE)
489  * The Altivec unavailable trap is at 0x0f20.  Foo.
490  * We effectively remap it to 0x3000.
491  * We include an altivec unavailable exception vector even if
492  * not configured for Altivec, so that you can't panic a
493  * non-altivec kernel running on a machine with altivec just
494  * by executing an altivec instruction.
495  */
496         . = 0xf00
497         b       Trap_0f
499         . = 0xf20
500         b       AltiVecUnavailable
502 Trap_0f:
503         EXCEPTION_PROLOG
504         addi    r3,r1,STACK_FRAME_OVERHEAD
505         EXC_XFER_EE(0xf00, unknown_exception)
508  * Handle TLB miss for instruction on 603/603e.
509  * Note: we get an alternate set of r0 - r3 to use automatically.
510  */
511         . = 0x1000
512 InstructionTLBMiss:
514  * r0:  stored ctr
515  * r1:  linux style pte ( later becomes ppc hardware pte )
516  * r2:  ptr to linux-style pte
517  * r3:  scratch
518  */
519         mfctr   r0
520         /* Get PTE (linux-style) and check access */
521         mfspr   r3,SPRN_IMISS
522         lis     r1,KERNELBASE@h         /* check if kernel address */
523         cmplw   0,r3,r1
524         mfspr   r2,SPRN_SPRG3
525         li      r1,_PAGE_USER|_PAGE_PRESENT /* low addresses tested as user */
526         lwz     r2,PGDIR(r2)
527         blt+    112f
528         lis     r2,swapper_pg_dir@ha    /* if kernel address, use */
529         addi    r2,r2,swapper_pg_dir@l  /* kernel page table */
530         mfspr   r1,SPRN_SRR1            /* and MSR_PR bit from SRR1 */
531         rlwinm  r1,r1,32-12,29,29       /* shift MSR_PR to _PAGE_USER posn */
532 112:    tophys(r2,r2)
533         rlwimi  r2,r3,12,20,29          /* insert top 10 bits of address */
534         lwz     r2,0(r2)                /* get pmd entry */
535         rlwinm. r2,r2,0,0,19            /* extract address of pte page */
536         beq-    InstructionAddressInvalid       /* return if no mapping */
537         rlwimi  r2,r3,22,20,29          /* insert next 10 bits of address */
538         lwz     r3,0(r2)                /* get linux-style pte */
539         andc.   r1,r1,r3                /* check access & ~permission */
540         bne-    InstructionAddressInvalid /* return if access not permitted */
541         ori     r3,r3,_PAGE_ACCESSED    /* set _PAGE_ACCESSED in pte */
542         /*
543          * NOTE! We are assuming this is not an SMP system, otherwise
544          * we would need to update the pte atomically with lwarx/stwcx.
545          */
546         stw     r3,0(r2)                /* update PTE (accessed bit) */
547         /* Convert linux-style PTE to low word of PPC-style PTE */
548         rlwinm  r1,r3,32-10,31,31       /* _PAGE_RW -> PP lsb */
549         rlwinm  r2,r3,32-7,31,31        /* _PAGE_DIRTY -> PP lsb */
550         and     r1,r1,r2                /* writable if _RW and _DIRTY */
551         rlwimi  r3,r3,32-1,30,30        /* _PAGE_USER -> PP msb */
552         rlwimi  r3,r3,32-1,31,31        /* _PAGE_USER -> PP lsb */
553         ori     r1,r1,0xe14             /* clear out reserved bits and M */
554         andc    r1,r3,r1                /* PP = user? (rw&dirty? 2: 3): 0 */
555         mtspr   SPRN_RPA,r1
556         mfspr   r3,SPRN_IMISS
557         tlbli   r3
558         mfspr   r3,SPRN_SRR1            /* Need to restore CR0 */
559         mtcrf   0x80,r3
560         rfi
561 InstructionAddressInvalid:
562         mfspr   r3,SPRN_SRR1
563         rlwinm  r1,r3,9,6,6     /* Get load/store bit */
565         addis   r1,r1,0x2000
566         mtspr   SPRN_DSISR,r1   /* (shouldn't be needed) */
567         mtctr   r0              /* Restore CTR */
568         andi.   r2,r3,0xFFFF    /* Clear upper bits of SRR1 */
569         or      r2,r2,r1
570         mtspr   SPRN_SRR1,r2
571         mfspr   r1,SPRN_IMISS   /* Get failing address */
572         rlwinm. r2,r2,0,31,31   /* Check for little endian access */
573         rlwimi  r2,r2,1,30,30   /* change 1 -> 3 */
574         xor     r1,r1,r2
575         mtspr   SPRN_DAR,r1     /* Set fault address */
576         mfmsr   r0              /* Restore "normal" registers */
577         xoris   r0,r0,MSR_TGPR>>16
578         mtcrf   0x80,r3         /* Restore CR0 */
579         mtmsr   r0
580         b       InstructionAccess
583  * Handle TLB miss for DATA Load operation on 603/603e
584  */
585         . = 0x1100
586 DataLoadTLBMiss:
588  * r0:  stored ctr
589  * r1:  linux style pte ( later becomes ppc hardware pte )
590  * r2:  ptr to linux-style pte
591  * r3:  scratch
592  */
593         mfctr   r0
594         /* Get PTE (linux-style) and check access */
595         mfspr   r3,SPRN_DMISS
596         lis     r1,KERNELBASE@h         /* check if kernel address */
597         cmplw   0,r3,r1
598         mfspr   r2,SPRN_SPRG3
599         li      r1,_PAGE_USER|_PAGE_PRESENT /* low addresses tested as user */
600         lwz     r2,PGDIR(r2)
601         blt+    112f
602         lis     r2,swapper_pg_dir@ha    /* if kernel address, use */
603         addi    r2,r2,swapper_pg_dir@l  /* kernel page table */
604         mfspr   r1,SPRN_SRR1            /* and MSR_PR bit from SRR1 */
605         rlwinm  r1,r1,32-12,29,29       /* shift MSR_PR to _PAGE_USER posn */
606 112:    tophys(r2,r2)
607         rlwimi  r2,r3,12,20,29          /* insert top 10 bits of address */
608         lwz     r2,0(r2)                /* get pmd entry */
609         rlwinm. r2,r2,0,0,19            /* extract address of pte page */
610         beq-    DataAddressInvalid      /* return if no mapping */
611         rlwimi  r2,r3,22,20,29          /* insert next 10 bits of address */
612         lwz     r3,0(r2)                /* get linux-style pte */
613         andc.   r1,r1,r3                /* check access & ~permission */
614         bne-    DataAddressInvalid      /* return if access not permitted */
615         ori     r3,r3,_PAGE_ACCESSED    /* set _PAGE_ACCESSED in pte */
616         /*
617          * NOTE! We are assuming this is not an SMP system, otherwise
618          * we would need to update the pte atomically with lwarx/stwcx.
619          */
620         stw     r3,0(r2)                /* update PTE (accessed bit) */
621         /* Convert linux-style PTE to low word of PPC-style PTE */
622         rlwinm  r1,r3,32-10,31,31       /* _PAGE_RW -> PP lsb */
623         rlwinm  r2,r3,32-7,31,31        /* _PAGE_DIRTY -> PP lsb */
624         and     r1,r1,r2                /* writable if _RW and _DIRTY */
625         rlwimi  r3,r3,32-1,30,30        /* _PAGE_USER -> PP msb */
626         rlwimi  r3,r3,32-1,31,31        /* _PAGE_USER -> PP lsb */
627         ori     r1,r1,0xe14             /* clear out reserved bits and M */
628         andc    r1,r3,r1                /* PP = user? (rw&dirty? 2: 3): 0 */
629         mtspr   SPRN_RPA,r1
630         mfspr   r3,SPRN_DMISS
631         tlbld   r3
632         mfspr   r3,SPRN_SRR1            /* Need to restore CR0 */
633         mtcrf   0x80,r3
634         rfi
635 DataAddressInvalid:
636         mfspr   r3,SPRN_SRR1
637         rlwinm  r1,r3,9,6,6     /* Get load/store bit */
638         addis   r1,r1,0x2000
639         mtspr   SPRN_DSISR,r1
640         mtctr   r0              /* Restore CTR */
641         andi.   r2,r3,0xFFFF    /* Clear upper bits of SRR1 */
642         mtspr   SPRN_SRR1,r2
643         mfspr   r1,SPRN_DMISS   /* Get failing address */
644         rlwinm. r2,r2,0,31,31   /* Check for little endian access */
645         beq     20f             /* Jump if big endian */
646         xori    r1,r1,3
647 20:     mtspr   SPRN_DAR,r1     /* Set fault address */
648         mfmsr   r0              /* Restore "normal" registers */
649         xoris   r0,r0,MSR_TGPR>>16
650         mtcrf   0x80,r3         /* Restore CR0 */
651         mtmsr   r0
652         b       DataAccess
655  * Handle TLB miss for DATA Store on 603/603e
656  */
657         . = 0x1200
658 DataStoreTLBMiss:
660  * r0:  stored ctr
661  * r1:  linux style pte ( later becomes ppc hardware pte )
662  * r2:  ptr to linux-style pte
663  * r3:  scratch
664  */
665         mfctr   r0
666         /* Get PTE (linux-style) and check access */
667         mfspr   r3,SPRN_DMISS
668         lis     r1,KERNELBASE@h         /* check if kernel address */
669         cmplw   0,r3,r1
670         mfspr   r2,SPRN_SPRG3
671         li      r1,_PAGE_RW|_PAGE_USER|_PAGE_PRESENT /* access flags */
672         lwz     r2,PGDIR(r2)
673         blt+    112f
674         lis     r2,swapper_pg_dir@ha    /* if kernel address, use */
675         addi    r2,r2,swapper_pg_dir@l  /* kernel page table */
676         mfspr   r1,SPRN_SRR1            /* and MSR_PR bit from SRR1 */
677         rlwinm  r1,r1,32-12,29,29       /* shift MSR_PR to _PAGE_USER posn */
678 112:    tophys(r2,r2)
679         rlwimi  r2,r3,12,20,29          /* insert top 10 bits of address */
680         lwz     r2,0(r2)                /* get pmd entry */
681         rlwinm. r2,r2,0,0,19            /* extract address of pte page */
682         beq-    DataAddressInvalid      /* return if no mapping */
683         rlwimi  r2,r3,22,20,29          /* insert next 10 bits of address */
684         lwz     r3,0(r2)                /* get linux-style pte */
685         andc.   r1,r1,r3                /* check access & ~permission */
686         bne-    DataAddressInvalid      /* return if access not permitted */
687         ori     r3,r3,_PAGE_ACCESSED|_PAGE_DIRTY
688         /*
689          * NOTE! We are assuming this is not an SMP system, otherwise
690          * we would need to update the pte atomically with lwarx/stwcx.
691          */
692         stw     r3,0(r2)                /* update PTE (accessed/dirty bits) */
693         /* Convert linux-style PTE to low word of PPC-style PTE */
694         rlwimi  r3,r3,32-1,30,30        /* _PAGE_USER -> PP msb */
695         li      r1,0xe15                /* clear out reserved bits and M */
696         andc    r1,r3,r1                /* PP = user? 2: 0 */
697         mtspr   SPRN_RPA,r1
698         mfspr   r3,SPRN_DMISS
699         tlbld   r3
700         mfspr   r3,SPRN_SRR1            /* Need to restore CR0 */
701         mtcrf   0x80,r3
702         rfi
704 #ifndef CONFIG_ALTIVEC
705 #define altivec_assist_exception        unknown_exception
706 #endif
708         EXCEPTION(0x1300, Trap_13, instruction_breakpoint_exception, EXC_XFER_EE)
709         EXCEPTION(0x1400, SMI, SMIException, EXC_XFER_EE)
710         EXCEPTION(0x1500, Trap_15, unknown_exception, EXC_XFER_EE)
711 #ifdef CONFIG_POWER4
712         EXCEPTION(0x1600, Trap_16, unknown_exception, EXC_XFER_EE)
713         EXCEPTION(0x1700, Trap_17, altivec_assist_exception, EXC_XFER_EE)
714         EXCEPTION(0x1800, Trap_18, TAUException, EXC_XFER_STD)
715 #else /* !CONFIG_POWER4 */
716         EXCEPTION(0x1600, Trap_16, altivec_assist_exception, EXC_XFER_EE)
717         EXCEPTION(0x1700, Trap_17, TAUException, EXC_XFER_STD)
718         EXCEPTION(0x1800, Trap_18, unknown_exception, EXC_XFER_EE)
719 #endif /* CONFIG_POWER4 */
720         EXCEPTION(0x1900, Trap_19, unknown_exception, EXC_XFER_EE)
721         EXCEPTION(0x1a00, Trap_1a, unknown_exception, EXC_XFER_EE)
722         EXCEPTION(0x1b00, Trap_1b, unknown_exception, EXC_XFER_EE)
723         EXCEPTION(0x1c00, Trap_1c, unknown_exception, EXC_XFER_EE)
724         EXCEPTION(0x1d00, Trap_1d, unknown_exception, EXC_XFER_EE)
725         EXCEPTION(0x1e00, Trap_1e, unknown_exception, EXC_XFER_EE)
726         EXCEPTION(0x1f00, Trap_1f, unknown_exception, EXC_XFER_EE)
727         EXCEPTION(0x2000, RunMode, RunModeException, EXC_XFER_EE)
728         EXCEPTION(0x2100, Trap_21, unknown_exception, EXC_XFER_EE)
729         EXCEPTION(0x2200, Trap_22, unknown_exception, EXC_XFER_EE)
730         EXCEPTION(0x2300, Trap_23, unknown_exception, EXC_XFER_EE)
731         EXCEPTION(0x2400, Trap_24, unknown_exception, EXC_XFER_EE)
732         EXCEPTION(0x2500, Trap_25, unknown_exception, EXC_XFER_EE)
733         EXCEPTION(0x2600, Trap_26, unknown_exception, EXC_XFER_EE)
734         EXCEPTION(0x2700, Trap_27, unknown_exception, EXC_XFER_EE)
735         EXCEPTION(0x2800, Trap_28, unknown_exception, EXC_XFER_EE)
736         EXCEPTION(0x2900, Trap_29, unknown_exception, EXC_XFER_EE)
737         EXCEPTION(0x2a00, Trap_2a, unknown_exception, EXC_XFER_EE)
738         EXCEPTION(0x2b00, Trap_2b, unknown_exception, EXC_XFER_EE)
739         EXCEPTION(0x2c00, Trap_2c, unknown_exception, EXC_XFER_EE)
740         EXCEPTION(0x2d00, Trap_2d, unknown_exception, EXC_XFER_EE)
741         EXCEPTION(0x2e00, Trap_2e, unknown_exception, EXC_XFER_EE)
742         EXCEPTION(0x2f00, MOLTrampoline, unknown_exception, EXC_XFER_EE_LITE)
744         .globl mol_trampoline
745         .set mol_trampoline, i0x2f00
747         . = 0x3000
749 AltiVecUnavailable:
750         EXCEPTION_PROLOG
751 #ifdef CONFIG_ALTIVEC
752         bne     load_up_altivec         /* if from user, just load it up */
753 #endif /* CONFIG_ALTIVEC */
754         EXC_XFER_EE_LITE(0xf20, altivec_unavailable_exception)
756 #ifdef CONFIG_PPC64BRIDGE
757 DataAccess:
758         EXCEPTION_PROLOG
759         b       DataAccessCont
761 InstructionAccess:
762         EXCEPTION_PROLOG
763         b       InstructionAccessCont
765 DataSegment:
766         EXCEPTION_PROLOG
767         addi    r3,r1,STACK_FRAME_OVERHEAD
768         mfspr   r4,SPRN_DAR
769         stw     r4,_DAR(r11)
770         EXC_XFER_STD(0x380, unknown_exception)
772 InstructionSegment:
773         EXCEPTION_PROLOG
774         addi    r3,r1,STACK_FRAME_OVERHEAD
775         EXC_XFER_STD(0x480, unknown_exception)
776 #endif /* CONFIG_PPC64BRIDGE */
778 #ifdef CONFIG_ALTIVEC
779 /* Note that the AltiVec support is closely modeled after the FP
780  * support.  Changes to one are likely to be applicable to the
781  * other!  */
782 load_up_altivec:
784  * Disable AltiVec for the task which had AltiVec previously,
785  * and save its AltiVec registers in its thread_struct.
786  * Enables AltiVec for use in the kernel on return.
787  * On SMP we know the AltiVec units are free, since we give it up every
788  * switch.  -- Kumar
789  */
790         mfmsr   r5
791         oris    r5,r5,MSR_VEC@h
792         MTMSRD(r5)                      /* enable use of AltiVec now */
793         isync
795  * For SMP, we don't do lazy AltiVec switching because it just gets too
796  * horrendously complex, especially when a task switches from one CPU
797  * to another.  Instead we call giveup_altivec in switch_to.
798  */
799 #ifndef CONFIG_SMP
800         tophys(r6,0)
801         addis   r3,r6,last_task_used_altivec@ha
802         lwz     r4,last_task_used_altivec@l(r3)
803         cmpwi   0,r4,0
804         beq     1f
805         add     r4,r4,r6
806         addi    r4,r4,THREAD    /* want THREAD of last_task_used_altivec */
807         SAVE_32VRS(0,r10,r4)
808         mfvscr  vr0
809         li      r10,THREAD_VSCR
810         stvx    vr0,r10,r4
811         lwz     r5,PT_REGS(r4)
812         add     r5,r5,r6
813         lwz     r4,_MSR-STACK_FRAME_OVERHEAD(r5)
814         lis     r10,MSR_VEC@h
815         andc    r4,r4,r10       /* disable altivec for previous task */
816         stw     r4,_MSR-STACK_FRAME_OVERHEAD(r5)
818 #endif /* CONFIG_SMP */
819         /* enable use of AltiVec after return */
820         oris    r9,r9,MSR_VEC@h
821         mfspr   r5,SPRN_SPRG3           /* current task's THREAD (phys) */
822         li      r4,1
823         li      r10,THREAD_VSCR
824         stw     r4,THREAD_USED_VR(r5)
825         lvx     vr0,r10,r5
826         mtvscr  vr0
827         REST_32VRS(0,r10,r5)
828 #ifndef CONFIG_SMP
829         subi    r4,r5,THREAD
830         sub     r4,r4,r6
831         stw     r4,last_task_used_altivec@l(r3)
832 #endif /* CONFIG_SMP */
833         /* restore registers and return */
834         /* we haven't used ctr or xer or lr */
835         b       fast_exception_return
838  * AltiVec unavailable trap from kernel - print a message, but let
839  * the task use AltiVec in the kernel until it returns to user mode.
840  */
841 KernelAltiVec:
842         lwz     r3,_MSR(r1)
843         oris    r3,r3,MSR_VEC@h
844         stw     r3,_MSR(r1)     /* enable use of AltiVec after return */
845         lis     r3,87f@h
846         ori     r3,r3,87f@l
847         mr      r4,r2           /* current */
848         lwz     r5,_NIP(r1)
849         bl      printk
850         b       ret_from_except
851 87:     .string "AltiVec used in kernel  (task=%p, pc=%x)  \n"
852         .align  4,0
855  * giveup_altivec(tsk)
856  * Disable AltiVec for the task given as the argument,
857  * and save the AltiVec registers in its thread_struct.
858  * Enables AltiVec for use in the kernel on return.
859  */
861         .globl  giveup_altivec
862 giveup_altivec:
863         mfmsr   r5
864         oris    r5,r5,MSR_VEC@h
865         SYNC
866         MTMSRD(r5)                      /* enable use of AltiVec now */
867         isync
868         cmpwi   0,r3,0
869         beqlr-                          /* if no previous owner, done */
870         addi    r3,r3,THREAD            /* want THREAD of task */
871         lwz     r5,PT_REGS(r3)
872         cmpwi   0,r5,0
873         SAVE_32VRS(0, r4, r3)
874         mfvscr  vr0
875         li      r4,THREAD_VSCR
876         stvx    vr0,r4,r3
877         beq     1f
878         lwz     r4,_MSR-STACK_FRAME_OVERHEAD(r5)
879         lis     r3,MSR_VEC@h
880         andc    r4,r4,r3                /* disable AltiVec for previous task */
881         stw     r4,_MSR-STACK_FRAME_OVERHEAD(r5)
883 #ifndef CONFIG_SMP
884         li      r5,0
885         lis     r4,last_task_used_altivec@ha
886         stw     r5,last_task_used_altivec@l(r4)
887 #endif /* CONFIG_SMP */
888         blr
889 #endif /* CONFIG_ALTIVEC */
892  * This code is jumped to from the startup code to copy
893  * the kernel image to physical address 0.
894  */
895 relocate_kernel:
896         addis   r9,r26,klimit@ha        /* fetch klimit */
897         lwz     r25,klimit@l(r9)
898         addis   r25,r25,-KERNELBASE@h
899         li      r3,0                    /* Destination base address */
900         li      r6,0                    /* Destination offset */
901         li      r5,0x4000               /* # bytes of memory to copy */
902         bl      copy_and_flush          /* copy the first 0x4000 bytes */
903         addi    r0,r3,4f@l              /* jump to the address of 4f */
904         mtctr   r0                      /* in copy and do the rest. */
905         bctr                            /* jump to the copy */
906 4:      mr      r5,r25
907         bl      copy_and_flush          /* copy the rest */
908         b       turn_on_mmu
911  * Copy routine used to copy the kernel to start at physical address 0
912  * and flush and invalidate the caches as needed.
913  * r3 = dest addr, r4 = source addr, r5 = copy limit, r6 = start offset
914  * on exit, r3, r4, r5 are unchanged, r6 is updated to be >= r5.
915  */
916 copy_and_flush:
917         addi    r5,r5,-4
918         addi    r6,r6,-4
919 4:      li      r0,L1_CACHE_BYTES/4
920         mtctr   r0
921 3:      addi    r6,r6,4                 /* copy a cache line */
922         lwzx    r0,r6,r4
923         stwx    r0,r6,r3
924         bdnz    3b
925         dcbst   r6,r3                   /* write it to memory */
926         sync
927         icbi    r6,r3                   /* flush the icache line */
928         cmplw   0,r6,r5
929         blt     4b
930         sync                            /* additional sync needed on g4 */
931         isync
932         addi    r5,r5,4
933         addi    r6,r6,4
934         blr
936 #ifdef CONFIG_APUS
938  * On APUS the physical base address of the kernel is not known at compile
939  * time, which means the __pa/__va constants used are incorrect. In the
940  * __init section is recorded the virtual addresses of instructions using
941  * these constants, so all that has to be done is fix these before
942  * continuing the kernel boot.
944  * r4 = The physical address of the kernel base.
945  */
946 fix_mem_constants:
947         mr      r10,r4
948         addis   r10,r10,-KERNELBASE@h    /* virt_to_phys constant */
949         neg     r11,r10                  /* phys_to_virt constant */
951         lis     r12,__vtop_table_begin@h
952         ori     r12,r12,__vtop_table_begin@l
953         add     r12,r12,r10              /* table begin phys address */
954         lis     r13,__vtop_table_end@h
955         ori     r13,r13,__vtop_table_end@l
956         add     r13,r13,r10              /* table end phys address */
957         subi    r12,r12,4
958         subi    r13,r13,4
959 1:      lwzu    r14,4(r12)               /* virt address of instruction */
960         add     r14,r14,r10              /* phys address of instruction */
961         lwz     r15,0(r14)               /* instruction, now insert top */
962         rlwimi  r15,r10,16,16,31         /* half of vp const in low half */
963         stw     r15,0(r14)               /* of instruction and restore. */
964         dcbst   r0,r14                   /* write it to memory */
965         sync
966         icbi    r0,r14                   /* flush the icache line */
967         cmpw    r12,r13
968         bne     1b
969         sync                            /* additional sync needed on g4 */
970         isync
973  * Map the memory where the exception handlers will
974  * be copied to when hash constants have been patched.
975  */
976 #ifdef CONFIG_APUS_FAST_EXCEPT
977         lis     r8,0xfff0
978 #else
979         lis     r8,0
980 #endif
981         ori     r8,r8,0x2               /* 128KB, supervisor */
982         mtspr   SPRN_DBAT3U,r8
983         mtspr   SPRN_DBAT3L,r8
985         lis     r12,__ptov_table_begin@h
986         ori     r12,r12,__ptov_table_begin@l
987         add     r12,r12,r10              /* table begin phys address */
988         lis     r13,__ptov_table_end@h
989         ori     r13,r13,__ptov_table_end@l
990         add     r13,r13,r10              /* table end phys address */
991         subi    r12,r12,4
992         subi    r13,r13,4
993 1:      lwzu    r14,4(r12)               /* virt address of instruction */
994         add     r14,r14,r10              /* phys address of instruction */
995         lwz     r15,0(r14)               /* instruction, now insert top */
996         rlwimi  r15,r11,16,16,31         /* half of pv const in low half*/
997         stw     r15,0(r14)               /* of instruction and restore. */
998         dcbst   r0,r14                   /* write it to memory */
999         sync
1000         icbi    r0,r14                   /* flush the icache line */
1001         cmpw    r12,r13
1002         bne     1b
1004         sync                            /* additional sync needed on g4 */
1005         isync                           /* No speculative loading until now */
1006         blr
1008 /***********************************************************************
1009  *  Please note that on APUS the exception handlers are located at the
1010  *  physical address 0xfff0000. For this reason, the exception handlers
1011  *  cannot use relative branches to access the code below.
1012  ***********************************************************************/
1013 #endif /* CONFIG_APUS */
1015 #ifdef CONFIG_SMP
1016 #ifdef CONFIG_GEMINI
1017         .globl  __secondary_start_gemini
1018 __secondary_start_gemini:
1019         mfspr   r4,SPRN_HID0
1020         ori     r4,r4,HID0_ICFI
1021         li      r3,0
1022         ori     r3,r3,HID0_ICE
1023         andc    r4,r4,r3
1024         mtspr   SPRN_HID0,r4
1025         sync
1026         b       __secondary_start
1027 #endif /* CONFIG_GEMINI */
1029         .globl  __secondary_start_pmac_0
1030 __secondary_start_pmac_0:
1031         /* NB the entries for cpus 0, 1, 2 must each occupy 8 bytes. */
1032         li      r24,0
1033         b       1f
1034         li      r24,1
1035         b       1f
1036         li      r24,2
1037         b       1f
1038         li      r24,3
1040         /* on powersurge, we come in here with IR=0 and DR=1, and DBAT 0
1041            set to map the 0xf0000000 - 0xffffffff region */
1042         mfmsr   r0
1043         rlwinm  r0,r0,0,28,26           /* clear DR (0x10) */
1044         SYNC
1045         mtmsr   r0
1046         isync
1048         .globl  __secondary_start
1049 __secondary_start:
1050 #ifdef CONFIG_PPC64BRIDGE
1051         mfmsr   r0
1052         clrldi  r0,r0,1                 /* make sure it's in 32-bit mode */
1053         SYNC
1054         MTMSRD(r0)
1055         isync
1056 #endif
1057         /* Copy some CPU settings from CPU 0 */
1058         bl      __restore_cpu_setup
1060         lis     r3,-KERNELBASE@h
1061         mr      r4,r24
1062         bl      call_setup_cpu          /* Call setup_cpu for this CPU */
1063 #ifdef CONFIG_6xx
1064         lis     r3,-KERNELBASE@h
1065         bl      init_idle_6xx
1066 #endif /* CONFIG_6xx */
1067 #ifdef CONFIG_POWER4
1068         lis     r3,-KERNELBASE@h
1069         bl      init_idle_power4
1070 #endif /* CONFIG_POWER4 */
1072         /* get current_thread_info and current */
1073         lis     r1,secondary_ti@ha
1074         tophys(r1,r1)
1075         lwz     r1,secondary_ti@l(r1)
1076         tophys(r2,r1)
1077         lwz     r2,TI_TASK(r2)
1079         /* stack */
1080         addi    r1,r1,THREAD_SIZE-STACK_FRAME_OVERHEAD
1081         li      r0,0
1082         tophys(r3,r1)
1083         stw     r0,0(r3)
1085         /* load up the MMU */
1086         bl      load_up_mmu
1088         /* ptr to phys current thread */
1089         tophys(r4,r2)
1090         addi    r4,r4,THREAD    /* phys address of our thread_struct */
1091         CLR_TOP32(r4)
1092         mtspr   SPRN_SPRG3,r4
1093         li      r3,0
1094         mtspr   SPRN_SPRG2,r3   /* 0 => not in RTAS */
1096         /* enable MMU and jump to start_secondary */
1097         li      r4,MSR_KERNEL
1098         FIX_SRR1(r4,r5)
1099         lis     r3,start_secondary@h
1100         ori     r3,r3,start_secondary@l
1101         mtspr   SPRN_SRR0,r3
1102         mtspr   SPRN_SRR1,r4
1103         SYNC
1104         RFI
1105 #endif /* CONFIG_SMP */
1108  * Those generic dummy functions are kept for CPUs not
1109  * included in CONFIG_6xx
1110  */
1111 #if !defined(CONFIG_6xx) && !defined(CONFIG_POWER4)
1112 _GLOBAL(__save_cpu_setup)
1113         blr
1114 _GLOBAL(__restore_cpu_setup)
1115         blr
1116 #endif /* !defined(CONFIG_6xx) && !defined(CONFIG_POWER4) */
1120  * Load stuff into the MMU.  Intended to be called with
1121  * IR=0 and DR=0.
1122  */
1123 load_up_mmu:
1124         sync                    /* Force all PTE updates to finish */
1125         isync
1126         tlbia                   /* Clear all TLB entries */
1127         sync                    /* wait for tlbia/tlbie to finish */
1128         TLBSYNC                 /* ... on all CPUs */
1129         /* Load the SDR1 register (hash table base & size) */
1130         lis     r6,_SDR1@ha
1131         tophys(r6,r6)
1132         lwz     r6,_SDR1@l(r6)
1133         mtspr   SPRN_SDR1,r6
1134 #ifdef CONFIG_PPC64BRIDGE
1135         /* clear the ASR so we only use the pseudo-segment registers. */
1136         li      r6,0
1137         mtasr   r6
1138 #endif /* CONFIG_PPC64BRIDGE */
1139         li      r0,16           /* load up segment register values */
1140         mtctr   r0              /* for context 0 */
1141         lis     r3,0x2000       /* Ku = 1, VSID = 0 */
1142         li      r4,0
1143 3:      mtsrin  r3,r4
1144         addi    r3,r3,0x111     /* increment VSID */
1145         addis   r4,r4,0x1000    /* address of next segment */
1146         bdnz    3b
1147 #ifndef CONFIG_POWER4
1148 /* Load the BAT registers with the values set up by MMU_init.
1149    MMU_init takes care of whether we're on a 601 or not. */
1150         mfpvr   r3
1151         srwi    r3,r3,16
1152         cmpwi   r3,1
1153         lis     r3,BATS@ha
1154         addi    r3,r3,BATS@l
1155         tophys(r3,r3)
1156         LOAD_BAT(0,r3,r4,r5)
1157         LOAD_BAT(1,r3,r4,r5)
1158         LOAD_BAT(2,r3,r4,r5)
1159         LOAD_BAT(3,r3,r4,r5)
1160 #endif /* CONFIG_POWER4 */
1161         blr
1164  * This is where the main kernel code starts.
1165  */
1166 start_here:
1167         /* ptr to current */
1168         lis     r2,init_task@h
1169         ori     r2,r2,init_task@l
1170         /* Set up for using our exception vectors */
1171         /* ptr to phys current thread */
1172         tophys(r4,r2)
1173         addi    r4,r4,THREAD    /* init task's THREAD */
1174         CLR_TOP32(r4)
1175         mtspr   SPRN_SPRG3,r4
1176         li      r3,0
1177         mtspr   SPRN_SPRG2,r3   /* 0 => not in RTAS */
1179         /* stack */
1180         lis     r1,init_thread_union@ha
1181         addi    r1,r1,init_thread_union@l
1182         li      r0,0
1183         stwu    r0,THREAD_SIZE-STACK_FRAME_OVERHEAD(r1)
1185  * Do early bootinfo parsing, platform-specific initialization,
1186  * and set up the MMU.
1187  */
1188         mr      r3,r31
1189         mr      r4,r30
1190         mr      r5,r29
1191         mr      r6,r28
1192         mr      r7,r27
1193         bl      machine_init
1194         bl      MMU_init
1196 #ifdef CONFIG_APUS
1197         /* Copy exception code to exception vector base on APUS. */
1198         lis     r4,KERNELBASE@h
1199 #ifdef CONFIG_APUS_FAST_EXCEPT
1200         lis     r3,0xfff0               /* Copy to 0xfff00000 */
1201 #else
1202         lis     r3,0                    /* Copy to 0x00000000 */
1203 #endif
1204         li      r5,0x4000               /* # bytes of memory to copy */
1205         li      r6,0
1206         bl      copy_and_flush          /* copy the first 0x4000 bytes */
1207 #endif  /* CONFIG_APUS */
1210  * Go back to running unmapped so we can load up new values
1211  * for SDR1 (hash table pointer) and the segment registers
1212  * and change to using our exception vectors.
1213  */
1214         lis     r4,2f@h
1215         ori     r4,r4,2f@l
1216         tophys(r4,r4)
1217         li      r3,MSR_KERNEL & ~(MSR_IR|MSR_DR)
1218         FIX_SRR1(r3,r5)
1219         mtspr   SPRN_SRR0,r4
1220         mtspr   SPRN_SRR1,r3
1221         SYNC
1222         RFI
1223 /* Load up the kernel context */
1224 2:      bl      load_up_mmu
1226 #ifdef CONFIG_BDI_SWITCH
1227         /* Add helper information for the Abatron bdiGDB debugger.
1228          * We do this here because we know the mmu is disabled, and
1229          * will be enabled for real in just a few instructions.
1230          */
1231         lis     r5, abatron_pteptrs@h
1232         ori     r5, r5, abatron_pteptrs@l
1233         stw     r5, 0xf0(r0)    /* This much match your Abatron config */
1234         lis     r6, swapper_pg_dir@h
1235         ori     r6, r6, swapper_pg_dir@l
1236         tophys(r5, r5)
1237         stw     r6, 0(r5)
1238 #endif /* CONFIG_BDI_SWITCH */
1240 /* Now turn on the MMU for real! */
1241         li      r4,MSR_KERNEL
1242         FIX_SRR1(r4,r5)
1243         lis     r3,start_kernel@h
1244         ori     r3,r3,start_kernel@l
1245         mtspr   SPRN_SRR0,r3
1246         mtspr   SPRN_SRR1,r4
1247         SYNC
1248         RFI
1251  * Set up the segment registers for a new context.
1252  */
1253 _GLOBAL(set_context)
1254         mulli   r3,r3,897       /* multiply context by skew factor */
1255         rlwinm  r3,r3,4,8,27    /* VSID = (context & 0xfffff) << 4 */
1256         addis   r3,r3,0x6000    /* Set Ks, Ku bits */
1257         li      r0,NUM_USER_SEGMENTS
1258         mtctr   r0
1260 #ifdef CONFIG_BDI_SWITCH
1261         /* Context switch the PTE pointer for the Abatron BDI2000.
1262          * The PGDIR is passed as second argument.
1263          */
1264         lis     r5, KERNELBASE@h
1265         lwz     r5, 0xf0(r5)
1266         stw     r4, 0x4(r5)
1267 #endif
1268         li      r4,0
1269         isync
1271 #ifdef CONFIG_PPC64BRIDGE
1272         slbie   r4
1273 #endif /* CONFIG_PPC64BRIDGE */
1274         mtsrin  r3,r4
1275         addi    r3,r3,0x111     /* next VSID */
1276         rlwinm  r3,r3,0,8,3     /* clear out any overflow from VSID field */
1277         addis   r4,r4,0x1000    /* address of next segment */
1278         bdnz    3b
1279         sync
1280         isync
1281         blr
1284  * An undocumented "feature" of 604e requires that the v bit
1285  * be cleared before changing BAT values.
1287  * Also, newer IBM firmware does not clear bat3 and 4 so
1288  * this makes sure it's done.
1289  *  -- Cort
1290  */
1291 clear_bats:
1292         li      r10,0
1293         mfspr   r9,SPRN_PVR
1294         rlwinm  r9,r9,16,16,31          /* r9 = 1 for 601, 4 for 604 */
1295         cmpwi   r9, 1
1296         beq     1f
1298         mtspr   SPRN_DBAT0U,r10
1299         mtspr   SPRN_DBAT0L,r10
1300         mtspr   SPRN_DBAT1U,r10
1301         mtspr   SPRN_DBAT1L,r10
1302         mtspr   SPRN_DBAT2U,r10
1303         mtspr   SPRN_DBAT2L,r10
1304         mtspr   SPRN_DBAT3U,r10
1305         mtspr   SPRN_DBAT3L,r10
1307         mtspr   SPRN_IBAT0U,r10
1308         mtspr   SPRN_IBAT0L,r10
1309         mtspr   SPRN_IBAT1U,r10
1310         mtspr   SPRN_IBAT1L,r10
1311         mtspr   SPRN_IBAT2U,r10
1312         mtspr   SPRN_IBAT2L,r10
1313         mtspr   SPRN_IBAT3U,r10
1314         mtspr   SPRN_IBAT3L,r10
1315 BEGIN_FTR_SECTION
1316         /* Here's a tweak: at this point, CPU setup have
1317          * not been called yet, so HIGH_BAT_EN may not be
1318          * set in HID0 for the 745x processors. However, it
1319          * seems that doesn't affect our ability to actually
1320          * write to these SPRs.
1321          */
1322         mtspr   SPRN_DBAT4U,r10
1323         mtspr   SPRN_DBAT4L,r10
1324         mtspr   SPRN_DBAT5U,r10
1325         mtspr   SPRN_DBAT5L,r10
1326         mtspr   SPRN_DBAT6U,r10
1327         mtspr   SPRN_DBAT6L,r10
1328         mtspr   SPRN_DBAT7U,r10
1329         mtspr   SPRN_DBAT7L,r10
1330         mtspr   SPRN_IBAT4U,r10
1331         mtspr   SPRN_IBAT4L,r10
1332         mtspr   SPRN_IBAT5U,r10
1333         mtspr   SPRN_IBAT5L,r10
1334         mtspr   SPRN_IBAT6U,r10
1335         mtspr   SPRN_IBAT6L,r10
1336         mtspr   SPRN_IBAT7U,r10
1337         mtspr   SPRN_IBAT7L,r10
1338 END_FTR_SECTION_IFSET(CPU_FTR_HAS_HIGH_BATS)
1339         blr
1341 flush_tlbs:
1342         lis     r10, 0x40
1343 1:      addic.  r10, r10, -0x1000
1344         tlbie   r10
1345         blt     1b
1346         sync
1347         blr
1349 mmu_off:
1350         addi    r4, r3, __after_mmu_off - _start
1351         mfmsr   r3
1352         andi.   r0,r3,MSR_DR|MSR_IR             /* MMU enabled? */
1353         beqlr
1354         andc    r3,r3,r0
1355         mtspr   SPRN_SRR0,r4
1356         mtspr   SPRN_SRR1,r3
1357         sync
1358         RFI
1360 #ifndef CONFIG_POWER4
1362  * Use the first pair of BAT registers to map the 1st 16MB
1363  * of RAM to KERNELBASE.  From this point on we can't safely
1364  * call OF any more.
1365  */
1366 initial_bats:
1367         lis     r11,KERNELBASE@h
1368 #ifndef CONFIG_PPC64BRIDGE
1369         mfspr   r9,SPRN_PVR
1370         rlwinm  r9,r9,16,16,31          /* r9 = 1 for 601, 4 for 604 */
1371         cmpwi   0,r9,1
1372         bne     4f
1373         ori     r11,r11,4               /* set up BAT registers for 601 */
1374         li      r8,0x7f                 /* valid, block length = 8MB */
1375         oris    r9,r11,0x800000@h       /* set up BAT reg for 2nd 8M */
1376         oris    r10,r8,0x800000@h       /* set up BAT reg for 2nd 8M */
1377         mtspr   SPRN_IBAT0U,r11         /* N.B. 601 has valid bit in */
1378         mtspr   SPRN_IBAT0L,r8          /* lower BAT register */
1379         mtspr   SPRN_IBAT1U,r9
1380         mtspr   SPRN_IBAT1L,r10
1381         isync
1382         blr
1383 #endif /* CONFIG_PPC64BRIDGE */
1385 4:      tophys(r8,r11)
1386 #ifdef CONFIG_SMP
1387         ori     r8,r8,0x12              /* R/W access, M=1 */
1388 #else
1389         ori     r8,r8,2                 /* R/W access */
1390 #endif /* CONFIG_SMP */
1391 #ifdef CONFIG_APUS
1392         ori     r11,r11,BL_8M<<2|0x2    /* set up 8MB BAT registers for 604 */
1393 #else
1394         ori     r11,r11,BL_256M<<2|0x2  /* set up BAT registers for 604 */
1395 #endif /* CONFIG_APUS */
1397 #ifdef CONFIG_PPC64BRIDGE
1398         /* clear out the high 32 bits in the BAT */
1399         clrldi  r11,r11,32
1400         clrldi  r8,r8,32
1401 #endif /* CONFIG_PPC64BRIDGE */
1402         mtspr   SPRN_DBAT0L,r8          /* N.B. 6xx (not 601) have valid */
1403         mtspr   SPRN_DBAT0U,r11         /* bit in upper BAT register */
1404         mtspr   SPRN_IBAT0L,r8
1405         mtspr   SPRN_IBAT0U,r11
1406         isync
1407         blr
1409 #if !defined(CONFIG_APUS) && defined(CONFIG_BOOTX_TEXT)
1410 setup_disp_bat:
1411         /*
1412          * setup the display bat prepared for us in prom.c
1413          */
1414         mflr    r8
1415         bl      reloc_offset
1416         mtlr    r8
1417         addis   r8,r3,disp_BAT@ha
1418         addi    r8,r8,disp_BAT@l
1419         lwz     r11,0(r8)
1420         lwz     r8,4(r8)
1421         mfspr   r9,SPRN_PVR
1422         rlwinm  r9,r9,16,16,31          /* r9 = 1 for 601, 4 for 604 */
1423         cmpwi   0,r9,1
1424         beq     1f
1425         mtspr   SPRN_DBAT3L,r8
1426         mtspr   SPRN_DBAT3U,r11
1427         blr
1428 1:      mtspr   SPRN_IBAT3L,r8
1429         mtspr   SPRN_IBAT3U,r11
1430         blr
1432 #endif /* !defined(CONFIG_APUS) && defined(CONFIG_BOOTX_TEXT) */
1434 #else /* CONFIG_POWER4 */
1436  * Load up the SDR1 and segment register values now
1437  * since we don't have the BATs.
1438  * Also make sure we are running in 32-bit mode.
1439  */
1441 initial_mm_power4:
1442         addis   r14,r3,_SDR1@ha         /* get the value from _SDR1 */
1443         lwz     r14,_SDR1@l(r14)        /* assume hash table below 4GB */
1444         mtspr   SPRN_SDR1,r14
1445         slbia
1446         lis     r4,0x2000               /* set pseudo-segment reg 12 */
1447         ori     r5,r4,0x0ccc
1448         mtsr    12,r5
1449 #if 0
1450         ori     r5,r4,0x0888            /* set pseudo-segment reg 8 */
1451         mtsr    8,r5                    /* (for access to serial port) */
1452 #endif
1453 #ifdef CONFIG_BOOTX_TEXT
1454         ori     r5,r4,0x0999            /* set pseudo-segment reg 9 */
1455         mtsr    9,r5                    /* (for access to screen) */
1456 #endif
1457         mfmsr   r0
1458         clrldi  r0,r0,1
1459         sync
1460         mtmsr   r0
1461         isync
1462         blr
1464 #endif /* CONFIG_POWER4 */
1466 #ifdef CONFIG_8260
1467 /* Jump into the system reset for the rom.
1468  * We first disable the MMU, and then jump to the ROM reset address.
1470  * r3 is the board info structure, r4 is the location for starting.
1471  * I use this for building a small kernel that can load other kernels,
1472  * rather than trying to write or rely on a rom monitor that can tftp load.
1473  */
1474        .globl  m8260_gorom
1475 m8260_gorom:
1476         mfmsr   r0
1477         rlwinm  r0,r0,0,17,15   /* clear MSR_EE in r0 */
1478         sync
1479         mtmsr   r0
1480         sync
1481         mfspr   r11, SPRN_HID0
1482         lis     r10, 0
1483         ori     r10,r10,HID0_ICE|HID0_DCE
1484         andc    r11, r11, r10
1485         mtspr   SPRN_HID0, r11
1486         isync
1487         li      r5, MSR_ME|MSR_RI
1488         lis     r6,2f@h
1489         addis   r6,r6,-KERNELBASE@h
1490         ori     r6,r6,2f@l
1491         mtspr   SPRN_SRR0,r6
1492         mtspr   SPRN_SRR1,r5
1493         isync
1494         sync
1495         rfi
1497         mtlr    r4
1498         blr
1499 #endif
1503  * We put a few things here that have to be page-aligned.
1504  * This stuff goes at the beginning of the data segment,
1505  * which is page-aligned.
1506  */
1507         .data
1508         .globl  sdata
1509 sdata:
1510         .globl  empty_zero_page
1511 empty_zero_page:
1512         .space  4096
1514         .globl  swapper_pg_dir
1515 swapper_pg_dir:
1516         .space  4096
1519  * This space gets a copy of optional info passed to us by the bootstrap
1520  * Used to pass parameters into the kernel like root=/dev/sda1, etc.
1521  */
1522         .globl  cmd_line
1523 cmd_line:
1524         .space  512
1526         .globl intercept_table
1527 intercept_table:
1528         .long 0, 0, i0x200, i0x300, i0x400, 0, i0x600, i0x700
1529         .long i0x800, 0, 0, 0, 0, i0xd00, 0, 0
1530         .long 0, 0, 0, i0x1300, 0, 0, 0, 0
1531         .long 0, 0, 0, 0, 0, 0, 0, 0
1532         .long 0, 0, 0, 0, 0, 0, 0, 0
1533         .long 0, 0, 0, 0, 0, 0, 0, 0
1535 /* Room for two PTE pointers, usually the kernel and current user pointers
1536  * to their respective root page table.
1537  */
1538 abatron_pteptrs:
1539         .space  8