PR target/24428
[official-gcc.git] / gcc / config / i386 / predicates.md
blobb61d2d25bde8057b2635f1d2e48a8130ff581a35
1 ;; Predicate definitions for IA-32 and x86-64.
2 ;; Copyright (C) 2004, 2005 Free Software Foundation, Inc.
3 ;;
4 ;; This file is part of GCC.
5 ;;
6 ;; GCC is free software; you can redistribute it and/or modify
7 ;; it under the terms of the GNU General Public License as published by
8 ;; the Free Software Foundation; either version 2, or (at your option)
9 ;; any later version.
11 ;; GCC is distributed in the hope that it will be useful,
12 ;; but WITHOUT ANY WARRANTY; without even the implied warranty of
13 ;; MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14 ;; GNU General Public License for more details.
16 ;; You should have received a copy of the GNU General Public License
17 ;; along with GCC; see the file COPYING.  If not, write to
18 ;; the Free Software Foundation, 51 Franklin Street, Fifth Floor,
19 ;; Boston, MA 02110-1301, USA.
21 ;; Return nonzero if OP is either a i387 or SSE fp register.
22 (define_predicate "any_fp_register_operand"
23   (and (match_code "reg")
24        (match_test "ANY_FP_REGNO_P (REGNO (op))")))
26 ;; Return nonzero if OP is an i387 fp register.
27 (define_predicate "fp_register_operand"
28   (and (match_code "reg")
29        (match_test "FP_REGNO_P (REGNO (op))")))
31 ;; Return nonzero if OP is a non-fp register_operand.
32 (define_predicate "register_and_not_any_fp_reg_operand"
33   (and (match_code "reg")
34        (not (match_test "ANY_FP_REGNO_P (REGNO (op))"))))
36 ;; Return nonzero if OP is a register operand other than an i387 fp register.
37 (define_predicate "register_and_not_fp_reg_operand"
38   (and (match_code "reg")
39        (not (match_test "FP_REGNO_P (REGNO (op))"))))
41 ;; True if the operand is an MMX register.
42 (define_predicate "mmx_reg_operand"
43   (and (match_code "reg")
44        (match_test "MMX_REGNO_P (REGNO (op))")))
46 ;; True if the operand is a Q_REGS class register.
47 (define_predicate "q_regs_operand"
48   (match_operand 0 "register_operand")
50   if (GET_CODE (op) == SUBREG)
51     op = SUBREG_REG (op);
52   return ANY_QI_REG_P (op);
55 ;; Return true if op is a NON_Q_REGS class register.
56 (define_predicate "non_q_regs_operand"
57   (match_operand 0 "register_operand")
59   if (GET_CODE (op) == SUBREG)
60     op = SUBREG_REG (op);
61   return NON_QI_REG_P (op);
64 ;; Match an SI or HImode register for a zero_extract.
65 (define_special_predicate "ext_register_operand"
66   (match_operand 0 "register_operand")
68   if ((!TARGET_64BIT || GET_MODE (op) != DImode)
69       && GET_MODE (op) != SImode && GET_MODE (op) != HImode)
70     return 0;
71   if (GET_CODE (op) == SUBREG)
72     op = SUBREG_REG (op);
74   /* Be careful to accept only registers having upper parts.  */
75   return REGNO (op) > LAST_VIRTUAL_REGISTER || REGNO (op) < 4;
78 ;; Return true if op is the flags register.
79 (define_predicate "flags_reg_operand"
80   (and (match_code "reg")
81        (match_test "REGNO (op) == FLAGS_REG")))
83 ;; Return 1 if VALUE can be stored in a sign extended immediate field.
84 (define_predicate "x86_64_immediate_operand"
85   (match_code "const_int,symbol_ref,label_ref,const")
87   if (!TARGET_64BIT)
88     return immediate_operand (op, mode);
90   switch (GET_CODE (op))
91     {
92     case CONST_INT:
93       /* CONST_DOUBLES never match, since HOST_BITS_PER_WIDE_INT is known
94          to be at least 32 and this all acceptable constants are
95          represented as CONST_INT.  */
96       if (HOST_BITS_PER_WIDE_INT == 32)
97         return 1;
98       else
99         {
100           HOST_WIDE_INT val = trunc_int_for_mode (INTVAL (op), DImode);
101           return trunc_int_for_mode (val, SImode) == val;
102         }
103       break;
105     case SYMBOL_REF:
106       /* For certain code models, the symbolic references are known to fit.
107          in CM_SMALL_PIC model we know it fits if it is local to the shared
108          library.  Don't count TLS SYMBOL_REFs here, since they should fit
109          only if inside of UNSPEC handled below.  */
110       /* TLS symbols are not constant.  */
111       if (SYMBOL_REF_TLS_MODEL (op))
112         return false;
113       return (ix86_cmodel == CM_SMALL || ix86_cmodel == CM_KERNEL
114               || (ix86_cmodel == CM_MEDIUM && !SYMBOL_REF_FAR_ADDR_P (op)));
116     case LABEL_REF:
117       /* For certain code models, the code is near as well.  */
118       return (ix86_cmodel == CM_SMALL || ix86_cmodel == CM_MEDIUM
119               || ix86_cmodel == CM_KERNEL);
121     case CONST:
122       /* We also may accept the offsetted memory references in certain
123          special cases.  */
124       if (GET_CODE (XEXP (op, 0)) == UNSPEC)
125         switch (XINT (XEXP (op, 0), 1))
126           {
127           case UNSPEC_GOTPCREL:
128           case UNSPEC_DTPOFF:
129           case UNSPEC_GOTNTPOFF:
130           case UNSPEC_NTPOFF:
131             return 1;
132           default:
133             break;
134           }
136       if (GET_CODE (XEXP (op, 0)) == PLUS)
137         {
138           rtx op1 = XEXP (XEXP (op, 0), 0);
139           rtx op2 = XEXP (XEXP (op, 0), 1);
140           HOST_WIDE_INT offset;
142           if (ix86_cmodel == CM_LARGE)
143             return 0;
144           if (GET_CODE (op2) != CONST_INT)
145             return 0;
146           offset = trunc_int_for_mode (INTVAL (op2), DImode);
147           switch (GET_CODE (op1))
148             {
149             case SYMBOL_REF:
150               /* TLS symbols are not constant.  */
151               if (SYMBOL_REF_TLS_MODEL (op1))
152                 return 0;
153               /* For CM_SMALL assume that latest object is 16MB before
154                  end of 31bits boundary.  We may also accept pretty
155                  large negative constants knowing that all objects are
156                  in the positive half of address space.  */
157               if ((ix86_cmodel == CM_SMALL
158                    || (ix86_cmodel == CM_MEDIUM
159                        && !SYMBOL_REF_FAR_ADDR_P (op1)))
160                   && offset < 16*1024*1024
161                   && trunc_int_for_mode (offset, SImode) == offset)
162                 return 1;
163               /* For CM_KERNEL we know that all object resist in the
164                  negative half of 32bits address space.  We may not
165                  accept negative offsets, since they may be just off
166                  and we may accept pretty large positive ones.  */
167               if (ix86_cmodel == CM_KERNEL
168                   && offset > 0
169                   && trunc_int_for_mode (offset, SImode) == offset)
170                 return 1;
171               break;
173             case LABEL_REF:
174               /* These conditions are similar to SYMBOL_REF ones, just the
175                  constraints for code models differ.  */
176               if ((ix86_cmodel == CM_SMALL || ix86_cmodel == CM_MEDIUM)
177                   && offset < 16*1024*1024
178                   && trunc_int_for_mode (offset, SImode) == offset)
179                 return 1;
180               if (ix86_cmodel == CM_KERNEL
181                   && offset > 0
182                   && trunc_int_for_mode (offset, SImode) == offset)
183                 return 1;
184               break;
186             case UNSPEC:
187               switch (XINT (op1, 1))
188                 {
189                 case UNSPEC_DTPOFF:
190                 case UNSPEC_NTPOFF:
191                   if (offset > 0
192                       && trunc_int_for_mode (offset, SImode) == offset)
193                     return 1;
194                 }
195               break;
197             default:
198               break;
199             }
200         }
201       break;
203       default:
204         gcc_unreachable ();
205     }
207   return 0;
210 ;; Return 1 if VALUE can be stored in the zero extended immediate field.
211 (define_predicate "x86_64_zext_immediate_operand"
212   (match_code "const_double,const_int,symbol_ref,label_ref,const")
214   switch (GET_CODE (op))
215     {
216     case CONST_DOUBLE:
217       if (HOST_BITS_PER_WIDE_INT == 32)
218         return (GET_MODE (op) == VOIDmode && !CONST_DOUBLE_HIGH (op));
219       else
220         return 0;
222     case CONST_INT:
223       if (HOST_BITS_PER_WIDE_INT == 32)
224         return INTVAL (op) >= 0;
225       else
226         return !(INTVAL (op) & ~(HOST_WIDE_INT) 0xffffffff);
228     case SYMBOL_REF:
229       /* For certain code models, the symbolic references are known to fit.  */
230       /* TLS symbols are not constant.  */
231       if (SYMBOL_REF_TLS_MODEL (op))
232         return false;
233       return (ix86_cmodel == CM_SMALL
234               || (ix86_cmodel == CM_MEDIUM
235                   && !SYMBOL_REF_FAR_ADDR_P (op)));
237     case LABEL_REF:
238       /* For certain code models, the code is near as well.  */
239       return ix86_cmodel == CM_SMALL || ix86_cmodel == CM_MEDIUM;
241     case CONST:
242       /* We also may accept the offsetted memory references in certain
243          special cases.  */
244       if (GET_CODE (XEXP (op, 0)) == PLUS)
245         {
246           rtx op1 = XEXP (XEXP (op, 0), 0);
247           rtx op2 = XEXP (XEXP (op, 0), 1);
249           if (ix86_cmodel == CM_LARGE)
250             return 0;
251           switch (GET_CODE (op1))
252             {
253             case SYMBOL_REF:
254               /* TLS symbols are not constant.  */
255               if (SYMBOL_REF_TLS_MODEL (op1))
256                 return 0;
257               /* For small code model we may accept pretty large positive
258                  offsets, since one bit is available for free.  Negative
259                  offsets are limited by the size of NULL pointer area
260                  specified by the ABI.  */
261               if ((ix86_cmodel == CM_SMALL
262                    || (ix86_cmodel == CM_MEDIUM
263                        && !SYMBOL_REF_FAR_ADDR_P (op1)))
264                   && GET_CODE (op2) == CONST_INT
265                   && trunc_int_for_mode (INTVAL (op2), DImode) > -0x10000
266                   && trunc_int_for_mode (INTVAL (op2), SImode) == INTVAL (op2))
267                 return 1;
268               /* ??? For the kernel, we may accept adjustment of
269                  -0x10000000, since we know that it will just convert
270                  negative address space to positive, but perhaps this
271                  is not worthwhile.  */
272               break;
274             case LABEL_REF:
275               /* These conditions are similar to SYMBOL_REF ones, just the
276                  constraints for code models differ.  */
277               if ((ix86_cmodel == CM_SMALL || ix86_cmodel == CM_MEDIUM)
278                   && GET_CODE (op2) == CONST_INT
279                   && trunc_int_for_mode (INTVAL (op2), DImode) > -0x10000
280                   && trunc_int_for_mode (INTVAL (op2), SImode) == INTVAL (op2))
281                 return 1;
282               break;
284             default:
285               return 0;
286             }
287         }
288       break;
290     default:
291       gcc_unreachable ();
292     }
293   return 0;
296 ;; Return nonzero if OP is general operand representable on x86_64.
297 (define_predicate "x86_64_general_operand"
298   (if_then_else (match_test "TARGET_64BIT")
299     (ior (match_operand 0 "nonimmediate_operand")
300          (match_operand 0 "x86_64_immediate_operand"))
301     (match_operand 0 "general_operand")))
303 ;; Return nonzero if OP is general operand representable on x86_64
304 ;; as either sign extended or zero extended constant.
305 (define_predicate "x86_64_szext_general_operand"
306   (if_then_else (match_test "TARGET_64BIT")
307     (ior (match_operand 0 "nonimmediate_operand")
308          (ior (match_operand 0 "x86_64_immediate_operand")
309               (match_operand 0 "x86_64_zext_immediate_operand")))
310     (match_operand 0 "general_operand")))
312 ;; Return nonzero if OP is nonmemory operand representable on x86_64.
313 (define_predicate "x86_64_nonmemory_operand"
314   (if_then_else (match_test "TARGET_64BIT")
315     (ior (match_operand 0 "register_operand")
316          (match_operand 0 "x86_64_immediate_operand"))
317     (match_operand 0 "nonmemory_operand")))
319 ;; Return nonzero if OP is nonmemory operand representable on x86_64.
320 (define_predicate "x86_64_szext_nonmemory_operand"
321   (if_then_else (match_test "TARGET_64BIT")
322     (ior (match_operand 0 "register_operand")
323          (ior (match_operand 0 "x86_64_immediate_operand")
324               (match_operand 0 "x86_64_zext_immediate_operand")))
325     (match_operand 0 "nonmemory_operand")))
327 ;; Return true when operand is PIC expression that can be computed by lea
328 ;; operation.
329 (define_predicate "pic_32bit_operand"
330   (match_code "const,symbol_ref,label_ref")
332   if (!flag_pic)
333     return 0;
334   /* Rule out relocations that translate into 64bit constants.  */
335   if (TARGET_64BIT && GET_CODE (op) == CONST)
336     {
337       op = XEXP (op, 0);
338       if (GET_CODE (op) == PLUS && GET_CODE (XEXP (op, 1)) == CONST_INT)
339         op = XEXP (op, 0);
340       if (GET_CODE (op) == UNSPEC
341           && (XINT (op, 1) == UNSPEC_GOTOFF
342               || XINT (op, 1) == UNSPEC_GOT))
343         return 0;
344     }
345   return symbolic_operand (op, mode);
349 ;; Return nonzero if OP is nonmemory operand acceptable by movabs patterns.
350 (define_predicate "x86_64_movabs_operand"
351   (if_then_else (match_test "!TARGET_64BIT || !flag_pic")
352     (match_operand 0 "nonmemory_operand")
353     (ior (match_operand 0 "register_operand")
354          (and (match_operand 0 "const_double_operand")
355               (match_test "GET_MODE_SIZE (mode) <= 8")))))
357 ;; Returns nonzero if OP is either a symbol reference or a sum of a symbol
358 ;; reference and a constant.
359 (define_predicate "symbolic_operand"
360   (match_code "symbol_ref,label_ref,const")
362   switch (GET_CODE (op))
363     {
364     case SYMBOL_REF:
365     case LABEL_REF:
366       return 1;
368     case CONST:
369       op = XEXP (op, 0);
370       if (GET_CODE (op) == SYMBOL_REF
371           || GET_CODE (op) == LABEL_REF
372           || (GET_CODE (op) == UNSPEC
373               && (XINT (op, 1) == UNSPEC_GOT
374                   || XINT (op, 1) == UNSPEC_GOTOFF
375                   || XINT (op, 1) == UNSPEC_GOTPCREL)))
376         return 1;
377       if (GET_CODE (op) != PLUS
378           || GET_CODE (XEXP (op, 1)) != CONST_INT)
379         return 0;
381       op = XEXP (op, 0);
382       if (GET_CODE (op) == SYMBOL_REF
383           || GET_CODE (op) == LABEL_REF)
384         return 1;
385       /* Only @GOTOFF gets offsets.  */
386       if (GET_CODE (op) != UNSPEC
387           || XINT (op, 1) != UNSPEC_GOTOFF)
388         return 0;
390       op = XVECEXP (op, 0, 0);
391       if (GET_CODE (op) == SYMBOL_REF
392           || GET_CODE (op) == LABEL_REF)
393         return 1;
394       return 0;
396     default:
397       gcc_unreachable ();
398     }
401 ;; Return true if the operand contains a @GOT or @GOTOFF reference.
402 (define_predicate "pic_symbolic_operand"
403   (match_code "const")
405   op = XEXP (op, 0);
406   if (TARGET_64BIT)
407     {
408       if (GET_CODE (op) == UNSPEC
409           && XINT (op, 1) == UNSPEC_GOTPCREL)
410         return 1;
411       if (GET_CODE (op) == PLUS
412           && GET_CODE (XEXP (op, 0)) == UNSPEC
413           && XINT (XEXP (op, 0), 1) == UNSPEC_GOTPCREL)
414         return 1;
415     }
416   else
417     {
418       if (GET_CODE (op) == UNSPEC)
419         return 1;
420       if (GET_CODE (op) != PLUS
421           || GET_CODE (XEXP (op, 1)) != CONST_INT)
422         return 0;
423       op = XEXP (op, 0);
424       if (GET_CODE (op) == UNSPEC)
425         return 1;
426     }
427   return 0;
430 ;; Return true if OP is a symbolic operand that resolves locally.
431 (define_predicate "local_symbolic_operand"
432   (match_code "const,label_ref,symbol_ref")
434   if (GET_CODE (op) == CONST
435       && GET_CODE (XEXP (op, 0)) == PLUS
436       && GET_CODE (XEXP (XEXP (op, 0), 1)) == CONST_INT)
437     op = XEXP (XEXP (op, 0), 0);
439   if (GET_CODE (op) == LABEL_REF)
440     return 1;
442   if (GET_CODE (op) != SYMBOL_REF)
443     return 0;
445   if (SYMBOL_REF_LOCAL_P (op))
446     return 1;
448   /* There is, however, a not insubstantial body of code in the rest of
449      the compiler that assumes it can just stick the results of
450      ASM_GENERATE_INTERNAL_LABEL in a symbol_ref and have done.  */
451   /* ??? This is a hack.  Should update the body of the compiler to
452      always create a DECL an invoke targetm.encode_section_info.  */
453   if (strncmp (XSTR (op, 0), internal_label_prefix,
454                internal_label_prefix_len) == 0)
455     return 1;
457   return 0;
460 ;; Test for various thread-local symbols.
461 (define_predicate "tls_symbolic_operand"
462   (and (match_code "symbol_ref")
463        (match_test "SYMBOL_REF_TLS_MODEL (op) != 0")))
465 ;; Test for a pc-relative call operand
466 (define_predicate "constant_call_address_operand"
467   (ior (match_code "symbol_ref")
468        (match_operand 0 "local_symbolic_operand")))
470 ;; True for any non-virtual or eliminable register.  Used in places where
471 ;; instantiation of such a register may cause the pattern to not be recognized.
472 (define_predicate "register_no_elim_operand"
473   (match_operand 0 "register_operand")
475   if (GET_CODE (op) == SUBREG)
476     op = SUBREG_REG (op);
477   return !(op == arg_pointer_rtx
478            || op == frame_pointer_rtx
479            || (REGNO (op) >= FIRST_PSEUDO_REGISTER
480                && REGNO (op) <= LAST_VIRTUAL_REGISTER));
483 ;; Similarly, but include the stack pointer.  This is used to prevent esp
484 ;; from being used as an index reg.
485 (define_predicate "index_register_operand"
486   (match_operand 0 "register_operand")
488   if (GET_CODE (op) == SUBREG)
489     op = SUBREG_REG (op);
490   if (reload_in_progress || reload_completed)
491     return REG_OK_FOR_INDEX_STRICT_P (op);
492   else
493     return REG_OK_FOR_INDEX_NONSTRICT_P (op);
496 ;; Return false if this is any eliminable register.  Otherwise general_operand.
497 (define_predicate "general_no_elim_operand"
498   (if_then_else (match_code "reg,subreg")
499     (match_operand 0 "register_no_elim_operand")
500     (match_operand 0 "general_operand")))
502 ;; Return false if this is any eliminable register.  Otherwise
503 ;; register_operand or a constant.
504 (define_predicate "nonmemory_no_elim_operand"
505   (ior (match_operand 0 "register_no_elim_operand")
506        (match_operand 0 "immediate_operand")))
508 ;; Test for a valid operand for a call instruction.
509 (define_predicate "call_insn_operand"
510   (ior (match_operand 0 "constant_call_address_operand")
511        (ior (match_operand 0 "register_no_elim_operand")
512             (match_operand 0 "memory_operand"))))
514 ;; Similarly, but for tail calls, in which we cannot allow memory references.
515 (define_predicate "sibcall_insn_operand"
516   (ior (match_operand 0 "constant_call_address_operand")
517        (match_operand 0 "register_no_elim_operand")))
519 ;; Match exactly zero.
520 (define_predicate "const0_operand"
521   (match_code "const_int,const_double,const_vector")
523   if (mode == VOIDmode)
524     mode = GET_MODE (op);
525   return op == CONST0_RTX (mode);
528 ;; Match exactly one.
529 (define_predicate "const1_operand"
530   (and (match_code "const_int")
531        (match_test "op == const1_rtx")))
533 ;; Match 2, 4, or 8.  Used for leal multiplicands.
534 (define_predicate "const248_operand"
535   (match_code "const_int")
537   HOST_WIDE_INT i = INTVAL (op);
538   return i == 2 || i == 4 || i == 8;
541 ;; Match 0 or 1.
542 (define_predicate "const_0_to_1_operand"
543   (and (match_code "const_int")
544        (match_test "op == const0_rtx || op == const1_rtx")))
546 ;; Match 0 to 3.
547 (define_predicate "const_0_to_3_operand"
548   (and (match_code "const_int")
549        (match_test "INTVAL (op) >= 0 && INTVAL (op) <= 3")))
551 ;; Match 0 to 7.
552 (define_predicate "const_0_to_7_operand"
553   (and (match_code "const_int")
554        (match_test "INTVAL (op) >= 0 && INTVAL (op) <= 7")))
556 ;; Match 0 to 15.
557 (define_predicate "const_0_to_15_operand"
558   (and (match_code "const_int")
559        (match_test "INTVAL (op) >= 0 && INTVAL (op) <= 15")))
561 ;; Match 0 to 63.
562 (define_predicate "const_0_to_63_operand"
563   (and (match_code "const_int")
564        (match_test "INTVAL (op) >= 0 && INTVAL (op) <= 63")))
566 ;; Match 0 to 255.
567 (define_predicate "const_0_to_255_operand"
568   (and (match_code "const_int")
569        (match_test "INTVAL (op) >= 0 && INTVAL (op) <= 255")))
571 ;; Match (0 to 255) * 8
572 (define_predicate "const_0_to_255_mul_8_operand"
573   (match_code "const_int")
575   unsigned HOST_WIDE_INT val = INTVAL (op);
576   return val <= 255*8 && val % 8 == 0;
579 ;; Return nonzero if OP is CONST_INT >= 1 and <= 31 (a valid operand
580 ;; for shift & compare patterns, as shifting by 0 does not change flags).
581 (define_predicate "const_1_to_31_operand"
582   (and (match_code "const_int")
583        (match_test "INTVAL (op) >= 1 && INTVAL (op) <= 31")))
585 ;; Match 2 or 3.
586 (define_predicate "const_2_to_3_operand"
587   (and (match_code "const_int")
588        (match_test "INTVAL (op) == 2 || INTVAL (op) == 3")))
590 ;; Match 4 to 7.
591 (define_predicate "const_4_to_7_operand"
592   (and (match_code "const_int")
593        (match_test "INTVAL (op) >= 4 && INTVAL (op) <= 7")))
595 ;; Match exactly one bit in 4-bit mask.
596 (define_predicate "const_pow2_1_to_8_operand"
597   (match_code "const_int")
599   unsigned int log = exact_log2 (INTVAL (op));
600   return log <= 3;
603 ;; Match exactly one bit in 8-bit mask.
604 (define_predicate "const_pow2_1_to_128_operand"
605   (match_code "const_int")
607   unsigned int log = exact_log2 (INTVAL (op));
608   return log <= 7;
611 ;; True if this is a constant appropriate for an increment or decrement.
612 (define_predicate "incdec_operand"
613   (match_code "const_int")
615   /* On Pentium4, the inc and dec operations causes extra dependency on flag
616      registers, since carry flag is not set.  */
617   if ((TARGET_PENTIUM4 || TARGET_NOCONA) && !optimize_size)
618     return 0;
619   return op == const1_rtx || op == constm1_rtx;
622 ;; True for registers, or 1 or -1.  Used to optimize double-word shifts.
623 (define_predicate "reg_or_pm1_operand"
624   (ior (match_operand 0 "register_operand")
625        (and (match_code "const_int")
626             (match_test "op == const1_rtx || op == constm1_rtx"))))
628 ;; True if OP is acceptable as operand of DImode shift expander.
629 (define_predicate "shiftdi_operand"
630   (if_then_else (match_test "TARGET_64BIT")
631     (match_operand 0 "nonimmediate_operand")
632     (match_operand 0 "register_operand")))
634 (define_predicate "ashldi_input_operand"
635   (if_then_else (match_test "TARGET_64BIT")
636     (match_operand 0 "nonimmediate_operand")
637     (match_operand 0 "reg_or_pm1_operand")))
639 ;; Return true if OP is a vector load from the constant pool with just
640 ;; the first element nonzero.
641 (define_predicate "zero_extended_scalar_load_operand"
642   (match_code "mem")
644   unsigned n_elts;
645   op = maybe_get_pool_constant (op);
646   if (!op)
647     return 0;
648   if (GET_CODE (op) != CONST_VECTOR)
649     return 0;
650   n_elts =
651     (GET_MODE_SIZE (GET_MODE (op)) /
652      GET_MODE_SIZE (GET_MODE_INNER (GET_MODE (op))));
653   for (n_elts--; n_elts > 0; n_elts--)
654     {
655       rtx elt = CONST_VECTOR_ELT (op, n_elts);
656       if (elt != CONST0_RTX (GET_MODE_INNER (GET_MODE (op))))
657         return 0;
658     }
659   return 1;
662 ;; Return 1 when OP is operand acceptable for standard SSE move.
663 (define_predicate "vector_move_operand"
664   (ior (match_operand 0 "nonimmediate_operand")
665        (match_operand 0 "const0_operand")))
667 ;; Return true if OP is a register or a zero.
668 (define_predicate "reg_or_0_operand"
669   (ior (match_operand 0 "register_operand")
670        (match_operand 0 "const0_operand")))
672 ;; Return true if op if a valid address, and does not contain
673 ;; a segment override.
674 (define_special_predicate "no_seg_address_operand"
675   (match_operand 0 "address_operand")
677   struct ix86_address parts;
678   int ok;
680   ok = ix86_decompose_address (op, &parts);
681   gcc_assert (ok);
682   return parts.seg == SEG_DEFAULT;
685 ;; Return nonzero if the rtx is known aligned.
686 (define_predicate "aligned_operand"
687   (match_operand 0 "general_operand")
689   struct ix86_address parts;
690   int ok;
692   /* Registers and immediate operands are always "aligned".  */
693   if (GET_CODE (op) != MEM)
694     return 1;
696   /* Don't even try to do any aligned optimizations with volatiles.  */
697   if (MEM_VOLATILE_P (op))
698     return 0;
699   op = XEXP (op, 0);
701   /* Pushes and pops are only valid on the stack pointer.  */
702   if (GET_CODE (op) == PRE_DEC
703       || GET_CODE (op) == POST_INC)
704     return 1;
706   /* Decode the address.  */
707   ok = ix86_decompose_address (op, &parts);
708   gcc_assert (ok);
710   /* Look for some component that isn't known to be aligned.  */
711   if (parts.index)
712     {
713       if (REGNO_POINTER_ALIGN (REGNO (parts.index)) * parts.scale < 32)
714         return 0;
715     }
716   if (parts.base)
717     {
718       if (REGNO_POINTER_ALIGN (REGNO (parts.base)) < 32)
719         return 0;
720     }
721   if (parts.disp)
722     {
723       if (GET_CODE (parts.disp) != CONST_INT
724           || (INTVAL (parts.disp) & 3) != 0)
725         return 0;
726     }
728   /* Didn't find one -- this must be an aligned address.  */
729   return 1;
732 ;; Returns 1 if OP is memory operand with a displacement.
733 (define_predicate "memory_displacement_operand"
734   (match_operand 0 "memory_operand")
736   struct ix86_address parts;
737   int ok;
739   ok = ix86_decompose_address (XEXP (op, 0), &parts);
740   gcc_assert (ok);
741   return parts.disp != NULL_RTX;
744 ;; Returns 1 if OP is memory operand that cannot be represented
745 ;; by the modRM array.
746 (define_predicate "long_memory_operand"
747   (and (match_operand 0 "memory_operand")
748        (match_test "memory_address_length (op) != 0")))
750 ;; Return 1 if OP is a comparison operator that can be issued by fcmov.
751 (define_predicate "fcmov_comparison_operator"
752   (match_operand 0 "comparison_operator")
754   enum machine_mode inmode = GET_MODE (XEXP (op, 0));
755   enum rtx_code code = GET_CODE (op);
757   if (inmode == CCFPmode || inmode == CCFPUmode)
758     {
759       enum rtx_code second_code, bypass_code;
760       ix86_fp_comparison_codes (code, &bypass_code, &code, &second_code);
761       if (bypass_code != UNKNOWN || second_code != UNKNOWN)
762         return 0;
763       code = ix86_fp_compare_code_to_integer (code);
764     }
765   /* i387 supports just limited amount of conditional codes.  */
766   switch (code)
767     {
768     case LTU: case GTU: case LEU: case GEU:
769       if (inmode == CCmode || inmode == CCFPmode || inmode == CCFPUmode)
770         return 1;
771       return 0;
772     case ORDERED: case UNORDERED:
773     case EQ: case NE:
774       return 1;
775     default:
776       return 0;
777     }
780 ;; Return 1 if OP is a comparison that can be used in the CMPSS/CMPPS insns.
781 ;; The first set are supported directly; the second set can't be done with
782 ;; full IEEE support, i.e. NaNs.
784 ;; ??? It would seem that we have a lot of uses of this predicate that pass
785 ;; it the wrong mode.  We got away with this because the old function didn't
786 ;; check the mode at all.  Mirror that for now by calling this a special
787 ;; predicate.
789 (define_special_predicate "sse_comparison_operator"
790   (match_code "eq,lt,le,unordered,ne,unge,ungt,ordered"))
792 ;; Return 1 if OP is a valid comparison operator in valid mode.
793 (define_predicate "ix86_comparison_operator"
794   (match_operand 0 "comparison_operator")
796   enum machine_mode inmode = GET_MODE (XEXP (op, 0));
797   enum rtx_code code = GET_CODE (op);
799   if (inmode == CCFPmode || inmode == CCFPUmode)
800     {
801       enum rtx_code second_code, bypass_code;
802       ix86_fp_comparison_codes (code, &bypass_code, &code, &second_code);
803       return (bypass_code == UNKNOWN && second_code == UNKNOWN);
804     }
805   switch (code)
806     {
807     case EQ: case NE:
808       return 1;
809     case LT: case GE:
810       if (inmode == CCmode || inmode == CCGCmode
811           || inmode == CCGOCmode || inmode == CCNOmode)
812         return 1;
813       return 0;
814     case LTU: case GTU: case LEU: case ORDERED: case UNORDERED: case GEU:
815       if (inmode == CCmode)
816         return 1;
817       return 0;
818     case GT: case LE:
819       if (inmode == CCmode || inmode == CCGCmode || inmode == CCNOmode)
820         return 1;
821       return 0;
822     default:
823       return 0;
824     }
827 ;; Return 1 if OP is a valid comparison operator testing carry flag to be set.
828 (define_predicate "ix86_carry_flag_operator"
829   (match_code "ltu,lt,unlt,gt,ungt,le,unle,ge,unge,ltgt,uneq")
831   enum machine_mode inmode = GET_MODE (XEXP (op, 0));
832   enum rtx_code code = GET_CODE (op);
834   if (GET_CODE (XEXP (op, 0)) != REG
835       || REGNO (XEXP (op, 0)) != FLAGS_REG
836       || XEXP (op, 1) != const0_rtx)
837     return 0;
839   if (inmode == CCFPmode || inmode == CCFPUmode)
840     {
841       enum rtx_code second_code, bypass_code;
842       ix86_fp_comparison_codes (code, &bypass_code, &code, &second_code);
843       if (bypass_code != UNKNOWN || second_code != UNKNOWN)
844         return 0;
845       code = ix86_fp_compare_code_to_integer (code);
846     }
847   else if (inmode != CCmode)
848     return 0;
850   return code == LTU;
853 ;; Nearly general operand, but accept any const_double, since we wish
854 ;; to be able to drop them into memory rather than have them get pulled
855 ;; into registers.
856 (define_predicate "cmp_fp_expander_operand"
857   (ior (match_code "const_double")
858        (match_operand 0 "general_operand")))
860 ;; Return true if this is a valid binary floating-point operation.
861 (define_predicate "binary_fp_operator"
862   (match_code "plus,minus,mult,div"))
864 ;; Return true if this is a multiply operation.
865 (define_predicate "mult_operator"
866   (match_code "mult"))
868 ;; Return true if this is a division operation.
869 (define_predicate "div_operator"
870   (match_code "div"))
872 ;; Return true if this is a float extend operation.
873 (define_predicate "float_operator"
874   (match_code "float"))
876 ;; Return true for ARITHMETIC_P.
877 (define_predicate "arith_or_logical_operator"
878   (match_code "plus,mult,and,ior,xor,smin,smax,umin,umax,compare,minus,div,
879                mod,udiv,umod,ashift,rotate,ashiftrt,lshiftrt,rotatert"))
881 ;; Return 1 if OP is a binary operator that can be promoted to wider mode.
882 ;; Modern CPUs have same latency for HImode and SImode multiply,
883 ;; but 386 and 486 do HImode multiply faster.  */
884 (define_predicate "promotable_binary_operator"
885   (ior (match_code "plus,and,ior,xor,ashift")
886        (and (match_code "mult")
887             (match_test "ix86_tune > PROCESSOR_I486"))))
889 ;; To avoid problems when jump re-emits comparisons like testqi_ext_ccno_0,
890 ;; re-recognize the operand to avoid a copy_to_mode_reg that will fail.
892 ;; ??? It seems likely that this will only work because cmpsi is an
893 ;; expander, and no actual insns use this.
895 (define_predicate "cmpsi_operand_1"
896   (match_code "and")
898   return (GET_MODE (op) == SImode
899           && GET_CODE (XEXP (op, 0)) == ZERO_EXTRACT
900           && GET_CODE (XEXP (XEXP (op, 0), 1)) == CONST_INT
901           && GET_CODE (XEXP (XEXP (op, 0), 2)) == CONST_INT
902           && INTVAL (XEXP (XEXP (op, 0), 1)) == 8
903           && INTVAL (XEXP (XEXP (op, 0), 2)) == 8
904           && GET_CODE (XEXP (op, 1)) == CONST_INT);
907 (define_predicate "cmpsi_operand"
908   (ior (match_operand 0 "nonimmediate_operand")
909        (match_operand 0 "cmpsi_operand_1")))
911 (define_predicate "compare_operator"
912   (match_code "compare"))
914 (define_predicate "absneg_operator"
915   (match_code "abs,neg"))