Add a small missed optimization: turn X == C ? X : Y into X == C ? C : Y. This
[llvm/stm8.git] / test / CodeGen / X86 / mmx-vzmovl.ll
blob191e261f616feb816ce466b162e6c252b0357ecb
1 ; RUN: llc < %s -march=x86-64 -mattr=+mmx,+sse2 | grep movq | count 2
2 ; There are no MMX operations here; this is promoted to XMM.
4 define void @foo(<1 x i64>* %a, <1 x i64>* %b) nounwind {
5 entry:
6         %0 = load <1 x i64>* %a, align 8                ; <<1 x i64>> [#uses=1]
7         %1 = bitcast <1 x i64> %0 to <2 x i32>          ; <<2 x i32>> [#uses=1]
8         %2 = and <2 x i32> %1, < i32 -1, i32 0 >                ; <<2 x i32>> [#uses=1]
9         %3 = bitcast <2 x i32> %2 to <1 x i64>          ; <<1 x i64>> [#uses=1]
10         store <1 x i64> %3, <1 x i64>* %b, align 8
11         br label %bb2
13 bb2:            ; preds = %entry
14         ret void