[InstCombine] Signed saturation patterns
[llvm-core.git] / test / CodeGen / Thumb2 / LowOverheadLoops / tail-pred-narrow.ll
blob8c1534be77db0cd7e7a61a949615c7108c0077a7
1 ; RUN: opt -mtriple=thumbv8.1m.main -mve-tail-predication -disable-mve-tail-predication=false -mattr=+mve,+lob %s -S -o - | FileCheck %s
3 ; TODO: We should be able to generate a vctp for the loads.
4 ; CHECK-LABEL: trunc_v4i32_v4i16
5 ; CHECK-NOT: vcpt
6 define void @trunc_v4i32_v4i16(i32* readonly %a, i32* readonly %b, i16* %c, i32 %N) {
7 entry:
8   %cmp8 = icmp eq i32 %N, 0
9   %tmp8 = add i32 %N, 3
10   %tmp9 = lshr i32 %tmp8, 2
11   %tmp10 = shl nuw i32 %tmp9, 2
12   %tmp11 = add i32 %tmp10, -4
13   %tmp12 = lshr i32 %tmp11, 2
14   %tmp13 = add nuw nsw i32 %tmp12, 1
15   br i1 %cmp8, label %for.cond.cleanup, label %vector.ph
17 vector.ph:                                        ; preds = %entry
18   %trip.count.minus.1 = add i32 %N, -1
19   %broadcast.splatinsert10 = insertelement <4 x i32> undef, i32 %trip.count.minus.1, i32 0
20   %broadcast.splat11 = shufflevector <4 x i32> %broadcast.splatinsert10, <4 x i32> undef, <4 x i32> zeroinitializer
21   call void @llvm.set.loop.iterations.i32(i32 %tmp13)
22   br label %vector.body
24 vector.body:                                      ; preds = %vector.body, %vector.ph
25   %index = phi i32 [ 0, %vector.ph ], [ %index.next, %vector.body ]
26   %tmp14 = phi i32 [ %tmp13, %vector.ph ], [ %tmp15, %vector.body ]
27   %broadcast.splatinsert = insertelement <4 x i32> undef, i32 %index, i32 0
28   %broadcast.splat = shufflevector <4 x i32> %broadcast.splatinsert, <4 x i32> undef, <4 x i32> zeroinitializer
29   %induction = add <4 x i32> %broadcast.splat, <i32 0, i32 1, i32 2, i32 3>
30   %tmp = getelementptr inbounds i32, i32* %a, i32 %index
31   %tmp1 = icmp ule <4 x i32> %induction, %broadcast.splat11
32   %tmp2 = bitcast i32* %tmp to <4 x i32>*
33   %wide.masked.load = tail call <4 x i32> @llvm.masked.load.v4i32.p0v4i32(<4 x i32>* %tmp2, i32 4, <4 x i1> %tmp1, <4 x i32> undef)
34   %tmp3 = getelementptr inbounds i32, i32* %b, i32 %index
35   %tmp4 = bitcast i32* %tmp3 to <4 x i32>*
36   %wide.masked.load2 = tail call <4 x i32> @llvm.masked.load.v4i32.p0v4i32(<4 x i32>* %tmp4, i32 4, <4 x i1> %tmp1, <4 x i32> undef)
37   %mul = mul nsw <4 x i32> %wide.masked.load2, %wide.masked.load
38   %trunc = trunc <4 x i32> %mul to <4 x i16>
39   %tmp6 = getelementptr inbounds i16, i16* %c, i32 %index
40   %tmp7 = bitcast i16* %tmp6 to <4 x i16>*
41   tail call void @llvm.masked.store.v4i16.p0v4i16(<4 x i16> %trunc, <4 x i16>* %tmp7, i32 4, <4 x i1> %tmp1)
42   %index.next = add i32 %index, 4
43   %tmp15 = call i32 @llvm.loop.decrement.reg.i32.i32.i32(i32 %tmp14, i32 1)
44   %tmp16 = icmp ne i32 %tmp15, 0
45   br i1 %tmp16, label %vector.body, label %for.cond.cleanup
47 for.cond.cleanup:                                 ; preds = %vector.body, %entry
48   ret void
51 declare <4 x i32> @llvm.masked.load.v4i32.p0v4i32(<4 x i32>*, i32 immarg, <4 x i1>, <4 x i32>)
52 declare void @llvm.masked.store.v4i16.p0v4i16(<4 x i16>, <4 x i16>*, i32 immarg, <4 x i1>)
53 declare void @llvm.set.loop.iterations.i32(i32)
54 declare i32 @llvm.loop.decrement.reg.i32.i32.i32(i32, i32)