Sync with upstream 4.9 branch
[official-gcc.git] / embedded-4_9-branch / gcc / testsuite / gcc.dg / vmx / ops.c
blob21801ca237a24e96503730a31a40912eb5c767dd
1 /* { dg-do compile } */
2 /* { dg-options "-maltivec -mabi=altivec -std=gnu99 -mno-vsx -Wno-deprecated" } */
3 #include <altivec.h>
4 #include <stdlib.h>
5 extern char * *var_char_ptr;
6 extern float * *var_float_ptr;
7 extern int * *var_int_ptr;
8 extern int *var_cc24f;
9 extern int *var_cc24fd;
10 extern int *var_cc24fr;
11 extern int *var_cc24t;
12 extern int *var_cc24td;
13 extern int *var_cc24tr;
14 extern int *var_cc26f;
15 extern int *var_cc26fd;
16 extern int *var_cc26fr;
17 extern int *var_cc26t;
18 extern int *var_cc26td;
19 extern int *var_cc26tr;
20 extern int *var_int;
21 extern short * *var_short_ptr;
22 extern signed char * *var_signed_char_ptr;
23 extern unsigned char * *var_unsigned_char_ptr;
24 extern unsigned int * *var_unsigned_int_ptr;
25 extern unsigned short * *var_unsigned_short_ptr;
26 extern vector bool char * *var_vec_b8_ptr;
27 extern vector bool char *var_vec_b8;
28 extern vector bool int * *var_vec_b32_ptr;
29 extern vector bool int *var_vec_b32;
30 extern vector bool short * *var_vec_b16_ptr;
31 extern vector bool short *var_vec_b16;
32 extern vector float * *var_vec_f32_ptr;
33 extern vector float *var_vec_f32;
34 extern vector pixel * *var_vec_p16_ptr;
35 extern vector pixel *var_vec_p16;
36 extern vector signed char * *var_vec_s8_ptr;
37 extern vector signed char *var_vec_s8;
38 extern vector signed int * *var_vec_s32_ptr;
39 extern vector signed int *var_vec_s32;
40 extern vector signed short * *var_vec_s16_ptr;
41 extern vector signed short *var_vec_s16;
42 extern vector unsigned char * *var_vec_u8_ptr;
43 extern vector unsigned char *var_vec_u8;
44 extern vector unsigned int * *var_vec_u32_ptr;
45 extern vector unsigned int *var_vec_u32;
46 extern vector unsigned short * *var_vec_u16_ptr;
47 extern vector unsigned short *var_vec_u16;
48 extern vector unsigned short *var_volatile_vec_u16;
49 void f0() {
50 *var_cc24f++ = vec_any_le(var_vec_b16[0], var_vec_s16[1]);
51 *var_cc24f++ = vec_any_le(var_vec_b16[0], var_vec_u16[1]);
52 *var_cc24f++ = vec_any_le(var_vec_b32[0], var_vec_s32[1]);
53 *var_cc24f++ = vec_any_le(var_vec_b32[0], var_vec_u32[1]);
54 *var_cc24f++ = vec_any_le(var_vec_b8[0], var_vec_s8[1]);
55 *var_cc24f++ = vec_any_le(var_vec_b8[0], var_vec_u8[1]);
56 *var_cc24f++ = vec_any_le(var_vec_s16[0], var_vec_b16[1]);
57 *var_cc24f++ = vec_any_le(var_vec_s16[0], var_vec_s16[1]);
58 *var_cc24f++ = vec_any_le(var_vec_s32[0], var_vec_b32[1]);
59 *var_cc24f++ = vec_any_le(var_vec_s32[0], var_vec_s32[1]);
60 *var_cc24f++ = vec_any_le(var_vec_s8[0], var_vec_b8[1]);
61 *var_cc24f++ = vec_any_le(var_vec_s8[0], var_vec_s8[1]);
62 *var_cc24f++ = vec_any_le(var_vec_u16[0], var_vec_b16[1]);
63 *var_cc24f++ = vec_any_le(var_vec_u16[0], var_vec_u16[1]);
64 *var_cc24f++ = vec_any_le(var_vec_u32[0], var_vec_b32[1]);
65 *var_cc24f++ = vec_any_le(var_vec_u32[0], var_vec_u32[1]);
66 *var_cc24f++ = vec_any_le(var_vec_u8[0], var_vec_b8[1]);
67 *var_cc24f++ = vec_any_le(var_vec_u8[0], var_vec_u8[1]);
68 *var_cc24f++ = vec_any_ne(var_vec_b16[0], var_vec_b16[1]);
69 *var_cc24f++ = vec_any_ne(var_vec_b16[0], var_vec_s16[1]);
70 *var_cc24f++ = vec_any_ne(var_vec_b16[0], var_vec_u16[1]);
71 *var_cc24f++ = vec_any_ne(var_vec_b32[0], var_vec_b32[1]);
72 *var_cc24f++ = vec_any_ne(var_vec_b32[0], var_vec_s32[1]);
73 *var_cc24f++ = vec_any_ne(var_vec_b32[0], var_vec_u32[1]);
74 *var_cc24f++ = vec_any_ne(var_vec_b8[0], var_vec_b8[1]);
75 *var_cc24f++ = vec_any_ne(var_vec_b8[0], var_vec_s8[1]);
76 *var_cc24f++ = vec_any_ne(var_vec_b8[0], var_vec_u8[1]);
77 *var_cc24f++ = vec_any_ne(var_vec_f32[0], var_vec_f32[1]);
78 *var_cc24f++ = vec_any_ne(var_vec_p16[0], var_vec_p16[1]);
79 *var_cc24f++ = vec_any_ne(var_vec_s16[0], var_vec_b16[1]);
80 *var_cc24f++ = vec_any_ne(var_vec_s16[0], var_vec_s16[1]);
81 *var_cc24f++ = vec_any_ne(var_vec_s32[0], var_vec_b32[1]);
82 *var_cc24f++ = vec_any_ne(var_vec_s32[0], var_vec_s32[1]);
83 *var_cc24f++ = vec_any_ne(var_vec_s8[0], var_vec_b8[1]);
84 *var_cc24f++ = vec_any_ne(var_vec_s8[0], var_vec_s8[1]);
85 *var_cc24f++ = vec_any_ne(var_vec_u16[0], var_vec_b16[1]);
86 *var_cc24f++ = vec_any_ne(var_vec_u16[0], var_vec_u16[1]);
87 *var_cc24f++ = vec_any_ne(var_vec_u32[0], var_vec_b32[1]);
88 *var_cc24f++ = vec_any_ne(var_vec_u32[0], var_vec_u32[1]);
89 *var_cc24f++ = vec_any_ne(var_vec_u8[0], var_vec_b8[1]);
90 *var_cc24f++ = vec_any_ne(var_vec_u8[0], var_vec_u8[1]);
91 *var_cc24f++ = vec_any_nge(var_vec_f32[0], var_vec_f32[1]);
92 *var_cc24f++ = vec_any_ngt(var_vec_f32[0], var_vec_f32[1]);
93 *var_cc24fd++ = vec_any_nan(var_vec_f32[0]);
94 *var_cc24fr++ = vec_any_ge(var_vec_b16[0], var_vec_s16[1]);
95 *var_cc24fr++ = vec_any_ge(var_vec_b16[0], var_vec_u16[1]);
96 *var_cc24fr++ = vec_any_ge(var_vec_b32[0], var_vec_s32[1]);
97 *var_cc24fr++ = vec_any_ge(var_vec_b32[0], var_vec_u32[1]);
98 *var_cc24fr++ = vec_any_ge(var_vec_b8[0], var_vec_s8[1]);
99 *var_cc24fr++ = vec_any_ge(var_vec_b8[0], var_vec_u8[1]);
100 *var_cc24fr++ = vec_any_ge(var_vec_s16[0], var_vec_b16[1]);
101 *var_cc24fr++ = vec_any_ge(var_vec_s16[0], var_vec_s16[1]);
102 *var_cc24fr++ = vec_any_ge(var_vec_s32[0], var_vec_b32[1]);
103 *var_cc24fr++ = vec_any_ge(var_vec_s32[0], var_vec_s32[1]);
104 *var_cc24fr++ = vec_any_ge(var_vec_s8[0], var_vec_b8[1]);
105 *var_cc24fr++ = vec_any_ge(var_vec_s8[0], var_vec_s8[1]);
106 *var_cc24fr++ = vec_any_ge(var_vec_u16[0], var_vec_b16[1]);
107 *var_cc24fr++ = vec_any_ge(var_vec_u16[0], var_vec_u16[1]);
108 *var_cc24fr++ = vec_any_ge(var_vec_u32[0], var_vec_b32[1]);
109 *var_cc24fr++ = vec_any_ge(var_vec_u32[0], var_vec_u32[1]);
110 *var_cc24fr++ = vec_any_ge(var_vec_u8[0], var_vec_b8[1]);
111 *var_cc24fr++ = vec_any_ge(var_vec_u8[0], var_vec_u8[1]);
112 *var_cc24fr++ = vec_any_nle(var_vec_f32[0], var_vec_f32[1]);
113 *var_cc24fr++ = vec_any_nlt(var_vec_f32[0], var_vec_f32[1]);
114 *var_cc24t++ = vec_all_eq(var_vec_b16[0], var_vec_b16[1]);
115 *var_cc24t++ = vec_all_eq(var_vec_b16[0], var_vec_s16[1]);
116 *var_cc24t++ = vec_all_eq(var_vec_b16[0], var_vec_u16[1]);
117 *var_cc24t++ = vec_all_eq(var_vec_b32[0], var_vec_b32[1]);
118 *var_cc24t++ = vec_all_eq(var_vec_b32[0], var_vec_s32[1]);
119 *var_cc24t++ = vec_all_eq(var_vec_b32[0], var_vec_u32[1]);
120 *var_cc24t++ = vec_all_eq(var_vec_b8[0], var_vec_b8[1]);
121 *var_cc24t++ = vec_all_eq(var_vec_b8[0], var_vec_s8[1]);
122 *var_cc24t++ = vec_all_eq(var_vec_b8[0], var_vec_u8[1]);
123 *var_cc24t++ = vec_all_eq(var_vec_f32[0], var_vec_f32[1]);
124 *var_cc24t++ = vec_all_eq(var_vec_p16[0], var_vec_p16[1]);
125 *var_cc24t++ = vec_all_eq(var_vec_s16[0], var_vec_b16[1]);
126 *var_cc24t++ = vec_all_eq(var_vec_s16[0], var_vec_s16[1]);
127 *var_cc24t++ = vec_all_eq(var_vec_s32[0], var_vec_b32[1]);
128 *var_cc24t++ = vec_all_eq(var_vec_s32[0], var_vec_s32[1]);
129 *var_cc24t++ = vec_all_eq(var_vec_s8[0], var_vec_b8[1]);
130 *var_cc24t++ = vec_all_eq(var_vec_s8[0], var_vec_s8[1]);
131 *var_cc24t++ = vec_all_eq(var_vec_u16[0], var_vec_b16[1]);
132 *var_cc24t++ = vec_all_eq(var_vec_u16[0], var_vec_u16[1]);
133 *var_cc24t++ = vec_all_eq(var_vec_u32[0], var_vec_b32[1]);
134 *var_cc24t++ = vec_all_eq(var_vec_u32[0], var_vec_u32[1]);
135 *var_cc24t++ = vec_all_eq(var_vec_u8[0], var_vec_b8[1]);
136 *var_cc24t++ = vec_all_eq(var_vec_u8[0], var_vec_u8[1]);
137 *var_cc24t++ = vec_all_ge(var_vec_f32[0], var_vec_f32[1]);
138 *var_cc24t++ = vec_all_gt(var_vec_b16[0], var_vec_s16[1]);
139 *var_cc24t++ = vec_all_gt(var_vec_b16[0], var_vec_u16[1]);
140 *var_cc24t++ = vec_all_gt(var_vec_b32[0], var_vec_s32[1]);
141 *var_cc24t++ = vec_all_gt(var_vec_b32[0], var_vec_u32[1]);
142 *var_cc24t++ = vec_all_gt(var_vec_b8[0], var_vec_s8[1]);
143 *var_cc24t++ = vec_all_gt(var_vec_b8[0], var_vec_u8[1]);
144 *var_cc24t++ = vec_all_gt(var_vec_f32[0], var_vec_f32[1]);
145 *var_cc24t++ = vec_all_gt(var_vec_s16[0], var_vec_b16[1]);
146 *var_cc24t++ = vec_all_gt(var_vec_s16[0], var_vec_s16[1]);
147 *var_cc24t++ = vec_all_gt(var_vec_s32[0], var_vec_b32[1]);
148 *var_cc24t++ = vec_all_gt(var_vec_s32[0], var_vec_s32[1]);
149 *var_cc24t++ = vec_all_gt(var_vec_s8[0], var_vec_b8[1]);
151 void f1() {
152 *var_cc24t++ = vec_all_gt(var_vec_s8[0], var_vec_s8[1]);
153 *var_cc24t++ = vec_all_gt(var_vec_u16[0], var_vec_b16[1]);
154 *var_cc24t++ = vec_all_gt(var_vec_u16[0], var_vec_u16[1]);
155 *var_cc24t++ = vec_all_gt(var_vec_u32[0], var_vec_b32[1]);
156 *var_cc24t++ = vec_all_gt(var_vec_u32[0], var_vec_u32[1]);
157 *var_cc24t++ = vec_all_gt(var_vec_u8[0], var_vec_b8[1]);
158 *var_cc24t++ = vec_all_gt(var_vec_u8[0], var_vec_u8[1]);
159 *var_cc24td++ = vec_all_numeric(var_vec_f32[0]);
160 *var_cc24tr++ = vec_all_le(var_vec_f32[0], var_vec_f32[1]);
161 *var_cc24tr++ = vec_all_lt(var_vec_b16[0], var_vec_s16[1]);
162 *var_cc24tr++ = vec_all_lt(var_vec_b16[0], var_vec_u16[1]);
163 *var_cc24tr++ = vec_all_lt(var_vec_b32[0], var_vec_s32[1]);
164 *var_cc24tr++ = vec_all_lt(var_vec_b32[0], var_vec_u32[1]);
165 *var_cc24tr++ = vec_all_lt(var_vec_b8[0], var_vec_s8[1]);
166 *var_cc24tr++ = vec_all_lt(var_vec_b8[0], var_vec_u8[1]);
167 *var_cc24tr++ = vec_all_lt(var_vec_f32[0], var_vec_f32[1]);
168 *var_cc24tr++ = vec_all_lt(var_vec_s16[0], var_vec_b16[1]);
169 *var_cc24tr++ = vec_all_lt(var_vec_s16[0], var_vec_s16[1]);
170 *var_cc24tr++ = vec_all_lt(var_vec_s32[0], var_vec_b32[1]);
171 *var_cc24tr++ = vec_all_lt(var_vec_s32[0], var_vec_s32[1]);
172 *var_cc24tr++ = vec_all_lt(var_vec_s8[0], var_vec_b8[1]);
173 *var_cc24tr++ = vec_all_lt(var_vec_s8[0], var_vec_s8[1]);
174 *var_cc24tr++ = vec_all_lt(var_vec_u16[0], var_vec_b16[1]);
175 *var_cc24tr++ = vec_all_lt(var_vec_u16[0], var_vec_u16[1]);
176 *var_cc24tr++ = vec_all_lt(var_vec_u32[0], var_vec_b32[1]);
177 *var_cc24tr++ = vec_all_lt(var_vec_u32[0], var_vec_u32[1]);
178 *var_cc24tr++ = vec_all_lt(var_vec_u8[0], var_vec_b8[1]);
179 *var_cc24tr++ = vec_all_lt(var_vec_u8[0], var_vec_u8[1]);
180 *var_cc26f++ = vec_any_eq(var_vec_b16[0], var_vec_b16[1]);
181 *var_cc26f++ = vec_any_eq(var_vec_b16[0], var_vec_s16[1]);
182 *var_cc26f++ = vec_any_eq(var_vec_b16[0], var_vec_u16[1]);
183 *var_cc26f++ = vec_any_eq(var_vec_b32[0], var_vec_b32[1]);
184 *var_cc26f++ = vec_any_eq(var_vec_b32[0], var_vec_s32[1]);
185 *var_cc26f++ = vec_any_eq(var_vec_b32[0], var_vec_u32[1]);
186 *var_cc26f++ = vec_any_eq(var_vec_b8[0], var_vec_b8[1]);
187 *var_cc26f++ = vec_any_eq(var_vec_b8[0], var_vec_s8[1]);
188 *var_cc26f++ = vec_any_eq(var_vec_b8[0], var_vec_u8[1]);
189 *var_cc26f++ = vec_any_eq(var_vec_f32[0], var_vec_f32[1]);
190 *var_cc26f++ = vec_any_eq(var_vec_p16[0], var_vec_p16[1]);
191 *var_cc26f++ = vec_any_eq(var_vec_s16[0], var_vec_b16[1]);
192 *var_cc26f++ = vec_any_eq(var_vec_s16[0], var_vec_s16[1]);
193 *var_cc26f++ = vec_any_eq(var_vec_s32[0], var_vec_b32[1]);
194 *var_cc26f++ = vec_any_eq(var_vec_s32[0], var_vec_s32[1]);
195 *var_cc26f++ = vec_any_eq(var_vec_s8[0], var_vec_b8[1]);
196 *var_cc26f++ = vec_any_eq(var_vec_s8[0], var_vec_s8[1]);
197 *var_cc26f++ = vec_any_eq(var_vec_u16[0], var_vec_b16[1]);
198 *var_cc26f++ = vec_any_eq(var_vec_u16[0], var_vec_u16[1]);
199 *var_cc26f++ = vec_any_eq(var_vec_u32[0], var_vec_b32[1]);
200 *var_cc26f++ = vec_any_eq(var_vec_u32[0], var_vec_u32[1]);
201 *var_cc26f++ = vec_any_eq(var_vec_u8[0], var_vec_b8[1]);
202 *var_cc26f++ = vec_any_eq(var_vec_u8[0], var_vec_u8[1]);
203 *var_cc26f++ = vec_any_ge(var_vec_f32[0], var_vec_f32[1]);
204 *var_cc26f++ = vec_any_gt(var_vec_b16[0], var_vec_s16[1]);
205 *var_cc26f++ = vec_any_gt(var_vec_b16[0], var_vec_u16[1]);
206 *var_cc26f++ = vec_any_gt(var_vec_b32[0], var_vec_s32[1]);
207 *var_cc26f++ = vec_any_gt(var_vec_b32[0], var_vec_u32[1]);
208 *var_cc26f++ = vec_any_gt(var_vec_b8[0], var_vec_s8[1]);
209 *var_cc26f++ = vec_any_gt(var_vec_b8[0], var_vec_u8[1]);
210 *var_cc26f++ = vec_any_gt(var_vec_f32[0], var_vec_f32[1]);
211 *var_cc26f++ = vec_any_gt(var_vec_s16[0], var_vec_b16[1]);
212 *var_cc26f++ = vec_any_gt(var_vec_s16[0], var_vec_s16[1]);
213 *var_cc26f++ = vec_any_gt(var_vec_s32[0], var_vec_b32[1]);
214 *var_cc26f++ = vec_any_gt(var_vec_s32[0], var_vec_s32[1]);
215 *var_cc26f++ = vec_any_gt(var_vec_s8[0], var_vec_b8[1]);
216 *var_cc26f++ = vec_any_gt(var_vec_s8[0], var_vec_s8[1]);
217 *var_cc26f++ = vec_any_gt(var_vec_u16[0], var_vec_b16[1]);
218 *var_cc26f++ = vec_any_gt(var_vec_u16[0], var_vec_u16[1]);
219 *var_cc26f++ = vec_any_gt(var_vec_u32[0], var_vec_b32[1]);
220 *var_cc26f++ = vec_any_gt(var_vec_u32[0], var_vec_u32[1]);
221 *var_cc26f++ = vec_any_gt(var_vec_u8[0], var_vec_b8[1]);
222 *var_cc26f++ = vec_any_gt(var_vec_u8[0], var_vec_u8[1]);
223 *var_cc26f++ = vec_any_out(var_vec_f32[0], var_vec_f32[1]);
224 *var_cc26fd++ = vec_any_numeric(var_vec_f32[0]);
225 *var_cc26fr++ = vec_any_le(var_vec_f32[0], var_vec_f32[1]);
226 *var_cc26fr++ = vec_any_lt(var_vec_b16[0], var_vec_s16[1]);
227 *var_cc26fr++ = vec_any_lt(var_vec_b16[0], var_vec_u16[1]);
228 *var_cc26fr++ = vec_any_lt(var_vec_b32[0], var_vec_s32[1]);
229 *var_cc26fr++ = vec_any_lt(var_vec_b32[0], var_vec_u32[1]);
230 *var_cc26fr++ = vec_any_lt(var_vec_b8[0], var_vec_s8[1]);
231 *var_cc26fr++ = vec_any_lt(var_vec_b8[0], var_vec_u8[1]);
232 *var_cc26fr++ = vec_any_lt(var_vec_f32[0], var_vec_f32[1]);
233 *var_cc26fr++ = vec_any_lt(var_vec_s16[0], var_vec_b16[1]);
234 *var_cc26fr++ = vec_any_lt(var_vec_s16[0], var_vec_s16[1]);
235 *var_cc26fr++ = vec_any_lt(var_vec_s32[0], var_vec_b32[1]);
236 *var_cc26fr++ = vec_any_lt(var_vec_s32[0], var_vec_s32[1]);
237 *var_cc26fr++ = vec_any_lt(var_vec_s8[0], var_vec_b8[1]);
238 *var_cc26fr++ = vec_any_lt(var_vec_s8[0], var_vec_s8[1]);
239 *var_cc26fr++ = vec_any_lt(var_vec_u16[0], var_vec_b16[1]);
240 *var_cc26fr++ = vec_any_lt(var_vec_u16[0], var_vec_u16[1]);
241 *var_cc26fr++ = vec_any_lt(var_vec_u32[0], var_vec_b32[1]);
242 *var_cc26fr++ = vec_any_lt(var_vec_u32[0], var_vec_u32[1]);
243 *var_cc26fr++ = vec_any_lt(var_vec_u8[0], var_vec_b8[1]);
244 *var_cc26fr++ = vec_any_lt(var_vec_u8[0], var_vec_u8[1]);
245 *var_cc26t++ = vec_all_in(var_vec_f32[0], var_vec_f32[1]);
246 *var_cc26t++ = vec_all_le(var_vec_b16[0], var_vec_s16[1]);
247 *var_cc26t++ = vec_all_le(var_vec_b16[0], var_vec_u16[1]);
248 *var_cc26t++ = vec_all_le(var_vec_b32[0], var_vec_s32[1]);
249 *var_cc26t++ = vec_all_le(var_vec_b32[0], var_vec_u32[1]);
250 *var_cc26t++ = vec_all_le(var_vec_b8[0], var_vec_s8[1]);
251 *var_cc26t++ = vec_all_le(var_vec_b8[0], var_vec_u8[1]);
253 void f2() {
254 *var_cc26t++ = vec_all_le(var_vec_s16[0], var_vec_b16[1]);
255 *var_cc26t++ = vec_all_le(var_vec_s16[0], var_vec_s16[1]);
256 *var_cc26t++ = vec_all_le(var_vec_s32[0], var_vec_b32[1]);
257 *var_cc26t++ = vec_all_le(var_vec_s32[0], var_vec_s32[1]);
258 *var_cc26t++ = vec_all_le(var_vec_s8[0], var_vec_b8[1]);
259 *var_cc26t++ = vec_all_le(var_vec_s8[0], var_vec_s8[1]);
260 *var_cc26t++ = vec_all_le(var_vec_u16[0], var_vec_b16[1]);
261 *var_cc26t++ = vec_all_le(var_vec_u16[0], var_vec_u16[1]);
262 *var_cc26t++ = vec_all_le(var_vec_u32[0], var_vec_b32[1]);
263 *var_cc26t++ = vec_all_le(var_vec_u32[0], var_vec_u32[1]);
264 *var_cc26t++ = vec_all_le(var_vec_u8[0], var_vec_b8[1]);
265 *var_cc26t++ = vec_all_le(var_vec_u8[0], var_vec_u8[1]);
266 *var_cc26t++ = vec_all_ne(var_vec_b16[0], var_vec_b16[1]);
267 *var_cc26t++ = vec_all_ne(var_vec_b16[0], var_vec_s16[1]);
268 *var_cc26t++ = vec_all_ne(var_vec_b16[0], var_vec_u16[1]);
269 *var_cc26t++ = vec_all_ne(var_vec_b32[0], var_vec_b32[1]);
270 *var_cc26t++ = vec_all_ne(var_vec_b32[0], var_vec_s32[1]);
271 *var_cc26t++ = vec_all_ne(var_vec_b32[0], var_vec_u32[1]);
272 *var_cc26t++ = vec_all_ne(var_vec_b8[0], var_vec_b8[1]);
273 *var_cc26t++ = vec_all_ne(var_vec_b8[0], var_vec_s8[1]);
274 *var_cc26t++ = vec_all_ne(var_vec_b8[0], var_vec_u8[1]);
275 *var_cc26t++ = vec_all_ne(var_vec_f32[0], var_vec_f32[1]);
276 *var_cc26t++ = vec_all_ne(var_vec_p16[0], var_vec_p16[1]);
277 *var_cc26t++ = vec_all_ne(var_vec_s16[0], var_vec_b16[1]);
278 *var_cc26t++ = vec_all_ne(var_vec_s16[0], var_vec_s16[1]);
279 *var_cc26t++ = vec_all_ne(var_vec_s32[0], var_vec_b32[1]);
280 *var_cc26t++ = vec_all_ne(var_vec_s32[0], var_vec_s32[1]);
281 *var_cc26t++ = vec_all_ne(var_vec_s8[0], var_vec_b8[1]);
282 *var_cc26t++ = vec_all_ne(var_vec_s8[0], var_vec_s8[1]);
283 *var_cc26t++ = vec_all_ne(var_vec_u16[0], var_vec_b16[1]);
284 *var_cc26t++ = vec_all_ne(var_vec_u16[0], var_vec_u16[1]);
285 *var_cc26t++ = vec_all_ne(var_vec_u32[0], var_vec_b32[1]);
286 *var_cc26t++ = vec_all_ne(var_vec_u32[0], var_vec_u32[1]);
287 *var_cc26t++ = vec_all_ne(var_vec_u8[0], var_vec_b8[1]);
288 *var_cc26t++ = vec_all_ne(var_vec_u8[0], var_vec_u8[1]);
289 *var_cc26t++ = vec_all_nge(var_vec_f32[0], var_vec_f32[1]);
290 *var_cc26t++ = vec_all_ngt(var_vec_f32[0], var_vec_f32[1]);
291 *var_cc26td++ = vec_all_nan(var_vec_f32[0]);
292 *var_cc26tr++ = vec_all_ge(var_vec_b16[0], var_vec_s16[1]);
293 *var_cc26tr++ = vec_all_ge(var_vec_b16[0], var_vec_u16[1]);
294 *var_cc26tr++ = vec_all_ge(var_vec_b32[0], var_vec_s32[1]);
295 *var_cc26tr++ = vec_all_ge(var_vec_b32[0], var_vec_u32[1]);
296 *var_cc26tr++ = vec_all_ge(var_vec_b8[0], var_vec_s8[1]);
297 *var_cc26tr++ = vec_all_ge(var_vec_b8[0], var_vec_u8[1]);
298 *var_cc26tr++ = vec_all_ge(var_vec_s16[0], var_vec_b16[1]);
299 *var_cc26tr++ = vec_all_ge(var_vec_s16[0], var_vec_s16[1]);
300 *var_cc26tr++ = vec_all_ge(var_vec_s32[0], var_vec_b32[1]);
301 *var_cc26tr++ = vec_all_ge(var_vec_s32[0], var_vec_s32[1]);
302 *var_cc26tr++ = vec_all_ge(var_vec_s8[0], var_vec_b8[1]);
303 *var_cc26tr++ = vec_all_ge(var_vec_s8[0], var_vec_s8[1]);
304 *var_cc26tr++ = vec_all_ge(var_vec_u16[0], var_vec_b16[1]);
305 *var_cc26tr++ = vec_all_ge(var_vec_u16[0], var_vec_u16[1]);
306 *var_cc26tr++ = vec_all_ge(var_vec_u32[0], var_vec_b32[1]);
307 *var_cc26tr++ = vec_all_ge(var_vec_u32[0], var_vec_u32[1]);
308 *var_cc26tr++ = vec_all_ge(var_vec_u8[0], var_vec_b8[1]);
309 *var_cc26tr++ = vec_all_ge(var_vec_u8[0], var_vec_u8[1]);
310 *var_cc26tr++ = vec_all_nle(var_vec_f32[0], var_vec_f32[1]);
311 *var_cc26tr++ = vec_all_nlt(var_vec_f32[0], var_vec_f32[1]);
312 *var_vec_b16++ = vec_and(var_vec_b16[0], var_vec_b16[1]);
313 *var_vec_b16++ = vec_andc(var_vec_b16[0], var_vec_b16[1]);
314 *var_vec_b16++ = vec_cmpeq(var_vec_s16[0], var_vec_s16[1]);
315 *var_vec_b16++ = vec_cmpeq(var_vec_u16[0], var_vec_u16[1]);
316 *var_vec_b16++ = vec_cmpgt(var_vec_s16[0], var_vec_s16[1]);
317 *var_vec_b16++ = vec_cmpgt(var_vec_u16[0], var_vec_u16[1]);
318 *var_vec_b16++ = vec_ld(var_int[0], var_vec_b16_ptr[1]);
319 *var_vec_b16++ = vec_ldl(var_int[0], var_vec_b16_ptr[1]);
320 *var_vec_b16++ = vec_lvx(var_int[0], var_vec_b16_ptr[1]);
321 *var_vec_b16++ = vec_lvxl(var_int[0], var_vec_b16_ptr[1]);
322 *var_vec_b16++ = vec_mergeh(var_vec_b16[0], var_vec_b16[1]);
323 *var_vec_b16++ = vec_mergel(var_vec_b16[0], var_vec_b16[1]);
324 *var_vec_b16++ = vec_nor(var_vec_b16[0], var_vec_b16[1]);
325 *var_vec_b16++ = vec_or(var_vec_b16[0], var_vec_b16[1]);
326 *var_vec_b16++ = vec_pack(var_vec_b32[0], var_vec_b32[1]);
327 *var_vec_b16++ = vec_perm(var_vec_b16[0], var_vec_b16[1], var_vec_u8[2]);
328 *var_vec_b16++ = vec_sel(var_vec_b16[0], var_vec_b16[1], var_vec_b16[2]);
329 *var_vec_b16++ = vec_sel(var_vec_b16[0], var_vec_b16[1], var_vec_u16[2]);
330 *var_vec_b16++ = vec_sll(var_vec_b16[0], var_vec_u16[1]);
331 *var_vec_b16++ = vec_sll(var_vec_b16[0], var_vec_u32[1]);
332 *var_vec_b16++ = vec_sll(var_vec_b16[0], var_vec_u8[1]);
333 *var_vec_b16++ = vec_splat(var_vec_b16[0], 0);
334 *var_vec_b16++ = vec_splat(var_vec_b16[0], 1);
335 *var_vec_b16++ = vec_splat(var_vec_b16[0], 2);
336 *var_vec_b16++ = vec_splat(var_vec_b16[0], 3);
337 *var_vec_b16++ = vec_splat(var_vec_b16[0], 4);
338 *var_vec_b16++ = vec_splat(var_vec_b16[0], 5);
339 *var_vec_b16++ = vec_splat(var_vec_b16[0], 6);
340 *var_vec_b16++ = vec_splat(var_vec_b16[0], 7);
341 *var_vec_b16++ = vec_splat(var_vec_b16[0], 8);
342 *var_vec_b16++ = vec_splat(var_vec_b16[0], 9);
343 *var_vec_b16++ = vec_splat(var_vec_b16[0], 10);
344 *var_vec_b16++ = vec_splat(var_vec_b16[0], 11);
345 *var_vec_b16++ = vec_splat(var_vec_b16[0], 12);
346 *var_vec_b16++ = vec_splat(var_vec_b16[0], 13);
347 *var_vec_b16++ = vec_splat(var_vec_b16[0], 14);
348 *var_vec_b16++ = vec_splat(var_vec_b16[0], 15);
349 *var_vec_b16++ = vec_splat(var_vec_b16[0], 16);
350 *var_vec_b16++ = vec_splat(var_vec_b16[0], 17);
351 *var_vec_b16++ = vec_splat(var_vec_b16[0], 18);
352 *var_vec_b16++ = vec_splat(var_vec_b16[0], 19);
353 *var_vec_b16++ = vec_splat(var_vec_b16[0], 20);
355 void f3() {
356 *var_vec_b16++ = vec_splat(var_vec_b16[0], 21);
357 *var_vec_b16++ = vec_splat(var_vec_b16[0], 22);
358 *var_vec_b16++ = vec_splat(var_vec_b16[0], 23);
359 *var_vec_b16++ = vec_splat(var_vec_b16[0], 24);
360 *var_vec_b16++ = vec_splat(var_vec_b16[0], 25);
361 *var_vec_b16++ = vec_splat(var_vec_b16[0], 26);
362 *var_vec_b16++ = vec_splat(var_vec_b16[0], 27);
363 *var_vec_b16++ = vec_splat(var_vec_b16[0], 28);
364 *var_vec_b16++ = vec_splat(var_vec_b16[0], 29);
365 *var_vec_b16++ = vec_splat(var_vec_b16[0], 30);
366 *var_vec_b16++ = vec_splat(var_vec_b16[0], 31);
367 *var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u16[1]);
368 *var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u32[1]);
369 *var_vec_b16++ = vec_srl(var_vec_b16[0], var_vec_u8[1]);
370 *var_vec_b16++ = vec_unpackh(var_vec_b8[0]);
371 *var_vec_b16++ = vec_unpackl(var_vec_b8[0]);
372 *var_vec_b16++ = vec_vand(var_vec_b16[0], var_vec_b16[1]);
373 *var_vec_b16++ = vec_vandc(var_vec_b16[0], var_vec_b16[1]);
374 *var_vec_b16++ = vec_vcmpequh(var_vec_s16[0], var_vec_s16[1]);
375 *var_vec_b16++ = vec_vcmpequh(var_vec_u16[0], var_vec_u16[1]);
376 *var_vec_b16++ = vec_vcmpgtsh(var_vec_s16[0], var_vec_s16[1]);
377 *var_vec_b16++ = vec_vcmpgtuh(var_vec_u16[0], var_vec_u16[1]);
378 *var_vec_b16++ = vec_vmrghh(var_vec_b16[0], var_vec_b16[1]);
379 *var_vec_b16++ = vec_vmrglh(var_vec_b16[0], var_vec_b16[1]);
380 *var_vec_b16++ = vec_vnor(var_vec_b16[0], var_vec_b16[1]);
381 *var_vec_b16++ = vec_vor(var_vec_b16[0], var_vec_b16[1]);
382 *var_vec_b16++ = vec_vperm(var_vec_b16[0], var_vec_b16[1], var_vec_u8[2]);
383 *var_vec_b16++ = vec_vpkuwum(var_vec_b32[0], var_vec_b32[1]);
384 *var_vec_b16++ = vec_vsel(var_vec_b16[0], var_vec_b16[1], var_vec_b16[2]);
385 *var_vec_b16++ = vec_vsel(var_vec_b16[0], var_vec_b16[1], var_vec_u16[2]);
386 *var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u16[1]);
387 *var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u32[1]);
388 *var_vec_b16++ = vec_vsl(var_vec_b16[0], var_vec_u8[1]);
389 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 0);
390 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 1);
391 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 2);
392 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 3);
393 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 4);
394 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 5);
395 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 6);
396 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 7);
397 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 8);
398 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 9);
399 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 10);
400 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 11);
401 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 12);
402 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 13);
403 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 14);
404 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 15);
405 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 16);
406 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 17);
407 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 18);
408 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 19);
409 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 20);
410 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 21);
411 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 22);
412 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 23);
413 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 24);
414 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 25);
415 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 26);
416 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 27);
417 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 28);
418 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 29);
419 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 30);
420 *var_vec_b16++ = vec_vsplth(var_vec_b16[0], 31);
421 *var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u16[1]);
422 *var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u32[1]);
423 *var_vec_b16++ = vec_vsr(var_vec_b16[0], var_vec_u8[1]);
424 *var_vec_b16++ = vec_vupkhsb(var_vec_b8[0]);
425 *var_vec_b16++ = vec_vupklsb(var_vec_b8[0]);
426 *var_vec_b16++ = vec_vxor(var_vec_b16[0], var_vec_b16[1]);
427 *var_vec_b16++ = vec_xor(var_vec_b16[0], var_vec_b16[1]);
428 *var_vec_b32++ = vec_and(var_vec_b32[0], var_vec_b32[1]);
429 *var_vec_b32++ = vec_andc(var_vec_b32[0], var_vec_b32[1]);
430 *var_vec_b32++ = vec_cmpeq(var_vec_f32[0], var_vec_f32[1]);
431 *var_vec_b32++ = vec_cmpeq(var_vec_s32[0], var_vec_s32[1]);
432 *var_vec_b32++ = vec_cmpeq(var_vec_u32[0], var_vec_u32[1]);
433 *var_vec_b32++ = vec_cmpge(var_vec_f32[0], var_vec_f32[1]);
434 *var_vec_b32++ = vec_cmpgt(var_vec_f32[0], var_vec_f32[1]);
435 *var_vec_b32++ = vec_cmpgt(var_vec_s32[0], var_vec_s32[1]);
436 *var_vec_b32++ = vec_cmpgt(var_vec_u32[0], var_vec_u32[1]);
437 *var_vec_b32++ = vec_ld(var_int[0], var_vec_b32_ptr[1]);
438 *var_vec_b32++ = vec_ldl(var_int[0], var_vec_b32_ptr[1]);
439 *var_vec_b32++ = vec_lvx(var_int[0], var_vec_b32_ptr[1]);
440 *var_vec_b32++ = vec_lvxl(var_int[0], var_vec_b32_ptr[1]);
441 *var_vec_b32++ = vec_mergeh(var_vec_b32[0], var_vec_b32[1]);
442 *var_vec_b32++ = vec_mergel(var_vec_b32[0], var_vec_b32[1]);
443 *var_vec_b32++ = vec_nor(var_vec_b32[0], var_vec_b32[1]);
444 *var_vec_b32++ = vec_or(var_vec_b32[0], var_vec_b32[1]);
445 *var_vec_b32++ = vec_perm(var_vec_b32[0], var_vec_b32[1], var_vec_u8[2]);
446 *var_vec_b32++ = vec_sel(var_vec_b32[0], var_vec_b32[1], var_vec_b32[2]);
447 *var_vec_b32++ = vec_sel(var_vec_b32[0], var_vec_b32[1], var_vec_u32[2]);
448 *var_vec_b32++ = vec_sll(var_vec_b32[0], var_vec_u16[1]);
449 *var_vec_b32++ = vec_sll(var_vec_b32[0], var_vec_u32[1]);
450 *var_vec_b32++ = vec_sll(var_vec_b32[0], var_vec_u8[1]);
451 *var_vec_b32++ = vec_splat(var_vec_b32[0], 0);
452 *var_vec_b32++ = vec_splat(var_vec_b32[0], 1);
453 *var_vec_b32++ = vec_splat(var_vec_b32[0], 2);
454 *var_vec_b32++ = vec_splat(var_vec_b32[0], 3);
455 *var_vec_b32++ = vec_splat(var_vec_b32[0], 4);
457 void f4() {
458 *var_vec_b32++ = vec_splat(var_vec_b32[0], 5);
459 *var_vec_b32++ = vec_splat(var_vec_b32[0], 6);
460 *var_vec_b32++ = vec_splat(var_vec_b32[0], 7);
461 *var_vec_b32++ = vec_splat(var_vec_b32[0], 8);
462 *var_vec_b32++ = vec_splat(var_vec_b32[0], 9);
463 *var_vec_b32++ = vec_splat(var_vec_b32[0], 10);
464 *var_vec_b32++ = vec_splat(var_vec_b32[0], 11);
465 *var_vec_b32++ = vec_splat(var_vec_b32[0], 12);
466 *var_vec_b32++ = vec_splat(var_vec_b32[0], 13);
467 *var_vec_b32++ = vec_splat(var_vec_b32[0], 14);
468 *var_vec_b32++ = vec_splat(var_vec_b32[0], 15);
469 *var_vec_b32++ = vec_splat(var_vec_b32[0], 16);
470 *var_vec_b32++ = vec_splat(var_vec_b32[0], 17);
471 *var_vec_b32++ = vec_splat(var_vec_b32[0], 18);
472 *var_vec_b32++ = vec_splat(var_vec_b32[0], 19);
473 *var_vec_b32++ = vec_splat(var_vec_b32[0], 20);
474 *var_vec_b32++ = vec_splat(var_vec_b32[0], 21);
475 *var_vec_b32++ = vec_splat(var_vec_b32[0], 22);
476 *var_vec_b32++ = vec_splat(var_vec_b32[0], 23);
477 *var_vec_b32++ = vec_splat(var_vec_b32[0], 24);
478 *var_vec_b32++ = vec_splat(var_vec_b32[0], 25);
479 *var_vec_b32++ = vec_splat(var_vec_b32[0], 26);
480 *var_vec_b32++ = vec_splat(var_vec_b32[0], 27);
481 *var_vec_b32++ = vec_splat(var_vec_b32[0], 28);
482 *var_vec_b32++ = vec_splat(var_vec_b32[0], 29);
483 *var_vec_b32++ = vec_splat(var_vec_b32[0], 30);
484 *var_vec_b32++ = vec_splat(var_vec_b32[0], 31);
485 *var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u16[1]);
486 *var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u32[1]);
487 *var_vec_b32++ = vec_srl(var_vec_b32[0], var_vec_u8[1]);
488 *var_vec_b32++ = vec_unpackh(var_vec_b16[0]);
489 *var_vec_b32++ = vec_unpackl(var_vec_b16[0]);
490 *var_vec_b32++ = vec_vand(var_vec_b32[0], var_vec_b32[1]);
491 *var_vec_b32++ = vec_vandc(var_vec_b32[0], var_vec_b32[1]);
492 *var_vec_b32++ = vec_vcmpeqfp(var_vec_f32[0], var_vec_f32[1]);
493 *var_vec_b32++ = vec_vcmpequw(var_vec_s32[0], var_vec_s32[1]);
494 *var_vec_b32++ = vec_vcmpequw(var_vec_u32[0], var_vec_u32[1]);
495 *var_vec_b32++ = vec_vcmpgefp(var_vec_f32[0], var_vec_f32[1]);
496 *var_vec_b32++ = vec_vcmpgtfp(var_vec_f32[0], var_vec_f32[1]);
497 *var_vec_b32++ = vec_vcmpgtsw(var_vec_s32[0], var_vec_s32[1]);
498 *var_vec_b32++ = vec_vcmpgtuw(var_vec_u32[0], var_vec_u32[1]);
499 *var_vec_b32++ = vec_vmrghw(var_vec_b32[0], var_vec_b32[1]);
500 *var_vec_b32++ = vec_vmrglw(var_vec_b32[0], var_vec_b32[1]);
501 *var_vec_b32++ = vec_vnor(var_vec_b32[0], var_vec_b32[1]);
502 *var_vec_b32++ = vec_vor(var_vec_b32[0], var_vec_b32[1]);
503 *var_vec_b32++ = vec_vperm(var_vec_b32[0], var_vec_b32[1], var_vec_u8[2]);
504 *var_vec_b32++ = vec_vsel(var_vec_b32[0], var_vec_b32[1], var_vec_b32[2]);
505 *var_vec_b32++ = vec_vsel(var_vec_b32[0], var_vec_b32[1], var_vec_u32[2]);
506 *var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u16[1]);
507 *var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u32[1]);
508 *var_vec_b32++ = vec_vsl(var_vec_b32[0], var_vec_u8[1]);
509 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 0);
510 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 1);
511 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 2);
512 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 3);
513 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 4);
514 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 5);
515 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 6);
516 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 7);
517 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 8);
518 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 9);
519 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 10);
520 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 11);
521 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 12);
522 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 13);
523 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 14);
524 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 15);
525 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 16);
526 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 17);
527 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 18);
528 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 19);
529 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 20);
530 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 21);
531 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 22);
532 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 23);
533 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 24);
534 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 25);
535 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 26);
536 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 27);
537 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 28);
538 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 29);
539 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 30);
540 *var_vec_b32++ = vec_vspltw(var_vec_b32[0], 31);
541 *var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u16[1]);
542 *var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u32[1]);
543 *var_vec_b32++ = vec_vsr(var_vec_b32[0], var_vec_u8[1]);
544 *var_vec_b32++ = vec_vupkhsh(var_vec_b16[0]);
545 *var_vec_b32++ = vec_vupklsh(var_vec_b16[0]);
546 *var_vec_b32++ = vec_vxor(var_vec_b32[0], var_vec_b32[1]);
547 *var_vec_b32++ = vec_xor(var_vec_b32[0], var_vec_b32[1]);
548 *var_vec_b8++ = vec_and(var_vec_b8[0], var_vec_b8[1]);
549 *var_vec_b8++ = vec_andc(var_vec_b8[0], var_vec_b8[1]);
550 *var_vec_b8++ = vec_cmpeq(var_vec_s8[0], var_vec_s8[1]);
551 *var_vec_b8++ = vec_cmpeq(var_vec_u8[0], var_vec_u8[1]);
552 *var_vec_b8++ = vec_cmpgt(var_vec_s8[0], var_vec_s8[1]);
553 *var_vec_b8++ = vec_cmpgt(var_vec_u8[0], var_vec_u8[1]);
554 *var_vec_b8++ = vec_ld(var_int[0], var_vec_b8_ptr[1]);
555 *var_vec_b8++ = vec_ldl(var_int[0], var_vec_b8_ptr[1]);
556 *var_vec_b8++ = vec_lvx(var_int[0], var_vec_b8_ptr[1]);
557 *var_vec_b8++ = vec_lvxl(var_int[0], var_vec_b8_ptr[1]);
559 void f5() {
560 *var_vec_b8++ = vec_mergeh(var_vec_b8[0], var_vec_b8[1]);
561 *var_vec_b8++ = vec_mergel(var_vec_b8[0], var_vec_b8[1]);
562 *var_vec_b8++ = vec_nor(var_vec_b8[0], var_vec_b8[1]);
563 *var_vec_b8++ = vec_or(var_vec_b8[0], var_vec_b8[1]);
564 *var_vec_b8++ = vec_pack(var_vec_b16[0], var_vec_b16[1]);
565 *var_vec_b8++ = vec_perm(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]);
566 *var_vec_b8++ = vec_sel(var_vec_b8[0], var_vec_b8[1], var_vec_b8[2]);
567 *var_vec_b8++ = vec_sel(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]);
568 *var_vec_b8++ = vec_sll(var_vec_b8[0], var_vec_u16[1]);
569 *var_vec_b8++ = vec_sll(var_vec_b8[0], var_vec_u32[1]);
570 *var_vec_b8++ = vec_sll(var_vec_b8[0], var_vec_u8[1]);
571 *var_vec_b8++ = vec_splat(var_vec_b8[0], 0);
572 *var_vec_b8++ = vec_splat(var_vec_b8[0], 1);
573 *var_vec_b8++ = vec_splat(var_vec_b8[0], 2);
574 *var_vec_b8++ = vec_splat(var_vec_b8[0], 3);
575 *var_vec_b8++ = vec_splat(var_vec_b8[0], 4);
576 *var_vec_b8++ = vec_splat(var_vec_b8[0], 5);
577 *var_vec_b8++ = vec_splat(var_vec_b8[0], 6);
578 *var_vec_b8++ = vec_splat(var_vec_b8[0], 7);
579 *var_vec_b8++ = vec_splat(var_vec_b8[0], 8);
580 *var_vec_b8++ = vec_splat(var_vec_b8[0], 9);
581 *var_vec_b8++ = vec_splat(var_vec_b8[0], 10);
582 *var_vec_b8++ = vec_splat(var_vec_b8[0], 11);
583 *var_vec_b8++ = vec_splat(var_vec_b8[0], 12);
584 *var_vec_b8++ = vec_splat(var_vec_b8[0], 13);
585 *var_vec_b8++ = vec_splat(var_vec_b8[0], 14);
586 *var_vec_b8++ = vec_splat(var_vec_b8[0], 15);
587 *var_vec_b8++ = vec_splat(var_vec_b8[0], 16);
588 *var_vec_b8++ = vec_splat(var_vec_b8[0], 17);
589 *var_vec_b8++ = vec_splat(var_vec_b8[0], 18);
590 *var_vec_b8++ = vec_splat(var_vec_b8[0], 19);
591 *var_vec_b8++ = vec_splat(var_vec_b8[0], 20);
592 *var_vec_b8++ = vec_splat(var_vec_b8[0], 21);
593 *var_vec_b8++ = vec_splat(var_vec_b8[0], 22);
594 *var_vec_b8++ = vec_splat(var_vec_b8[0], 23);
595 *var_vec_b8++ = vec_splat(var_vec_b8[0], 24);
596 *var_vec_b8++ = vec_splat(var_vec_b8[0], 25);
597 *var_vec_b8++ = vec_splat(var_vec_b8[0], 26);
598 *var_vec_b8++ = vec_splat(var_vec_b8[0], 27);
599 *var_vec_b8++ = vec_splat(var_vec_b8[0], 28);
600 *var_vec_b8++ = vec_splat(var_vec_b8[0], 29);
601 *var_vec_b8++ = vec_splat(var_vec_b8[0], 30);
602 *var_vec_b8++ = vec_splat(var_vec_b8[0], 31);
603 *var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u16[1]);
604 *var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u32[1]);
605 *var_vec_b8++ = vec_srl(var_vec_b8[0], var_vec_u8[1]);
606 *var_vec_b8++ = vec_vand(var_vec_b8[0], var_vec_b8[1]);
607 *var_vec_b8++ = vec_vandc(var_vec_b8[0], var_vec_b8[1]);
608 *var_vec_b8++ = vec_vcmpequb(var_vec_s8[0], var_vec_s8[1]);
609 *var_vec_b8++ = vec_vcmpequb(var_vec_u8[0], var_vec_u8[1]);
610 *var_vec_b8++ = vec_vcmpgtsb(var_vec_s8[0], var_vec_s8[1]);
611 *var_vec_b8++ = vec_vcmpgtub(var_vec_u8[0], var_vec_u8[1]);
612 *var_vec_b8++ = vec_vmrghb(var_vec_b8[0], var_vec_b8[1]);
613 *var_vec_b8++ = vec_vmrglb(var_vec_b8[0], var_vec_b8[1]);
614 *var_vec_b8++ = vec_vnor(var_vec_b8[0], var_vec_b8[1]);
615 *var_vec_b8++ = vec_vor(var_vec_b8[0], var_vec_b8[1]);
616 *var_vec_b8++ = vec_vperm(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]);
617 *var_vec_b8++ = vec_vpkuhum(var_vec_b16[0], var_vec_b16[1]);
618 *var_vec_b8++ = vec_vsel(var_vec_b8[0], var_vec_b8[1], var_vec_b8[2]);
619 *var_vec_b8++ = vec_vsel(var_vec_b8[0], var_vec_b8[1], var_vec_u8[2]);
620 *var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u16[1]);
621 *var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u32[1]);
622 *var_vec_b8++ = vec_vsl(var_vec_b8[0], var_vec_u8[1]);
623 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 0);
624 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 1);
625 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 2);
626 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 3);
627 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 4);
628 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 5);
629 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 6);
630 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 7);
631 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 8);
632 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 9);
633 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 10);
634 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 11);
635 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 12);
636 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 13);
637 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 14);
638 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 15);
639 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 16);
640 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 17);
641 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 18);
642 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 19);
643 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 20);
644 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 21);
645 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 22);
646 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 23);
647 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 24);
648 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 25);
649 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 26);
650 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 27);
651 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 28);
652 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 29);
653 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 30);
654 *var_vec_b8++ = vec_vspltb(var_vec_b8[0], 31);
655 *var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u16[1]);
656 *var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u32[1]);
657 *var_vec_b8++ = vec_vsr(var_vec_b8[0], var_vec_u8[1]);
658 *var_vec_b8++ = vec_vxor(var_vec_b8[0], var_vec_b8[1]);
659 *var_vec_b8++ = vec_xor(var_vec_b8[0], var_vec_b8[1]);
661 void f6() {
662 *var_vec_f32++ = vec_add(var_vec_f32[0], var_vec_f32[1]);
663 *var_vec_f32++ = vec_and(var_vec_b32[0], var_vec_f32[1]);
664 *var_vec_f32++ = vec_and(var_vec_f32[0], var_vec_b32[1]);
665 *var_vec_f32++ = vec_and(var_vec_f32[0], var_vec_f32[1]);
666 *var_vec_f32++ = vec_andc(var_vec_b32[0], var_vec_f32[1]);
667 *var_vec_f32++ = vec_andc(var_vec_f32[0], var_vec_b32[1]);
668 *var_vec_f32++ = vec_andc(var_vec_f32[0], var_vec_f32[1]);
669 *var_vec_f32++ = vec_ceil(var_vec_f32[0]);
670 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 0);
671 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 1);
672 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 2);
673 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 3);
674 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 4);
675 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 5);
676 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 6);
677 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 7);
678 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 8);
679 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 9);
680 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 10);
681 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 11);
682 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 12);
683 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 13);
684 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 14);
685 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 15);
686 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 16);
687 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 17);
688 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 18);
689 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 19);
690 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 20);
691 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 21);
692 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 22);
693 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 23);
694 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 24);
695 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 25);
696 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 26);
697 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 27);
698 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 28);
699 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 29);
700 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 30);
701 *var_vec_f32++ = vec_ctf(var_vec_s32[0], 31);
702 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 0);
703 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 1);
704 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 2);
705 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 3);
706 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 4);
707 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 5);
708 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 6);
709 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 7);
710 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 8);
711 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 9);
712 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 10);
713 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 11);
714 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 12);
715 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 13);
716 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 14);
717 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 15);
718 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 16);
719 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 17);
720 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 18);
721 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 19);
722 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 20);
723 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 21);
724 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 22);
725 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 23);
726 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 24);
727 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 25);
728 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 26);
729 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 27);
730 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 28);
731 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 29);
732 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 30);
733 *var_vec_f32++ = vec_ctf(var_vec_u32[0], 31);
734 *var_vec_f32++ = vec_expte(var_vec_f32[0]);
735 *var_vec_f32++ = vec_floor(var_vec_f32[0]);
736 *var_vec_f32++ = vec_ld(var_int[0], var_float_ptr[1]);
737 *var_vec_f32++ = vec_ld(var_int[0], var_vec_f32_ptr[1]);
738 *var_vec_f32++ = vec_lde(var_int[0], var_float_ptr[1]);
739 *var_vec_f32++ = vec_ldl(var_int[0], var_float_ptr[1]);
740 *var_vec_f32++ = vec_ldl(var_int[0], var_vec_f32_ptr[1]);
741 *var_vec_f32++ = vec_loge(var_vec_f32[0]);
742 *var_vec_f32++ = vec_lvewx(var_int[0], var_float_ptr[1]);
743 *var_vec_f32++ = vec_lvx(var_int[0], var_float_ptr[1]);
744 *var_vec_f32++ = vec_lvx(var_int[0], var_vec_f32_ptr[1]);
745 *var_vec_f32++ = vec_lvxl(var_int[0], var_float_ptr[1]);
746 *var_vec_f32++ = vec_lvxl(var_int[0], var_vec_f32_ptr[1]);
747 *var_vec_f32++ = vec_madd(var_vec_f32[0], var_vec_f32[1], var_vec_f32[2]);
748 *var_vec_f32++ = vec_max(var_vec_f32[0], var_vec_f32[1]);
749 *var_vec_f32++ = vec_mergeh(var_vec_f32[0], var_vec_f32[1]);
750 *var_vec_f32++ = vec_mergel(var_vec_f32[0], var_vec_f32[1]);
751 *var_vec_f32++ = vec_min(var_vec_f32[0], var_vec_f32[1]);
752 *var_vec_f32++ = vec_nmsub(var_vec_f32[0], var_vec_f32[1], var_vec_f32[2]);
753 *var_vec_f32++ = vec_nor(var_vec_f32[0], var_vec_f32[1]);
754 *var_vec_f32++ = vec_or(var_vec_b32[0], var_vec_f32[1]);
755 *var_vec_f32++ = vec_or(var_vec_f32[0], var_vec_b32[1]);
756 *var_vec_f32++ = vec_or(var_vec_f32[0], var_vec_f32[1]);
757 *var_vec_f32++ = vec_perm(var_vec_f32[0], var_vec_f32[1], var_vec_u8[2]);
758 *var_vec_f32++ = vec_re(var_vec_f32[0]);
759 *var_vec_f32++ = vec_round(var_vec_f32[0]);
760 *var_vec_f32++ = vec_rsqrte(var_vec_f32[0]);
761 *var_vec_f32++ = vec_sel(var_vec_f32[0], var_vec_f32[1], var_vec_b32[2]);
763 void f7() {
764 *var_vec_f32++ = vec_sel(var_vec_f32[0], var_vec_f32[1], var_vec_u32[2]);
765 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 0);
766 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 1);
767 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 2);
768 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 3);
769 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 4);
770 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 5);
771 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 6);
772 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 7);
773 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 8);
774 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 9);
775 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 10);
776 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 11);
777 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 12);
778 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 13);
779 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 14);
780 *var_vec_f32++ = vec_sld(var_vec_f32[0], var_vec_f32[1], 15);
781 *var_vec_f32++ = vec_slo(var_vec_f32[0], var_vec_s8[1]);
782 *var_vec_f32++ = vec_slo(var_vec_f32[0], var_vec_u8[1]);
783 *var_vec_f32++ = vec_splat(var_vec_f32[0], 0);
784 *var_vec_f32++ = vec_splat(var_vec_f32[0], 1);
785 *var_vec_f32++ = vec_splat(var_vec_f32[0], 2);
786 *var_vec_f32++ = vec_splat(var_vec_f32[0], 3);
787 *var_vec_f32++ = vec_splat(var_vec_f32[0], 4);
788 *var_vec_f32++ = vec_splat(var_vec_f32[0], 5);
789 *var_vec_f32++ = vec_splat(var_vec_f32[0], 6);
790 *var_vec_f32++ = vec_splat(var_vec_f32[0], 7);
791 *var_vec_f32++ = vec_splat(var_vec_f32[0], 8);
792 *var_vec_f32++ = vec_splat(var_vec_f32[0], 9);
793 *var_vec_f32++ = vec_splat(var_vec_f32[0], 10);
794 *var_vec_f32++ = vec_splat(var_vec_f32[0], 11);
795 *var_vec_f32++ = vec_splat(var_vec_f32[0], 12);
796 *var_vec_f32++ = vec_splat(var_vec_f32[0], 13);
797 *var_vec_f32++ = vec_splat(var_vec_f32[0], 14);
798 *var_vec_f32++ = vec_splat(var_vec_f32[0], 15);
799 *var_vec_f32++ = vec_splat(var_vec_f32[0], 16);
800 *var_vec_f32++ = vec_splat(var_vec_f32[0], 17);
801 *var_vec_f32++ = vec_splat(var_vec_f32[0], 18);
802 *var_vec_f32++ = vec_splat(var_vec_f32[0], 19);
803 *var_vec_f32++ = vec_splat(var_vec_f32[0], 20);
804 *var_vec_f32++ = vec_splat(var_vec_f32[0], 21);
805 *var_vec_f32++ = vec_splat(var_vec_f32[0], 22);
806 *var_vec_f32++ = vec_splat(var_vec_f32[0], 23);
807 *var_vec_f32++ = vec_splat(var_vec_f32[0], 24);
808 *var_vec_f32++ = vec_splat(var_vec_f32[0], 25);
809 *var_vec_f32++ = vec_splat(var_vec_f32[0], 26);
810 *var_vec_f32++ = vec_splat(var_vec_f32[0], 27);
811 *var_vec_f32++ = vec_splat(var_vec_f32[0], 28);
812 *var_vec_f32++ = vec_splat(var_vec_f32[0], 29);
813 *var_vec_f32++ = vec_splat(var_vec_f32[0], 30);
814 *var_vec_f32++ = vec_splat(var_vec_f32[0], 31);
815 *var_vec_f32++ = vec_sro(var_vec_f32[0], var_vec_s8[1]);
816 *var_vec_f32++ = vec_sro(var_vec_f32[0], var_vec_u8[1]);
817 *var_vec_f32++ = vec_sub(var_vec_f32[0], var_vec_f32[1]);
818 *var_vec_f32++ = vec_trunc(var_vec_f32[0]);
819 *var_vec_f32++ = vec_vaddfp(var_vec_f32[0], var_vec_f32[1]);
820 *var_vec_f32++ = vec_vand(var_vec_b32[0], var_vec_f32[1]);
821 *var_vec_f32++ = vec_vand(var_vec_f32[0], var_vec_b32[1]);
822 *var_vec_f32++ = vec_vand(var_vec_f32[0], var_vec_f32[1]);
823 *var_vec_f32++ = vec_vandc(var_vec_b32[0], var_vec_f32[1]);
824 *var_vec_f32++ = vec_vandc(var_vec_f32[0], var_vec_b32[1]);
825 *var_vec_f32++ = vec_vandc(var_vec_f32[0], var_vec_f32[1]);
826 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 0);
827 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 1);
828 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 2);
829 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 3);
830 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 4);
831 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 5);
832 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 6);
833 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 7);
834 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 8);
835 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 9);
836 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 10);
837 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 11);
838 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 12);
839 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 13);
840 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 14);
841 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 15);
842 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 16);
843 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 17);
844 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 18);
845 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 19);
846 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 20);
847 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 21);
848 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 22);
849 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 23);
850 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 24);
851 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 25);
852 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 26);
853 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 27);
854 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 28);
855 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 29);
856 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 30);
857 *var_vec_f32++ = vec_vcfsx(var_vec_s32[0], 31);
858 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 0);
859 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 1);
860 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 2);
861 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 3);
862 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 4);
863 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 5);
865 void f8() {
866 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 6);
867 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 7);
868 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 8);
869 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 9);
870 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 10);
871 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 11);
872 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 12);
873 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 13);
874 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 14);
875 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 15);
876 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 16);
877 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 17);
878 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 18);
879 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 19);
880 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 20);
881 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 21);
882 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 22);
883 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 23);
884 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 24);
885 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 25);
886 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 26);
887 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 27);
888 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 28);
889 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 29);
890 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 30);
891 *var_vec_f32++ = vec_vcfux(var_vec_u32[0], 31);
892 *var_vec_f32++ = vec_vexptefp(var_vec_f32[0]);
893 *var_vec_f32++ = vec_vlogefp(var_vec_f32[0]);
894 *var_vec_f32++ = vec_vmaddfp(var_vec_f32[0], var_vec_f32[1], var_vec_f32[2]);
895 *var_vec_f32++ = vec_vmaxfp(var_vec_f32[0], var_vec_f32[1]);
896 *var_vec_f32++ = vec_vminfp(var_vec_f32[0], var_vec_f32[1]);
897 *var_vec_f32++ = vec_vmrghw(var_vec_f32[0], var_vec_f32[1]);
898 *var_vec_f32++ = vec_vmrglw(var_vec_f32[0], var_vec_f32[1]);
899 *var_vec_f32++ = vec_vnmsubfp(var_vec_f32[0], var_vec_f32[1], var_vec_f32[2]);
900 *var_vec_f32++ = vec_vnor(var_vec_f32[0], var_vec_f32[1]);
901 *var_vec_f32++ = vec_vor(var_vec_b32[0], var_vec_f32[1]);
902 *var_vec_f32++ = vec_vor(var_vec_f32[0], var_vec_b32[1]);
903 *var_vec_f32++ = vec_vor(var_vec_f32[0], var_vec_f32[1]);
904 *var_vec_f32++ = vec_vperm(var_vec_f32[0], var_vec_f32[1], var_vec_u8[2]);
905 *var_vec_f32++ = vec_vrefp(var_vec_f32[0]);
906 *var_vec_f32++ = vec_vrfim(var_vec_f32[0]);
907 *var_vec_f32++ = vec_vrfin(var_vec_f32[0]);
908 *var_vec_f32++ = vec_vrfip(var_vec_f32[0]);
909 *var_vec_f32++ = vec_vrfiz(var_vec_f32[0]);
910 *var_vec_f32++ = vec_vrsqrtefp(var_vec_f32[0]);
911 *var_vec_f32++ = vec_vsel(var_vec_f32[0], var_vec_f32[1], var_vec_b32[2]);
912 *var_vec_f32++ = vec_vsel(var_vec_f32[0], var_vec_f32[1], var_vec_u32[2]);
913 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 0);
914 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 1);
915 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 2);
916 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 3);
917 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 4);
918 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 5);
919 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 6);
920 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 7);
921 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 8);
922 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 9);
923 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 10);
924 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 11);
925 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 12);
926 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 13);
927 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 14);
928 *var_vec_f32++ = vec_vsldoi(var_vec_f32[0], var_vec_f32[1], 15);
929 *var_vec_f32++ = vec_vslo(var_vec_f32[0], var_vec_s8[1]);
930 *var_vec_f32++ = vec_vslo(var_vec_f32[0], var_vec_u8[1]);
931 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 0);
932 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 1);
933 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 2);
934 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 3);
935 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 4);
936 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 5);
937 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 6);
938 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 7);
939 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 8);
940 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 9);
941 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 10);
942 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 11);
943 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 12);
944 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 13);
945 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 14);
946 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 15);
947 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 16);
948 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 17);
949 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 18);
950 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 19);
951 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 20);
952 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 21);
953 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 22);
954 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 23);
955 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 24);
956 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 25);
957 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 26);
958 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 27);
959 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 28);
960 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 29);
961 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 30);
962 *var_vec_f32++ = vec_vspltw(var_vec_f32[0], 31);
963 *var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_s8[1]);
964 *var_vec_f32++ = vec_vsro(var_vec_f32[0], var_vec_u8[1]);
965 *var_vec_f32++ = vec_vsubfp(var_vec_f32[0], var_vec_f32[1]);
967 void f9() {
968 *var_vec_f32++ = vec_vxor(var_vec_b32[0], var_vec_f32[1]);
969 *var_vec_f32++ = vec_vxor(var_vec_f32[0], var_vec_b32[1]);
970 *var_vec_f32++ = vec_vxor(var_vec_f32[0], var_vec_f32[1]);
971 *var_vec_f32++ = vec_xor(var_vec_b32[0], var_vec_f32[1]);
972 *var_vec_f32++ = vec_xor(var_vec_f32[0], var_vec_b32[1]);
973 *var_vec_f32++ = vec_xor(var_vec_f32[0], var_vec_f32[1]);
974 *var_vec_p16++ = vec_ld(var_int[0], var_vec_p16_ptr[1]);
975 *var_vec_p16++ = vec_ldl(var_int[0], var_vec_p16_ptr[1]);
976 *var_vec_p16++ = vec_lvx(var_int[0], var_vec_p16_ptr[1]);
977 *var_vec_p16++ = vec_lvxl(var_int[0], var_vec_p16_ptr[1]);
978 *var_vec_p16++ = vec_mergeh(var_vec_p16[0], var_vec_p16[1]);
979 *var_vec_p16++ = vec_mergel(var_vec_p16[0], var_vec_p16[1]);
980 *var_vec_p16++ = vec_packpx(var_vec_u32[0], var_vec_u32[1]);
981 *var_vec_p16++ = vec_perm(var_vec_p16[0], var_vec_p16[1], var_vec_u8[2]);
982 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 0);
983 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 1);
984 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 2);
985 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 3);
986 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 4);
987 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 5);
988 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 6);
989 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 7);
990 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 8);
991 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 9);
992 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 10);
993 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 11);
994 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 12);
995 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 13);
996 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 14);
997 *var_vec_p16++ = vec_sld(var_vec_p16[0], var_vec_p16[1], 15);
998 *var_vec_p16++ = vec_sll(var_vec_p16[0], var_vec_u16[1]);
999 *var_vec_p16++ = vec_sll(var_vec_p16[0], var_vec_u32[1]);
1000 *var_vec_p16++ = vec_sll(var_vec_p16[0], var_vec_u8[1]);
1001 *var_vec_p16++ = vec_slo(var_vec_p16[0], var_vec_s8[1]);
1002 *var_vec_p16++ = vec_slo(var_vec_p16[0], var_vec_u8[1]);
1003 *var_vec_p16++ = vec_splat(var_vec_p16[0], 0);
1004 *var_vec_p16++ = vec_splat(var_vec_p16[0], 1);
1005 *var_vec_p16++ = vec_splat(var_vec_p16[0], 2);
1006 *var_vec_p16++ = vec_splat(var_vec_p16[0], 3);
1007 *var_vec_p16++ = vec_splat(var_vec_p16[0], 4);
1008 *var_vec_p16++ = vec_splat(var_vec_p16[0], 5);
1009 *var_vec_p16++ = vec_splat(var_vec_p16[0], 6);
1010 *var_vec_p16++ = vec_splat(var_vec_p16[0], 7);
1011 *var_vec_p16++ = vec_splat(var_vec_p16[0], 8);
1012 *var_vec_p16++ = vec_splat(var_vec_p16[0], 9);
1013 *var_vec_p16++ = vec_splat(var_vec_p16[0], 10);
1014 *var_vec_p16++ = vec_splat(var_vec_p16[0], 11);
1015 *var_vec_p16++ = vec_splat(var_vec_p16[0], 12);
1016 *var_vec_p16++ = vec_splat(var_vec_p16[0], 13);
1017 *var_vec_p16++ = vec_splat(var_vec_p16[0], 14);
1018 *var_vec_p16++ = vec_splat(var_vec_p16[0], 15);
1019 *var_vec_p16++ = vec_splat(var_vec_p16[0], 16);
1020 *var_vec_p16++ = vec_splat(var_vec_p16[0], 17);
1021 *var_vec_p16++ = vec_splat(var_vec_p16[0], 18);
1022 *var_vec_p16++ = vec_splat(var_vec_p16[0], 19);
1023 *var_vec_p16++ = vec_splat(var_vec_p16[0], 20);
1024 *var_vec_p16++ = vec_splat(var_vec_p16[0], 21);
1025 *var_vec_p16++ = vec_splat(var_vec_p16[0], 22);
1026 *var_vec_p16++ = vec_splat(var_vec_p16[0], 23);
1027 *var_vec_p16++ = vec_splat(var_vec_p16[0], 24);
1028 *var_vec_p16++ = vec_splat(var_vec_p16[0], 25);
1029 *var_vec_p16++ = vec_splat(var_vec_p16[0], 26);
1030 *var_vec_p16++ = vec_splat(var_vec_p16[0], 27);
1031 *var_vec_p16++ = vec_splat(var_vec_p16[0], 28);
1032 *var_vec_p16++ = vec_splat(var_vec_p16[0], 29);
1033 *var_vec_p16++ = vec_splat(var_vec_p16[0], 30);
1034 *var_vec_p16++ = vec_splat(var_vec_p16[0], 31);
1035 *var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u16[1]);
1036 *var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u32[1]);
1037 *var_vec_p16++ = vec_srl(var_vec_p16[0], var_vec_u8[1]);
1038 *var_vec_p16++ = vec_sro(var_vec_p16[0], var_vec_s8[1]);
1039 *var_vec_p16++ = vec_sro(var_vec_p16[0], var_vec_u8[1]);
1040 *var_vec_p16++ = vec_vmrghh(var_vec_p16[0], var_vec_p16[1]);
1041 *var_vec_p16++ = vec_vmrglh(var_vec_p16[0], var_vec_p16[1]);
1042 *var_vec_p16++ = vec_vperm(var_vec_p16[0], var_vec_p16[1], var_vec_u8[2]);
1043 *var_vec_p16++ = vec_vpkpx(var_vec_u32[0], var_vec_u32[1]);
1044 *var_vec_p16++ = vec_vsl(var_vec_p16[0], var_vec_u16[1]);
1045 *var_vec_p16++ = vec_vsl(var_vec_p16[0], var_vec_u32[1]);
1046 *var_vec_p16++ = vec_vsl(var_vec_p16[0], var_vec_u8[1]);
1047 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 0);
1048 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 1);
1049 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 2);
1050 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 3);
1051 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 4);
1052 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 5);
1053 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 6);
1054 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 7);
1055 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 8);
1056 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 9);
1057 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 10);
1058 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 11);
1059 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 12);
1060 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 13);
1061 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 14);
1062 *var_vec_p16++ = vec_vsldoi(var_vec_p16[0], var_vec_p16[1], 15);
1063 *var_vec_p16++ = vec_vslo(var_vec_p16[0], var_vec_s8[1]);
1064 *var_vec_p16++ = vec_vslo(var_vec_p16[0], var_vec_u8[1]);
1065 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 0);
1066 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 1);
1067 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 2);
1069 void f10() {
1070 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 3);
1071 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 4);
1072 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 5);
1073 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 6);
1074 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 7);
1075 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 8);
1076 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 9);
1077 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 10);
1078 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 11);
1079 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 12);
1080 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 13);
1081 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 14);
1082 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 15);
1083 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 16);
1084 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 17);
1085 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 18);
1086 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 19);
1087 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 20);
1088 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 21);
1089 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 22);
1090 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 23);
1091 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 24);
1092 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 25);
1093 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 26);
1094 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 27);
1095 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 28);
1096 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 29);
1097 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 30);
1098 *var_vec_p16++ = vec_vsplth(var_vec_p16[0], 31);
1099 *var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u16[1]);
1100 *var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u32[1]);
1101 *var_vec_p16++ = vec_vsr(var_vec_p16[0], var_vec_u8[1]);
1102 *var_vec_p16++ = vec_vsro(var_vec_p16[0], var_vec_s8[1]);
1103 *var_vec_p16++ = vec_vsro(var_vec_p16[0], var_vec_u8[1]);
1104 *var_vec_s16++ = vec_add(var_vec_b16[0], var_vec_s16[1]);
1105 *var_vec_s16++ = vec_add(var_vec_s16[0], var_vec_b16[1]);
1106 *var_vec_s16++ = vec_add(var_vec_s16[0], var_vec_s16[1]);
1107 *var_vec_s16++ = vec_adds(var_vec_b16[0], var_vec_s16[1]);
1108 *var_vec_s16++ = vec_adds(var_vec_s16[0], var_vec_b16[1]);
1109 *var_vec_s16++ = vec_adds(var_vec_s16[0], var_vec_s16[1]);
1110 *var_vec_s16++ = vec_and(var_vec_b16[0], var_vec_s16[1]);
1111 *var_vec_s16++ = vec_and(var_vec_s16[0], var_vec_b16[1]);
1112 *var_vec_s16++ = vec_and(var_vec_s16[0], var_vec_s16[1]);
1113 *var_vec_s16++ = vec_andc(var_vec_b16[0], var_vec_s16[1]);
1114 *var_vec_s16++ = vec_andc(var_vec_s16[0], var_vec_b16[1]);
1115 *var_vec_s16++ = vec_andc(var_vec_s16[0], var_vec_s16[1]);
1116 *var_vec_s16++ = vec_avg(var_vec_s16[0], var_vec_s16[1]);
1117 *var_vec_s16++ = vec_ld(var_int[0], var_short_ptr[1]);
1118 *var_vec_s16++ = vec_ld(var_int[0], var_vec_s16_ptr[1]);
1119 *var_vec_s16++ = vec_lde(var_int[0], var_short_ptr[1]);
1120 *var_vec_s16++ = vec_ldl(var_int[0], var_short_ptr[1]);
1121 *var_vec_s16++ = vec_ldl(var_int[0], var_vec_s16_ptr[1]);
1122 *var_vec_s16++ = vec_lvehx(var_int[0], var_short_ptr[1]);
1123 *var_vec_s16++ = vec_lvx(var_int[0], var_short_ptr[1]);
1124 *var_vec_s16++ = vec_lvx(var_int[0], var_vec_s16_ptr[1]);
1125 *var_vec_s16++ = vec_lvxl(var_int[0], var_short_ptr[1]);
1126 *var_vec_s16++ = vec_lvxl(var_int[0], var_vec_s16_ptr[1]);
1127 *var_vec_s16++ = vec_madds(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
1128 *var_vec_s16++ = vec_max(var_vec_b16[0], var_vec_s16[1]);
1129 *var_vec_s16++ = vec_max(var_vec_s16[0], var_vec_b16[1]);
1130 *var_vec_s16++ = vec_max(var_vec_s16[0], var_vec_s16[1]);
1131 *var_vec_s16++ = vec_mergeh(var_vec_s16[0], var_vec_s16[1]);
1132 *var_vec_s16++ = vec_mergel(var_vec_s16[0], var_vec_s16[1]);
1133 *var_vec_s16++ = vec_min(var_vec_b16[0], var_vec_s16[1]);
1134 *var_vec_s16++ = vec_min(var_vec_s16[0], var_vec_b16[1]);
1135 *var_vec_s16++ = vec_min(var_vec_s16[0], var_vec_s16[1]);
1136 *var_vec_s16++ = vec_mladd(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
1137 *var_vec_s16++ = vec_mladd(var_vec_s16[0], var_vec_u16[1], var_vec_u16[2]);
1138 *var_vec_s16++ = vec_mladd(var_vec_u16[0], var_vec_s16[1], var_vec_s16[2]);
1139 *var_vec_s16++ = vec_mradds(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
1140 *var_vec_s16++ = vec_mule(var_vec_s8[0], var_vec_s8[1]);
1141 *var_vec_s16++ = vec_mulo(var_vec_s8[0], var_vec_s8[1]);
1142 *var_vec_s16++ = vec_nor(var_vec_s16[0], var_vec_s16[1]);
1143 *var_vec_s16++ = vec_or(var_vec_b16[0], var_vec_s16[1]);
1144 *var_vec_s16++ = vec_or(var_vec_s16[0], var_vec_b16[1]);
1145 *var_vec_s16++ = vec_or(var_vec_s16[0], var_vec_s16[1]);
1146 *var_vec_s16++ = vec_pack(var_vec_s32[0], var_vec_s32[1]);
1147 *var_vec_s16++ = vec_packs(var_vec_s32[0], var_vec_s32[1]);
1148 *var_vec_s16++ = vec_perm(var_vec_s16[0], var_vec_s16[1], var_vec_u8[2]);
1149 *var_vec_s16++ = vec_rl(var_vec_s16[0], var_vec_u16[1]);
1150 *var_vec_s16++ = vec_sel(var_vec_s16[0], var_vec_s16[1], var_vec_b16[2]);
1151 *var_vec_s16++ = vec_sel(var_vec_s16[0], var_vec_s16[1], var_vec_u16[2]);
1152 *var_vec_s16++ = vec_sl(var_vec_s16[0], var_vec_u16[1]);
1153 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 0);
1154 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 1);
1155 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 2);
1156 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 3);
1157 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 4);
1158 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 5);
1159 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 6);
1160 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 7);
1161 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 8);
1162 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 9);
1163 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 10);
1164 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 11);
1165 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 12);
1166 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 13);
1167 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 14);
1168 *var_vec_s16++ = vec_sld(var_vec_s16[0], var_vec_s16[1], 15);
1169 *var_vec_s16++ = vec_sll(var_vec_s16[0], var_vec_u16[1]);
1171 void f11() {
1172 *var_vec_s16++ = vec_sll(var_vec_s16[0], var_vec_u32[1]);
1173 *var_vec_s16++ = vec_sll(var_vec_s16[0], var_vec_u8[1]);
1174 *var_vec_s16++ = vec_slo(var_vec_s16[0], var_vec_s8[1]);
1175 *var_vec_s16++ = vec_slo(var_vec_s16[0], var_vec_u8[1]);
1176 *var_vec_s16++ = vec_splat(var_vec_s16[0], 0);
1177 *var_vec_s16++ = vec_splat(var_vec_s16[0], 1);
1178 *var_vec_s16++ = vec_splat(var_vec_s16[0], 2);
1179 *var_vec_s16++ = vec_splat(var_vec_s16[0], 3);
1180 *var_vec_s16++ = vec_splat(var_vec_s16[0], 4);
1181 *var_vec_s16++ = vec_splat(var_vec_s16[0], 5);
1182 *var_vec_s16++ = vec_splat(var_vec_s16[0], 6);
1183 *var_vec_s16++ = vec_splat(var_vec_s16[0], 7);
1184 *var_vec_s16++ = vec_splat(var_vec_s16[0], 8);
1185 *var_vec_s16++ = vec_splat(var_vec_s16[0], 9);
1186 *var_vec_s16++ = vec_splat(var_vec_s16[0], 10);
1187 *var_vec_s16++ = vec_splat(var_vec_s16[0], 11);
1188 *var_vec_s16++ = vec_splat(var_vec_s16[0], 12);
1189 *var_vec_s16++ = vec_splat(var_vec_s16[0], 13);
1190 *var_vec_s16++ = vec_splat(var_vec_s16[0], 14);
1191 *var_vec_s16++ = vec_splat(var_vec_s16[0], 15);
1192 *var_vec_s16++ = vec_splat(var_vec_s16[0], 16);
1193 *var_vec_s16++ = vec_splat(var_vec_s16[0], 17);
1194 *var_vec_s16++ = vec_splat(var_vec_s16[0], 18);
1195 *var_vec_s16++ = vec_splat(var_vec_s16[0], 19);
1196 *var_vec_s16++ = vec_splat(var_vec_s16[0], 20);
1197 *var_vec_s16++ = vec_splat(var_vec_s16[0], 21);
1198 *var_vec_s16++ = vec_splat(var_vec_s16[0], 22);
1199 *var_vec_s16++ = vec_splat(var_vec_s16[0], 23);
1200 *var_vec_s16++ = vec_splat(var_vec_s16[0], 24);
1201 *var_vec_s16++ = vec_splat(var_vec_s16[0], 25);
1202 *var_vec_s16++ = vec_splat(var_vec_s16[0], 26);
1203 *var_vec_s16++ = vec_splat(var_vec_s16[0], 27);
1204 *var_vec_s16++ = vec_splat(var_vec_s16[0], 28);
1205 *var_vec_s16++ = vec_splat(var_vec_s16[0], 29);
1206 *var_vec_s16++ = vec_splat(var_vec_s16[0], 30);
1207 *var_vec_s16++ = vec_splat(var_vec_s16[0], 31);
1208 *var_vec_s16++ = vec_splat_s16( 0);
1209 *var_vec_s16++ = vec_splat_s16( 1);
1210 *var_vec_s16++ = vec_splat_s16( 2);
1211 *var_vec_s16++ = vec_splat_s16( 3);
1212 *var_vec_s16++ = vec_splat_s16( 4);
1213 *var_vec_s16++ = vec_splat_s16( 5);
1214 *var_vec_s16++ = vec_splat_s16( 6);
1215 *var_vec_s16++ = vec_splat_s16( 7);
1216 *var_vec_s16++ = vec_splat_s16( 8);
1217 *var_vec_s16++ = vec_splat_s16( 9);
1218 *var_vec_s16++ = vec_splat_s16( -1);
1219 *var_vec_s16++ = vec_splat_s16( -2);
1220 *var_vec_s16++ = vec_splat_s16( -3);
1221 *var_vec_s16++ = vec_splat_s16( -4);
1222 *var_vec_s16++ = vec_splat_s16( -5);
1223 *var_vec_s16++ = vec_splat_s16( -6);
1224 *var_vec_s16++ = vec_splat_s16( -7);
1225 *var_vec_s16++ = vec_splat_s16( -8);
1226 *var_vec_s16++ = vec_splat_s16( -9);
1227 *var_vec_s16++ = vec_splat_s16( 10);
1228 *var_vec_s16++ = vec_splat_s16( 11);
1229 *var_vec_s16++ = vec_splat_s16( 12);
1230 *var_vec_s16++ = vec_splat_s16( 13);
1231 *var_vec_s16++ = vec_splat_s16( 14);
1232 *var_vec_s16++ = vec_splat_s16( 15);
1233 *var_vec_s16++ = vec_splat_s16(-10);
1234 *var_vec_s16++ = vec_splat_s16(-11);
1235 *var_vec_s16++ = vec_splat_s16(-12);
1236 *var_vec_s16++ = vec_splat_s16(-13);
1237 *var_vec_s16++ = vec_splat_s16(-14);
1238 *var_vec_s16++ = vec_splat_s16(-15);
1239 *var_vec_s16++ = vec_splat_s16(-16);
1240 *var_vec_s16++ = vec_sr(var_vec_s16[0], var_vec_u16[1]);
1241 *var_vec_s16++ = vec_sra(var_vec_s16[0], var_vec_u16[1]);
1242 *var_vec_s16++ = vec_srl(var_vec_s16[0], var_vec_u16[1]);
1243 *var_vec_s16++ = vec_srl(var_vec_s16[0], var_vec_u32[1]);
1244 *var_vec_s16++ = vec_srl(var_vec_s16[0], var_vec_u8[1]);
1245 *var_vec_s16++ = vec_sro(var_vec_s16[0], var_vec_s8[1]);
1246 *var_vec_s16++ = vec_sro(var_vec_s16[0], var_vec_u8[1]);
1247 *var_vec_s16++ = vec_sub(var_vec_b16[0], var_vec_s16[1]);
1248 *var_vec_s16++ = vec_sub(var_vec_s16[0], var_vec_b16[1]);
1249 *var_vec_s16++ = vec_sub(var_vec_s16[0], var_vec_s16[1]);
1250 *var_vec_s16++ = vec_subs(var_vec_b16[0], var_vec_s16[1]);
1251 *var_vec_s16++ = vec_subs(var_vec_s16[0], var_vec_b16[1]);
1252 *var_vec_s16++ = vec_subs(var_vec_s16[0], var_vec_s16[1]);
1253 *var_vec_s16++ = vec_unpackh(var_vec_s8[0]);
1254 *var_vec_s16++ = vec_unpackl(var_vec_s8[0]);
1255 *var_vec_s16++ = vec_vaddshs(var_vec_b16[0], var_vec_s16[1]);
1256 *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_b16[1]);
1257 *var_vec_s16++ = vec_vaddshs(var_vec_s16[0], var_vec_s16[1]);
1258 *var_vec_s16++ = vec_vadduhm(var_vec_b16[0], var_vec_s16[1]);
1259 *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_b16[1]);
1260 *var_vec_s16++ = vec_vadduhm(var_vec_s16[0], var_vec_s16[1]);
1261 *var_vec_s16++ = vec_vand(var_vec_b16[0], var_vec_s16[1]);
1262 *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_b16[1]);
1263 *var_vec_s16++ = vec_vand(var_vec_s16[0], var_vec_s16[1]);
1264 *var_vec_s16++ = vec_vandc(var_vec_b16[0], var_vec_s16[1]);
1265 *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_b16[1]);
1266 *var_vec_s16++ = vec_vandc(var_vec_s16[0], var_vec_s16[1]);
1267 *var_vec_s16++ = vec_vavgsh(var_vec_s16[0], var_vec_s16[1]);
1268 *var_vec_s16++ = vec_vmaxsh(var_vec_b16[0], var_vec_s16[1]);
1269 *var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_b16[1]);
1271 void f12() {
1272 *var_vec_s16++ = vec_vmaxsh(var_vec_s16[0], var_vec_s16[1]);
1273 *var_vec_s16++ = vec_vmhaddshs(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
1274 *var_vec_s16++ = vec_vmhraddshs(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
1275 *var_vec_s16++ = vec_vminsh(var_vec_b16[0], var_vec_s16[1]);
1276 *var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_b16[1]);
1277 *var_vec_s16++ = vec_vminsh(var_vec_s16[0], var_vec_s16[1]);
1278 *var_vec_s16++ = vec_vmladduhm(var_vec_s16[0], var_vec_s16[1], var_vec_s16[2]);
1279 *var_vec_s16++ = vec_vmladduhm(var_vec_s16[0], var_vec_u16[1], var_vec_u16[2]);
1280 *var_vec_s16++ = vec_vmladduhm(var_vec_u16[0], var_vec_s16[1], var_vec_s16[2]);
1281 *var_vec_s16++ = vec_vmrghh(var_vec_s16[0], var_vec_s16[1]);
1282 *var_vec_s16++ = vec_vmrglh(var_vec_s16[0], var_vec_s16[1]);
1283 *var_vec_s16++ = vec_vmulesb(var_vec_s8[0], var_vec_s8[1]);
1284 *var_vec_s16++ = vec_vmulosb(var_vec_s8[0], var_vec_s8[1]);
1285 *var_vec_s16++ = vec_vnor(var_vec_s16[0], var_vec_s16[1]);
1286 *var_vec_s16++ = vec_vor(var_vec_b16[0], var_vec_s16[1]);
1287 *var_vec_s16++ = vec_vor(var_vec_s16[0], var_vec_b16[1]);
1288 *var_vec_s16++ = vec_vor(var_vec_s16[0], var_vec_s16[1]);
1289 *var_vec_s16++ = vec_vperm(var_vec_s16[0], var_vec_s16[1], var_vec_u8[2]);
1290 *var_vec_s16++ = vec_vpkswss(var_vec_s32[0], var_vec_s32[1]);
1291 *var_vec_s16++ = vec_vpkuwum(var_vec_s32[0], var_vec_s32[1]);
1292 *var_vec_s16++ = vec_vrlh(var_vec_s16[0], var_vec_u16[1]);
1293 *var_vec_s16++ = vec_vsel(var_vec_s16[0], var_vec_s16[1], var_vec_b16[2]);
1294 *var_vec_s16++ = vec_vsel(var_vec_s16[0], var_vec_s16[1], var_vec_u16[2]);
1295 *var_vec_s16++ = vec_vsl(var_vec_s16[0], var_vec_u16[1]);
1296 *var_vec_s16++ = vec_vsl(var_vec_s16[0], var_vec_u32[1]);
1297 *var_vec_s16++ = vec_vsl(var_vec_s16[0], var_vec_u8[1]);
1298 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 0);
1299 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 1);
1300 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 2);
1301 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 3);
1302 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 4);
1303 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 5);
1304 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 6);
1305 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 7);
1306 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 8);
1307 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 9);
1308 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 10);
1309 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 11);
1310 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 12);
1311 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 13);
1312 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 14);
1313 *var_vec_s16++ = vec_vsldoi(var_vec_s16[0], var_vec_s16[1], 15);
1314 *var_vec_s16++ = vec_vslh(var_vec_s16[0], var_vec_u16[1]);
1315 *var_vec_s16++ = vec_vslo(var_vec_s16[0], var_vec_s8[1]);
1316 *var_vec_s16++ = vec_vslo(var_vec_s16[0], var_vec_u8[1]);
1317 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 0);
1318 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 1);
1319 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 2);
1320 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 3);
1321 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 4);
1322 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 5);
1323 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 6);
1324 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 7);
1325 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 8);
1326 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 9);
1327 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 10);
1328 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 11);
1329 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 12);
1330 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 13);
1331 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 14);
1332 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 15);
1333 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 16);
1334 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 17);
1335 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 18);
1336 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 19);
1337 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 20);
1338 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 21);
1339 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 22);
1340 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 23);
1341 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 24);
1342 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 25);
1343 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 26);
1344 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 27);
1345 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 28);
1346 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 29);
1347 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 30);
1348 *var_vec_s16++ = vec_vsplth(var_vec_s16[0], 31);
1349 *var_vec_s16++ = vec_vspltish( 0);
1350 *var_vec_s16++ = vec_vspltish( 1);
1351 *var_vec_s16++ = vec_vspltish( 2);
1352 *var_vec_s16++ = vec_vspltish( 3);
1353 *var_vec_s16++ = vec_vspltish( 4);
1354 *var_vec_s16++ = vec_vspltish( 5);
1355 *var_vec_s16++ = vec_vspltish( 6);
1356 *var_vec_s16++ = vec_vspltish( 7);
1357 *var_vec_s16++ = vec_vspltish( 8);
1358 *var_vec_s16++ = vec_vspltish( 9);
1359 *var_vec_s16++ = vec_vspltish( -1);
1360 *var_vec_s16++ = vec_vspltish( -2);
1361 *var_vec_s16++ = vec_vspltish( -3);
1362 *var_vec_s16++ = vec_vspltish( -4);
1363 *var_vec_s16++ = vec_vspltish( -5);
1364 *var_vec_s16++ = vec_vspltish( -6);
1365 *var_vec_s16++ = vec_vspltish( -7);
1366 *var_vec_s16++ = vec_vspltish( -8);
1367 *var_vec_s16++ = vec_vspltish( -9);
1368 *var_vec_s16++ = vec_vspltish( 10);
1369 *var_vec_s16++ = vec_vspltish( 11);
1370 *var_vec_s16++ = vec_vspltish( 12);
1371 *var_vec_s16++ = vec_vspltish( 13);
1373 void f13() {
1374 *var_vec_s16++ = vec_vspltish( 14);
1375 *var_vec_s16++ = vec_vspltish( 15);
1376 *var_vec_s16++ = vec_vspltish(-10);
1377 *var_vec_s16++ = vec_vspltish(-11);
1378 *var_vec_s16++ = vec_vspltish(-12);
1379 *var_vec_s16++ = vec_vspltish(-13);
1380 *var_vec_s16++ = vec_vspltish(-14);
1381 *var_vec_s16++ = vec_vspltish(-15);
1382 *var_vec_s16++ = vec_vspltish(-16);
1383 *var_vec_s16++ = vec_vsr(var_vec_s16[0], var_vec_u16[1]);
1384 *var_vec_s16++ = vec_vsr(var_vec_s16[0], var_vec_u32[1]);
1385 *var_vec_s16++ = vec_vsr(var_vec_s16[0], var_vec_u8[1]);
1386 *var_vec_s16++ = vec_vsrah(var_vec_s16[0], var_vec_u16[1]);
1387 *var_vec_s16++ = vec_vsrh(var_vec_s16[0], var_vec_u16[1]);
1388 *var_vec_s16++ = vec_vsro(var_vec_s16[0], var_vec_s8[1]);
1389 *var_vec_s16++ = vec_vsro(var_vec_s16[0], var_vec_u8[1]);
1390 *var_vec_s16++ = vec_vsubshs(var_vec_b16[0], var_vec_s16[1]);
1391 *var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_b16[1]);
1392 *var_vec_s16++ = vec_vsubshs(var_vec_s16[0], var_vec_s16[1]);
1393 *var_vec_s16++ = vec_vsubuhm(var_vec_b16[0], var_vec_s16[1]);
1394 *var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_b16[1]);
1395 *var_vec_s16++ = vec_vsubuhm(var_vec_s16[0], var_vec_s16[1]);
1396 *var_vec_s16++ = vec_vupkhsb(var_vec_s8[0]);
1397 *var_vec_s16++ = vec_vupklsb(var_vec_s8[0]);
1398 *var_vec_s16++ = vec_vxor(var_vec_b16[0], var_vec_s16[1]);
1399 *var_vec_s16++ = vec_vxor(var_vec_s16[0], var_vec_b16[1]);
1400 *var_vec_s16++ = vec_vxor(var_vec_s16[0], var_vec_s16[1]);
1401 *var_vec_s16++ = vec_xor(var_vec_b16[0], var_vec_s16[1]);
1402 *var_vec_s16++ = vec_xor(var_vec_s16[0], var_vec_b16[1]);
1403 *var_vec_s16++ = vec_xor(var_vec_s16[0], var_vec_s16[1]);
1404 *var_vec_s32++ = vec_add(var_vec_b32[0], var_vec_s32[1]);
1405 *var_vec_s32++ = vec_add(var_vec_s32[0], var_vec_b32[1]);
1406 *var_vec_s32++ = vec_add(var_vec_s32[0], var_vec_s32[1]);
1407 *var_vec_s32++ = vec_adds(var_vec_b32[0], var_vec_s32[1]);
1408 *var_vec_s32++ = vec_adds(var_vec_s32[0], var_vec_b32[1]);
1409 *var_vec_s32++ = vec_adds(var_vec_s32[0], var_vec_s32[1]);
1410 *var_vec_s32++ = vec_and(var_vec_b32[0], var_vec_s32[1]);
1411 *var_vec_s32++ = vec_and(var_vec_s32[0], var_vec_b32[1]);
1412 *var_vec_s32++ = vec_and(var_vec_s32[0], var_vec_s32[1]);
1413 *var_vec_s32++ = vec_andc(var_vec_b32[0], var_vec_s32[1]);
1414 *var_vec_s32++ = vec_andc(var_vec_s32[0], var_vec_b32[1]);
1415 *var_vec_s32++ = vec_andc(var_vec_s32[0], var_vec_s32[1]);
1416 *var_vec_s32++ = vec_avg(var_vec_s32[0], var_vec_s32[1]);
1417 *var_vec_s32++ = vec_cmpb(var_vec_f32[0], var_vec_f32[1]);
1418 *var_vec_s32++ = vec_cts(var_vec_f32[0], 0);
1419 *var_vec_s32++ = vec_cts(var_vec_f32[0], 1);
1420 *var_vec_s32++ = vec_cts(var_vec_f32[0], 2);
1421 *var_vec_s32++ = vec_cts(var_vec_f32[0], 3);
1422 *var_vec_s32++ = vec_cts(var_vec_f32[0], 4);
1423 *var_vec_s32++ = vec_cts(var_vec_f32[0], 5);
1424 *var_vec_s32++ = vec_cts(var_vec_f32[0], 6);
1425 *var_vec_s32++ = vec_cts(var_vec_f32[0], 7);
1426 *var_vec_s32++ = vec_cts(var_vec_f32[0], 8);
1427 *var_vec_s32++ = vec_cts(var_vec_f32[0], 9);
1428 *var_vec_s32++ = vec_cts(var_vec_f32[0], 10);
1429 *var_vec_s32++ = vec_cts(var_vec_f32[0], 11);
1430 *var_vec_s32++ = vec_cts(var_vec_f32[0], 12);
1431 *var_vec_s32++ = vec_cts(var_vec_f32[0], 13);
1432 *var_vec_s32++ = vec_cts(var_vec_f32[0], 14);
1433 *var_vec_s32++ = vec_cts(var_vec_f32[0], 15);
1434 *var_vec_s32++ = vec_cts(var_vec_f32[0], 16);
1435 *var_vec_s32++ = vec_cts(var_vec_f32[0], 17);
1436 *var_vec_s32++ = vec_cts(var_vec_f32[0], 18);
1437 *var_vec_s32++ = vec_cts(var_vec_f32[0], 19);
1438 *var_vec_s32++ = vec_cts(var_vec_f32[0], 20);
1439 *var_vec_s32++ = vec_cts(var_vec_f32[0], 21);
1440 *var_vec_s32++ = vec_cts(var_vec_f32[0], 22);
1441 *var_vec_s32++ = vec_cts(var_vec_f32[0], 23);
1442 *var_vec_s32++ = vec_cts(var_vec_f32[0], 24);
1443 *var_vec_s32++ = vec_cts(var_vec_f32[0], 25);
1444 *var_vec_s32++ = vec_cts(var_vec_f32[0], 26);
1445 *var_vec_s32++ = vec_cts(var_vec_f32[0], 27);
1446 *var_vec_s32++ = vec_cts(var_vec_f32[0], 28);
1447 *var_vec_s32++ = vec_cts(var_vec_f32[0], 29);
1448 *var_vec_s32++ = vec_cts(var_vec_f32[0], 30);
1449 *var_vec_s32++ = vec_cts(var_vec_f32[0], 31);
1450 *var_vec_s32++ = vec_ld(var_int[0], var_int_ptr[1]);
1451 *var_vec_s32++ = vec_ld(var_int[0], var_vec_s32_ptr[1]);
1452 *var_vec_s32++ = vec_lde(var_int[0], var_int_ptr[1]);
1453 *var_vec_s32++ = vec_ldl(var_int[0], var_int_ptr[1]);
1454 *var_vec_s32++ = vec_ldl(var_int[0], var_vec_s32_ptr[1]);
1455 *var_vec_s32++ = vec_lvewx(var_int[0], var_int_ptr[1]);
1456 *var_vec_s32++ = vec_lvx(var_int[0], var_int_ptr[1]);
1457 *var_vec_s32++ = vec_lvx(var_int[0], var_vec_s32_ptr[1]);
1458 *var_vec_s32++ = vec_lvxl(var_int[0], var_int_ptr[1]);
1459 *var_vec_s32++ = vec_lvxl(var_int[0], var_vec_s32_ptr[1]);
1460 *var_vec_s32++ = vec_max(var_vec_b32[0], var_vec_s32[1]);
1461 *var_vec_s32++ = vec_max(var_vec_s32[0], var_vec_b32[1]);
1462 *var_vec_s32++ = vec_max(var_vec_s32[0], var_vec_s32[1]);
1463 *var_vec_s32++ = vec_mergeh(var_vec_s32[0], var_vec_s32[1]);
1464 *var_vec_s32++ = vec_mergel(var_vec_s32[0], var_vec_s32[1]);
1465 *var_vec_s32++ = vec_min(var_vec_b32[0], var_vec_s32[1]);
1466 *var_vec_s32++ = vec_min(var_vec_s32[0], var_vec_b32[1]);
1467 *var_vec_s32++ = vec_min(var_vec_s32[0], var_vec_s32[1]);
1469 void f14() {
1470 *var_vec_s32++ = vec_msum(var_vec_s16[0], var_vec_s16[1], var_vec_s32[2]);
1471 *var_vec_s32++ = vec_msum(var_vec_s8[0], var_vec_u8[1], var_vec_s32[2]);
1472 *var_vec_s32++ = vec_msums(var_vec_s16[0], var_vec_s16[1], var_vec_s32[2]);
1473 *var_vec_s32++ = vec_mule(var_vec_s16[0], var_vec_s16[1]);
1474 *var_vec_s32++ = vec_mulo(var_vec_s16[0], var_vec_s16[1]);
1475 *var_vec_s32++ = vec_nor(var_vec_s32[0], var_vec_s32[1]);
1476 *var_vec_s32++ = vec_or(var_vec_b32[0], var_vec_s32[1]);
1477 *var_vec_s32++ = vec_or(var_vec_s32[0], var_vec_b32[1]);
1478 *var_vec_s32++ = vec_or(var_vec_s32[0], var_vec_s32[1]);
1479 *var_vec_s32++ = vec_perm(var_vec_s32[0], var_vec_s32[1], var_vec_u8[2]);
1480 *var_vec_s32++ = vec_rl(var_vec_s32[0], var_vec_u32[1]);
1481 *var_vec_s32++ = vec_sel(var_vec_s32[0], var_vec_s32[1], var_vec_b32[2]);
1482 *var_vec_s32++ = vec_sel(var_vec_s32[0], var_vec_s32[1], var_vec_u32[2]);
1483 *var_vec_s32++ = vec_sl(var_vec_s32[0], var_vec_u32[1]);
1484 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 0);
1485 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 1);
1486 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 2);
1487 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 3);
1488 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 4);
1489 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 5);
1490 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 6);
1491 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 7);
1492 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 8);
1493 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 9);
1494 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 10);
1495 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 11);
1496 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 12);
1497 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 13);
1498 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 14);
1499 *var_vec_s32++ = vec_sld(var_vec_s32[0], var_vec_s32[1], 15);
1500 *var_vec_s32++ = vec_sll(var_vec_s32[0], var_vec_u16[1]);
1501 *var_vec_s32++ = vec_sll(var_vec_s32[0], var_vec_u32[1]);
1502 *var_vec_s32++ = vec_sll(var_vec_s32[0], var_vec_u8[1]);
1503 *var_vec_s32++ = vec_slo(var_vec_s32[0], var_vec_s8[1]);
1504 *var_vec_s32++ = vec_slo(var_vec_s32[0], var_vec_u8[1]);
1505 *var_vec_s32++ = vec_splat(var_vec_s32[0], 0);
1506 *var_vec_s32++ = vec_splat(var_vec_s32[0], 1);
1507 *var_vec_s32++ = vec_splat(var_vec_s32[0], 2);
1508 *var_vec_s32++ = vec_splat(var_vec_s32[0], 3);
1509 *var_vec_s32++ = vec_splat(var_vec_s32[0], 4);
1510 *var_vec_s32++ = vec_splat(var_vec_s32[0], 5);
1511 *var_vec_s32++ = vec_splat(var_vec_s32[0], 6);
1512 *var_vec_s32++ = vec_splat(var_vec_s32[0], 7);
1513 *var_vec_s32++ = vec_splat(var_vec_s32[0], 8);
1514 *var_vec_s32++ = vec_splat(var_vec_s32[0], 9);
1515 *var_vec_s32++ = vec_splat(var_vec_s32[0], 10);
1516 *var_vec_s32++ = vec_splat(var_vec_s32[0], 11);
1517 *var_vec_s32++ = vec_splat(var_vec_s32[0], 12);
1518 *var_vec_s32++ = vec_splat(var_vec_s32[0], 13);
1519 *var_vec_s32++ = vec_splat(var_vec_s32[0], 14);
1520 *var_vec_s32++ = vec_splat(var_vec_s32[0], 15);
1521 *var_vec_s32++ = vec_splat(var_vec_s32[0], 16);
1522 *var_vec_s32++ = vec_splat(var_vec_s32[0], 17);
1523 *var_vec_s32++ = vec_splat(var_vec_s32[0], 18);
1524 *var_vec_s32++ = vec_splat(var_vec_s32[0], 19);
1525 *var_vec_s32++ = vec_splat(var_vec_s32[0], 20);
1526 *var_vec_s32++ = vec_splat(var_vec_s32[0], 21);
1527 *var_vec_s32++ = vec_splat(var_vec_s32[0], 22);
1528 *var_vec_s32++ = vec_splat(var_vec_s32[0], 23);
1529 *var_vec_s32++ = vec_splat(var_vec_s32[0], 24);
1530 *var_vec_s32++ = vec_splat(var_vec_s32[0], 25);
1531 *var_vec_s32++ = vec_splat(var_vec_s32[0], 26);
1532 *var_vec_s32++ = vec_splat(var_vec_s32[0], 27);
1533 *var_vec_s32++ = vec_splat(var_vec_s32[0], 28);
1534 *var_vec_s32++ = vec_splat(var_vec_s32[0], 29);
1535 *var_vec_s32++ = vec_splat(var_vec_s32[0], 30);
1536 *var_vec_s32++ = vec_splat(var_vec_s32[0], 31);
1537 *var_vec_s32++ = vec_splat_s32( 0);
1538 *var_vec_s32++ = vec_splat_s32( 1);
1539 *var_vec_s32++ = vec_splat_s32( 2);
1540 *var_vec_s32++ = vec_splat_s32( 3);
1541 *var_vec_s32++ = vec_splat_s32( 4);
1542 *var_vec_s32++ = vec_splat_s32( 5);
1543 *var_vec_s32++ = vec_splat_s32( 6);
1544 *var_vec_s32++ = vec_splat_s32( 7);
1545 *var_vec_s32++ = vec_splat_s32( 8);
1546 *var_vec_s32++ = vec_splat_s32( 9);
1547 *var_vec_s32++ = vec_splat_s32( -1);
1548 *var_vec_s32++ = vec_splat_s32( -2);
1549 *var_vec_s32++ = vec_splat_s32( -3);
1550 *var_vec_s32++ = vec_splat_s32( -4);
1551 *var_vec_s32++ = vec_splat_s32( -5);
1552 *var_vec_s32++ = vec_splat_s32( -6);
1553 *var_vec_s32++ = vec_splat_s32( -7);
1554 *var_vec_s32++ = vec_splat_s32( -8);
1555 *var_vec_s32++ = vec_splat_s32( -9);
1556 *var_vec_s32++ = vec_splat_s32( 10);
1557 *var_vec_s32++ = vec_splat_s32( 11);
1558 *var_vec_s32++ = vec_splat_s32( 12);
1559 *var_vec_s32++ = vec_splat_s32( 13);
1560 *var_vec_s32++ = vec_splat_s32( 14);
1561 *var_vec_s32++ = vec_splat_s32( 15);
1562 *var_vec_s32++ = vec_splat_s32(-10);
1563 *var_vec_s32++ = vec_splat_s32(-11);
1564 *var_vec_s32++ = vec_splat_s32(-12);
1565 *var_vec_s32++ = vec_splat_s32(-13);
1566 *var_vec_s32++ = vec_splat_s32(-14);
1567 *var_vec_s32++ = vec_splat_s32(-15);
1568 *var_vec_s32++ = vec_splat_s32(-16);
1569 *var_vec_s32++ = vec_sr(var_vec_s32[0], var_vec_u32[1]);
1571 void f15() {
1572 *var_vec_s32++ = vec_sra(var_vec_s32[0], var_vec_u32[1]);
1573 *var_vec_s32++ = vec_srl(var_vec_s32[0], var_vec_u16[1]);
1574 *var_vec_s32++ = vec_srl(var_vec_s32[0], var_vec_u32[1]);
1575 *var_vec_s32++ = vec_srl(var_vec_s32[0], var_vec_u8[1]);
1576 *var_vec_s32++ = vec_sro(var_vec_s32[0], var_vec_s8[1]);
1577 *var_vec_s32++ = vec_sro(var_vec_s32[0], var_vec_u8[1]);
1578 *var_vec_s32++ = vec_sub(var_vec_b32[0], var_vec_s32[1]);
1579 *var_vec_s32++ = vec_sub(var_vec_s32[0], var_vec_b32[1]);
1580 *var_vec_s32++ = vec_sub(var_vec_s32[0], var_vec_s32[1]);
1581 *var_vec_s32++ = vec_subs(var_vec_b32[0], var_vec_s32[1]);
1582 *var_vec_s32++ = vec_subs(var_vec_s32[0], var_vec_b32[1]);
1583 *var_vec_s32++ = vec_subs(var_vec_s32[0], var_vec_s32[1]);
1584 *var_vec_s32++ = vec_sum2s(var_vec_s32[0], var_vec_s32[1]);
1585 *var_vec_s32++ = vec_sum4s(var_vec_s16[0], var_vec_s32[1]);
1586 *var_vec_s32++ = vec_sum4s(var_vec_s8[0], var_vec_s32[1]);
1587 *var_vec_s32++ = vec_sums(var_vec_s32[0], var_vec_s32[1]);
1588 *var_vec_s32++ = vec_unpackh(var_vec_s16[0]);
1589 *var_vec_s32++ = vec_unpackl(var_vec_s16[0]);
1590 *var_vec_s32++ = vec_vaddsws(var_vec_b32[0], var_vec_s32[1]);
1591 *var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_b32[1]);
1592 *var_vec_s32++ = vec_vaddsws(var_vec_s32[0], var_vec_s32[1]);
1593 *var_vec_s32++ = vec_vadduwm(var_vec_b32[0], var_vec_s32[1]);
1594 *var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_b32[1]);
1595 *var_vec_s32++ = vec_vadduwm(var_vec_s32[0], var_vec_s32[1]);
1596 *var_vec_s32++ = vec_vand(var_vec_b32[0], var_vec_s32[1]);
1597 *var_vec_s32++ = vec_vand(var_vec_s32[0], var_vec_b32[1]);
1598 *var_vec_s32++ = vec_vand(var_vec_s32[0], var_vec_s32[1]);
1599 *var_vec_s32++ = vec_vandc(var_vec_b32[0], var_vec_s32[1]);
1600 *var_vec_s32++ = vec_vandc(var_vec_s32[0], var_vec_b32[1]);
1601 *var_vec_s32++ = vec_vandc(var_vec_s32[0], var_vec_s32[1]);
1602 *var_vec_s32++ = vec_vavgsw(var_vec_s32[0], var_vec_s32[1]);
1603 *var_vec_s32++ = vec_vcmpbfp(var_vec_f32[0], var_vec_f32[1]);
1604 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 0);
1605 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 1);
1606 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 2);
1607 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 3);
1608 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 4);
1609 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 5);
1610 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 6);
1611 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 7);
1612 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 8);
1613 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 9);
1614 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 10);
1615 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 11);
1616 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 12);
1617 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 13);
1618 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 14);
1619 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 15);
1620 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 16);
1621 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 17);
1622 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 18);
1623 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 19);
1624 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 20);
1625 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 21);
1626 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 22);
1627 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 23);
1628 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 24);
1629 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 25);
1630 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 26);
1631 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 27);
1632 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 28);
1633 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 29);
1634 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 30);
1635 *var_vec_s32++ = vec_vctsxs(var_vec_f32[0], 31);
1636 *var_vec_s32++ = vec_vmaxsw(var_vec_b32[0], var_vec_s32[1]);
1637 *var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_b32[1]);
1638 *var_vec_s32++ = vec_vmaxsw(var_vec_s32[0], var_vec_s32[1]);
1639 *var_vec_s32++ = vec_vminsw(var_vec_b32[0], var_vec_s32[1]);
1640 *var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_b32[1]);
1641 *var_vec_s32++ = vec_vminsw(var_vec_s32[0], var_vec_s32[1]);
1642 *var_vec_s32++ = vec_vmrghw(var_vec_s32[0], var_vec_s32[1]);
1643 *var_vec_s32++ = vec_vmrglw(var_vec_s32[0], var_vec_s32[1]);
1644 *var_vec_s32++ = vec_vmsummbm(var_vec_s8[0], var_vec_u8[1], var_vec_s32[2]);
1645 *var_vec_s32++ = vec_vmsumshm(var_vec_s16[0], var_vec_s16[1], var_vec_s32[2]);
1646 *var_vec_s32++ = vec_vmsumshs(var_vec_s16[0], var_vec_s16[1], var_vec_s32[2]);
1647 *var_vec_s32++ = vec_vmulesh(var_vec_s16[0], var_vec_s16[1]);
1648 *var_vec_s32++ = vec_vmulosh(var_vec_s16[0], var_vec_s16[1]);
1649 *var_vec_s32++ = vec_vnor(var_vec_s32[0], var_vec_s32[1]);
1650 *var_vec_s32++ = vec_vor(var_vec_b32[0], var_vec_s32[1]);
1651 *var_vec_s32++ = vec_vor(var_vec_s32[0], var_vec_b32[1]);
1652 *var_vec_s32++ = vec_vor(var_vec_s32[0], var_vec_s32[1]);
1653 *var_vec_s32++ = vec_vperm(var_vec_s32[0], var_vec_s32[1], var_vec_u8[2]);
1654 *var_vec_s32++ = vec_vrlw(var_vec_s32[0], var_vec_u32[1]);
1655 *var_vec_s32++ = vec_vsel(var_vec_s32[0], var_vec_s32[1], var_vec_b32[2]);
1656 *var_vec_s32++ = vec_vsel(var_vec_s32[0], var_vec_s32[1], var_vec_u32[2]);
1657 *var_vec_s32++ = vec_vsl(var_vec_s32[0], var_vec_u16[1]);
1658 *var_vec_s32++ = vec_vsl(var_vec_s32[0], var_vec_u32[1]);
1659 *var_vec_s32++ = vec_vsl(var_vec_s32[0], var_vec_u8[1]);
1660 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 0);
1661 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 1);
1662 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 2);
1663 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 3);
1664 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 4);
1665 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 5);
1666 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 6);
1667 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 7);
1668 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 8);
1669 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 9);
1671 void f16() {
1672 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 10);
1673 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 11);
1674 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 12);
1675 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 13);
1676 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 14);
1677 *var_vec_s32++ = vec_vsldoi(var_vec_s32[0], var_vec_s32[1], 15);
1678 *var_vec_s32++ = vec_vslo(var_vec_s32[0], var_vec_s8[1]);
1679 *var_vec_s32++ = vec_vslo(var_vec_s32[0], var_vec_u8[1]);
1680 *var_vec_s32++ = vec_vslw(var_vec_s32[0], var_vec_u32[1]);
1681 *var_vec_s32++ = vec_vspltisw( 0);
1682 *var_vec_s32++ = vec_vspltisw( 1);
1683 *var_vec_s32++ = vec_vspltisw( 2);
1684 *var_vec_s32++ = vec_vspltisw( 3);
1685 *var_vec_s32++ = vec_vspltisw( 4);
1686 *var_vec_s32++ = vec_vspltisw( 5);
1687 *var_vec_s32++ = vec_vspltisw( 6);
1688 *var_vec_s32++ = vec_vspltisw( 7);
1689 *var_vec_s32++ = vec_vspltisw( 8);
1690 *var_vec_s32++ = vec_vspltisw( 9);
1691 *var_vec_s32++ = vec_vspltisw( -1);
1692 *var_vec_s32++ = vec_vspltisw( -2);
1693 *var_vec_s32++ = vec_vspltisw( -3);
1694 *var_vec_s32++ = vec_vspltisw( -4);
1695 *var_vec_s32++ = vec_vspltisw( -5);
1696 *var_vec_s32++ = vec_vspltisw( -6);
1697 *var_vec_s32++ = vec_vspltisw( -7);
1698 *var_vec_s32++ = vec_vspltisw( -8);
1699 *var_vec_s32++ = vec_vspltisw( -9);
1700 *var_vec_s32++ = vec_vspltisw( 10);
1701 *var_vec_s32++ = vec_vspltisw( 11);
1702 *var_vec_s32++ = vec_vspltisw( 12);
1703 *var_vec_s32++ = vec_vspltisw( 13);
1704 *var_vec_s32++ = vec_vspltisw( 14);
1705 *var_vec_s32++ = vec_vspltisw( 15);
1706 *var_vec_s32++ = vec_vspltisw(-10);
1707 *var_vec_s32++ = vec_vspltisw(-11);
1708 *var_vec_s32++ = vec_vspltisw(-12);
1709 *var_vec_s32++ = vec_vspltisw(-13);
1710 *var_vec_s32++ = vec_vspltisw(-14);
1711 *var_vec_s32++ = vec_vspltisw(-15);
1712 *var_vec_s32++ = vec_vspltisw(-16);
1713 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 0);
1714 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 1);
1715 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 2);
1716 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 3);
1717 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 4);
1718 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 5);
1719 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 6);
1720 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 7);
1721 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 8);
1722 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 9);
1723 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 10);
1724 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 11);
1725 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 12);
1726 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 13);
1727 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 14);
1728 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 15);
1729 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 16);
1730 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 17);
1731 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 18);
1732 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 19);
1733 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 20);
1734 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 21);
1735 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 22);
1736 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 23);
1737 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 24);
1738 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 25);
1739 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 26);
1740 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 27);
1741 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 28);
1742 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 29);
1743 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 30);
1744 *var_vec_s32++ = vec_vspltw(var_vec_s32[0], 31);
1745 *var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u16[1]);
1746 *var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u32[1]);
1747 *var_vec_s32++ = vec_vsr(var_vec_s32[0], var_vec_u8[1]);
1748 *var_vec_s32++ = vec_vsraw(var_vec_s32[0], var_vec_u32[1]);
1749 *var_vec_s32++ = vec_vsro(var_vec_s32[0], var_vec_s8[1]);
1750 *var_vec_s32++ = vec_vsro(var_vec_s32[0], var_vec_u8[1]);
1751 *var_vec_s32++ = vec_vsrw(var_vec_s32[0], var_vec_u32[1]);
1752 *var_vec_s32++ = vec_vsubsws(var_vec_b32[0], var_vec_s32[1]);
1753 *var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_b32[1]);
1754 *var_vec_s32++ = vec_vsubsws(var_vec_s32[0], var_vec_s32[1]);
1755 *var_vec_s32++ = vec_vsubuwm(var_vec_b32[0], var_vec_s32[1]);
1756 *var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_b32[1]);
1757 *var_vec_s32++ = vec_vsubuwm(var_vec_s32[0], var_vec_s32[1]);
1758 *var_vec_s32++ = vec_vsum2sws(var_vec_s32[0], var_vec_s32[1]);
1759 *var_vec_s32++ = vec_vsum4sbs(var_vec_s8[0], var_vec_s32[1]);
1760 *var_vec_s32++ = vec_vsum4shs(var_vec_s16[0], var_vec_s32[1]);
1761 *var_vec_s32++ = vec_vsumsws(var_vec_s32[0], var_vec_s32[1]);
1762 *var_vec_s32++ = vec_vupkhsh(var_vec_s16[0]);
1763 *var_vec_s32++ = vec_vupklsh(var_vec_s16[0]);
1764 *var_vec_s32++ = vec_vxor(var_vec_b32[0], var_vec_s32[1]);
1765 *var_vec_s32++ = vec_vxor(var_vec_s32[0], var_vec_b32[1]);
1766 *var_vec_s32++ = vec_vxor(var_vec_s32[0], var_vec_s32[1]);
1767 *var_vec_s32++ = vec_xor(var_vec_b32[0], var_vec_s32[1]);
1768 *var_vec_s32++ = vec_xor(var_vec_s32[0], var_vec_b32[1]);
1769 *var_vec_s32++ = vec_xor(var_vec_s32[0], var_vec_s32[1]);
1770 *var_vec_s8++ = vec_add(var_vec_b8[0], var_vec_s8[1]);
1771 *var_vec_s8++ = vec_add(var_vec_s8[0], var_vec_b8[1]);
1773 void f17() {
1774 *var_vec_s8++ = vec_add(var_vec_s8[0], var_vec_s8[1]);
1775 *var_vec_s8++ = vec_adds(var_vec_b8[0], var_vec_s8[1]);
1776 *var_vec_s8++ = vec_adds(var_vec_s8[0], var_vec_b8[1]);
1777 *var_vec_s8++ = vec_adds(var_vec_s8[0], var_vec_s8[1]);
1778 *var_vec_s8++ = vec_and(var_vec_b8[0], var_vec_s8[1]);
1779 *var_vec_s8++ = vec_and(var_vec_s8[0], var_vec_b8[1]);
1780 *var_vec_s8++ = vec_and(var_vec_s8[0], var_vec_s8[1]);
1781 *var_vec_s8++ = vec_andc(var_vec_b8[0], var_vec_s8[1]);
1782 *var_vec_s8++ = vec_andc(var_vec_s8[0], var_vec_b8[1]);
1783 *var_vec_s8++ = vec_andc(var_vec_s8[0], var_vec_s8[1]);
1784 *var_vec_s8++ = vec_avg(var_vec_s8[0], var_vec_s8[1]);
1785 *var_vec_s8++ = vec_ld(var_int[0], var_signed_char_ptr[1]);
1786 *var_vec_s8++ = vec_ld(var_int[0], var_vec_s8_ptr[1]);
1787 *var_vec_s8++ = vec_lde(var_int[0], var_signed_char_ptr[1]);
1788 *var_vec_s8++ = vec_ldl(var_int[0], var_signed_char_ptr[1]);
1789 *var_vec_s8++ = vec_ldl(var_int[0], var_vec_s8_ptr[1]);
1790 *var_vec_s8++ = vec_lvebx(var_int[0], var_signed_char_ptr[1]);
1791 *var_vec_s8++ = vec_lvx(var_int[0], var_signed_char_ptr[1]);
1792 *var_vec_s8++ = vec_lvx(var_int[0], var_vec_s8_ptr[1]);
1793 *var_vec_s8++ = vec_lvxl(var_int[0], var_signed_char_ptr[1]);
1794 *var_vec_s8++ = vec_lvxl(var_int[0], var_vec_s8_ptr[1]);
1795 *var_vec_s8++ = vec_max(var_vec_b8[0], var_vec_s8[1]);
1796 *var_vec_s8++ = vec_max(var_vec_s8[0], var_vec_b8[1]);
1797 *var_vec_s8++ = vec_max(var_vec_s8[0], var_vec_s8[1]);
1798 *var_vec_s8++ = vec_mergeh(var_vec_s8[0], var_vec_s8[1]);
1799 *var_vec_s8++ = vec_mergel(var_vec_s8[0], var_vec_s8[1]);
1800 *var_vec_s8++ = vec_min(var_vec_b8[0], var_vec_s8[1]);
1801 *var_vec_s8++ = vec_min(var_vec_s8[0], var_vec_b8[1]);
1802 *var_vec_s8++ = vec_min(var_vec_s8[0], var_vec_s8[1]);
1803 *var_vec_s8++ = vec_nor(var_vec_s8[0], var_vec_s8[1]);
1804 *var_vec_s8++ = vec_or(var_vec_b8[0], var_vec_s8[1]);
1805 *var_vec_s8++ = vec_or(var_vec_s8[0], var_vec_b8[1]);
1806 *var_vec_s8++ = vec_or(var_vec_s8[0], var_vec_s8[1]);
1807 *var_vec_s8++ = vec_pack(var_vec_s16[0], var_vec_s16[1]);
1808 *var_vec_s8++ = vec_packs(var_vec_s16[0], var_vec_s16[1]);
1809 *var_vec_s8++ = vec_perm(var_vec_s8[0], var_vec_s8[1], var_vec_u8[2]);
1810 *var_vec_s8++ = vec_rl(var_vec_s8[0], var_vec_u8[1]);
1811 *var_vec_s8++ = vec_sel(var_vec_s8[0], var_vec_s8[1], var_vec_b8[2]);
1812 *var_vec_s8++ = vec_sel(var_vec_s8[0], var_vec_s8[1], var_vec_u8[2]);
1813 *var_vec_s8++ = vec_sl(var_vec_s8[0], var_vec_u8[1]);
1814 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 0);
1815 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 1);
1816 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 2);
1817 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 3);
1818 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 4);
1819 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 5);
1820 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 6);
1821 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 7);
1822 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 8);
1823 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 9);
1824 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 10);
1825 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 11);
1826 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 12);
1827 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 13);
1828 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 14);
1829 *var_vec_s8++ = vec_sld(var_vec_s8[0], var_vec_s8[1], 15);
1830 *var_vec_s8++ = vec_sll(var_vec_s8[0], var_vec_u16[1]);
1831 *var_vec_s8++ = vec_sll(var_vec_s8[0], var_vec_u32[1]);
1832 *var_vec_s8++ = vec_sll(var_vec_s8[0], var_vec_u8[1]);
1833 *var_vec_s8++ = vec_slo(var_vec_s8[0], var_vec_s8[1]);
1834 *var_vec_s8++ = vec_slo(var_vec_s8[0], var_vec_u8[1]);
1835 *var_vec_s8++ = vec_splat(var_vec_s8[0], 0);
1836 *var_vec_s8++ = vec_splat(var_vec_s8[0], 1);
1837 *var_vec_s8++ = vec_splat(var_vec_s8[0], 2);
1838 *var_vec_s8++ = vec_splat(var_vec_s8[0], 3);
1839 *var_vec_s8++ = vec_splat(var_vec_s8[0], 4);
1840 *var_vec_s8++ = vec_splat(var_vec_s8[0], 5);
1841 *var_vec_s8++ = vec_splat(var_vec_s8[0], 6);
1842 *var_vec_s8++ = vec_splat(var_vec_s8[0], 7);
1843 *var_vec_s8++ = vec_splat(var_vec_s8[0], 8);
1844 *var_vec_s8++ = vec_splat(var_vec_s8[0], 9);
1845 *var_vec_s8++ = vec_splat(var_vec_s8[0], 10);
1846 *var_vec_s8++ = vec_splat(var_vec_s8[0], 11);
1847 *var_vec_s8++ = vec_splat(var_vec_s8[0], 12);
1848 *var_vec_s8++ = vec_splat(var_vec_s8[0], 13);
1849 *var_vec_s8++ = vec_splat(var_vec_s8[0], 14);
1850 *var_vec_s8++ = vec_splat(var_vec_s8[0], 15);
1851 *var_vec_s8++ = vec_splat(var_vec_s8[0], 16);
1852 *var_vec_s8++ = vec_splat(var_vec_s8[0], 17);
1853 *var_vec_s8++ = vec_splat(var_vec_s8[0], 18);
1854 *var_vec_s8++ = vec_splat(var_vec_s8[0], 19);
1855 *var_vec_s8++ = vec_splat(var_vec_s8[0], 20);
1856 *var_vec_s8++ = vec_splat(var_vec_s8[0], 21);
1857 *var_vec_s8++ = vec_splat(var_vec_s8[0], 22);
1858 *var_vec_s8++ = vec_splat(var_vec_s8[0], 23);
1859 *var_vec_s8++ = vec_splat(var_vec_s8[0], 24);
1860 *var_vec_s8++ = vec_splat(var_vec_s8[0], 25);
1861 *var_vec_s8++ = vec_splat(var_vec_s8[0], 26);
1862 *var_vec_s8++ = vec_splat(var_vec_s8[0], 27);
1863 *var_vec_s8++ = vec_splat(var_vec_s8[0], 28);
1864 *var_vec_s8++ = vec_splat(var_vec_s8[0], 29);
1865 *var_vec_s8++ = vec_splat(var_vec_s8[0], 30);
1866 *var_vec_s8++ = vec_splat(var_vec_s8[0], 31);
1867 *var_vec_s8++ = vec_splat_s8( 0);
1868 *var_vec_s8++ = vec_splat_s8( 1);
1869 *var_vec_s8++ = vec_splat_s8( 2);
1870 *var_vec_s8++ = vec_splat_s8( 3);
1871 *var_vec_s8++ = vec_splat_s8( 4);
1872 *var_vec_s8++ = vec_splat_s8( 5);
1873 *var_vec_s8++ = vec_splat_s8( 6);
1875 void f18() {
1876 *var_vec_s8++ = vec_splat_s8( 7);
1877 *var_vec_s8++ = vec_splat_s8( 8);
1878 *var_vec_s8++ = vec_splat_s8( 9);
1879 *var_vec_s8++ = vec_splat_s8( -1);
1880 *var_vec_s8++ = vec_splat_s8( -2);
1881 *var_vec_s8++ = vec_splat_s8( -3);
1882 *var_vec_s8++ = vec_splat_s8( -4);
1883 *var_vec_s8++ = vec_splat_s8( -5);
1884 *var_vec_s8++ = vec_splat_s8( -6);
1885 *var_vec_s8++ = vec_splat_s8( -7);
1886 *var_vec_s8++ = vec_splat_s8( -8);
1887 *var_vec_s8++ = vec_splat_s8( -9);
1888 *var_vec_s8++ = vec_splat_s8( 10);
1889 *var_vec_s8++ = vec_splat_s8( 11);
1890 *var_vec_s8++ = vec_splat_s8( 12);
1891 *var_vec_s8++ = vec_splat_s8( 13);
1892 *var_vec_s8++ = vec_splat_s8( 14);
1893 *var_vec_s8++ = vec_splat_s8( 15);
1894 *var_vec_s8++ = vec_splat_s8(-10);
1895 *var_vec_s8++ = vec_splat_s8(-11);
1896 *var_vec_s8++ = vec_splat_s8(-12);
1897 *var_vec_s8++ = vec_splat_s8(-13);
1898 *var_vec_s8++ = vec_splat_s8(-14);
1899 *var_vec_s8++ = vec_splat_s8(-15);
1900 *var_vec_s8++ = vec_splat_s8(-16);
1901 *var_vec_s8++ = vec_sr(var_vec_s8[0], var_vec_u8[1]);
1902 *var_vec_s8++ = vec_sra(var_vec_s8[0], var_vec_u8[1]);
1903 *var_vec_s8++ = vec_srl(var_vec_s8[0], var_vec_u16[1]);
1904 *var_vec_s8++ = vec_srl(var_vec_s8[0], var_vec_u32[1]);
1905 *var_vec_s8++ = vec_srl(var_vec_s8[0], var_vec_u8[1]);
1906 *var_vec_s8++ = vec_sro(var_vec_s8[0], var_vec_s8[1]);
1907 *var_vec_s8++ = vec_sro(var_vec_s8[0], var_vec_u8[1]);
1908 *var_vec_s8++ = vec_sub(var_vec_b8[0], var_vec_s8[1]);
1909 *var_vec_s8++ = vec_sub(var_vec_s8[0], var_vec_b8[1]);
1910 *var_vec_s8++ = vec_sub(var_vec_s8[0], var_vec_s8[1]);
1911 *var_vec_s8++ = vec_subs(var_vec_b8[0], var_vec_s8[1]);
1912 *var_vec_s8++ = vec_subs(var_vec_s8[0], var_vec_b8[1]);
1913 *var_vec_s8++ = vec_subs(var_vec_s8[0], var_vec_s8[1]);
1914 *var_vec_s8++ = vec_vaddsbs(var_vec_b8[0], var_vec_s8[1]);
1915 *var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_b8[1]);
1916 *var_vec_s8++ = vec_vaddsbs(var_vec_s8[0], var_vec_s8[1]);
1917 *var_vec_s8++ = vec_vaddubm(var_vec_b8[0], var_vec_s8[1]);
1918 *var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_b8[1]);
1919 *var_vec_s8++ = vec_vaddubm(var_vec_s8[0], var_vec_s8[1]);
1920 *var_vec_s8++ = vec_vand(var_vec_b8[0], var_vec_s8[1]);
1921 *var_vec_s8++ = vec_vand(var_vec_s8[0], var_vec_b8[1]);
1922 *var_vec_s8++ = vec_vand(var_vec_s8[0], var_vec_s8[1]);
1923 *var_vec_s8++ = vec_vandc(var_vec_b8[0], var_vec_s8[1]);
1924 *var_vec_s8++ = vec_vandc(var_vec_s8[0], var_vec_b8[1]);
1925 *var_vec_s8++ = vec_vandc(var_vec_s8[0], var_vec_s8[1]);
1926 *var_vec_s8++ = vec_vavgsb(var_vec_s8[0], var_vec_s8[1]);
1927 *var_vec_s8++ = vec_vmaxsb(var_vec_b8[0], var_vec_s8[1]);
1928 *var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_b8[1]);
1929 *var_vec_s8++ = vec_vmaxsb(var_vec_s8[0], var_vec_s8[1]);
1930 *var_vec_s8++ = vec_vminsb(var_vec_b8[0], var_vec_s8[1]);
1931 *var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_b8[1]);
1932 *var_vec_s8++ = vec_vminsb(var_vec_s8[0], var_vec_s8[1]);
1933 *var_vec_s8++ = vec_vmrghb(var_vec_s8[0], var_vec_s8[1]);
1934 *var_vec_s8++ = vec_vmrglb(var_vec_s8[0], var_vec_s8[1]);
1935 *var_vec_s8++ = vec_vnor(var_vec_s8[0], var_vec_s8[1]);
1936 *var_vec_s8++ = vec_vor(var_vec_b8[0], var_vec_s8[1]);
1937 *var_vec_s8++ = vec_vor(var_vec_s8[0], var_vec_b8[1]);
1938 *var_vec_s8++ = vec_vor(var_vec_s8[0], var_vec_s8[1]);
1939 *var_vec_s8++ = vec_vperm(var_vec_s8[0], var_vec_s8[1], var_vec_u8[2]);
1940 *var_vec_s8++ = vec_vpkshss(var_vec_s16[0], var_vec_s16[1]);
1941 *var_vec_s8++ = vec_vpkuhum(var_vec_s16[0], var_vec_s16[1]);
1942 *var_vec_s8++ = vec_vrlb(var_vec_s8[0], var_vec_u8[1]);
1943 *var_vec_s8++ = vec_vsel(var_vec_s8[0], var_vec_s8[1], var_vec_b8[2]);
1944 *var_vec_s8++ = vec_vsel(var_vec_s8[0], var_vec_s8[1], var_vec_u8[2]);
1945 *var_vec_s8++ = vec_vsl(var_vec_s8[0], var_vec_u16[1]);
1946 *var_vec_s8++ = vec_vsl(var_vec_s8[0], var_vec_u32[1]);
1947 *var_vec_s8++ = vec_vsl(var_vec_s8[0], var_vec_u8[1]);
1948 *var_vec_s8++ = vec_vslb(var_vec_s8[0], var_vec_u8[1]);
1949 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 0);
1950 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 1);
1951 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 2);
1952 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 3);
1953 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 4);
1954 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 5);
1955 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 6);
1956 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 7);
1957 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 8);
1958 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 9);
1959 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 10);
1960 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 11);
1961 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 12);
1962 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 13);
1963 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 14);
1964 *var_vec_s8++ = vec_vsldoi(var_vec_s8[0], var_vec_s8[1], 15);
1965 *var_vec_s8++ = vec_vslo(var_vec_s8[0], var_vec_s8[1]);
1966 *var_vec_s8++ = vec_vslo(var_vec_s8[0], var_vec_u8[1]);
1967 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 0);
1968 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 1);
1969 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 2);
1970 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 3);
1971 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 4);
1972 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 5);
1973 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 6);
1974 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 7);
1975 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 8);
1977 void f19() {
1978 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 9);
1979 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 10);
1980 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 11);
1981 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 12);
1982 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 13);
1983 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 14);
1984 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 15);
1985 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 16);
1986 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 17);
1987 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 18);
1988 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 19);
1989 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 20);
1990 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 21);
1991 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 22);
1992 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 23);
1993 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 24);
1994 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 25);
1995 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 26);
1996 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 27);
1997 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 28);
1998 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 29);
1999 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 30);
2000 *var_vec_s8++ = vec_vspltb(var_vec_s8[0], 31);
2001 *var_vec_s8++ = vec_vspltisb( 0);
2002 *var_vec_s8++ = vec_vspltisb( 1);
2003 *var_vec_s8++ = vec_vspltisb( 2);
2004 *var_vec_s8++ = vec_vspltisb( 3);
2005 *var_vec_s8++ = vec_vspltisb( 4);
2006 *var_vec_s8++ = vec_vspltisb( 5);
2007 *var_vec_s8++ = vec_vspltisb( 6);
2008 *var_vec_s8++ = vec_vspltisb( 7);
2009 *var_vec_s8++ = vec_vspltisb( 8);
2010 *var_vec_s8++ = vec_vspltisb( 9);
2011 *var_vec_s8++ = vec_vspltisb( -1);
2012 *var_vec_s8++ = vec_vspltisb( -2);
2013 *var_vec_s8++ = vec_vspltisb( -3);
2014 *var_vec_s8++ = vec_vspltisb( -4);
2015 *var_vec_s8++ = vec_vspltisb( -5);
2016 *var_vec_s8++ = vec_vspltisb( -6);
2017 *var_vec_s8++ = vec_vspltisb( -7);
2018 *var_vec_s8++ = vec_vspltisb( -8);
2019 *var_vec_s8++ = vec_vspltisb( -9);
2020 *var_vec_s8++ = vec_vspltisb( 10);
2021 *var_vec_s8++ = vec_vspltisb( 11);
2022 *var_vec_s8++ = vec_vspltisb( 12);
2023 *var_vec_s8++ = vec_vspltisb( 13);
2024 *var_vec_s8++ = vec_vspltisb( 14);
2025 *var_vec_s8++ = vec_vspltisb( 15);
2026 *var_vec_s8++ = vec_vspltisb(-10);
2027 *var_vec_s8++ = vec_vspltisb(-11);
2028 *var_vec_s8++ = vec_vspltisb(-12);
2029 *var_vec_s8++ = vec_vspltisb(-13);
2030 *var_vec_s8++ = vec_vspltisb(-14);
2031 *var_vec_s8++ = vec_vspltisb(-15);
2032 *var_vec_s8++ = vec_vspltisb(-16);
2033 *var_vec_s8++ = vec_vsr(var_vec_s8[0], var_vec_u16[1]);
2034 *var_vec_s8++ = vec_vsr(var_vec_s8[0], var_vec_u32[1]);
2035 *var_vec_s8++ = vec_vsr(var_vec_s8[0], var_vec_u8[1]);
2036 *var_vec_s8++ = vec_vsrab(var_vec_s8[0], var_vec_u8[1]);
2037 *var_vec_s8++ = vec_vsrb(var_vec_s8[0], var_vec_u8[1]);
2038 *var_vec_s8++ = vec_vsro(var_vec_s8[0], var_vec_s8[1]);
2039 *var_vec_s8++ = vec_vsro(var_vec_s8[0], var_vec_u8[1]);
2040 *var_vec_s8++ = vec_vsubsbs(var_vec_b8[0], var_vec_s8[1]);
2041 *var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_b8[1]);
2042 *var_vec_s8++ = vec_vsubsbs(var_vec_s8[0], var_vec_s8[1]);
2043 *var_vec_s8++ = vec_vsububm(var_vec_b8[0], var_vec_s8[1]);
2044 *var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_b8[1]);
2045 *var_vec_s8++ = vec_vsububm(var_vec_s8[0], var_vec_s8[1]);
2046 *var_vec_s8++ = vec_vxor(var_vec_b8[0], var_vec_s8[1]);
2047 *var_vec_s8++ = vec_vxor(var_vec_s8[0], var_vec_b8[1]);
2048 *var_vec_s8++ = vec_vxor(var_vec_s8[0], var_vec_s8[1]);
2049 *var_vec_s8++ = vec_xor(var_vec_b8[0], var_vec_s8[1]);
2050 *var_vec_s8++ = vec_xor(var_vec_s8[0], var_vec_b8[1]);
2051 *var_vec_s8++ = vec_xor(var_vec_s8[0], var_vec_s8[1]);
2052 *var_vec_u16++ = vec_add(var_vec_b16[0], var_vec_u16[1]);
2053 *var_vec_u16++ = vec_add(var_vec_u16[0], var_vec_b16[1]);
2054 *var_vec_u16++ = vec_add(var_vec_u16[0], var_vec_u16[1]);
2055 *var_vec_u16++ = vec_adds(var_vec_b16[0], var_vec_u16[1]);
2056 *var_vec_u16++ = vec_adds(var_vec_u16[0], var_vec_b16[1]);
2057 *var_vec_u16++ = vec_adds(var_vec_u16[0], var_vec_u16[1]);
2058 *var_vec_u16++ = vec_and(var_vec_b16[0], var_vec_u16[1]);
2059 *var_vec_u16++ = vec_and(var_vec_u16[0], var_vec_b16[1]);
2060 *var_vec_u16++ = vec_and(var_vec_u16[0], var_vec_u16[1]);
2061 *var_vec_u16++ = vec_andc(var_vec_b16[0], var_vec_u16[1]);
2062 *var_vec_u16++ = vec_andc(var_vec_u16[0], var_vec_b16[1]);
2063 *var_vec_u16++ = vec_andc(var_vec_u16[0], var_vec_u16[1]);
2064 *var_vec_u16++ = vec_avg(var_vec_u16[0], var_vec_u16[1]);
2065 *var_vec_u16++ = vec_ld(var_int[0], var_unsigned_short_ptr[1]);
2066 *var_vec_u16++ = vec_ld(var_int[0], var_vec_u16_ptr[1]);
2067 *var_vec_u16++ = vec_lde(var_int[0], var_unsigned_short_ptr[1]);
2068 *var_vec_u16++ = vec_ldl(var_int[0], var_unsigned_short_ptr[1]);
2069 *var_vec_u16++ = vec_ldl(var_int[0], var_vec_u16_ptr[1]);
2070 *var_vec_u16++ = vec_lvehx(var_int[0], var_unsigned_short_ptr[1]);
2071 *var_vec_u16++ = vec_lvx(var_int[0], var_unsigned_short_ptr[1]);
2072 *var_vec_u16++ = vec_lvx(var_int[0], var_vec_u16_ptr[1]);
2073 *var_vec_u16++ = vec_lvxl(var_int[0], var_unsigned_short_ptr[1]);
2074 *var_vec_u16++ = vec_lvxl(var_int[0], var_vec_u16_ptr[1]);
2075 *var_vec_u16++ = vec_max(var_vec_b16[0], var_vec_u16[1]);
2076 *var_vec_u16++ = vec_max(var_vec_u16[0], var_vec_b16[1]);
2077 *var_vec_u16++ = vec_max(var_vec_u16[0], var_vec_u16[1]);
2079 void f20() {
2080 *var_vec_u16++ = vec_mergeh(var_vec_u16[0], var_vec_u16[1]);
2081 *var_vec_u16++ = vec_mergel(var_vec_u16[0], var_vec_u16[1]);
2082 *var_vec_u16++ = vec_min(var_vec_b16[0], var_vec_u16[1]);
2083 *var_vec_u16++ = vec_min(var_vec_u16[0], var_vec_b16[1]);
2084 *var_vec_u16++ = vec_min(var_vec_u16[0], var_vec_u16[1]);
2085 *var_vec_u16++ = vec_mladd(var_vec_u16[0], var_vec_u16[1], var_vec_u16[2]);
2086 *var_vec_u16++ = vec_mule(var_vec_u8[0], var_vec_u8[1]);
2087 *var_vec_u16++ = vec_mulo(var_vec_u8[0], var_vec_u8[1]);
2088 *var_vec_u16++ = vec_nor(var_vec_u16[0], var_vec_u16[1]);
2089 *var_vec_u16++ = vec_or(var_vec_b16[0], var_vec_u16[1]);
2090 *var_vec_u16++ = vec_or(var_vec_u16[0], var_vec_b16[1]);
2091 *var_vec_u16++ = vec_or(var_vec_u16[0], var_vec_u16[1]);
2092 *var_vec_u16++ = vec_pack(var_vec_u32[0], var_vec_u32[1]);
2093 *var_vec_u16++ = vec_packs(var_vec_u32[0], var_vec_u32[1]);
2094 *var_vec_u16++ = vec_packsu(var_vec_s32[0], var_vec_s32[1]);
2095 *var_vec_u16++ = vec_packsu(var_vec_u32[0], var_vec_u32[1]);
2096 *var_vec_u16++ = vec_perm(var_vec_u16[0], var_vec_u16[1], var_vec_u8[2]);
2097 *var_vec_u16++ = vec_rl(var_vec_u16[0], var_vec_u16[1]);
2098 *var_vec_u16++ = vec_sel(var_vec_u16[0], var_vec_u16[1], var_vec_b16[2]);
2099 *var_vec_u16++ = vec_sel(var_vec_u16[0], var_vec_u16[1], var_vec_u16[2]);
2100 *var_vec_u16++ = vec_sl(var_vec_u16[0], var_vec_u16[1]);
2101 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 0);
2102 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 1);
2103 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 2);
2104 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 3);
2105 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 4);
2106 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 5);
2107 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 6);
2108 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 7);
2109 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 8);
2110 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 9);
2111 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 10);
2112 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 11);
2113 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 12);
2114 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 13);
2115 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 14);
2116 *var_vec_u16++ = vec_sld(var_vec_u16[0], var_vec_u16[1], 15);
2117 *var_vec_u16++ = vec_sll(var_vec_u16[0], var_vec_u16[1]);
2118 *var_vec_u16++ = vec_sll(var_vec_u16[0], var_vec_u32[1]);
2119 *var_vec_u16++ = vec_sll(var_vec_u16[0], var_vec_u8[1]);
2120 *var_vec_u16++ = vec_slo(var_vec_u16[0], var_vec_s8[1]);
2121 *var_vec_u16++ = vec_slo(var_vec_u16[0], var_vec_u8[1]);
2122 *var_vec_u16++ = vec_splat(var_vec_u16[0], 0);
2123 *var_vec_u16++ = vec_splat(var_vec_u16[0], 1);
2124 *var_vec_u16++ = vec_splat(var_vec_u16[0], 2);
2125 *var_vec_u16++ = vec_splat(var_vec_u16[0], 3);
2126 *var_vec_u16++ = vec_splat(var_vec_u16[0], 4);
2127 *var_vec_u16++ = vec_splat(var_vec_u16[0], 5);
2128 *var_vec_u16++ = vec_splat(var_vec_u16[0], 6);
2129 *var_vec_u16++ = vec_splat(var_vec_u16[0], 7);
2130 *var_vec_u16++ = vec_splat(var_vec_u16[0], 8);
2131 *var_vec_u16++ = vec_splat(var_vec_u16[0], 9);
2132 *var_vec_u16++ = vec_splat(var_vec_u16[0], 10);
2133 *var_vec_u16++ = vec_splat(var_vec_u16[0], 11);
2134 *var_vec_u16++ = vec_splat(var_vec_u16[0], 12);
2135 *var_vec_u16++ = vec_splat(var_vec_u16[0], 13);
2136 *var_vec_u16++ = vec_splat(var_vec_u16[0], 14);
2137 *var_vec_u16++ = vec_splat(var_vec_u16[0], 15);
2138 *var_vec_u16++ = vec_splat(var_vec_u16[0], 16);
2139 *var_vec_u16++ = vec_splat(var_vec_u16[0], 17);
2140 *var_vec_u16++ = vec_splat(var_vec_u16[0], 18);
2141 *var_vec_u16++ = vec_splat(var_vec_u16[0], 19);
2142 *var_vec_u16++ = vec_splat(var_vec_u16[0], 20);
2143 *var_vec_u16++ = vec_splat(var_vec_u16[0], 21);
2144 *var_vec_u16++ = vec_splat(var_vec_u16[0], 22);
2145 *var_vec_u16++ = vec_splat(var_vec_u16[0], 23);
2146 *var_vec_u16++ = vec_splat(var_vec_u16[0], 24);
2147 *var_vec_u16++ = vec_splat(var_vec_u16[0], 25);
2148 *var_vec_u16++ = vec_splat(var_vec_u16[0], 26);
2149 *var_vec_u16++ = vec_splat(var_vec_u16[0], 27);
2150 *var_vec_u16++ = vec_splat(var_vec_u16[0], 28);
2151 *var_vec_u16++ = vec_splat(var_vec_u16[0], 29);
2152 *var_vec_u16++ = vec_splat(var_vec_u16[0], 30);
2153 *var_vec_u16++ = vec_splat(var_vec_u16[0], 31);
2154 *var_vec_u16++ = vec_splat_u16( 0);
2155 *var_vec_u16++ = vec_splat_u16( 1);
2156 *var_vec_u16++ = vec_splat_u16( 2);
2157 *var_vec_u16++ = vec_splat_u16( 3);
2158 *var_vec_u16++ = vec_splat_u16( 4);
2159 *var_vec_u16++ = vec_splat_u16( 5);
2160 *var_vec_u16++ = vec_splat_u16( 6);
2161 *var_vec_u16++ = vec_splat_u16( 7);
2162 *var_vec_u16++ = vec_splat_u16( 8);
2163 *var_vec_u16++ = vec_splat_u16( 9);
2164 *var_vec_u16++ = vec_splat_u16( -1);
2165 *var_vec_u16++ = vec_splat_u16( -2);
2166 *var_vec_u16++ = vec_splat_u16( -3);
2167 *var_vec_u16++ = vec_splat_u16( -4);
2168 *var_vec_u16++ = vec_splat_u16( -5);
2169 *var_vec_u16++ = vec_splat_u16( -6);
2170 *var_vec_u16++ = vec_splat_u16( -7);
2171 *var_vec_u16++ = vec_splat_u16( -8);
2172 *var_vec_u16++ = vec_splat_u16( -9);
2173 *var_vec_u16++ = vec_splat_u16( 10);
2174 *var_vec_u16++ = vec_splat_u16( 11);
2175 *var_vec_u16++ = vec_splat_u16( 12);
2176 *var_vec_u16++ = vec_splat_u16( 13);
2177 *var_vec_u16++ = vec_splat_u16( 14);
2178 *var_vec_u16++ = vec_splat_u16( 15);
2179 *var_vec_u16++ = vec_splat_u16(-10);
2181 void f21() {
2182 *var_vec_u16++ = vec_splat_u16(-11);
2183 *var_vec_u16++ = vec_splat_u16(-12);
2184 *var_vec_u16++ = vec_splat_u16(-13);
2185 *var_vec_u16++ = vec_splat_u16(-14);
2186 *var_vec_u16++ = vec_splat_u16(-15);
2187 *var_vec_u16++ = vec_splat_u16(-16);
2188 *var_vec_u16++ = vec_sr(var_vec_u16[0], var_vec_u16[1]);
2189 *var_vec_u16++ = vec_sra(var_vec_u16[0], var_vec_u16[1]);
2190 *var_vec_u16++ = vec_srl(var_vec_u16[0], var_vec_u16[1]);
2191 *var_vec_u16++ = vec_srl(var_vec_u16[0], var_vec_u32[1]);
2192 *var_vec_u16++ = vec_srl(var_vec_u16[0], var_vec_u8[1]);
2193 *var_vec_u16++ = vec_sro(var_vec_u16[0], var_vec_s8[1]);
2194 *var_vec_u16++ = vec_sro(var_vec_u16[0], var_vec_u8[1]);
2195 *var_vec_u16++ = vec_sub(var_vec_b16[0], var_vec_u16[1]);
2196 *var_vec_u16++ = vec_sub(var_vec_u16[0], var_vec_b16[1]);
2197 *var_vec_u16++ = vec_sub(var_vec_u16[0], var_vec_u16[1]);
2198 *var_vec_u16++ = vec_subs(var_vec_b16[0], var_vec_u16[1]);
2199 *var_vec_u16++ = vec_subs(var_vec_u16[0], var_vec_b16[1]);
2200 *var_vec_u16++ = vec_subs(var_vec_u16[0], var_vec_u16[1]);
2201 *var_vec_u16++ = vec_vadduhm(var_vec_b16[0], var_vec_u16[1]);
2202 *var_vec_u16++ = vec_vadduhm(var_vec_u16[0], var_vec_b16[1]);
2203 *var_vec_u16++ = vec_vadduhm(var_vec_u16[0], var_vec_u16[1]);
2204 *var_vec_u16++ = vec_vadduhs(var_vec_b16[0], var_vec_u16[1]);
2205 *var_vec_u16++ = vec_vadduhs(var_vec_u16[0], var_vec_b16[1]);
2206 *var_vec_u16++ = vec_vadduhs(var_vec_u16[0], var_vec_u16[1]);
2207 *var_vec_u16++ = vec_vand(var_vec_b16[0], var_vec_u16[1]);
2208 *var_vec_u16++ = vec_vand(var_vec_u16[0], var_vec_b16[1]);
2209 *var_vec_u16++ = vec_vand(var_vec_u16[0], var_vec_u16[1]);
2210 *var_vec_u16++ = vec_vandc(var_vec_b16[0], var_vec_u16[1]);
2211 *var_vec_u16++ = vec_vandc(var_vec_u16[0], var_vec_b16[1]);
2212 *var_vec_u16++ = vec_vandc(var_vec_u16[0], var_vec_u16[1]);
2213 *var_vec_u16++ = vec_vavguh(var_vec_u16[0], var_vec_u16[1]);
2214 *var_vec_u16++ = vec_vmaxuh(var_vec_b16[0], var_vec_u16[1]);
2215 *var_vec_u16++ = vec_vmaxuh(var_vec_u16[0], var_vec_b16[1]);
2216 *var_vec_u16++ = vec_vmaxuh(var_vec_u16[0], var_vec_u16[1]);
2217 *var_vec_u16++ = vec_vminuh(var_vec_b16[0], var_vec_u16[1]);
2218 *var_vec_u16++ = vec_vminuh(var_vec_u16[0], var_vec_b16[1]);
2219 *var_vec_u16++ = vec_vminuh(var_vec_u16[0], var_vec_u16[1]);
2220 *var_vec_u16++ = vec_vmladduhm(var_vec_u16[0], var_vec_u16[1], var_vec_u16[2]);
2221 *var_vec_u16++ = vec_vmrghh(var_vec_u16[0], var_vec_u16[1]);
2222 *var_vec_u16++ = vec_vmrglh(var_vec_u16[0], var_vec_u16[1]);
2223 *var_vec_u16++ = vec_vmuleub(var_vec_u8[0], var_vec_u8[1]);
2224 *var_vec_u16++ = vec_vmuloub(var_vec_u8[0], var_vec_u8[1]);
2225 *var_vec_u16++ = vec_vnor(var_vec_u16[0], var_vec_u16[1]);
2226 *var_vec_u16++ = vec_vor(var_vec_b16[0], var_vec_u16[1]);
2227 *var_vec_u16++ = vec_vor(var_vec_u16[0], var_vec_b16[1]);
2228 *var_vec_u16++ = vec_vor(var_vec_u16[0], var_vec_u16[1]);
2229 *var_vec_u16++ = vec_vperm(var_vec_u16[0], var_vec_u16[1], var_vec_u8[2]);
2230 *var_vec_u16++ = vec_vpkswus(var_vec_s32[0], var_vec_s32[1]);
2231 *var_vec_u16++ = vec_vpkuwum(var_vec_u32[0], var_vec_u32[1]);
2232 *var_vec_u16++ = vec_vpkuwus(var_vec_u32[0], var_vec_u32[1]);
2233 *var_vec_u16++ = vec_vrlh(var_vec_u16[0], var_vec_u16[1]);
2234 *var_vec_u16++ = vec_vsel(var_vec_u16[0], var_vec_u16[1], var_vec_b16[2]);
2235 *var_vec_u16++ = vec_vsel(var_vec_u16[0], var_vec_u16[1], var_vec_u16[2]);
2236 *var_vec_u16++ = vec_vsl(var_vec_u16[0], var_vec_u16[1]);
2237 *var_vec_u16++ = vec_vsl(var_vec_u16[0], var_vec_u32[1]);
2238 *var_vec_u16++ = vec_vsl(var_vec_u16[0], var_vec_u8[1]);
2239 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 0);
2240 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 1);
2241 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 2);
2242 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 3);
2243 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 4);
2244 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 5);
2245 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 6);
2246 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 7);
2247 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 8);
2248 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 9);
2249 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 10);
2250 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 11);
2251 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 12);
2252 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 13);
2253 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 14);
2254 *var_vec_u16++ = vec_vsldoi(var_vec_u16[0], var_vec_u16[1], 15);
2255 *var_vec_u16++ = vec_vslh(var_vec_u16[0], var_vec_u16[1]);
2256 *var_vec_u16++ = vec_vslo(var_vec_u16[0], var_vec_s8[1]);
2257 *var_vec_u16++ = vec_vslo(var_vec_u16[0], var_vec_u8[1]);
2258 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 0);
2259 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 1);
2260 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 2);
2261 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 3);
2262 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 4);
2263 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 5);
2264 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 6);
2265 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 7);
2266 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 8);
2267 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 9);
2268 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 10);
2269 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 11);
2270 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 12);
2271 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 13);
2272 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 14);
2273 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 15);
2274 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 16);
2275 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 17);
2276 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 18);
2277 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 19);
2278 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 20);
2279 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 21);
2281 void f22() {
2282 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 22);
2283 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 23);
2284 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 24);
2285 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 25);
2286 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 26);
2287 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 27);
2288 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 28);
2289 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 29);
2290 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 30);
2291 *var_vec_u16++ = vec_vsplth(var_vec_u16[0], 31);
2292 *var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u16[1]);
2293 *var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u32[1]);
2294 *var_vec_u16++ = vec_vsr(var_vec_u16[0], var_vec_u8[1]);
2295 *var_vec_u16++ = vec_vsrah(var_vec_u16[0], var_vec_u16[1]);
2296 *var_vec_u16++ = vec_vsrh(var_vec_u16[0], var_vec_u16[1]);
2297 *var_vec_u16++ = vec_vsro(var_vec_u16[0], var_vec_s8[1]);
2298 *var_vec_u16++ = vec_vsro(var_vec_u16[0], var_vec_u8[1]);
2299 *var_vec_u16++ = vec_vsubuhm(var_vec_b16[0], var_vec_u16[1]);
2300 *var_vec_u16++ = vec_vsubuhm(var_vec_u16[0], var_vec_b16[1]);
2301 *var_vec_u16++ = vec_vsubuhm(var_vec_u16[0], var_vec_u16[1]);
2302 *var_vec_u16++ = vec_vsubuhs(var_vec_b16[0], var_vec_u16[1]);
2303 *var_vec_u16++ = vec_vsubuhs(var_vec_u16[0], var_vec_b16[1]);
2304 *var_vec_u16++ = vec_vsubuhs(var_vec_u16[0], var_vec_u16[1]);
2305 *var_vec_u16++ = vec_vxor(var_vec_b16[0], var_vec_u16[1]);
2306 *var_vec_u16++ = vec_vxor(var_vec_u16[0], var_vec_b16[1]);
2307 *var_vec_u16++ = vec_vxor(var_vec_u16[0], var_vec_u16[1]);
2308 *var_vec_u16++ = vec_xor(var_vec_b16[0], var_vec_u16[1]);
2309 *var_vec_u16++ = vec_xor(var_vec_u16[0], var_vec_b16[1]);
2310 *var_vec_u16++ = vec_xor(var_vec_u16[0], var_vec_u16[1]);
2311 *var_vec_u32++ = vec_add(var_vec_b32[0], var_vec_u32[1]);
2312 *var_vec_u32++ = vec_add(var_vec_u32[0], var_vec_b32[1]);
2313 *var_vec_u32++ = vec_add(var_vec_u32[0], var_vec_u32[1]);
2314 *var_vec_u32++ = vec_addc(var_vec_u32[0], var_vec_u32[1]);
2315 *var_vec_u32++ = vec_adds(var_vec_b32[0], var_vec_u32[1]);
2316 *var_vec_u32++ = vec_adds(var_vec_u32[0], var_vec_b32[1]);
2317 *var_vec_u32++ = vec_adds(var_vec_u32[0], var_vec_u32[1]);
2318 *var_vec_u32++ = vec_and(var_vec_b32[0], var_vec_u32[1]);
2319 *var_vec_u32++ = vec_and(var_vec_u32[0], var_vec_b32[1]);
2320 *var_vec_u32++ = vec_and(var_vec_u32[0], var_vec_u32[1]);
2321 *var_vec_u32++ = vec_andc(var_vec_b32[0], var_vec_u32[1]);
2322 *var_vec_u32++ = vec_andc(var_vec_u32[0], var_vec_b32[1]);
2323 *var_vec_u32++ = vec_andc(var_vec_u32[0], var_vec_u32[1]);
2324 *var_vec_u32++ = vec_avg(var_vec_u32[0], var_vec_u32[1]);
2325 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 0);
2326 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 1);
2327 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 2);
2328 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 3);
2329 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 4);
2330 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 5);
2331 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 6);
2332 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 7);
2333 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 8);
2334 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 9);
2335 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 10);
2336 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 11);
2337 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 12);
2338 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 13);
2339 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 14);
2340 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 15);
2341 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 16);
2342 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 17);
2343 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 18);
2344 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 19);
2345 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 20);
2346 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 21);
2347 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 22);
2348 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 23);
2349 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 24);
2350 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 25);
2351 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 26);
2352 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 27);
2353 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 28);
2354 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 29);
2355 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 30);
2356 *var_vec_u32++ = vec_ctu(var_vec_f32[0], 31);
2357 *var_vec_u32++ = vec_ld(var_int[0], var_unsigned_int_ptr[1]);
2358 *var_vec_u32++ = vec_ld(var_int[0], var_vec_u32_ptr[1]);
2359 *var_vec_u32++ = vec_lde(var_int[0], var_unsigned_int_ptr[1]);
2360 *var_vec_u32++ = vec_ldl(var_int[0], var_unsigned_int_ptr[1]);
2361 *var_vec_u32++ = vec_ldl(var_int[0], var_vec_u32_ptr[1]);
2362 *var_vec_u32++ = vec_lvewx(var_int[0], var_unsigned_int_ptr[1]);
2363 *var_vec_u32++ = vec_lvx(var_int[0], var_unsigned_int_ptr[1]);
2364 *var_vec_u32++ = vec_lvx(var_int[0], var_vec_u32_ptr[1]);
2365 *var_vec_u32++ = vec_lvxl(var_int[0], var_unsigned_int_ptr[1]);
2366 *var_vec_u32++ = vec_lvxl(var_int[0], var_vec_u32_ptr[1]);
2367 *var_vec_u32++ = vec_max(var_vec_b32[0], var_vec_u32[1]);
2368 *var_vec_u32++ = vec_max(var_vec_u32[0], var_vec_b32[1]);
2369 *var_vec_u32++ = vec_max(var_vec_u32[0], var_vec_u32[1]);
2370 *var_vec_u32++ = vec_mergeh(var_vec_u32[0], var_vec_u32[1]);
2371 *var_vec_u32++ = vec_mergel(var_vec_u32[0], var_vec_u32[1]);
2372 *var_vec_u32++ = vec_min(var_vec_b32[0], var_vec_u32[1]);
2373 *var_vec_u32++ = vec_min(var_vec_u32[0], var_vec_b32[1]);
2374 *var_vec_u32++ = vec_min(var_vec_u32[0], var_vec_u32[1]);
2375 *var_vec_u32++ = vec_msum(var_vec_u16[0], var_vec_u16[1], var_vec_u32[2]);
2377 void f23() {
2378 *var_vec_u32++ = vec_msum(var_vec_u8[0], var_vec_u8[1], var_vec_u32[2]);
2379 *var_vec_u32++ = vec_msums(var_vec_u16[0], var_vec_u16[1], var_vec_u32[2]);
2380 *var_vec_u32++ = vec_mule(var_vec_u16[0], var_vec_u16[1]);
2381 *var_vec_u32++ = vec_mulo(var_vec_u16[0], var_vec_u16[1]);
2382 *var_vec_u32++ = vec_nor(var_vec_u32[0], var_vec_u32[1]);
2383 *var_vec_u32++ = vec_or(var_vec_b32[0], var_vec_u32[1]);
2384 *var_vec_u32++ = vec_or(var_vec_u32[0], var_vec_b32[1]);
2385 *var_vec_u32++ = vec_or(var_vec_u32[0], var_vec_u32[1]);
2386 *var_vec_u32++ = vec_perm(var_vec_u32[0], var_vec_u32[1], var_vec_u8[2]);
2387 *var_vec_u32++ = vec_rl(var_vec_u32[0], var_vec_u32[1]);
2388 *var_vec_u32++ = vec_sel(var_vec_u32[0], var_vec_u32[1], var_vec_b32[2]);
2389 *var_vec_u32++ = vec_sel(var_vec_u32[0], var_vec_u32[1], var_vec_u32[2]);
2390 *var_vec_u32++ = vec_sl(var_vec_u32[0], var_vec_u32[1]);
2391 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 0);
2392 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 1);
2393 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 2);
2394 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 3);
2395 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 4);
2396 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 5);
2397 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 6);
2398 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 7);
2399 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 8);
2400 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 9);
2401 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 10);
2402 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 11);
2403 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 12);
2404 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 13);
2405 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 14);
2406 *var_vec_u32++ = vec_sld(var_vec_u32[0], var_vec_u32[1], 15);
2407 *var_vec_u32++ = vec_sll(var_vec_u32[0], var_vec_u16[1]);
2408 *var_vec_u32++ = vec_sll(var_vec_u32[0], var_vec_u32[1]);
2409 *var_vec_u32++ = vec_sll(var_vec_u32[0], var_vec_u8[1]);
2410 *var_vec_u32++ = vec_slo(var_vec_u32[0], var_vec_s8[1]);
2411 *var_vec_u32++ = vec_slo(var_vec_u32[0], var_vec_u8[1]);
2412 *var_vec_u32++ = vec_splat(var_vec_u32[0], 0);
2413 *var_vec_u32++ = vec_splat(var_vec_u32[0], 1);
2414 *var_vec_u32++ = vec_splat(var_vec_u32[0], 2);
2415 *var_vec_u32++ = vec_splat(var_vec_u32[0], 3);
2416 *var_vec_u32++ = vec_splat(var_vec_u32[0], 4);
2417 *var_vec_u32++ = vec_splat(var_vec_u32[0], 5);
2418 *var_vec_u32++ = vec_splat(var_vec_u32[0], 6);
2419 *var_vec_u32++ = vec_splat(var_vec_u32[0], 7);
2420 *var_vec_u32++ = vec_splat(var_vec_u32[0], 8);
2421 *var_vec_u32++ = vec_splat(var_vec_u32[0], 9);
2422 *var_vec_u32++ = vec_splat(var_vec_u32[0], 10);
2423 *var_vec_u32++ = vec_splat(var_vec_u32[0], 11);
2424 *var_vec_u32++ = vec_splat(var_vec_u32[0], 12);
2425 *var_vec_u32++ = vec_splat(var_vec_u32[0], 13);
2426 *var_vec_u32++ = vec_splat(var_vec_u32[0], 14);
2427 *var_vec_u32++ = vec_splat(var_vec_u32[0], 15);
2428 *var_vec_u32++ = vec_splat(var_vec_u32[0], 16);
2429 *var_vec_u32++ = vec_splat(var_vec_u32[0], 17);
2430 *var_vec_u32++ = vec_splat(var_vec_u32[0], 18);
2431 *var_vec_u32++ = vec_splat(var_vec_u32[0], 19);
2432 *var_vec_u32++ = vec_splat(var_vec_u32[0], 20);
2433 *var_vec_u32++ = vec_splat(var_vec_u32[0], 21);
2434 *var_vec_u32++ = vec_splat(var_vec_u32[0], 22);
2435 *var_vec_u32++ = vec_splat(var_vec_u32[0], 23);
2436 *var_vec_u32++ = vec_splat(var_vec_u32[0], 24);
2437 *var_vec_u32++ = vec_splat(var_vec_u32[0], 25);
2438 *var_vec_u32++ = vec_splat(var_vec_u32[0], 26);
2439 *var_vec_u32++ = vec_splat(var_vec_u32[0], 27);
2440 *var_vec_u32++ = vec_splat(var_vec_u32[0], 28);
2441 *var_vec_u32++ = vec_splat(var_vec_u32[0], 29);
2442 *var_vec_u32++ = vec_splat(var_vec_u32[0], 30);
2443 *var_vec_u32++ = vec_splat(var_vec_u32[0], 31);
2444 *var_vec_u32++ = vec_splat_u32( 0);
2445 *var_vec_u32++ = vec_splat_u32( 1);
2446 *var_vec_u32++ = vec_splat_u32( 2);
2447 *var_vec_u32++ = vec_splat_u32( 3);
2448 *var_vec_u32++ = vec_splat_u32( 4);
2449 *var_vec_u32++ = vec_splat_u32( 5);
2450 *var_vec_u32++ = vec_splat_u32( 6);
2451 *var_vec_u32++ = vec_splat_u32( 7);
2452 *var_vec_u32++ = vec_splat_u32( 8);
2453 *var_vec_u32++ = vec_splat_u32( 9);
2454 *var_vec_u32++ = vec_splat_u32( -1);
2455 *var_vec_u32++ = vec_splat_u32( -2);
2456 *var_vec_u32++ = vec_splat_u32( -3);
2457 *var_vec_u32++ = vec_splat_u32( -4);
2458 *var_vec_u32++ = vec_splat_u32( -5);
2459 *var_vec_u32++ = vec_splat_u32( -6);
2460 *var_vec_u32++ = vec_splat_u32( -7);
2461 *var_vec_u32++ = vec_splat_u32( -8);
2462 *var_vec_u32++ = vec_splat_u32( -9);
2463 *var_vec_u32++ = vec_splat_u32( 10);
2464 *var_vec_u32++ = vec_splat_u32( 11);
2465 *var_vec_u32++ = vec_splat_u32( 12);
2466 *var_vec_u32++ = vec_splat_u32( 13);
2467 *var_vec_u32++ = vec_splat_u32( 14);
2468 *var_vec_u32++ = vec_splat_u32( 15);
2469 *var_vec_u32++ = vec_splat_u32(-10);
2470 *var_vec_u32++ = vec_splat_u32(-11);
2471 *var_vec_u32++ = vec_splat_u32(-12);
2472 *var_vec_u32++ = vec_splat_u32(-13);
2473 *var_vec_u32++ = vec_splat_u32(-14);
2474 *var_vec_u32++ = vec_splat_u32(-15);
2475 *var_vec_u32++ = vec_splat_u32(-16);
2476 *var_vec_u32++ = vec_sr(var_vec_u32[0], var_vec_u32[1]);
2477 *var_vec_u32++ = vec_sra(var_vec_u32[0], var_vec_u32[1]);
2479 void f24() {
2480 *var_vec_u32++ = vec_srl(var_vec_u32[0], var_vec_u16[1]);
2481 *var_vec_u32++ = vec_srl(var_vec_u32[0], var_vec_u32[1]);
2482 *var_vec_u32++ = vec_srl(var_vec_u32[0], var_vec_u8[1]);
2483 *var_vec_u32++ = vec_sro(var_vec_u32[0], var_vec_s8[1]);
2484 *var_vec_u32++ = vec_sro(var_vec_u32[0], var_vec_u8[1]);
2485 *var_vec_u32++ = vec_sub(var_vec_b32[0], var_vec_u32[1]);
2486 *var_vec_u32++ = vec_sub(var_vec_u32[0], var_vec_b32[1]);
2487 *var_vec_u32++ = vec_sub(var_vec_u32[0], var_vec_u32[1]);
2488 *var_vec_u32++ = vec_subc(var_vec_u32[0], var_vec_u32[1]);
2489 *var_vec_u32++ = vec_subs(var_vec_b32[0], var_vec_u32[1]);
2490 *var_vec_u32++ = vec_subs(var_vec_u32[0], var_vec_b32[1]);
2491 *var_vec_u32++ = vec_subs(var_vec_u32[0], var_vec_u32[1]);
2492 *var_vec_u32++ = vec_sum4s(var_vec_u8[0], var_vec_u32[1]);
2493 *var_vec_u32++ = vec_unpackh(var_vec_p16[0]);
2494 *var_vec_u32++ = vec_unpackl(var_vec_p16[0]);
2495 *var_vec_u32++ = vec_vaddcuw(var_vec_u32[0], var_vec_u32[1]);
2496 *var_vec_u32++ = vec_vadduwm(var_vec_b32[0], var_vec_u32[1]);
2497 *var_vec_u32++ = vec_vadduwm(var_vec_u32[0], var_vec_b32[1]);
2498 *var_vec_u32++ = vec_vadduwm(var_vec_u32[0], var_vec_u32[1]);
2499 *var_vec_u32++ = vec_vadduws(var_vec_b32[0], var_vec_u32[1]);
2500 *var_vec_u32++ = vec_vadduws(var_vec_u32[0], var_vec_b32[1]);
2501 *var_vec_u32++ = vec_vadduws(var_vec_u32[0], var_vec_u32[1]);
2502 *var_vec_u32++ = vec_vand(var_vec_b32[0], var_vec_u32[1]);
2503 *var_vec_u32++ = vec_vand(var_vec_u32[0], var_vec_b32[1]);
2504 *var_vec_u32++ = vec_vand(var_vec_u32[0], var_vec_u32[1]);
2505 *var_vec_u32++ = vec_vandc(var_vec_b32[0], var_vec_u32[1]);
2506 *var_vec_u32++ = vec_vandc(var_vec_u32[0], var_vec_b32[1]);
2507 *var_vec_u32++ = vec_vandc(var_vec_u32[0], var_vec_u32[1]);
2508 *var_vec_u32++ = vec_vavguw(var_vec_u32[0], var_vec_u32[1]);
2509 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 0);
2510 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 1);
2511 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 2);
2512 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 3);
2513 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 4);
2514 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 5);
2515 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 6);
2516 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 7);
2517 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 8);
2518 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 9);
2519 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 10);
2520 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 11);
2521 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 12);
2522 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 13);
2523 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 14);
2524 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 15);
2525 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 16);
2526 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 17);
2527 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 18);
2528 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 19);
2529 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 20);
2530 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 21);
2531 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 22);
2532 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 23);
2533 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 24);
2534 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 25);
2535 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 26);
2536 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 27);
2537 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 28);
2538 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 29);
2539 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 30);
2540 *var_vec_u32++ = vec_vctuxs(var_vec_f32[0], 31);
2541 *var_vec_u32++ = vec_vmaxuw(var_vec_b32[0], var_vec_u32[1]);
2542 *var_vec_u32++ = vec_vmaxuw(var_vec_u32[0], var_vec_b32[1]);
2543 *var_vec_u32++ = vec_vmaxuw(var_vec_u32[0], var_vec_u32[1]);
2544 *var_vec_u32++ = vec_vminuw(var_vec_b32[0], var_vec_u32[1]);
2545 *var_vec_u32++ = vec_vminuw(var_vec_u32[0], var_vec_b32[1]);
2546 *var_vec_u32++ = vec_vminuw(var_vec_u32[0], var_vec_u32[1]);
2547 *var_vec_u32++ = vec_vmrghw(var_vec_u32[0], var_vec_u32[1]);
2548 *var_vec_u32++ = vec_vmrglw(var_vec_u32[0], var_vec_u32[1]);
2549 *var_vec_u32++ = vec_vmsumubm(var_vec_u8[0], var_vec_u8[1], var_vec_u32[2]);
2550 *var_vec_u32++ = vec_vmsumuhm(var_vec_u16[0], var_vec_u16[1], var_vec_u32[2]);
2551 *var_vec_u32++ = vec_vmsumuhs(var_vec_u16[0], var_vec_u16[1], var_vec_u32[2]);
2552 *var_vec_u32++ = vec_vmuleuh(var_vec_u16[0], var_vec_u16[1]);
2553 *var_vec_u32++ = vec_vmulouh(var_vec_u16[0], var_vec_u16[1]);
2554 *var_vec_u32++ = vec_vnor(var_vec_u32[0], var_vec_u32[1]);
2555 *var_vec_u32++ = vec_vor(var_vec_b32[0], var_vec_u32[1]);
2556 *var_vec_u32++ = vec_vor(var_vec_u32[0], var_vec_b32[1]);
2557 *var_vec_u32++ = vec_vor(var_vec_u32[0], var_vec_u32[1]);
2558 *var_vec_u32++ = vec_vperm(var_vec_u32[0], var_vec_u32[1], var_vec_u8[2]);
2559 *var_vec_u32++ = vec_vrlw(var_vec_u32[0], var_vec_u32[1]);
2560 *var_vec_u32++ = vec_vsel(var_vec_u32[0], var_vec_u32[1], var_vec_b32[2]);
2561 *var_vec_u32++ = vec_vsel(var_vec_u32[0], var_vec_u32[1], var_vec_u32[2]);
2562 *var_vec_u32++ = vec_vsl(var_vec_u32[0], var_vec_u16[1]);
2563 *var_vec_u32++ = vec_vsl(var_vec_u32[0], var_vec_u32[1]);
2564 *var_vec_u32++ = vec_vsl(var_vec_u32[0], var_vec_u8[1]);
2565 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 0);
2566 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 1);
2567 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 2);
2568 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 3);
2569 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 4);
2570 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 5);
2571 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 6);
2572 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 7);
2573 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 8);
2574 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 9);
2575 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 10);
2576 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 11);
2577 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 12);
2579 void f25() {
2580 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 13);
2581 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 14);
2582 *var_vec_u32++ = vec_vsldoi(var_vec_u32[0], var_vec_u32[1], 15);
2583 *var_vec_u32++ = vec_vslo(var_vec_u32[0], var_vec_s8[1]);
2584 *var_vec_u32++ = vec_vslo(var_vec_u32[0], var_vec_u8[1]);
2585 *var_vec_u32++ = vec_vslw(var_vec_u32[0], var_vec_u32[1]);
2586 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 0);
2587 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 1);
2588 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 2);
2589 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 3);
2590 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 4);
2591 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 5);
2592 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 6);
2593 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 7);
2594 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 8);
2595 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 9);
2596 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 10);
2597 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 11);
2598 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 12);
2599 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 13);
2600 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 14);
2601 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 15);
2602 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 16);
2603 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 17);
2604 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 18);
2605 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 19);
2606 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 20);
2607 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 21);
2608 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 22);
2609 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 23);
2610 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 24);
2611 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 25);
2612 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 26);
2613 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 27);
2614 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 28);
2615 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 29);
2616 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 30);
2617 *var_vec_u32++ = vec_vspltw(var_vec_u32[0], 31);
2618 *var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u16[1]);
2619 *var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u32[1]);
2620 *var_vec_u32++ = vec_vsr(var_vec_u32[0], var_vec_u8[1]);
2621 *var_vec_u32++ = vec_vsraw(var_vec_u32[0], var_vec_u32[1]);
2622 *var_vec_u32++ = vec_vsro(var_vec_u32[0], var_vec_s8[1]);
2623 *var_vec_u32++ = vec_vsro(var_vec_u32[0], var_vec_u8[1]);
2624 *var_vec_u32++ = vec_vsrw(var_vec_u32[0], var_vec_u32[1]);
2625 *var_vec_u32++ = vec_vsubcuw(var_vec_u32[0], var_vec_u32[1]);
2626 *var_vec_u32++ = vec_vsubuwm(var_vec_b32[0], var_vec_u32[1]);
2627 *var_vec_u32++ = vec_vsubuwm(var_vec_u32[0], var_vec_b32[1]);
2628 *var_vec_u32++ = vec_vsubuwm(var_vec_u32[0], var_vec_u32[1]);
2629 *var_vec_u32++ = vec_vsubuws(var_vec_b32[0], var_vec_u32[1]);
2630 *var_vec_u32++ = vec_vsubuws(var_vec_u32[0], var_vec_b32[1]);
2631 *var_vec_u32++ = vec_vsubuws(var_vec_u32[0], var_vec_u32[1]);
2632 *var_vec_u32++ = vec_vsum4ubs(var_vec_u8[0], var_vec_u32[1]);
2633 *var_vec_u32++ = vec_vupkhpx(var_vec_p16[0]);
2634 *var_vec_u32++ = vec_vupklpx(var_vec_p16[0]);
2635 *var_vec_u32++ = vec_vxor(var_vec_b32[0], var_vec_u32[1]);
2636 *var_vec_u32++ = vec_vxor(var_vec_u32[0], var_vec_b32[1]);
2637 *var_vec_u32++ = vec_vxor(var_vec_u32[0], var_vec_u32[1]);
2638 *var_vec_u32++ = vec_xor(var_vec_b32[0], var_vec_u32[1]);
2639 *var_vec_u32++ = vec_xor(var_vec_u32[0], var_vec_b32[1]);
2640 *var_vec_u32++ = vec_xor(var_vec_u32[0], var_vec_u32[1]);
2641 *var_vec_u8++ = vec_add(var_vec_b8[0], var_vec_u8[1]);
2642 *var_vec_u8++ = vec_add(var_vec_u8[0], var_vec_b8[1]);
2643 *var_vec_u8++ = vec_add(var_vec_u8[0], var_vec_u8[1]);
2644 *var_vec_u8++ = vec_adds(var_vec_b8[0], var_vec_u8[1]);
2645 *var_vec_u8++ = vec_adds(var_vec_u8[0], var_vec_b8[1]);
2646 *var_vec_u8++ = vec_adds(var_vec_u8[0], var_vec_u8[1]);
2647 *var_vec_u8++ = vec_and(var_vec_b8[0], var_vec_u8[1]);
2648 *var_vec_u8++ = vec_and(var_vec_u8[0], var_vec_b8[1]);
2649 *var_vec_u8++ = vec_and(var_vec_u8[0], var_vec_u8[1]);
2650 *var_vec_u8++ = vec_andc(var_vec_b8[0], var_vec_u8[1]);
2651 *var_vec_u8++ = vec_andc(var_vec_u8[0], var_vec_b8[1]);
2652 *var_vec_u8++ = vec_andc(var_vec_u8[0], var_vec_u8[1]);
2653 *var_vec_u8++ = vec_avg(var_vec_u8[0], var_vec_u8[1]);
2654 *var_vec_u8++ = vec_ld(var_int[0], var_unsigned_char_ptr[1]);
2655 *var_vec_u8++ = vec_ld(var_int[0], var_vec_u8_ptr[1]);
2656 *var_vec_u8++ = vec_lde(var_int[0], var_unsigned_char_ptr[1]);
2657 *var_vec_u8++ = vec_ldl(var_int[0], var_unsigned_char_ptr[1]);
2658 *var_vec_u8++ = vec_ldl(var_int[0], var_vec_u8_ptr[1]);
2659 *var_vec_u8++ = vec_lvebx(var_int[0], var_unsigned_char_ptr[1]);
2660 *var_vec_u8++ = vec_lvsl(var_int[0], var_float_ptr[1]);
2661 *var_vec_u8++ = vec_lvsl(var_int[0], var_int_ptr[1]);
2662 *var_vec_u8++ = vec_lvsl(var_int[0], var_short_ptr[1]);
2663 *var_vec_u8++ = vec_lvsl(var_int[0], var_signed_char_ptr[1]);
2664 *var_vec_u8++ = vec_lvsl(var_int[0], var_unsigned_char_ptr[1]);
2665 *var_vec_u8++ = vec_lvsl(var_int[0], var_unsigned_int_ptr[1]);
2666 *var_vec_u8++ = vec_lvsl(var_int[0], var_unsigned_short_ptr[1]);
2667 *var_vec_u8++ = vec_lvsr(var_int[0], var_float_ptr[1]);
2668 *var_vec_u8++ = vec_lvsr(var_int[0], var_int_ptr[1]);
2669 *var_vec_u8++ = vec_lvsr(var_int[0], var_short_ptr[1]);
2670 *var_vec_u8++ = vec_lvsr(var_int[0], var_signed_char_ptr[1]);
2671 *var_vec_u8++ = vec_lvsr(var_int[0], var_unsigned_char_ptr[1]);
2672 *var_vec_u8++ = vec_lvsr(var_int[0], var_unsigned_int_ptr[1]);
2673 *var_vec_u8++ = vec_lvsr(var_int[0], var_unsigned_short_ptr[1]);
2674 *var_vec_u8++ = vec_lvx(var_int[0], var_unsigned_char_ptr[1]);
2675 *var_vec_u8++ = vec_lvx(var_int[0], var_vec_u8_ptr[1]);
2677 void f26() {
2678 *var_vec_u8++ = vec_lvxl(var_int[0], var_unsigned_char_ptr[1]);
2679 *var_vec_u8++ = vec_lvxl(var_int[0], var_vec_u8_ptr[1]);
2680 *var_vec_u8++ = vec_max(var_vec_b8[0], var_vec_u8[1]);
2681 *var_vec_u8++ = vec_max(var_vec_u8[0], var_vec_b8[1]);
2682 *var_vec_u8++ = vec_max(var_vec_u8[0], var_vec_u8[1]);
2683 *var_vec_u8++ = vec_mergeh(var_vec_u8[0], var_vec_u8[1]);
2684 *var_vec_u8++ = vec_mergel(var_vec_u8[0], var_vec_u8[1]);
2685 *var_vec_u8++ = vec_min(var_vec_b8[0], var_vec_u8[1]);
2686 *var_vec_u8++ = vec_min(var_vec_u8[0], var_vec_b8[1]);
2687 *var_vec_u8++ = vec_min(var_vec_u8[0], var_vec_u8[1]);
2688 *var_vec_u8++ = vec_nor(var_vec_u8[0], var_vec_u8[1]);
2689 *var_vec_u8++ = vec_or(var_vec_b8[0], var_vec_u8[1]);
2690 *var_vec_u8++ = vec_or(var_vec_u8[0], var_vec_b8[1]);
2691 *var_vec_u8++ = vec_or(var_vec_u8[0], var_vec_u8[1]);
2692 *var_vec_u8++ = vec_pack(var_vec_u16[0], var_vec_u16[1]);
2693 *var_vec_u8++ = vec_packs(var_vec_u16[0], var_vec_u16[1]);
2694 *var_vec_u8++ = vec_packsu(var_vec_s16[0], var_vec_s16[1]);
2695 *var_vec_u8++ = vec_packsu(var_vec_u16[0], var_vec_u16[1]);
2696 *var_vec_u8++ = vec_perm(var_vec_u8[0], var_vec_u8[1], var_vec_u8[2]);
2697 *var_vec_u8++ = vec_rl(var_vec_u8[0], var_vec_u8[1]);
2698 *var_vec_u8++ = vec_sel(var_vec_u8[0], var_vec_u8[1], var_vec_b8[2]);
2699 *var_vec_u8++ = vec_sel(var_vec_u8[0], var_vec_u8[1], var_vec_u8[2]);
2700 *var_vec_u8++ = vec_sl(var_vec_u8[0], var_vec_u8[1]);
2701 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 0);
2702 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 1);
2703 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 2);
2704 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 3);
2705 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 4);
2706 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 5);
2707 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 6);
2708 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 7);
2709 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 8);
2710 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 9);
2711 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 10);
2712 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 11);
2713 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 12);
2714 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 13);
2715 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 14);
2716 *var_vec_u8++ = vec_sld(var_vec_u8[0], var_vec_u8[1], 15);
2717 *var_vec_u8++ = vec_sll(var_vec_u8[0], var_vec_u16[1]);
2718 *var_vec_u8++ = vec_sll(var_vec_u8[0], var_vec_u32[1]);
2719 *var_vec_u8++ = vec_sll(var_vec_u8[0], var_vec_u8[1]);
2720 *var_vec_u8++ = vec_slo(var_vec_u8[0], var_vec_s8[1]);
2721 *var_vec_u8++ = vec_slo(var_vec_u8[0], var_vec_u8[1]);
2722 *var_vec_u8++ = vec_splat(var_vec_u8[0], 0);
2723 *var_vec_u8++ = vec_splat(var_vec_u8[0], 1);
2724 *var_vec_u8++ = vec_splat(var_vec_u8[0], 2);
2725 *var_vec_u8++ = vec_splat(var_vec_u8[0], 3);
2726 *var_vec_u8++ = vec_splat(var_vec_u8[0], 4);
2727 *var_vec_u8++ = vec_splat(var_vec_u8[0], 5);
2728 *var_vec_u8++ = vec_splat(var_vec_u8[0], 6);
2729 *var_vec_u8++ = vec_splat(var_vec_u8[0], 7);
2730 *var_vec_u8++ = vec_splat(var_vec_u8[0], 8);
2731 *var_vec_u8++ = vec_splat(var_vec_u8[0], 9);
2732 *var_vec_u8++ = vec_splat(var_vec_u8[0], 10);
2733 *var_vec_u8++ = vec_splat(var_vec_u8[0], 11);
2734 *var_vec_u8++ = vec_splat(var_vec_u8[0], 12);
2735 *var_vec_u8++ = vec_splat(var_vec_u8[0], 13);
2736 *var_vec_u8++ = vec_splat(var_vec_u8[0], 14);
2737 *var_vec_u8++ = vec_splat(var_vec_u8[0], 15);
2738 *var_vec_u8++ = vec_splat(var_vec_u8[0], 16);
2739 *var_vec_u8++ = vec_splat(var_vec_u8[0], 17);
2740 *var_vec_u8++ = vec_splat(var_vec_u8[0], 18);
2741 *var_vec_u8++ = vec_splat(var_vec_u8[0], 19);
2742 *var_vec_u8++ = vec_splat(var_vec_u8[0], 20);
2743 *var_vec_u8++ = vec_splat(var_vec_u8[0], 21);
2744 *var_vec_u8++ = vec_splat(var_vec_u8[0], 22);
2745 *var_vec_u8++ = vec_splat(var_vec_u8[0], 23);
2746 *var_vec_u8++ = vec_splat(var_vec_u8[0], 24);
2747 *var_vec_u8++ = vec_splat(var_vec_u8[0], 25);
2748 *var_vec_u8++ = vec_splat(var_vec_u8[0], 26);
2749 *var_vec_u8++ = vec_splat(var_vec_u8[0], 27);
2750 *var_vec_u8++ = vec_splat(var_vec_u8[0], 28);
2751 *var_vec_u8++ = vec_splat(var_vec_u8[0], 29);
2752 *var_vec_u8++ = vec_splat(var_vec_u8[0], 30);
2753 *var_vec_u8++ = vec_splat(var_vec_u8[0], 31);
2754 *var_vec_u8++ = vec_splat_u8( 0);
2755 *var_vec_u8++ = vec_splat_u8( 1);
2756 *var_vec_u8++ = vec_splat_u8( 2);
2757 *var_vec_u8++ = vec_splat_u8( 3);
2758 *var_vec_u8++ = vec_splat_u8( 4);
2759 *var_vec_u8++ = vec_splat_u8( 5);
2760 *var_vec_u8++ = vec_splat_u8( 6);
2761 *var_vec_u8++ = vec_splat_u8( 7);
2762 *var_vec_u8++ = vec_splat_u8( 8);
2763 *var_vec_u8++ = vec_splat_u8( 9);
2764 *var_vec_u8++ = vec_splat_u8( -1);
2765 *var_vec_u8++ = vec_splat_u8( -2);
2766 *var_vec_u8++ = vec_splat_u8( -3);
2767 *var_vec_u8++ = vec_splat_u8( -4);
2768 *var_vec_u8++ = vec_splat_u8( -5);
2769 *var_vec_u8++ = vec_splat_u8( -6);
2770 *var_vec_u8++ = vec_splat_u8( -7);
2771 *var_vec_u8++ = vec_splat_u8( -8);
2772 *var_vec_u8++ = vec_splat_u8( -9);
2773 *var_vec_u8++ = vec_splat_u8( 10);
2774 *var_vec_u8++ = vec_splat_u8( 11);
2775 *var_vec_u8++ = vec_splat_u8( 12);
2776 *var_vec_u8++ = vec_splat_u8( 13);
2777 *var_vec_u8++ = vec_splat_u8( 14);
2779 void f27() {
2780 *var_vec_u8++ = vec_splat_u8( 15);
2781 *var_vec_u8++ = vec_splat_u8(-10);
2782 *var_vec_u8++ = vec_splat_u8(-11);
2783 *var_vec_u8++ = vec_splat_u8(-12);
2784 *var_vec_u8++ = vec_splat_u8(-13);
2785 *var_vec_u8++ = vec_splat_u8(-14);
2786 *var_vec_u8++ = vec_splat_u8(-15);
2787 *var_vec_u8++ = vec_splat_u8(-16);
2788 *var_vec_u8++ = vec_sr(var_vec_u8[0], var_vec_u8[1]);
2789 *var_vec_u8++ = vec_sra(var_vec_u8[0], var_vec_u8[1]);
2790 *var_vec_u8++ = vec_srl(var_vec_u8[0], var_vec_u16[1]);
2791 *var_vec_u8++ = vec_srl(var_vec_u8[0], var_vec_u32[1]);
2792 *var_vec_u8++ = vec_srl(var_vec_u8[0], var_vec_u8[1]);
2793 *var_vec_u8++ = vec_sro(var_vec_u8[0], var_vec_s8[1]);
2794 *var_vec_u8++ = vec_sro(var_vec_u8[0], var_vec_u8[1]);
2795 *var_vec_u8++ = vec_sub(var_vec_b8[0], var_vec_u8[1]);
2796 *var_vec_u8++ = vec_sub(var_vec_u8[0], var_vec_b8[1]);
2797 *var_vec_u8++ = vec_sub(var_vec_u8[0], var_vec_u8[1]);
2798 *var_vec_u8++ = vec_subs(var_vec_b8[0], var_vec_u8[1]);
2799 *var_vec_u8++ = vec_subs(var_vec_u8[0], var_vec_b8[1]);
2800 *var_vec_u8++ = vec_subs(var_vec_u8[0], var_vec_u8[1]);
2801 *var_vec_u8++ = vec_vaddubm(var_vec_b8[0], var_vec_u8[1]);
2802 *var_vec_u8++ = vec_vaddubm(var_vec_u8[0], var_vec_b8[1]);
2803 *var_vec_u8++ = vec_vaddubm(var_vec_u8[0], var_vec_u8[1]);
2804 *var_vec_u8++ = vec_vaddubs(var_vec_b8[0], var_vec_u8[1]);
2805 *var_vec_u8++ = vec_vaddubs(var_vec_u8[0], var_vec_b8[1]);
2806 *var_vec_u8++ = vec_vaddubs(var_vec_u8[0], var_vec_u8[1]);
2807 *var_vec_u8++ = vec_vand(var_vec_b8[0], var_vec_u8[1]);
2808 *var_vec_u8++ = vec_vand(var_vec_u8[0], var_vec_b8[1]);
2809 *var_vec_u8++ = vec_vand(var_vec_u8[0], var_vec_u8[1]);
2810 *var_vec_u8++ = vec_vandc(var_vec_b8[0], var_vec_u8[1]);
2811 *var_vec_u8++ = vec_vandc(var_vec_u8[0], var_vec_b8[1]);
2812 *var_vec_u8++ = vec_vandc(var_vec_u8[0], var_vec_u8[1]);
2813 *var_vec_u8++ = vec_vavgub(var_vec_u8[0], var_vec_u8[1]);
2814 *var_vec_u8++ = vec_vmaxub(var_vec_b8[0], var_vec_u8[1]);
2815 *var_vec_u8++ = vec_vmaxub(var_vec_u8[0], var_vec_b8[1]);
2816 *var_vec_u8++ = vec_vmaxub(var_vec_u8[0], var_vec_u8[1]);
2817 *var_vec_u8++ = vec_vminub(var_vec_b8[0], var_vec_u8[1]);
2818 *var_vec_u8++ = vec_vminub(var_vec_u8[0], var_vec_b8[1]);
2819 *var_vec_u8++ = vec_vminub(var_vec_u8[0], var_vec_u8[1]);
2820 *var_vec_u8++ = vec_vmrghb(var_vec_u8[0], var_vec_u8[1]);
2821 *var_vec_u8++ = vec_vmrglb(var_vec_u8[0], var_vec_u8[1]);
2822 *var_vec_u8++ = vec_vnor(var_vec_u8[0], var_vec_u8[1]);
2823 *var_vec_u8++ = vec_vor(var_vec_b8[0], var_vec_u8[1]);
2824 *var_vec_u8++ = vec_vor(var_vec_u8[0], var_vec_b8[1]);
2825 *var_vec_u8++ = vec_vor(var_vec_u8[0], var_vec_u8[1]);
2826 *var_vec_u8++ = vec_vperm(var_vec_u8[0], var_vec_u8[1], var_vec_u8[2]);
2827 *var_vec_u8++ = vec_vpkshus(var_vec_s16[0], var_vec_s16[1]);
2828 *var_vec_u8++ = vec_vpkuhum(var_vec_u16[0], var_vec_u16[1]);
2829 *var_vec_u8++ = vec_vpkuhus(var_vec_u16[0], var_vec_u16[1]);
2830 *var_vec_u8++ = vec_vrlb(var_vec_u8[0], var_vec_u8[1]);
2831 *var_vec_u8++ = vec_vsel(var_vec_u8[0], var_vec_u8[1], var_vec_b8[2]);
2832 *var_vec_u8++ = vec_vsel(var_vec_u8[0], var_vec_u8[1], var_vec_u8[2]);
2833 *var_vec_u8++ = vec_vsl(var_vec_u8[0], var_vec_u16[1]);
2834 *var_vec_u8++ = vec_vsl(var_vec_u8[0], var_vec_u32[1]);
2835 *var_vec_u8++ = vec_vsl(var_vec_u8[0], var_vec_u8[1]);
2836 *var_vec_u8++ = vec_vslb(var_vec_u8[0], var_vec_u8[1]);
2837 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 0);
2838 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 1);
2839 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 2);
2840 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 3);
2841 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 4);
2842 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 5);
2843 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 6);
2844 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 7);
2845 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 8);
2846 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 9);
2847 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 10);
2848 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 11);
2849 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 12);
2850 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 13);
2851 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 14);
2852 *var_vec_u8++ = vec_vsldoi(var_vec_u8[0], var_vec_u8[1], 15);
2853 *var_vec_u8++ = vec_vslo(var_vec_u8[0], var_vec_s8[1]);
2854 *var_vec_u8++ = vec_vslo(var_vec_u8[0], var_vec_u8[1]);
2855 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 0);
2856 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 1);
2857 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 2);
2858 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 3);
2859 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 4);
2860 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 5);
2861 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 6);
2862 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 7);
2863 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 8);
2864 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 9);
2865 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 10);
2866 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 11);
2867 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 12);
2868 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 13);
2869 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 14);
2870 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 15);
2871 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 16);
2872 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 17);
2873 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 18);
2874 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 19);
2875 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 20);
2876 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 21);
2877 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 22);
2878 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 23);
2879 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 24);
2881 void f28() {
2882 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 25);
2883 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 26);
2884 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 27);
2885 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 28);
2886 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 29);
2887 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 30);
2888 *var_vec_u8++ = vec_vspltb(var_vec_u8[0], 31);
2889 *var_vec_u8++ = vec_vsr(var_vec_u8[0], var_vec_u16[1]);
2890 *var_vec_u8++ = vec_vsr(var_vec_u8[0], var_vec_u32[1]);
2891 *var_vec_u8++ = vec_vsr(var_vec_u8[0], var_vec_u8[1]);
2892 *var_vec_u8++ = vec_vsrab(var_vec_u8[0], var_vec_u8[1]);
2893 *var_vec_u8++ = vec_vsrb(var_vec_u8[0], var_vec_u8[1]);
2894 *var_vec_u8++ = vec_vsro(var_vec_u8[0], var_vec_s8[1]);
2895 *var_vec_u8++ = vec_vsro(var_vec_u8[0], var_vec_u8[1]);
2896 *var_vec_u8++ = vec_vsububm(var_vec_b8[0], var_vec_u8[1]);
2897 *var_vec_u8++ = vec_vsububm(var_vec_u8[0], var_vec_b8[1]);
2898 *var_vec_u8++ = vec_vsububm(var_vec_u8[0], var_vec_u8[1]);
2899 *var_vec_u8++ = vec_vsububs(var_vec_b8[0], var_vec_u8[1]);
2900 *var_vec_u8++ = vec_vsububs(var_vec_u8[0], var_vec_b8[1]);
2901 *var_vec_u8++ = vec_vsububs(var_vec_u8[0], var_vec_u8[1]);
2902 *var_vec_u8++ = vec_vxor(var_vec_b8[0], var_vec_u8[1]);
2903 *var_vec_u8++ = vec_vxor(var_vec_u8[0], var_vec_b8[1]);
2904 *var_vec_u8++ = vec_vxor(var_vec_u8[0], var_vec_u8[1]);
2905 *var_vec_u8++ = vec_xor(var_vec_b8[0], var_vec_u8[1]);
2906 *var_vec_u8++ = vec_xor(var_vec_u8[0], var_vec_b8[1]);
2907 *var_vec_u8++ = vec_xor(var_vec_u8[0], var_vec_u8[1]);
2908 *var_volatile_vec_u16++ = vec_mfvscr();
2909 if(!vec_all_eq(var_vec_b16[0], var_vec_b16[1])) *var_cc24t++;
2910 if(!vec_all_eq(var_vec_b16[0], var_vec_s16[1])) *var_cc24t++;
2911 if(!vec_all_eq(var_vec_b16[0], var_vec_u16[1])) *var_cc24t++;
2912 if(!vec_all_eq(var_vec_b32[0], var_vec_b32[1])) *var_cc24t++;
2913 if(!vec_all_eq(var_vec_b32[0], var_vec_s32[1])) *var_cc24t++;
2914 if(!vec_all_eq(var_vec_b32[0], var_vec_u32[1])) *var_cc24t++;
2915 if(!vec_all_eq(var_vec_b8[0], var_vec_b8[1])) *var_cc24t++;
2916 if(!vec_all_eq(var_vec_b8[0], var_vec_s8[1])) *var_cc24t++;
2917 if(!vec_all_eq(var_vec_b8[0], var_vec_u8[1])) *var_cc24t++;
2918 if(!vec_all_eq(var_vec_f32[0], var_vec_f32[1])) *var_cc24t++;
2919 if(!vec_all_eq(var_vec_p16[0], var_vec_p16[1])) *var_cc24t++;
2920 if(!vec_all_eq(var_vec_s16[0], var_vec_b16[1])) *var_cc24t++;
2921 if(!vec_all_eq(var_vec_s16[0], var_vec_s16[1])) *var_cc24t++;
2922 if(!vec_all_eq(var_vec_s32[0], var_vec_b32[1])) *var_cc24t++;
2923 if(!vec_all_eq(var_vec_s32[0], var_vec_s32[1])) *var_cc24t++;
2924 if(!vec_all_eq(var_vec_s8[0], var_vec_b8[1])) *var_cc24t++;
2925 if(!vec_all_eq(var_vec_s8[0], var_vec_s8[1])) *var_cc24t++;
2926 if(!vec_all_eq(var_vec_u16[0], var_vec_b16[1])) *var_cc24t++;
2927 if(!vec_all_eq(var_vec_u16[0], var_vec_u16[1])) *var_cc24t++;
2928 if(!vec_all_eq(var_vec_u32[0], var_vec_b32[1])) *var_cc24t++;
2929 if(!vec_all_eq(var_vec_u32[0], var_vec_u32[1])) *var_cc24t++;
2930 if(!vec_all_eq(var_vec_u8[0], var_vec_b8[1])) *var_cc24t++;
2931 if(!vec_all_eq(var_vec_u8[0], var_vec_u8[1])) *var_cc24t++;
2932 if(!vec_all_ge(var_vec_b16[0], var_vec_s16[1])) *var_cc26tr++;
2933 if(!vec_all_ge(var_vec_b16[0], var_vec_u16[1])) *var_cc26tr++;
2934 if(!vec_all_ge(var_vec_b32[0], var_vec_s32[1])) *var_cc26tr++;
2935 if(!vec_all_ge(var_vec_b32[0], var_vec_u32[1])) *var_cc26tr++;
2936 if(!vec_all_ge(var_vec_b8[0], var_vec_s8[1])) *var_cc26tr++;
2937 if(!vec_all_ge(var_vec_b8[0], var_vec_u8[1])) *var_cc26tr++;
2938 if(!vec_all_ge(var_vec_f32[0], var_vec_f32[1])) *var_cc24t++;
2939 if(!vec_all_ge(var_vec_s16[0], var_vec_b16[1])) *var_cc26tr++;
2940 if(!vec_all_ge(var_vec_s16[0], var_vec_s16[1])) *var_cc26tr++;
2941 if(!vec_all_ge(var_vec_s32[0], var_vec_b32[1])) *var_cc26tr++;
2942 if(!vec_all_ge(var_vec_s32[0], var_vec_s32[1])) *var_cc26tr++;
2943 if(!vec_all_ge(var_vec_s8[0], var_vec_b8[1])) *var_cc26tr++;
2944 if(!vec_all_ge(var_vec_s8[0], var_vec_s8[1])) *var_cc26tr++;
2945 if(!vec_all_ge(var_vec_u16[0], var_vec_b16[1])) *var_cc26tr++;
2946 if(!vec_all_ge(var_vec_u16[0], var_vec_u16[1])) *var_cc26tr++;
2947 if(!vec_all_ge(var_vec_u32[0], var_vec_b32[1])) *var_cc26tr++;
2948 if(!vec_all_ge(var_vec_u32[0], var_vec_u32[1])) *var_cc26tr++;
2949 if(!vec_all_ge(var_vec_u8[0], var_vec_b8[1])) *var_cc26tr++;
2950 if(!vec_all_ge(var_vec_u8[0], var_vec_u8[1])) *var_cc26tr++;
2951 if(!vec_all_gt(var_vec_b16[0], var_vec_s16[1])) *var_cc24t++;
2952 if(!vec_all_gt(var_vec_b16[0], var_vec_u16[1])) *var_cc24t++;
2953 if(!vec_all_gt(var_vec_b32[0], var_vec_s32[1])) *var_cc24t++;
2954 if(!vec_all_gt(var_vec_b32[0], var_vec_u32[1])) *var_cc24t++;
2955 if(!vec_all_gt(var_vec_b8[0], var_vec_s8[1])) *var_cc24t++;
2956 if(!vec_all_gt(var_vec_b8[0], var_vec_u8[1])) *var_cc24t++;
2957 if(!vec_all_gt(var_vec_f32[0], var_vec_f32[1])) *var_cc24t++;
2958 if(!vec_all_gt(var_vec_s16[0], var_vec_b16[1])) *var_cc24t++;
2959 if(!vec_all_gt(var_vec_s16[0], var_vec_s16[1])) *var_cc24t++;
2960 if(!vec_all_gt(var_vec_s32[0], var_vec_b32[1])) *var_cc24t++;
2961 if(!vec_all_gt(var_vec_s32[0], var_vec_s32[1])) *var_cc24t++;
2962 if(!vec_all_gt(var_vec_s8[0], var_vec_b8[1])) *var_cc24t++;
2963 if(!vec_all_gt(var_vec_s8[0], var_vec_s8[1])) *var_cc24t++;
2964 if(!vec_all_gt(var_vec_u16[0], var_vec_b16[1])) *var_cc24t++;
2965 if(!vec_all_gt(var_vec_u16[0], var_vec_u16[1])) *var_cc24t++;
2966 if(!vec_all_gt(var_vec_u32[0], var_vec_b32[1])) *var_cc24t++;
2967 if(!vec_all_gt(var_vec_u32[0], var_vec_u32[1])) *var_cc24t++;
2968 if(!vec_all_gt(var_vec_u8[0], var_vec_b8[1])) *var_cc24t++;
2969 if(!vec_all_gt(var_vec_u8[0], var_vec_u8[1])) *var_cc24t++;
2970 if(!vec_all_in(var_vec_f32[0], var_vec_f32[1])) *var_cc26t++;
2971 if(!vec_all_le(var_vec_b16[0], var_vec_s16[1])) *var_cc26t++;
2972 if(!vec_all_le(var_vec_b16[0], var_vec_u16[1])) *var_cc26t++;
2973 if(!vec_all_le(var_vec_b32[0], var_vec_s32[1])) *var_cc26t++;
2974 if(!vec_all_le(var_vec_b32[0], var_vec_u32[1])) *var_cc26t++;
2975 if(!vec_all_le(var_vec_b8[0], var_vec_s8[1])) *var_cc26t++;
2976 if(!vec_all_le(var_vec_b8[0], var_vec_u8[1])) *var_cc26t++;
2977 if(!vec_all_le(var_vec_f32[0], var_vec_f32[1])) *var_cc24tr++;
2978 if(!vec_all_le(var_vec_s16[0], var_vec_b16[1])) *var_cc26t++;
2979 if(!vec_all_le(var_vec_s16[0], var_vec_s16[1])) *var_cc26t++;
2980 if(!vec_all_le(var_vec_s32[0], var_vec_b32[1])) *var_cc26t++;
2981 if(!vec_all_le(var_vec_s32[0], var_vec_s32[1])) *var_cc26t++;
2983 void f29() {
2984 if(!vec_all_le(var_vec_s8[0], var_vec_b8[1])) *var_cc26t++;
2985 if(!vec_all_le(var_vec_s8[0], var_vec_s8[1])) *var_cc26t++;
2986 if(!vec_all_le(var_vec_u16[0], var_vec_b16[1])) *var_cc26t++;
2987 if(!vec_all_le(var_vec_u16[0], var_vec_u16[1])) *var_cc26t++;
2988 if(!vec_all_le(var_vec_u32[0], var_vec_b32[1])) *var_cc26t++;
2989 if(!vec_all_le(var_vec_u32[0], var_vec_u32[1])) *var_cc26t++;
2990 if(!vec_all_le(var_vec_u8[0], var_vec_b8[1])) *var_cc26t++;
2991 if(!vec_all_le(var_vec_u8[0], var_vec_u8[1])) *var_cc26t++;
2992 if(!vec_all_lt(var_vec_b16[0], var_vec_s16[1])) *var_cc24tr++;
2993 if(!vec_all_lt(var_vec_b16[0], var_vec_u16[1])) *var_cc24tr++;
2994 if(!vec_all_lt(var_vec_b32[0], var_vec_s32[1])) *var_cc24tr++;
2995 if(!vec_all_lt(var_vec_b32[0], var_vec_u32[1])) *var_cc24tr++;
2996 if(!vec_all_lt(var_vec_b8[0], var_vec_s8[1])) *var_cc24tr++;
2997 if(!vec_all_lt(var_vec_b8[0], var_vec_u8[1])) *var_cc24tr++;
2998 if(!vec_all_lt(var_vec_f32[0], var_vec_f32[1])) *var_cc24tr++;
2999 if(!vec_all_lt(var_vec_s16[0], var_vec_b16[1])) *var_cc24tr++;
3000 if(!vec_all_lt(var_vec_s16[0], var_vec_s16[1])) *var_cc24tr++;
3001 if(!vec_all_lt(var_vec_s32[0], var_vec_b32[1])) *var_cc24tr++;
3002 if(!vec_all_lt(var_vec_s32[0], var_vec_s32[1])) *var_cc24tr++;
3003 if(!vec_all_lt(var_vec_s8[0], var_vec_b8[1])) *var_cc24tr++;
3004 if(!vec_all_lt(var_vec_s8[0], var_vec_s8[1])) *var_cc24tr++;
3005 if(!vec_all_lt(var_vec_u16[0], var_vec_b16[1])) *var_cc24tr++;
3006 if(!vec_all_lt(var_vec_u16[0], var_vec_u16[1])) *var_cc24tr++;
3007 if(!vec_all_lt(var_vec_u32[0], var_vec_b32[1])) *var_cc24tr++;
3008 if(!vec_all_lt(var_vec_u32[0], var_vec_u32[1])) *var_cc24tr++;
3009 if(!vec_all_lt(var_vec_u8[0], var_vec_b8[1])) *var_cc24tr++;
3010 if(!vec_all_lt(var_vec_u8[0], var_vec_u8[1])) *var_cc24tr++;
3011 if(!vec_all_nan(var_vec_f32[0])) *var_cc26td++;
3012 if(!vec_all_ne(var_vec_b16[0], var_vec_b16[1])) *var_cc26t++;
3013 if(!vec_all_ne(var_vec_b16[0], var_vec_s16[1])) *var_cc26t++;
3014 if(!vec_all_ne(var_vec_b16[0], var_vec_u16[1])) *var_cc26t++;
3015 if(!vec_all_ne(var_vec_b32[0], var_vec_b32[1])) *var_cc26t++;
3016 if(!vec_all_ne(var_vec_b32[0], var_vec_s32[1])) *var_cc26t++;
3017 if(!vec_all_ne(var_vec_b32[0], var_vec_u32[1])) *var_cc26t++;
3018 if(!vec_all_ne(var_vec_b8[0], var_vec_b8[1])) *var_cc26t++;
3019 if(!vec_all_ne(var_vec_b8[0], var_vec_s8[1])) *var_cc26t++;
3020 if(!vec_all_ne(var_vec_b8[0], var_vec_u8[1])) *var_cc26t++;
3021 if(!vec_all_ne(var_vec_f32[0], var_vec_f32[1])) *var_cc26t++;
3022 if(!vec_all_ne(var_vec_p16[0], var_vec_p16[1])) *var_cc26t++;
3023 if(!vec_all_ne(var_vec_s16[0], var_vec_b16[1])) *var_cc26t++;
3024 if(!vec_all_ne(var_vec_s16[0], var_vec_s16[1])) *var_cc26t++;
3025 if(!vec_all_ne(var_vec_s32[0], var_vec_b32[1])) *var_cc26t++;
3026 if(!vec_all_ne(var_vec_s32[0], var_vec_s32[1])) *var_cc26t++;
3027 if(!vec_all_ne(var_vec_s8[0], var_vec_b8[1])) *var_cc26t++;
3028 if(!vec_all_ne(var_vec_s8[0], var_vec_s8[1])) *var_cc26t++;
3029 if(!vec_all_ne(var_vec_u16[0], var_vec_b16[1])) *var_cc26t++;
3030 if(!vec_all_ne(var_vec_u16[0], var_vec_u16[1])) *var_cc26t++;
3031 if(!vec_all_ne(var_vec_u32[0], var_vec_b32[1])) *var_cc26t++;
3032 if(!vec_all_ne(var_vec_u32[0], var_vec_u32[1])) *var_cc26t++;
3033 if(!vec_all_ne(var_vec_u8[0], var_vec_b8[1])) *var_cc26t++;
3034 if(!vec_all_ne(var_vec_u8[0], var_vec_u8[1])) *var_cc26t++;
3035 if(!vec_all_nge(var_vec_f32[0], var_vec_f32[1])) *var_cc26t++;
3036 if(!vec_all_ngt(var_vec_f32[0], var_vec_f32[1])) *var_cc26t++;
3037 if(!vec_all_nle(var_vec_f32[0], var_vec_f32[1])) *var_cc26tr++;
3038 if(!vec_all_nlt(var_vec_f32[0], var_vec_f32[1])) *var_cc26tr++;
3039 if(!vec_all_numeric(var_vec_f32[0])) *var_cc24td++;
3040 if(!vec_any_eq(var_vec_b16[0], var_vec_b16[1])) *var_cc26f++;
3041 if(!vec_any_eq(var_vec_b16[0], var_vec_s16[1])) *var_cc26f++;
3042 if(!vec_any_eq(var_vec_b16[0], var_vec_u16[1])) *var_cc26f++;
3043 if(!vec_any_eq(var_vec_b32[0], var_vec_b32[1])) *var_cc26f++;
3044 if(!vec_any_eq(var_vec_b32[0], var_vec_s32[1])) *var_cc26f++;
3045 if(!vec_any_eq(var_vec_b32[0], var_vec_u32[1])) *var_cc26f++;
3046 if(!vec_any_eq(var_vec_b8[0], var_vec_b8[1])) *var_cc26f++;
3047 if(!vec_any_eq(var_vec_b8[0], var_vec_s8[1])) *var_cc26f++;
3048 if(!vec_any_eq(var_vec_b8[0], var_vec_u8[1])) *var_cc26f++;
3049 if(!vec_any_eq(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
3050 if(!vec_any_eq(var_vec_p16[0], var_vec_p16[1])) *var_cc26f++;
3051 if(!vec_any_eq(var_vec_s16[0], var_vec_b16[1])) *var_cc26f++;
3052 if(!vec_any_eq(var_vec_s16[0], var_vec_s16[1])) *var_cc26f++;
3053 if(!vec_any_eq(var_vec_s32[0], var_vec_b32[1])) *var_cc26f++;
3054 if(!vec_any_eq(var_vec_s32[0], var_vec_s32[1])) *var_cc26f++;
3055 if(!vec_any_eq(var_vec_s8[0], var_vec_b8[1])) *var_cc26f++;
3056 if(!vec_any_eq(var_vec_s8[0], var_vec_s8[1])) *var_cc26f++;
3057 if(!vec_any_eq(var_vec_u16[0], var_vec_b16[1])) *var_cc26f++;
3058 if(!vec_any_eq(var_vec_u16[0], var_vec_u16[1])) *var_cc26f++;
3059 if(!vec_any_eq(var_vec_u32[0], var_vec_b32[1])) *var_cc26f++;
3060 if(!vec_any_eq(var_vec_u32[0], var_vec_u32[1])) *var_cc26f++;
3061 if(!vec_any_eq(var_vec_u8[0], var_vec_b8[1])) *var_cc26f++;
3062 if(!vec_any_eq(var_vec_u8[0], var_vec_u8[1])) *var_cc26f++;
3063 if(!vec_any_ge(var_vec_b16[0], var_vec_s16[1])) *var_cc24fr++;
3064 if(!vec_any_ge(var_vec_b16[0], var_vec_u16[1])) *var_cc24fr++;
3065 if(!vec_any_ge(var_vec_b32[0], var_vec_s32[1])) *var_cc24fr++;
3066 if(!vec_any_ge(var_vec_b32[0], var_vec_u32[1])) *var_cc24fr++;
3067 if(!vec_any_ge(var_vec_b8[0], var_vec_s8[1])) *var_cc24fr++;
3068 if(!vec_any_ge(var_vec_b8[0], var_vec_u8[1])) *var_cc24fr++;
3069 if(!vec_any_ge(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
3070 if(!vec_any_ge(var_vec_s16[0], var_vec_b16[1])) *var_cc24fr++;
3071 if(!vec_any_ge(var_vec_s16[0], var_vec_s16[1])) *var_cc24fr++;
3072 if(!vec_any_ge(var_vec_s32[0], var_vec_b32[1])) *var_cc24fr++;
3073 if(!vec_any_ge(var_vec_s32[0], var_vec_s32[1])) *var_cc24fr++;
3074 if(!vec_any_ge(var_vec_s8[0], var_vec_b8[1])) *var_cc24fr++;
3075 if(!vec_any_ge(var_vec_s8[0], var_vec_s8[1])) *var_cc24fr++;
3076 if(!vec_any_ge(var_vec_u16[0], var_vec_b16[1])) *var_cc24fr++;
3077 if(!vec_any_ge(var_vec_u16[0], var_vec_u16[1])) *var_cc24fr++;
3078 if(!vec_any_ge(var_vec_u32[0], var_vec_b32[1])) *var_cc24fr++;
3079 if(!vec_any_ge(var_vec_u32[0], var_vec_u32[1])) *var_cc24fr++;
3080 if(!vec_any_ge(var_vec_u8[0], var_vec_b8[1])) *var_cc24fr++;
3081 if(!vec_any_ge(var_vec_u8[0], var_vec_u8[1])) *var_cc24fr++;
3082 if(!vec_any_gt(var_vec_b16[0], var_vec_s16[1])) *var_cc26f++;
3083 if(!vec_any_gt(var_vec_b16[0], var_vec_u16[1])) *var_cc26f++;
3085 void f30() {
3086 if(!vec_any_gt(var_vec_b32[0], var_vec_s32[1])) *var_cc26f++;
3087 if(!vec_any_gt(var_vec_b32[0], var_vec_u32[1])) *var_cc26f++;
3088 if(!vec_any_gt(var_vec_b8[0], var_vec_s8[1])) *var_cc26f++;
3089 if(!vec_any_gt(var_vec_b8[0], var_vec_u8[1])) *var_cc26f++;
3090 if(!vec_any_gt(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
3091 if(!vec_any_gt(var_vec_s16[0], var_vec_b16[1])) *var_cc26f++;
3092 if(!vec_any_gt(var_vec_s16[0], var_vec_s16[1])) *var_cc26f++;
3093 if(!vec_any_gt(var_vec_s32[0], var_vec_b32[1])) *var_cc26f++;
3094 if(!vec_any_gt(var_vec_s32[0], var_vec_s32[1])) *var_cc26f++;
3095 if(!vec_any_gt(var_vec_s8[0], var_vec_b8[1])) *var_cc26f++;
3096 if(!vec_any_gt(var_vec_s8[0], var_vec_s8[1])) *var_cc26f++;
3097 if(!vec_any_gt(var_vec_u16[0], var_vec_b16[1])) *var_cc26f++;
3098 if(!vec_any_gt(var_vec_u16[0], var_vec_u16[1])) *var_cc26f++;
3099 if(!vec_any_gt(var_vec_u32[0], var_vec_b32[1])) *var_cc26f++;
3100 if(!vec_any_gt(var_vec_u32[0], var_vec_u32[1])) *var_cc26f++;
3101 if(!vec_any_gt(var_vec_u8[0], var_vec_b8[1])) *var_cc26f++;
3102 if(!vec_any_gt(var_vec_u8[0], var_vec_u8[1])) *var_cc26f++;
3103 if(!vec_any_le(var_vec_b16[0], var_vec_s16[1])) *var_cc24f++;
3104 if(!vec_any_le(var_vec_b16[0], var_vec_u16[1])) *var_cc24f++;
3105 if(!vec_any_le(var_vec_b32[0], var_vec_s32[1])) *var_cc24f++;
3106 if(!vec_any_le(var_vec_b32[0], var_vec_u32[1])) *var_cc24f++;
3107 if(!vec_any_le(var_vec_b8[0], var_vec_s8[1])) *var_cc24f++;
3108 if(!vec_any_le(var_vec_b8[0], var_vec_u8[1])) *var_cc24f++;
3109 if(!vec_any_le(var_vec_f32[0], var_vec_f32[1])) *var_cc26fr++;
3110 if(!vec_any_le(var_vec_s16[0], var_vec_b16[1])) *var_cc24f++;
3111 if(!vec_any_le(var_vec_s16[0], var_vec_s16[1])) *var_cc24f++;
3112 if(!vec_any_le(var_vec_s32[0], var_vec_b32[1])) *var_cc24f++;
3113 if(!vec_any_le(var_vec_s32[0], var_vec_s32[1])) *var_cc24f++;
3114 if(!vec_any_le(var_vec_s8[0], var_vec_b8[1])) *var_cc24f++;
3115 if(!vec_any_le(var_vec_s8[0], var_vec_s8[1])) *var_cc24f++;
3116 if(!vec_any_le(var_vec_u16[0], var_vec_b16[1])) *var_cc24f++;
3117 if(!vec_any_le(var_vec_u16[0], var_vec_u16[1])) *var_cc24f++;
3118 if(!vec_any_le(var_vec_u32[0], var_vec_b32[1])) *var_cc24f++;
3119 if(!vec_any_le(var_vec_u32[0], var_vec_u32[1])) *var_cc24f++;
3120 if(!vec_any_le(var_vec_u8[0], var_vec_b8[1])) *var_cc24f++;
3121 if(!vec_any_le(var_vec_u8[0], var_vec_u8[1])) *var_cc24f++;
3122 if(!vec_any_lt(var_vec_b16[0], var_vec_s16[1])) *var_cc26fr++;
3123 if(!vec_any_lt(var_vec_b16[0], var_vec_u16[1])) *var_cc26fr++;
3124 if(!vec_any_lt(var_vec_b32[0], var_vec_s32[1])) *var_cc26fr++;
3125 if(!vec_any_lt(var_vec_b32[0], var_vec_u32[1])) *var_cc26fr++;
3126 if(!vec_any_lt(var_vec_b8[0], var_vec_s8[1])) *var_cc26fr++;
3127 if(!vec_any_lt(var_vec_b8[0], var_vec_u8[1])) *var_cc26fr++;
3128 if(!vec_any_lt(var_vec_f32[0], var_vec_f32[1])) *var_cc26fr++;
3129 if(!vec_any_lt(var_vec_s16[0], var_vec_b16[1])) *var_cc26fr++;
3130 if(!vec_any_lt(var_vec_s16[0], var_vec_s16[1])) *var_cc26fr++;
3131 if(!vec_any_lt(var_vec_s32[0], var_vec_b32[1])) *var_cc26fr++;
3132 if(!vec_any_lt(var_vec_s32[0], var_vec_s32[1])) *var_cc26fr++;
3133 if(!vec_any_lt(var_vec_s8[0], var_vec_b8[1])) *var_cc26fr++;
3134 if(!vec_any_lt(var_vec_s8[0], var_vec_s8[1])) *var_cc26fr++;
3135 if(!vec_any_lt(var_vec_u16[0], var_vec_b16[1])) *var_cc26fr++;
3136 if(!vec_any_lt(var_vec_u16[0], var_vec_u16[1])) *var_cc26fr++;
3137 if(!vec_any_lt(var_vec_u32[0], var_vec_b32[1])) *var_cc26fr++;
3138 if(!vec_any_lt(var_vec_u32[0], var_vec_u32[1])) *var_cc26fr++;
3139 if(!vec_any_lt(var_vec_u8[0], var_vec_b8[1])) *var_cc26fr++;
3140 if(!vec_any_lt(var_vec_u8[0], var_vec_u8[1])) *var_cc26fr++;
3141 if(!vec_any_nan(var_vec_f32[0])) *var_cc24fd++;
3142 if(!vec_any_ne(var_vec_b16[0], var_vec_b16[1])) *var_cc24f++;
3143 if(!vec_any_ne(var_vec_b16[0], var_vec_s16[1])) *var_cc24f++;
3144 if(!vec_any_ne(var_vec_b16[0], var_vec_u16[1])) *var_cc24f++;
3145 if(!vec_any_ne(var_vec_b32[0], var_vec_b32[1])) *var_cc24f++;
3146 if(!vec_any_ne(var_vec_b32[0], var_vec_s32[1])) *var_cc24f++;
3147 if(!vec_any_ne(var_vec_b32[0], var_vec_u32[1])) *var_cc24f++;
3148 if(!vec_any_ne(var_vec_b8[0], var_vec_b8[1])) *var_cc24f++;
3149 if(!vec_any_ne(var_vec_b8[0], var_vec_s8[1])) *var_cc24f++;
3150 if(!vec_any_ne(var_vec_b8[0], var_vec_u8[1])) *var_cc24f++;
3151 if(!vec_any_ne(var_vec_f32[0], var_vec_f32[1])) *var_cc24f++;
3152 if(!vec_any_ne(var_vec_p16[0], var_vec_p16[1])) *var_cc24f++;
3153 if(!vec_any_ne(var_vec_s16[0], var_vec_b16[1])) *var_cc24f++;
3154 if(!vec_any_ne(var_vec_s16[0], var_vec_s16[1])) *var_cc24f++;
3155 if(!vec_any_ne(var_vec_s32[0], var_vec_b32[1])) *var_cc24f++;
3156 if(!vec_any_ne(var_vec_s32[0], var_vec_s32[1])) *var_cc24f++;
3157 if(!vec_any_ne(var_vec_s8[0], var_vec_b8[1])) *var_cc24f++;
3158 if(!vec_any_ne(var_vec_s8[0], var_vec_s8[1])) *var_cc24f++;
3159 if(!vec_any_ne(var_vec_u16[0], var_vec_b16[1])) *var_cc24f++;
3160 if(!vec_any_ne(var_vec_u16[0], var_vec_u16[1])) *var_cc24f++;
3161 if(!vec_any_ne(var_vec_u32[0], var_vec_b32[1])) *var_cc24f++;
3162 if(!vec_any_ne(var_vec_u32[0], var_vec_u32[1])) *var_cc24f++;
3163 if(!vec_any_ne(var_vec_u8[0], var_vec_b8[1])) *var_cc24f++;
3164 if(!vec_any_ne(var_vec_u8[0], var_vec_u8[1])) *var_cc24f++;
3165 if(!vec_any_nge(var_vec_f32[0], var_vec_f32[1])) *var_cc24f++;
3166 if(!vec_any_ngt(var_vec_f32[0], var_vec_f32[1])) *var_cc24f++;
3167 if(!vec_any_nle(var_vec_f32[0], var_vec_f32[1])) *var_cc24fr++;
3168 if(!vec_any_nlt(var_vec_f32[0], var_vec_f32[1])) *var_cc24fr++;
3169 if(!vec_any_numeric(var_vec_f32[0])) *var_cc26fd++;
3170 if(!vec_any_out(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
3171 if(vec_all_eq(var_vec_b16[0], var_vec_b16[1])) *var_cc24t++;
3172 if(vec_all_eq(var_vec_b16[0], var_vec_s16[1])) *var_cc24t++;
3173 if(vec_all_eq(var_vec_b16[0], var_vec_u16[1])) *var_cc24t++;
3174 if(vec_all_eq(var_vec_b32[0], var_vec_b32[1])) *var_cc24t++;
3175 if(vec_all_eq(var_vec_b32[0], var_vec_s32[1])) *var_cc24t++;
3176 if(vec_all_eq(var_vec_b32[0], var_vec_u32[1])) *var_cc24t++;
3177 if(vec_all_eq(var_vec_b8[0], var_vec_b8[1])) *var_cc24t++;
3178 if(vec_all_eq(var_vec_b8[0], var_vec_s8[1])) *var_cc24t++;
3179 if(vec_all_eq(var_vec_b8[0], var_vec_u8[1])) *var_cc24t++;
3180 if(vec_all_eq(var_vec_f32[0], var_vec_f32[1])) *var_cc24t++;
3181 if(vec_all_eq(var_vec_p16[0], var_vec_p16[1])) *var_cc24t++;
3182 if(vec_all_eq(var_vec_s16[0], var_vec_b16[1])) *var_cc24t++;
3183 if(vec_all_eq(var_vec_s16[0], var_vec_s16[1])) *var_cc24t++;
3184 if(vec_all_eq(var_vec_s32[0], var_vec_b32[1])) *var_cc24t++;
3185 if(vec_all_eq(var_vec_s32[0], var_vec_s32[1])) *var_cc24t++;
3187 void f31() {
3188 if(vec_all_eq(var_vec_s8[0], var_vec_b8[1])) *var_cc24t++;
3189 if(vec_all_eq(var_vec_s8[0], var_vec_s8[1])) *var_cc24t++;
3190 if(vec_all_eq(var_vec_u16[0], var_vec_b16[1])) *var_cc24t++;
3191 if(vec_all_eq(var_vec_u16[0], var_vec_u16[1])) *var_cc24t++;
3192 if(vec_all_eq(var_vec_u32[0], var_vec_b32[1])) *var_cc24t++;
3193 if(vec_all_eq(var_vec_u32[0], var_vec_u32[1])) *var_cc24t++;
3194 if(vec_all_eq(var_vec_u8[0], var_vec_b8[1])) *var_cc24t++;
3195 if(vec_all_eq(var_vec_u8[0], var_vec_u8[1])) *var_cc24t++;
3196 if(vec_all_ge(var_vec_b16[0], var_vec_s16[1])) *var_cc26tr++;
3197 if(vec_all_ge(var_vec_b16[0], var_vec_u16[1])) *var_cc26tr++;
3198 if(vec_all_ge(var_vec_b32[0], var_vec_s32[1])) *var_cc26tr++;
3199 if(vec_all_ge(var_vec_b32[0], var_vec_u32[1])) *var_cc26tr++;
3200 if(vec_all_ge(var_vec_b8[0], var_vec_s8[1])) *var_cc26tr++;
3201 if(vec_all_ge(var_vec_b8[0], var_vec_u8[1])) *var_cc26tr++;
3202 if(vec_all_ge(var_vec_f32[0], var_vec_f32[1])) *var_cc24t++;
3203 if(vec_all_ge(var_vec_s16[0], var_vec_b16[1])) *var_cc26tr++;
3204 if(vec_all_ge(var_vec_s16[0], var_vec_s16[1])) *var_cc26tr++;
3205 if(vec_all_ge(var_vec_s32[0], var_vec_b32[1])) *var_cc26tr++;
3206 if(vec_all_ge(var_vec_s32[0], var_vec_s32[1])) *var_cc26tr++;
3207 if(vec_all_ge(var_vec_s8[0], var_vec_b8[1])) *var_cc26tr++;
3208 if(vec_all_ge(var_vec_s8[0], var_vec_s8[1])) *var_cc26tr++;
3209 if(vec_all_ge(var_vec_u16[0], var_vec_b16[1])) *var_cc26tr++;
3210 if(vec_all_ge(var_vec_u16[0], var_vec_u16[1])) *var_cc26tr++;
3211 if(vec_all_ge(var_vec_u32[0], var_vec_b32[1])) *var_cc26tr++;
3212 if(vec_all_ge(var_vec_u32[0], var_vec_u32[1])) *var_cc26tr++;
3213 if(vec_all_ge(var_vec_u8[0], var_vec_b8[1])) *var_cc26tr++;
3214 if(vec_all_ge(var_vec_u8[0], var_vec_u8[1])) *var_cc26tr++;
3215 if(vec_all_gt(var_vec_b16[0], var_vec_s16[1])) *var_cc24t++;
3216 if(vec_all_gt(var_vec_b16[0], var_vec_u16[1])) *var_cc24t++;
3217 if(vec_all_gt(var_vec_b32[0], var_vec_s32[1])) *var_cc24t++;
3218 if(vec_all_gt(var_vec_b32[0], var_vec_u32[1])) *var_cc24t++;
3219 if(vec_all_gt(var_vec_b8[0], var_vec_s8[1])) *var_cc24t++;
3220 if(vec_all_gt(var_vec_b8[0], var_vec_u8[1])) *var_cc24t++;
3221 if(vec_all_gt(var_vec_f32[0], var_vec_f32[1])) *var_cc24t++;
3222 if(vec_all_gt(var_vec_s16[0], var_vec_b16[1])) *var_cc24t++;
3223 if(vec_all_gt(var_vec_s16[0], var_vec_s16[1])) *var_cc24t++;
3224 if(vec_all_gt(var_vec_s32[0], var_vec_b32[1])) *var_cc24t++;
3225 if(vec_all_gt(var_vec_s32[0], var_vec_s32[1])) *var_cc24t++;
3226 if(vec_all_gt(var_vec_s8[0], var_vec_b8[1])) *var_cc24t++;
3227 if(vec_all_gt(var_vec_s8[0], var_vec_s8[1])) *var_cc24t++;
3228 if(vec_all_gt(var_vec_u16[0], var_vec_b16[1])) *var_cc24t++;
3229 if(vec_all_gt(var_vec_u16[0], var_vec_u16[1])) *var_cc24t++;
3230 if(vec_all_gt(var_vec_u32[0], var_vec_b32[1])) *var_cc24t++;
3231 if(vec_all_gt(var_vec_u32[0], var_vec_u32[1])) *var_cc24t++;
3232 if(vec_all_gt(var_vec_u8[0], var_vec_b8[1])) *var_cc24t++;
3233 if(vec_all_gt(var_vec_u8[0], var_vec_u8[1])) *var_cc24t++;
3234 if(vec_all_in(var_vec_f32[0], var_vec_f32[1])) *var_cc26t++;
3235 if(vec_all_le(var_vec_b16[0], var_vec_s16[1])) *var_cc26t++;
3236 if(vec_all_le(var_vec_b16[0], var_vec_u16[1])) *var_cc26t++;
3237 if(vec_all_le(var_vec_b32[0], var_vec_s32[1])) *var_cc26t++;
3238 if(vec_all_le(var_vec_b32[0], var_vec_u32[1])) *var_cc26t++;
3239 if(vec_all_le(var_vec_b8[0], var_vec_s8[1])) *var_cc26t++;
3240 if(vec_all_le(var_vec_b8[0], var_vec_u8[1])) *var_cc26t++;
3241 if(vec_all_le(var_vec_f32[0], var_vec_f32[1])) *var_cc24tr++;
3242 if(vec_all_le(var_vec_s16[0], var_vec_b16[1])) *var_cc26t++;
3243 if(vec_all_le(var_vec_s16[0], var_vec_s16[1])) *var_cc26t++;
3244 if(vec_all_le(var_vec_s32[0], var_vec_b32[1])) *var_cc26t++;
3245 if(vec_all_le(var_vec_s32[0], var_vec_s32[1])) *var_cc26t++;
3246 if(vec_all_le(var_vec_s8[0], var_vec_b8[1])) *var_cc26t++;
3247 if(vec_all_le(var_vec_s8[0], var_vec_s8[1])) *var_cc26t++;
3248 if(vec_all_le(var_vec_u16[0], var_vec_b16[1])) *var_cc26t++;
3249 if(vec_all_le(var_vec_u16[0], var_vec_u16[1])) *var_cc26t++;
3250 if(vec_all_le(var_vec_u32[0], var_vec_b32[1])) *var_cc26t++;
3251 if(vec_all_le(var_vec_u32[0], var_vec_u32[1])) *var_cc26t++;
3252 if(vec_all_le(var_vec_u8[0], var_vec_b8[1])) *var_cc26t++;
3253 if(vec_all_le(var_vec_u8[0], var_vec_u8[1])) *var_cc26t++;
3254 if(vec_all_lt(var_vec_b16[0], var_vec_s16[1])) *var_cc24tr++;
3255 if(vec_all_lt(var_vec_b16[0], var_vec_u16[1])) *var_cc24tr++;
3256 if(vec_all_lt(var_vec_b32[0], var_vec_s32[1])) *var_cc24tr++;
3257 if(vec_all_lt(var_vec_b32[0], var_vec_u32[1])) *var_cc24tr++;
3258 if(vec_all_lt(var_vec_b8[0], var_vec_s8[1])) *var_cc24tr++;
3259 if(vec_all_lt(var_vec_b8[0], var_vec_u8[1])) *var_cc24tr++;
3260 if(vec_all_lt(var_vec_f32[0], var_vec_f32[1])) *var_cc24tr++;
3261 if(vec_all_lt(var_vec_s16[0], var_vec_b16[1])) *var_cc24tr++;
3262 if(vec_all_lt(var_vec_s16[0], var_vec_s16[1])) *var_cc24tr++;
3263 if(vec_all_lt(var_vec_s32[0], var_vec_b32[1])) *var_cc24tr++;
3264 if(vec_all_lt(var_vec_s32[0], var_vec_s32[1])) *var_cc24tr++;
3265 if(vec_all_lt(var_vec_s8[0], var_vec_b8[1])) *var_cc24tr++;
3266 if(vec_all_lt(var_vec_s8[0], var_vec_s8[1])) *var_cc24tr++;
3267 if(vec_all_lt(var_vec_u16[0], var_vec_b16[1])) *var_cc24tr++;
3268 if(vec_all_lt(var_vec_u16[0], var_vec_u16[1])) *var_cc24tr++;
3269 if(vec_all_lt(var_vec_u32[0], var_vec_b32[1])) *var_cc24tr++;
3270 if(vec_all_lt(var_vec_u32[0], var_vec_u32[1])) *var_cc24tr++;
3271 if(vec_all_lt(var_vec_u8[0], var_vec_b8[1])) *var_cc24tr++;
3272 if(vec_all_lt(var_vec_u8[0], var_vec_u8[1])) *var_cc24tr++;
3273 if(vec_all_nan(var_vec_f32[0])) *var_cc26td++;
3274 if(vec_all_ne(var_vec_b16[0], var_vec_b16[1])) *var_cc26t++;
3275 if(vec_all_ne(var_vec_b16[0], var_vec_s16[1])) *var_cc26t++;
3276 if(vec_all_ne(var_vec_b16[0], var_vec_u16[1])) *var_cc26t++;
3277 if(vec_all_ne(var_vec_b32[0], var_vec_b32[1])) *var_cc26t++;
3278 if(vec_all_ne(var_vec_b32[0], var_vec_s32[1])) *var_cc26t++;
3279 if(vec_all_ne(var_vec_b32[0], var_vec_u32[1])) *var_cc26t++;
3280 if(vec_all_ne(var_vec_b8[0], var_vec_b8[1])) *var_cc26t++;
3281 if(vec_all_ne(var_vec_b8[0], var_vec_s8[1])) *var_cc26t++;
3282 if(vec_all_ne(var_vec_b8[0], var_vec_u8[1])) *var_cc26t++;
3283 if(vec_all_ne(var_vec_f32[0], var_vec_f32[1])) *var_cc26t++;
3284 if(vec_all_ne(var_vec_p16[0], var_vec_p16[1])) *var_cc26t++;
3285 if(vec_all_ne(var_vec_s16[0], var_vec_b16[1])) *var_cc26t++;
3286 if(vec_all_ne(var_vec_s16[0], var_vec_s16[1])) *var_cc26t++;
3287 if(vec_all_ne(var_vec_s32[0], var_vec_b32[1])) *var_cc26t++;
3289 void f32() {
3290 if(vec_all_ne(var_vec_s32[0], var_vec_s32[1])) *var_cc26t++;
3291 if(vec_all_ne(var_vec_s8[0], var_vec_b8[1])) *var_cc26t++;
3292 if(vec_all_ne(var_vec_s8[0], var_vec_s8[1])) *var_cc26t++;
3293 if(vec_all_ne(var_vec_u16[0], var_vec_b16[1])) *var_cc26t++;
3294 if(vec_all_ne(var_vec_u16[0], var_vec_u16[1])) *var_cc26t++;
3295 if(vec_all_ne(var_vec_u32[0], var_vec_b32[1])) *var_cc26t++;
3296 if(vec_all_ne(var_vec_u32[0], var_vec_u32[1])) *var_cc26t++;
3297 if(vec_all_ne(var_vec_u8[0], var_vec_b8[1])) *var_cc26t++;
3298 if(vec_all_ne(var_vec_u8[0], var_vec_u8[1])) *var_cc26t++;
3299 if(vec_all_nge(var_vec_f32[0], var_vec_f32[1])) *var_cc26t++;
3300 if(vec_all_ngt(var_vec_f32[0], var_vec_f32[1])) *var_cc26t++;
3301 if(vec_all_nle(var_vec_f32[0], var_vec_f32[1])) *var_cc26tr++;
3302 if(vec_all_nlt(var_vec_f32[0], var_vec_f32[1])) *var_cc26tr++;
3303 if(vec_all_numeric(var_vec_f32[0])) *var_cc24td++;
3304 if(vec_any_eq(var_vec_b16[0], var_vec_b16[1])) *var_cc26f++;
3305 if(vec_any_eq(var_vec_b16[0], var_vec_s16[1])) *var_cc26f++;
3306 if(vec_any_eq(var_vec_b16[0], var_vec_u16[1])) *var_cc26f++;
3307 if(vec_any_eq(var_vec_b32[0], var_vec_b32[1])) *var_cc26f++;
3308 if(vec_any_eq(var_vec_b32[0], var_vec_s32[1])) *var_cc26f++;
3309 if(vec_any_eq(var_vec_b32[0], var_vec_u32[1])) *var_cc26f++;
3310 if(vec_any_eq(var_vec_b8[0], var_vec_b8[1])) *var_cc26f++;
3311 if(vec_any_eq(var_vec_b8[0], var_vec_s8[1])) *var_cc26f++;
3312 if(vec_any_eq(var_vec_b8[0], var_vec_u8[1])) *var_cc26f++;
3313 if(vec_any_eq(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
3314 if(vec_any_eq(var_vec_p16[0], var_vec_p16[1])) *var_cc26f++;
3315 if(vec_any_eq(var_vec_s16[0], var_vec_b16[1])) *var_cc26f++;
3316 if(vec_any_eq(var_vec_s16[0], var_vec_s16[1])) *var_cc26f++;
3317 if(vec_any_eq(var_vec_s32[0], var_vec_b32[1])) *var_cc26f++;
3318 if(vec_any_eq(var_vec_s32[0], var_vec_s32[1])) *var_cc26f++;
3319 if(vec_any_eq(var_vec_s8[0], var_vec_b8[1])) *var_cc26f++;
3320 if(vec_any_eq(var_vec_s8[0], var_vec_s8[1])) *var_cc26f++;
3321 if(vec_any_eq(var_vec_u16[0], var_vec_b16[1])) *var_cc26f++;
3322 if(vec_any_eq(var_vec_u16[0], var_vec_u16[1])) *var_cc26f++;
3323 if(vec_any_eq(var_vec_u32[0], var_vec_b32[1])) *var_cc26f++;
3324 if(vec_any_eq(var_vec_u32[0], var_vec_u32[1])) *var_cc26f++;
3325 if(vec_any_eq(var_vec_u8[0], var_vec_b8[1])) *var_cc26f++;
3326 if(vec_any_eq(var_vec_u8[0], var_vec_u8[1])) *var_cc26f++;
3327 if(vec_any_ge(var_vec_b16[0], var_vec_s16[1])) *var_cc24fr++;
3328 if(vec_any_ge(var_vec_b16[0], var_vec_u16[1])) *var_cc24fr++;
3329 if(vec_any_ge(var_vec_b32[0], var_vec_s32[1])) *var_cc24fr++;
3330 if(vec_any_ge(var_vec_b32[0], var_vec_u32[1])) *var_cc24fr++;
3331 if(vec_any_ge(var_vec_b8[0], var_vec_s8[1])) *var_cc24fr++;
3332 if(vec_any_ge(var_vec_b8[0], var_vec_u8[1])) *var_cc24fr++;
3333 if(vec_any_ge(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
3334 if(vec_any_ge(var_vec_s16[0], var_vec_b16[1])) *var_cc24fr++;
3335 if(vec_any_ge(var_vec_s16[0], var_vec_s16[1])) *var_cc24fr++;
3336 if(vec_any_ge(var_vec_s32[0], var_vec_b32[1])) *var_cc24fr++;
3337 if(vec_any_ge(var_vec_s32[0], var_vec_s32[1])) *var_cc24fr++;
3338 if(vec_any_ge(var_vec_s8[0], var_vec_b8[1])) *var_cc24fr++;
3339 if(vec_any_ge(var_vec_s8[0], var_vec_s8[1])) *var_cc24fr++;
3340 if(vec_any_ge(var_vec_u16[0], var_vec_b16[1])) *var_cc24fr++;
3341 if(vec_any_ge(var_vec_u16[0], var_vec_u16[1])) *var_cc24fr++;
3342 if(vec_any_ge(var_vec_u32[0], var_vec_b32[1])) *var_cc24fr++;
3343 if(vec_any_ge(var_vec_u32[0], var_vec_u32[1])) *var_cc24fr++;
3344 if(vec_any_ge(var_vec_u8[0], var_vec_b8[1])) *var_cc24fr++;
3345 if(vec_any_ge(var_vec_u8[0], var_vec_u8[1])) *var_cc24fr++;
3346 if(vec_any_gt(var_vec_b16[0], var_vec_s16[1])) *var_cc26f++;
3347 if(vec_any_gt(var_vec_b16[0], var_vec_u16[1])) *var_cc26f++;
3348 if(vec_any_gt(var_vec_b32[0], var_vec_s32[1])) *var_cc26f++;
3349 if(vec_any_gt(var_vec_b32[0], var_vec_u32[1])) *var_cc26f++;
3350 if(vec_any_gt(var_vec_b8[0], var_vec_s8[1])) *var_cc26f++;
3351 if(vec_any_gt(var_vec_b8[0], var_vec_u8[1])) *var_cc26f++;
3352 if(vec_any_gt(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
3353 if(vec_any_gt(var_vec_s16[0], var_vec_b16[1])) *var_cc26f++;
3354 if(vec_any_gt(var_vec_s16[0], var_vec_s16[1])) *var_cc26f++;
3355 if(vec_any_gt(var_vec_s32[0], var_vec_b32[1])) *var_cc26f++;
3356 if(vec_any_gt(var_vec_s32[0], var_vec_s32[1])) *var_cc26f++;
3357 if(vec_any_gt(var_vec_s8[0], var_vec_b8[1])) *var_cc26f++;
3358 if(vec_any_gt(var_vec_s8[0], var_vec_s8[1])) *var_cc26f++;
3359 if(vec_any_gt(var_vec_u16[0], var_vec_b16[1])) *var_cc26f++;
3360 if(vec_any_gt(var_vec_u16[0], var_vec_u16[1])) *var_cc26f++;
3361 if(vec_any_gt(var_vec_u32[0], var_vec_b32[1])) *var_cc26f++;
3362 if(vec_any_gt(var_vec_u32[0], var_vec_u32[1])) *var_cc26f++;
3363 if(vec_any_gt(var_vec_u8[0], var_vec_b8[1])) *var_cc26f++;
3364 if(vec_any_gt(var_vec_u8[0], var_vec_u8[1])) *var_cc26f++;
3365 if(vec_any_le(var_vec_b16[0], var_vec_s16[1])) *var_cc24f++;
3366 if(vec_any_le(var_vec_b16[0], var_vec_u16[1])) *var_cc24f++;
3367 if(vec_any_le(var_vec_b32[0], var_vec_s32[1])) *var_cc24f++;
3368 if(vec_any_le(var_vec_b32[0], var_vec_u32[1])) *var_cc24f++;
3369 if(vec_any_le(var_vec_b8[0], var_vec_s8[1])) *var_cc24f++;
3370 if(vec_any_le(var_vec_b8[0], var_vec_u8[1])) *var_cc24f++;
3371 if(vec_any_le(var_vec_f32[0], var_vec_f32[1])) *var_cc26fr++;
3372 if(vec_any_le(var_vec_s16[0], var_vec_b16[1])) *var_cc24f++;
3373 if(vec_any_le(var_vec_s16[0], var_vec_s16[1])) *var_cc24f++;
3374 if(vec_any_le(var_vec_s32[0], var_vec_b32[1])) *var_cc24f++;
3375 if(vec_any_le(var_vec_s32[0], var_vec_s32[1])) *var_cc24f++;
3376 if(vec_any_le(var_vec_s8[0], var_vec_b8[1])) *var_cc24f++;
3377 if(vec_any_le(var_vec_s8[0], var_vec_s8[1])) *var_cc24f++;
3378 if(vec_any_le(var_vec_u16[0], var_vec_b16[1])) *var_cc24f++;
3379 if(vec_any_le(var_vec_u16[0], var_vec_u16[1])) *var_cc24f++;
3380 if(vec_any_le(var_vec_u32[0], var_vec_b32[1])) *var_cc24f++;
3381 if(vec_any_le(var_vec_u32[0], var_vec_u32[1])) *var_cc24f++;
3382 if(vec_any_le(var_vec_u8[0], var_vec_b8[1])) *var_cc24f++;
3383 if(vec_any_le(var_vec_u8[0], var_vec_u8[1])) *var_cc24f++;
3384 if(vec_any_lt(var_vec_b16[0], var_vec_s16[1])) *var_cc26fr++;
3385 if(vec_any_lt(var_vec_b16[0], var_vec_u16[1])) *var_cc26fr++;
3386 if(vec_any_lt(var_vec_b32[0], var_vec_s32[1])) *var_cc26fr++;
3387 if(vec_any_lt(var_vec_b32[0], var_vec_u32[1])) *var_cc26fr++;
3388 if(vec_any_lt(var_vec_b8[0], var_vec_s8[1])) *var_cc26fr++;
3389 if(vec_any_lt(var_vec_b8[0], var_vec_u8[1])) *var_cc26fr++;
3391 void f33() {
3392 if(vec_any_lt(var_vec_f32[0], var_vec_f32[1])) *var_cc26fr++;
3393 if(vec_any_lt(var_vec_s16[0], var_vec_b16[1])) *var_cc26fr++;
3394 if(vec_any_lt(var_vec_s16[0], var_vec_s16[1])) *var_cc26fr++;
3395 if(vec_any_lt(var_vec_s32[0], var_vec_b32[1])) *var_cc26fr++;
3396 if(vec_any_lt(var_vec_s32[0], var_vec_s32[1])) *var_cc26fr++;
3397 if(vec_any_lt(var_vec_s8[0], var_vec_b8[1])) *var_cc26fr++;
3398 if(vec_any_lt(var_vec_s8[0], var_vec_s8[1])) *var_cc26fr++;
3399 if(vec_any_lt(var_vec_u16[0], var_vec_b16[1])) *var_cc26fr++;
3400 if(vec_any_lt(var_vec_u16[0], var_vec_u16[1])) *var_cc26fr++;
3401 if(vec_any_lt(var_vec_u32[0], var_vec_b32[1])) *var_cc26fr++;
3402 if(vec_any_lt(var_vec_u32[0], var_vec_u32[1])) *var_cc26fr++;
3403 if(vec_any_lt(var_vec_u8[0], var_vec_b8[1])) *var_cc26fr++;
3404 if(vec_any_lt(var_vec_u8[0], var_vec_u8[1])) *var_cc26fr++;
3405 if(vec_any_nan(var_vec_f32[0])) *var_cc24fd++;
3406 if(vec_any_ne(var_vec_b16[0], var_vec_b16[1])) *var_cc24f++;
3407 if(vec_any_ne(var_vec_b16[0], var_vec_s16[1])) *var_cc24f++;
3408 if(vec_any_ne(var_vec_b16[0], var_vec_u16[1])) *var_cc24f++;
3409 if(vec_any_ne(var_vec_b32[0], var_vec_b32[1])) *var_cc24f++;
3410 if(vec_any_ne(var_vec_b32[0], var_vec_s32[1])) *var_cc24f++;
3411 if(vec_any_ne(var_vec_b32[0], var_vec_u32[1])) *var_cc24f++;
3412 if(vec_any_ne(var_vec_b8[0], var_vec_b8[1])) *var_cc24f++;
3413 if(vec_any_ne(var_vec_b8[0], var_vec_s8[1])) *var_cc24f++;
3414 if(vec_any_ne(var_vec_b8[0], var_vec_u8[1])) *var_cc24f++;
3415 if(vec_any_ne(var_vec_f32[0], var_vec_f32[1])) *var_cc24f++;
3416 if(vec_any_ne(var_vec_p16[0], var_vec_p16[1])) *var_cc24f++;
3417 if(vec_any_ne(var_vec_s16[0], var_vec_b16[1])) *var_cc24f++;
3418 if(vec_any_ne(var_vec_s16[0], var_vec_s16[1])) *var_cc24f++;
3419 if(vec_any_ne(var_vec_s32[0], var_vec_b32[1])) *var_cc24f++;
3420 if(vec_any_ne(var_vec_s32[0], var_vec_s32[1])) *var_cc24f++;
3421 if(vec_any_ne(var_vec_s8[0], var_vec_b8[1])) *var_cc24f++;
3422 if(vec_any_ne(var_vec_s8[0], var_vec_s8[1])) *var_cc24f++;
3423 if(vec_any_ne(var_vec_u16[0], var_vec_b16[1])) *var_cc24f++;
3424 if(vec_any_ne(var_vec_u16[0], var_vec_u16[1])) *var_cc24f++;
3425 if(vec_any_ne(var_vec_u32[0], var_vec_b32[1])) *var_cc24f++;
3426 if(vec_any_ne(var_vec_u32[0], var_vec_u32[1])) *var_cc24f++;
3427 if(vec_any_ne(var_vec_u8[0], var_vec_b8[1])) *var_cc24f++;
3428 if(vec_any_ne(var_vec_u8[0], var_vec_u8[1])) *var_cc24f++;
3429 if(vec_any_nge(var_vec_f32[0], var_vec_f32[1])) *var_cc24f++;
3430 if(vec_any_ngt(var_vec_f32[0], var_vec_f32[1])) *var_cc24f++;
3431 if(vec_any_nle(var_vec_f32[0], var_vec_f32[1])) *var_cc24fr++;
3432 if(vec_any_nlt(var_vec_f32[0], var_vec_f32[1])) *var_cc24fr++;
3433 if(vec_any_numeric(var_vec_f32[0])) *var_cc26fd++;
3434 if(vec_any_out(var_vec_f32[0], var_vec_f32[1])) *var_cc26f++;
3435 vec_dss( 0);
3436 vec_dss( 1);
3437 vec_dss( 2);
3438 vec_dss( 3);
3439 vec_dssall();
3440 vec_dst(var_float_ptr[0], var_int[1], 0);
3441 vec_dst(var_float_ptr[0], var_int[1], 1);
3442 vec_dst(var_float_ptr[0], var_int[1], 2);
3443 vec_dst(var_float_ptr[0], var_int[1], 3);
3444 vec_dst(var_int_ptr[0], var_int[1], 0);
3445 vec_dst(var_int_ptr[0], var_int[1], 1);
3446 vec_dst(var_int_ptr[0], var_int[1], 2);
3447 vec_dst(var_int_ptr[0], var_int[1], 3);
3448 vec_dst(var_short_ptr[0], var_int[1], 0);
3449 vec_dst(var_short_ptr[0], var_int[1], 1);
3450 vec_dst(var_short_ptr[0], var_int[1], 2);
3451 vec_dst(var_short_ptr[0], var_int[1], 3);
3452 vec_dst(var_signed_char_ptr[0], var_int[1], 0);
3453 vec_dst(var_signed_char_ptr[0], var_int[1], 1);
3454 vec_dst(var_signed_char_ptr[0], var_int[1], 2);
3455 vec_dst(var_signed_char_ptr[0], var_int[1], 3);
3456 vec_dst(var_unsigned_char_ptr[0], var_int[1], 0);
3457 vec_dst(var_unsigned_char_ptr[0], var_int[1], 1);
3458 vec_dst(var_unsigned_char_ptr[0], var_int[1], 2);
3459 vec_dst(var_unsigned_char_ptr[0], var_int[1], 3);
3460 vec_dst(var_unsigned_int_ptr[0], var_int[1], 0);
3461 vec_dst(var_unsigned_int_ptr[0], var_int[1], 1);
3462 vec_dst(var_unsigned_int_ptr[0], var_int[1], 2);
3463 vec_dst(var_unsigned_int_ptr[0], var_int[1], 3);
3464 vec_dst(var_unsigned_short_ptr[0], var_int[1], 0);
3465 vec_dst(var_unsigned_short_ptr[0], var_int[1], 1);
3466 vec_dst(var_unsigned_short_ptr[0], var_int[1], 2);
3467 vec_dst(var_unsigned_short_ptr[0], var_int[1], 3);
3468 vec_dst(var_vec_b16_ptr[0], var_int[1], 0);
3469 vec_dst(var_vec_b16_ptr[0], var_int[1], 1);
3470 vec_dst(var_vec_b16_ptr[0], var_int[1], 2);
3471 vec_dst(var_vec_b16_ptr[0], var_int[1], 3);
3472 vec_dst(var_vec_b32_ptr[0], var_int[1], 0);
3473 vec_dst(var_vec_b32_ptr[0], var_int[1], 1);
3474 vec_dst(var_vec_b32_ptr[0], var_int[1], 2);
3475 vec_dst(var_vec_b32_ptr[0], var_int[1], 3);
3476 vec_dst(var_vec_b8_ptr[0], var_int[1], 0);
3477 vec_dst(var_vec_b8_ptr[0], var_int[1], 1);
3478 vec_dst(var_vec_b8_ptr[0], var_int[1], 2);
3479 vec_dst(var_vec_b8_ptr[0], var_int[1], 3);
3480 vec_dst(var_vec_f32_ptr[0], var_int[1], 0);
3481 vec_dst(var_vec_f32_ptr[0], var_int[1], 1);
3482 vec_dst(var_vec_f32_ptr[0], var_int[1], 2);
3483 vec_dst(var_vec_f32_ptr[0], var_int[1], 3);
3485 void f34() {
3486 vec_dst(var_vec_p16_ptr[0], var_int[1], 0);
3487 vec_dst(var_vec_p16_ptr[0], var_int[1], 1);
3488 vec_dst(var_vec_p16_ptr[0], var_int[1], 2);
3489 vec_dst(var_vec_p16_ptr[0], var_int[1], 3);
3490 vec_dst(var_vec_s16_ptr[0], var_int[1], 0);
3491 vec_dst(var_vec_s16_ptr[0], var_int[1], 1);
3492 vec_dst(var_vec_s16_ptr[0], var_int[1], 2);
3493 vec_dst(var_vec_s16_ptr[0], var_int[1], 3);
3494 vec_dst(var_vec_s32_ptr[0], var_int[1], 0);
3495 vec_dst(var_vec_s32_ptr[0], var_int[1], 1);
3496 vec_dst(var_vec_s32_ptr[0], var_int[1], 2);
3497 vec_dst(var_vec_s32_ptr[0], var_int[1], 3);
3498 vec_dst(var_vec_s8_ptr[0], var_int[1], 0);
3499 vec_dst(var_vec_s8_ptr[0], var_int[1], 1);
3500 vec_dst(var_vec_s8_ptr[0], var_int[1], 2);
3501 vec_dst(var_vec_s8_ptr[0], var_int[1], 3);
3502 vec_dst(var_vec_u16_ptr[0], var_int[1], 0);
3503 vec_dst(var_vec_u16_ptr[0], var_int[1], 1);
3504 vec_dst(var_vec_u16_ptr[0], var_int[1], 2);
3505 vec_dst(var_vec_u16_ptr[0], var_int[1], 3);
3506 vec_dst(var_vec_u32_ptr[0], var_int[1], 0);
3507 vec_dst(var_vec_u32_ptr[0], var_int[1], 1);
3508 vec_dst(var_vec_u32_ptr[0], var_int[1], 2);
3509 vec_dst(var_vec_u32_ptr[0], var_int[1], 3);
3510 vec_dst(var_vec_u8_ptr[0], var_int[1], 0);
3511 vec_dst(var_vec_u8_ptr[0], var_int[1], 1);
3512 vec_dst(var_vec_u8_ptr[0], var_int[1], 2);
3513 vec_dst(var_vec_u8_ptr[0], var_int[1], 3);
3514 vec_dstst(var_float_ptr[0], var_int[1], 0);
3515 vec_dstst(var_float_ptr[0], var_int[1], 1);
3516 vec_dstst(var_float_ptr[0], var_int[1], 2);
3517 vec_dstst(var_float_ptr[0], var_int[1], 3);
3518 vec_dstst(var_int_ptr[0], var_int[1], 0);
3519 vec_dstst(var_int_ptr[0], var_int[1], 1);
3520 vec_dstst(var_int_ptr[0], var_int[1], 2);
3521 vec_dstst(var_int_ptr[0], var_int[1], 3);
3522 vec_dstst(var_short_ptr[0], var_int[1], 0);
3523 vec_dstst(var_short_ptr[0], var_int[1], 1);
3524 vec_dstst(var_short_ptr[0], var_int[1], 2);
3525 vec_dstst(var_short_ptr[0], var_int[1], 3);
3526 vec_dstst(var_signed_char_ptr[0], var_int[1], 0);
3527 vec_dstst(var_signed_char_ptr[0], var_int[1], 1);
3528 vec_dstst(var_signed_char_ptr[0], var_int[1], 2);
3529 vec_dstst(var_signed_char_ptr[0], var_int[1], 3);
3530 vec_dstst(var_unsigned_char_ptr[0], var_int[1], 0);
3531 vec_dstst(var_unsigned_char_ptr[0], var_int[1], 1);
3532 vec_dstst(var_unsigned_char_ptr[0], var_int[1], 2);
3533 vec_dstst(var_unsigned_char_ptr[0], var_int[1], 3);
3534 vec_dstst(var_unsigned_int_ptr[0], var_int[1], 0);
3535 vec_dstst(var_unsigned_int_ptr[0], var_int[1], 1);
3536 vec_dstst(var_unsigned_int_ptr[0], var_int[1], 2);
3537 vec_dstst(var_unsigned_int_ptr[0], var_int[1], 3);
3538 vec_dstst(var_unsigned_short_ptr[0], var_int[1], 0);
3539 vec_dstst(var_unsigned_short_ptr[0], var_int[1], 1);
3540 vec_dstst(var_unsigned_short_ptr[0], var_int[1], 2);
3541 vec_dstst(var_unsigned_short_ptr[0], var_int[1], 3);
3542 vec_dstst(var_vec_b16_ptr[0], var_int[1], 0);
3543 vec_dstst(var_vec_b16_ptr[0], var_int[1], 1);
3544 vec_dstst(var_vec_b16_ptr[0], var_int[1], 2);
3545 vec_dstst(var_vec_b16_ptr[0], var_int[1], 3);
3546 vec_dstst(var_vec_b32_ptr[0], var_int[1], 0);
3547 vec_dstst(var_vec_b32_ptr[0], var_int[1], 1);
3548 vec_dstst(var_vec_b32_ptr[0], var_int[1], 2);
3549 vec_dstst(var_vec_b32_ptr[0], var_int[1], 3);
3550 vec_dstst(var_vec_b8_ptr[0], var_int[1], 0);
3551 vec_dstst(var_vec_b8_ptr[0], var_int[1], 1);
3552 vec_dstst(var_vec_b8_ptr[0], var_int[1], 2);
3553 vec_dstst(var_vec_b8_ptr[0], var_int[1], 3);
3554 vec_dstst(var_vec_f32_ptr[0], var_int[1], 0);
3555 vec_dstst(var_vec_f32_ptr[0], var_int[1], 1);
3556 vec_dstst(var_vec_f32_ptr[0], var_int[1], 2);
3557 vec_dstst(var_vec_f32_ptr[0], var_int[1], 3);
3558 vec_dstst(var_vec_p16_ptr[0], var_int[1], 0);
3559 vec_dstst(var_vec_p16_ptr[0], var_int[1], 1);
3560 vec_dstst(var_vec_p16_ptr[0], var_int[1], 2);
3561 vec_dstst(var_vec_p16_ptr[0], var_int[1], 3);
3562 vec_dstst(var_vec_s16_ptr[0], var_int[1], 0);
3563 vec_dstst(var_vec_s16_ptr[0], var_int[1], 1);
3564 vec_dstst(var_vec_s16_ptr[0], var_int[1], 2);
3565 vec_dstst(var_vec_s16_ptr[0], var_int[1], 3);
3566 vec_dstst(var_vec_s32_ptr[0], var_int[1], 0);
3567 vec_dstst(var_vec_s32_ptr[0], var_int[1], 1);
3568 vec_dstst(var_vec_s32_ptr[0], var_int[1], 2);
3569 vec_dstst(var_vec_s32_ptr[0], var_int[1], 3);
3570 vec_dstst(var_vec_s8_ptr[0], var_int[1], 0);
3571 vec_dstst(var_vec_s8_ptr[0], var_int[1], 1);
3572 vec_dstst(var_vec_s8_ptr[0], var_int[1], 2);
3573 vec_dstst(var_vec_s8_ptr[0], var_int[1], 3);
3574 vec_dstst(var_vec_u16_ptr[0], var_int[1], 0);
3575 vec_dstst(var_vec_u16_ptr[0], var_int[1], 1);
3576 vec_dstst(var_vec_u16_ptr[0], var_int[1], 2);
3577 vec_dstst(var_vec_u16_ptr[0], var_int[1], 3);
3579 void f35() {
3580 vec_dstst(var_vec_u32_ptr[0], var_int[1], 0);
3581 vec_dstst(var_vec_u32_ptr[0], var_int[1], 1);
3582 vec_dstst(var_vec_u32_ptr[0], var_int[1], 2);
3583 vec_dstst(var_vec_u32_ptr[0], var_int[1], 3);
3584 vec_dstst(var_vec_u8_ptr[0], var_int[1], 0);
3585 vec_dstst(var_vec_u8_ptr[0], var_int[1], 1);
3586 vec_dstst(var_vec_u8_ptr[0], var_int[1], 2);
3587 vec_dstst(var_vec_u8_ptr[0], var_int[1], 3);
3588 vec_dststt(var_float_ptr[0], var_int[1], 0);
3589 vec_dststt(var_float_ptr[0], var_int[1], 1);
3590 vec_dststt(var_float_ptr[0], var_int[1], 2);
3591 vec_dststt(var_float_ptr[0], var_int[1], 3);
3592 vec_dststt(var_int_ptr[0], var_int[1], 0);
3593 vec_dststt(var_int_ptr[0], var_int[1], 1);
3594 vec_dststt(var_int_ptr[0], var_int[1], 2);
3595 vec_dststt(var_int_ptr[0], var_int[1], 3);
3596 vec_dststt(var_short_ptr[0], var_int[1], 0);
3597 vec_dststt(var_short_ptr[0], var_int[1], 1);
3598 vec_dststt(var_short_ptr[0], var_int[1], 2);
3599 vec_dststt(var_short_ptr[0], var_int[1], 3);
3600 vec_dststt(var_signed_char_ptr[0], var_int[1], 0);
3601 vec_dststt(var_signed_char_ptr[0], var_int[1], 1);
3602 vec_dststt(var_signed_char_ptr[0], var_int[1], 2);
3603 vec_dststt(var_signed_char_ptr[0], var_int[1], 3);
3604 vec_dststt(var_unsigned_char_ptr[0], var_int[1], 0);
3605 vec_dststt(var_unsigned_char_ptr[0], var_int[1], 1);
3606 vec_dststt(var_unsigned_char_ptr[0], var_int[1], 2);
3607 vec_dststt(var_unsigned_char_ptr[0], var_int[1], 3);
3608 vec_dststt(var_unsigned_int_ptr[0], var_int[1], 0);
3609 vec_dststt(var_unsigned_int_ptr[0], var_int[1], 1);
3610 vec_dststt(var_unsigned_int_ptr[0], var_int[1], 2);
3611 vec_dststt(var_unsigned_int_ptr[0], var_int[1], 3);
3612 vec_dststt(var_unsigned_short_ptr[0], var_int[1], 0);
3613 vec_dststt(var_unsigned_short_ptr[0], var_int[1], 1);
3614 vec_dststt(var_unsigned_short_ptr[0], var_int[1], 2);
3615 vec_dststt(var_unsigned_short_ptr[0], var_int[1], 3);
3616 vec_dststt(var_vec_b16_ptr[0], var_int[1], 0);
3617 vec_dststt(var_vec_b16_ptr[0], var_int[1], 1);
3618 vec_dststt(var_vec_b16_ptr[0], var_int[1], 2);
3619 vec_dststt(var_vec_b16_ptr[0], var_int[1], 3);
3620 vec_dststt(var_vec_b32_ptr[0], var_int[1], 0);
3621 vec_dststt(var_vec_b32_ptr[0], var_int[1], 1);
3622 vec_dststt(var_vec_b32_ptr[0], var_int[1], 2);
3623 vec_dststt(var_vec_b32_ptr[0], var_int[1], 3);
3624 vec_dststt(var_vec_b8_ptr[0], var_int[1], 0);
3625 vec_dststt(var_vec_b8_ptr[0], var_int[1], 1);
3626 vec_dststt(var_vec_b8_ptr[0], var_int[1], 2);
3627 vec_dststt(var_vec_b8_ptr[0], var_int[1], 3);
3628 vec_dststt(var_vec_f32_ptr[0], var_int[1], 0);
3629 vec_dststt(var_vec_f32_ptr[0], var_int[1], 1);
3630 vec_dststt(var_vec_f32_ptr[0], var_int[1], 2);
3631 vec_dststt(var_vec_f32_ptr[0], var_int[1], 3);
3632 vec_dststt(var_vec_p16_ptr[0], var_int[1], 0);
3633 vec_dststt(var_vec_p16_ptr[0], var_int[1], 1);
3634 vec_dststt(var_vec_p16_ptr[0], var_int[1], 2);
3635 vec_dststt(var_vec_p16_ptr[0], var_int[1], 3);
3636 vec_dststt(var_vec_s16_ptr[0], var_int[1], 0);
3637 vec_dststt(var_vec_s16_ptr[0], var_int[1], 1);
3638 vec_dststt(var_vec_s16_ptr[0], var_int[1], 2);
3639 vec_dststt(var_vec_s16_ptr[0], var_int[1], 3);
3640 vec_dststt(var_vec_s32_ptr[0], var_int[1], 0);
3641 vec_dststt(var_vec_s32_ptr[0], var_int[1], 1);
3642 vec_dststt(var_vec_s32_ptr[0], var_int[1], 2);
3643 vec_dststt(var_vec_s32_ptr[0], var_int[1], 3);
3644 vec_dststt(var_vec_s8_ptr[0], var_int[1], 0);
3645 vec_dststt(var_vec_s8_ptr[0], var_int[1], 1);
3646 vec_dststt(var_vec_s8_ptr[0], var_int[1], 2);
3647 vec_dststt(var_vec_s8_ptr[0], var_int[1], 3);
3648 vec_dststt(var_vec_u16_ptr[0], var_int[1], 0);
3649 vec_dststt(var_vec_u16_ptr[0], var_int[1], 1);
3650 vec_dststt(var_vec_u16_ptr[0], var_int[1], 2);
3651 vec_dststt(var_vec_u16_ptr[0], var_int[1], 3);
3652 vec_dststt(var_vec_u32_ptr[0], var_int[1], 0);
3653 vec_dststt(var_vec_u32_ptr[0], var_int[1], 1);
3654 vec_dststt(var_vec_u32_ptr[0], var_int[1], 2);
3655 vec_dststt(var_vec_u32_ptr[0], var_int[1], 3);
3656 vec_dststt(var_vec_u8_ptr[0], var_int[1], 0);
3657 vec_dststt(var_vec_u8_ptr[0], var_int[1], 1);
3658 vec_dststt(var_vec_u8_ptr[0], var_int[1], 2);
3659 vec_dststt(var_vec_u8_ptr[0], var_int[1], 3);
3660 vec_dstt(var_float_ptr[0], var_int[1], 0);
3661 vec_dstt(var_float_ptr[0], var_int[1], 1);
3662 vec_dstt(var_float_ptr[0], var_int[1], 2);
3663 vec_dstt(var_float_ptr[0], var_int[1], 3);
3664 vec_dstt(var_int_ptr[0], var_int[1], 0);
3665 vec_dstt(var_int_ptr[0], var_int[1], 1);
3666 vec_dstt(var_int_ptr[0], var_int[1], 2);
3667 vec_dstt(var_int_ptr[0], var_int[1], 3);
3669 void f36() {
3670 vec_dstt(var_short_ptr[0], var_int[1], 0);
3671 vec_dstt(var_short_ptr[0], var_int[1], 1);
3672 vec_dstt(var_short_ptr[0], var_int[1], 2);
3673 vec_dstt(var_short_ptr[0], var_int[1], 3);
3674 vec_dstt(var_signed_char_ptr[0], var_int[1], 0);
3675 vec_dstt(var_signed_char_ptr[0], var_int[1], 1);
3676 vec_dstt(var_signed_char_ptr[0], var_int[1], 2);
3677 vec_dstt(var_signed_char_ptr[0], var_int[1], 3);
3678 vec_dstt(var_unsigned_char_ptr[0], var_int[1], 0);
3679 vec_dstt(var_unsigned_char_ptr[0], var_int[1], 1);
3680 vec_dstt(var_unsigned_char_ptr[0], var_int[1], 2);
3681 vec_dstt(var_unsigned_char_ptr[0], var_int[1], 3);
3682 vec_dstt(var_unsigned_int_ptr[0], var_int[1], 0);
3683 vec_dstt(var_unsigned_int_ptr[0], var_int[1], 1);
3684 vec_dstt(var_unsigned_int_ptr[0], var_int[1], 2);
3685 vec_dstt(var_unsigned_int_ptr[0], var_int[1], 3);
3686 vec_dstt(var_unsigned_short_ptr[0], var_int[1], 0);
3687 vec_dstt(var_unsigned_short_ptr[0], var_int[1], 1);
3688 vec_dstt(var_unsigned_short_ptr[0], var_int[1], 2);
3689 vec_dstt(var_unsigned_short_ptr[0], var_int[1], 3);
3690 vec_dstt(var_vec_b16_ptr[0], var_int[1], 0);
3691 vec_dstt(var_vec_b16_ptr[0], var_int[1], 1);
3692 vec_dstt(var_vec_b16_ptr[0], var_int[1], 2);
3693 vec_dstt(var_vec_b16_ptr[0], var_int[1], 3);
3694 vec_dstt(var_vec_b32_ptr[0], var_int[1], 0);
3695 vec_dstt(var_vec_b32_ptr[0], var_int[1], 1);
3696 vec_dstt(var_vec_b32_ptr[0], var_int[1], 2);
3697 vec_dstt(var_vec_b32_ptr[0], var_int[1], 3);
3698 vec_dstt(var_vec_b8_ptr[0], var_int[1], 0);
3699 vec_dstt(var_vec_b8_ptr[0], var_int[1], 1);
3700 vec_dstt(var_vec_b8_ptr[0], var_int[1], 2);
3701 vec_dstt(var_vec_b8_ptr[0], var_int[1], 3);
3702 vec_dstt(var_vec_f32_ptr[0], var_int[1], 0);
3703 vec_dstt(var_vec_f32_ptr[0], var_int[1], 1);
3704 vec_dstt(var_vec_f32_ptr[0], var_int[1], 2);
3705 vec_dstt(var_vec_f32_ptr[0], var_int[1], 3);
3706 vec_dstt(var_vec_p16_ptr[0], var_int[1], 0);
3707 vec_dstt(var_vec_p16_ptr[0], var_int[1], 1);
3708 vec_dstt(var_vec_p16_ptr[0], var_int[1], 2);
3709 vec_dstt(var_vec_p16_ptr[0], var_int[1], 3);
3710 vec_dstt(var_vec_s16_ptr[0], var_int[1], 0);
3711 vec_dstt(var_vec_s16_ptr[0], var_int[1], 1);
3712 vec_dstt(var_vec_s16_ptr[0], var_int[1], 2);
3713 vec_dstt(var_vec_s16_ptr[0], var_int[1], 3);
3714 vec_dstt(var_vec_s32_ptr[0], var_int[1], 0);
3715 vec_dstt(var_vec_s32_ptr[0], var_int[1], 1);
3716 vec_dstt(var_vec_s32_ptr[0], var_int[1], 2);
3717 vec_dstt(var_vec_s32_ptr[0], var_int[1], 3);
3718 vec_dstt(var_vec_s8_ptr[0], var_int[1], 0);
3719 vec_dstt(var_vec_s8_ptr[0], var_int[1], 1);
3720 vec_dstt(var_vec_s8_ptr[0], var_int[1], 2);
3721 vec_dstt(var_vec_s8_ptr[0], var_int[1], 3);
3722 vec_dstt(var_vec_u16_ptr[0], var_int[1], 0);
3723 vec_dstt(var_vec_u16_ptr[0], var_int[1], 1);
3724 vec_dstt(var_vec_u16_ptr[0], var_int[1], 2);
3725 vec_dstt(var_vec_u16_ptr[0], var_int[1], 3);
3726 vec_dstt(var_vec_u32_ptr[0], var_int[1], 0);
3727 vec_dstt(var_vec_u32_ptr[0], var_int[1], 1);
3728 vec_dstt(var_vec_u32_ptr[0], var_int[1], 2);
3729 vec_dstt(var_vec_u32_ptr[0], var_int[1], 3);
3730 vec_dstt(var_vec_u8_ptr[0], var_int[1], 0);
3731 vec_dstt(var_vec_u8_ptr[0], var_int[1], 1);
3732 vec_dstt(var_vec_u8_ptr[0], var_int[1], 2);
3733 vec_dstt(var_vec_u8_ptr[0], var_int[1], 3);
3734 vec_mtvscr(var_vec_b16[0]);
3735 vec_mtvscr(var_vec_b32[0]);
3736 vec_mtvscr(var_vec_b8[0]);
3737 vec_mtvscr(var_vec_p16[0]);
3738 vec_mtvscr(var_vec_s16[0]);
3739 vec_mtvscr(var_vec_s32[0]);
3740 vec_mtvscr(var_vec_s8[0]);
3741 vec_mtvscr(var_vec_u16[0]);
3742 vec_mtvscr(var_vec_u32[0]);
3743 vec_mtvscr(var_vec_u8[0]);
3744 vec_st(var_vec_b16[0], var_int[1], var_vec_b16_ptr[2]);
3745 vec_st(var_vec_b32[0], var_int[1], var_vec_b32_ptr[2]);
3746 vec_st(var_vec_b8[0], var_int[1], var_vec_b8_ptr[2]);
3747 vec_st(var_vec_f32[0], var_int[1], var_float_ptr[2]);
3748 vec_st(var_vec_f32[0], var_int[1], var_vec_f32_ptr[2]);
3749 vec_st(var_vec_p16[0], var_int[1], var_vec_p16_ptr[2]);
3750 vec_st(var_vec_s16[0], var_int[1], var_short_ptr[2]);
3751 vec_st(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
3752 vec_st(var_vec_s32[0], var_int[1], var_int_ptr[2]);
3753 vec_st(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
3754 vec_st(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
3755 vec_st(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
3756 vec_st(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
3757 vec_st(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
3758 vec_st(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
3759 vec_st(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
3760 vec_st(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
3761 vec_st(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
3762 vec_ste(var_vec_f32[0], var_int[1], var_float_ptr[2]);
3763 vec_ste(var_vec_s16[0], var_int[1], var_short_ptr[2]);
3765 void f37() {
3766 vec_ste(var_vec_s32[0], var_int[1], var_int_ptr[2]);
3767 vec_ste(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
3768 vec_ste(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
3769 vec_ste(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
3770 vec_ste(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
3771 vec_stl(var_vec_b16[0], var_int[1], var_vec_b16_ptr[2]);
3772 vec_stl(var_vec_b32[0], var_int[1], var_vec_b32_ptr[2]);
3773 vec_stl(var_vec_b8[0], var_int[1], var_vec_b8_ptr[2]);
3774 vec_stl(var_vec_f32[0], var_int[1], var_float_ptr[2]);
3775 vec_stl(var_vec_f32[0], var_int[1], var_vec_f32_ptr[2]);
3776 vec_stl(var_vec_p16[0], var_int[1], var_vec_p16_ptr[2]);
3777 vec_stl(var_vec_s16[0], var_int[1], var_short_ptr[2]);
3778 vec_stl(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
3779 vec_stl(var_vec_s32[0], var_int[1], var_int_ptr[2]);
3780 vec_stl(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
3781 vec_stl(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
3782 vec_stl(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
3783 vec_stl(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
3784 vec_stl(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
3785 vec_stl(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
3786 vec_stl(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
3787 vec_stl(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
3788 vec_stl(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
3789 vec_stvebx(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
3790 vec_stvebx(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
3791 vec_stvehx(var_vec_s16[0], var_int[1], var_short_ptr[2]);
3792 vec_stvehx(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
3793 vec_stvewx(var_vec_f32[0], var_int[1], var_float_ptr[2]);
3794 vec_stvewx(var_vec_s32[0], var_int[1], var_int_ptr[2]);
3795 vec_stvewx(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
3796 vec_stvx(var_vec_b16[0], var_int[1], var_vec_b16_ptr[2]);
3797 vec_stvx(var_vec_b32[0], var_int[1], var_vec_b32_ptr[2]);
3798 vec_stvx(var_vec_b8[0], var_int[1], var_vec_b8_ptr[2]);
3799 vec_stvx(var_vec_f32[0], var_int[1], var_float_ptr[2]);
3800 vec_stvx(var_vec_f32[0], var_int[1], var_vec_f32_ptr[2]);
3801 vec_stvx(var_vec_p16[0], var_int[1], var_vec_p16_ptr[2]);
3802 vec_stvx(var_vec_s16[0], var_int[1], var_short_ptr[2]);
3803 vec_stvx(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
3804 vec_stvx(var_vec_s32[0], var_int[1], var_int_ptr[2]);
3805 vec_stvx(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
3806 vec_stvx(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
3807 vec_stvx(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
3808 vec_stvx(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
3809 vec_stvx(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
3810 vec_stvx(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
3811 vec_stvx(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
3812 vec_stvx(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
3813 vec_stvx(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);
3814 vec_stvxl(var_vec_b16[0], var_int[1], var_vec_b16_ptr[2]);
3815 vec_stvxl(var_vec_b32[0], var_int[1], var_vec_b32_ptr[2]);
3816 vec_stvxl(var_vec_b8[0], var_int[1], var_vec_b8_ptr[2]);
3817 vec_stvxl(var_vec_f32[0], var_int[1], var_float_ptr[2]);
3818 vec_stvxl(var_vec_f32[0], var_int[1], var_vec_f32_ptr[2]);
3819 vec_stvxl(var_vec_p16[0], var_int[1], var_vec_p16_ptr[2]);
3820 vec_stvxl(var_vec_s16[0], var_int[1], var_short_ptr[2]);
3821 vec_stvxl(var_vec_s16[0], var_int[1], var_vec_s16_ptr[2]);
3822 vec_stvxl(var_vec_s32[0], var_int[1], var_int_ptr[2]);
3823 vec_stvxl(var_vec_s32[0], var_int[1], var_vec_s32_ptr[2]);
3824 vec_stvxl(var_vec_s8[0], var_int[1], var_signed_char_ptr[2]);
3825 vec_stvxl(var_vec_s8[0], var_int[1], var_vec_s8_ptr[2]);
3826 vec_stvxl(var_vec_u16[0], var_int[1], var_unsigned_short_ptr[2]);
3827 vec_stvxl(var_vec_u16[0], var_int[1], var_vec_u16_ptr[2]);
3828 vec_stvxl(var_vec_u32[0], var_int[1], var_unsigned_int_ptr[2]);
3829 vec_stvxl(var_vec_u32[0], var_int[1], var_vec_u32_ptr[2]);
3830 vec_stvxl(var_vec_u8[0], var_int[1], var_unsigned_char_ptr[2]);
3831 vec_stvxl(var_vec_u8[0], var_int[1], var_vec_u8_ptr[2]);