@@ -64,7 +64,7 @@ define amdgpu_ps { i32, i32 } @s_andn2_i32_multi_use(i32 inreg %src0, i32 inreg
64
64
; GFX11-NEXT: ; return to shader part epilog
65
65
%not.src1 = xor i32 %src1 , -1
66
66
%and = and i32 %src0 , %not.src1
67
- %insert.0 = insertvalue { i32 , i32 } undef , i32 %and , 0
67
+ %insert.0 = insertvalue { i32 , i32 } poison , i32 %and , 0
68
68
%insert.1 = insertvalue { i32 , i32 } %insert.0 , i32 %not.src1 , 1
69
69
ret { i32 , i32 } %insert.1
70
70
}
@@ -90,7 +90,7 @@ define amdgpu_ps { i32, i32 } @s_andn2_i32_multi_foldable_use(i32 inreg %src0, i
90
90
%not.src2 = xor i32 %src2 , -1
91
91
%and0 = and i32 %src0 , %not.src2
92
92
%and1 = and i32 %src1 , %not.src2
93
- %insert.0 = insertvalue { i32 , i32 } undef , i32 %and0 , 0
93
+ %insert.0 = insertvalue { i32 , i32 } poison , i32 %and0 , 0
94
94
%insert.1 = insertvalue { i32 , i32 } %insert.0 , i32 %and1 , 1
95
95
ret { i32 , i32 } %insert.1
96
96
}
@@ -211,7 +211,7 @@ define amdgpu_ps { i64, i64 } @s_andn2_i64_multi_foldable_use(i64 inreg %src0, i
211
211
%not.src2 = xor i64 %src2 , -1
212
212
%and0 = and i64 %src0 , %not.src2
213
213
%and1 = and i64 %src1 , %not.src2
214
- %insert.0 = insertvalue { i64 , i64 } undef , i64 %and0 , 0
214
+ %insert.0 = insertvalue { i64 , i64 } poison , i64 %and0 , 0
215
215
%insert.1 = insertvalue { i64 , i64 } %insert.0 , i64 %and1 , 1
216
216
ret { i64 , i64 } %insert.1
217
217
}
@@ -238,7 +238,7 @@ define amdgpu_ps { i64, i64 } @s_andn2_i64_multi_use(i64 inreg %src0, i64 inreg
238
238
; GFX11-NEXT: ; return to shader part epilog
239
239
%not.src1 = xor i64 %src1 , -1
240
240
%and = and i64 %src0 , %not.src1
241
- %insert.0 = insertvalue { i64 , i64 } undef , i64 %and , 0
241
+ %insert.0 = insertvalue { i64 , i64 } poison , i64 %and , 0
242
242
%insert.1 = insertvalue { i64 , i64 } %insert.0 , i64 %not.src1 , 1
243
243
ret { i64 , i64 } %insert.1
244
244
}
@@ -408,7 +408,7 @@ define amdgpu_ps { i16, i16 } @s_andn2_i16_multi_use(i16 inreg %src0, i16 inreg
408
408
; GFX11-NEXT: ; return to shader part epilog
409
409
%not.src1 = xor i16 %src1 , -1
410
410
%and = and i16 %src0 , %not.src1
411
- %insert.0 = insertvalue { i16 , i16 } undef , i16 %and , 0
411
+ %insert.0 = insertvalue { i16 , i16 } poison , i16 %and , 0
412
412
%insert.1 = insertvalue { i16 , i16 } %insert.0 , i16 %not.src1 , 1
413
413
ret { i16 , i16 } %insert.1
414
414
}
@@ -434,7 +434,7 @@ define amdgpu_ps { i16, i16 } @s_andn2_i16_multi_foldable_use(i16 inreg %src0, i
434
434
%not.src2 = xor i16 %src2 , -1
435
435
%and0 = and i16 %src0 , %not.src2
436
436
%and1 = and i16 %src1 , %not.src2
437
- %insert.0 = insertvalue { i16 , i16 } undef , i16 %and0 , 0
437
+ %insert.0 = insertvalue { i16 , i16 } poison , i16 %and0 , 0
438
438
%insert.1 = insertvalue { i16 , i16 } %insert.0 , i16 %and1 , 1
439
439
ret { i16 , i16 } %insert.1
440
440
}
@@ -601,7 +601,7 @@ define amdgpu_ps { i32, i32 } @s_andn2_v2i16_multi_use(<2 x i16> inreg %src0, <2
601
601
602
602
%cast.0 = bitcast <2 x i16 > %and to i32
603
603
%cast.1 = bitcast <2 x i16 > %not.src1 to i32
604
- %insert.0 = insertvalue { i32 , i32 } undef , i32 %cast.0 , 0
604
+ %insert.0 = insertvalue { i32 , i32 } poison , i32 %cast.0 , 0
605
605
%insert.1 = insertvalue { i32 , i32 } %insert.0 , i32 %cast.1 , 1
606
606
ret { i32 , i32 } %insert.1
607
607
}
@@ -646,7 +646,7 @@ define amdgpu_ps { i32, i32 } @s_andn2_v2i16_multi_foldable_use(<2 x i16> inreg
646
646
647
647
%cast.0 = bitcast <2 x i16 > %and0 to i32
648
648
%cast.1 = bitcast <2 x i16 > %and1 to i32
649
- %insert.0 = insertvalue { i32 , i32 } undef , i32 %cast.0 , 0
649
+ %insert.0 = insertvalue { i32 , i32 } poison , i32 %cast.0 , 0
650
650
%insert.1 = insertvalue { i32 , i32 } %insert.0 , i32 %cast.1 , 1
651
651
ret { i32 , i32 } %insert.1
652
652
}
@@ -857,7 +857,7 @@ define amdgpu_ps { i48, i48 } @s_andn2_v3i16_multi_use(<3 x i16> inreg %src0, <3
857
857
%and = and <3 x i16 > %src0 , %not.src1
858
858
%cast.0 = bitcast <3 x i16 > %and to i48
859
859
%cast.1 = bitcast <3 x i16 > %not.src1 to i48
860
- %insert.0 = insertvalue { i48 , i48 } undef , i48 %cast.0 , 0
860
+ %insert.0 = insertvalue { i48 , i48 } poison , i48 %cast.0 , 0
861
861
%insert.1 = insertvalue { i48 , i48 } %insert.0 , i48 %cast.1 , 1
862
862
ret { i48 , i48 } %insert.1
863
863
}
@@ -1028,7 +1028,7 @@ define amdgpu_ps { i64, i64 } @s_andn2_v4i16_multi_use(<4 x i16> inreg %src0, <4
1028
1028
1029
1029
%cast.0 = bitcast <4 x i16 > %and to i64
1030
1030
%cast.1 = bitcast <4 x i16 > %not.src1 to i64
1031
- %insert.0 = insertvalue { i64 , i64 } undef , i64 %cast.0 , 0
1031
+ %insert.0 = insertvalue { i64 , i64 } poison , i64 %cast.0 , 0
1032
1032
%insert.1 = insertvalue { i64 , i64 } %insert.0 , i64 %cast.1 , 1
1033
1033
ret { i64 , i64 } %insert.1
1034
1034
}
@@ -1082,7 +1082,7 @@ define amdgpu_ps { i64, i64 } @s_andn2_v4i16_multi_foldable_use(<4 x i16> inreg
1082
1082
1083
1083
%cast.0 = bitcast <4 x i16 > %and0 to i64
1084
1084
%cast.1 = bitcast <4 x i16 > %and1 to i64
1085
- %insert.0 = insertvalue { i64 , i64 } undef , i64 %cast.0 , 0
1085
+ %insert.0 = insertvalue { i64 , i64 } poison , i64 %cast.0 , 0
1086
1086
%insert.1 = insertvalue { i64 , i64 } %insert.0 , i64 %cast.1 , 1
1087
1087
ret { i64 , i64 } %insert.1
1088
1088
}
0 commit comments