Lines Matching refs:rdi
79 VPCMP $4,(%rdi), %YMM2, %k1{%k2}
86 VPCMP $4, -(VEC_SIZE * 1)(%rdi, %rdx), %YMM1, %k1
98 VPCMP $4,(%rdi), %YMM1, %k1
108 VPCMP $4, VEC_SIZE(%rdi), %YMM2, %k1
119 VPCMP $4,(VEC_SIZE * 2)(%rdi), %YMM3, %k1
125 VPCMP $4,(VEC_SIZE * 3)(%rdi), %YMM4, %k1
139 addq %rdx, %rdi
146 vpxorq -(VEC_SIZE * 4)(%rdi), %YMM1, %YMM1
149 vpternlogd $0xde, -(VEC_SIZE * 3)(%rdi), %YMM1, %YMM2
152 vpxorq -(VEC_SIZE * 2)(%rdi), %YMM3, %YMM3
155 vpxorq -(VEC_SIZE)(%rdi), %YMM4, %YMM4
168 leaq -(VEC_SIZE * 4)(%rdi, %rdx), %rdx
171 subq %rdi, %rsi
173 andq $-VEC_SIZE, %rdi
175 subq $-(VEC_SIZE * 4), %rdi
178 VMOVU (%rsi, %rdi), %YMM1
179 vpxorq (%rdi), %YMM1, %YMM1
181 VMOVU VEC_SIZE(%rsi, %rdi), %YMM2
182 vpternlogd $0xde,(VEC_SIZE)(%rdi), %YMM1, %YMM2
184 VMOVU (VEC_SIZE * 2)(%rsi, %rdi), %YMM3
185 vpxorq (VEC_SIZE * 2)(%rdi), %YMM3, %YMM3
187 VMOVU (VEC_SIZE * 3)(%rsi, %rdi), %YMM4
188 vpxorq (VEC_SIZE * 3)(%rdi), %YMM4, %YMM4
195 subq $-(VEC_SIZE * 4), %rdi
196 cmpq %rdx, %rdi
199 subq %rdx, %rdi
230 vpxorq -(VEC_SIZE * 2)(%rdi, %rdx), %YMM1, %YMM1
232 vpternlogd $0xde, -(VEC_SIZE * 1)(%rdi, %rdx), %YMM1, %YMM2