Lines Matching refs:VEC_SIZE

77 # define VEC_SIZE	32  macro
79 # define CHAR_PER_VEC (VEC_SIZE / CHAR_SIZE)
161 VMOVU VEC_SIZE(%rsi), %YMM2
162 VPCMP $4, VEC_SIZE(%rdi), %YMM2, %k1
172 VMOVU (VEC_SIZE * 2)(%rsi), %YMM3
173 VPCMP $4,(VEC_SIZE * 2)(%rdi), %YMM3, %k1
178 VMOVU (VEC_SIZE * 3)(%rsi), %YMM4
179 VPCMP $4,(VEC_SIZE * 3)(%rdi), %YMM4, %k1
192 VMOVU -(VEC_SIZE * 4)(%rsi, %rdx, CHAR_SIZE), %YMM1
193 VMOVU -(VEC_SIZE * 3)(%rsi, %rdx, CHAR_SIZE), %YMM2
194 leaq -(4 * VEC_SIZE)(%rdi, %rdx, CHAR_SIZE), %rdi
195 leaq -(4 * VEC_SIZE)(%rsi, %rdx, CHAR_SIZE), %rsi
203 vpxorq (VEC_SIZE)(%rdi), %YMM2, %YMM2
205 VMOVU (VEC_SIZE * 2)(%rsi), %YMM3
206 vpxorq (VEC_SIZE * 2)(%rdi), %YMM3, %YMM3
208 VMOVU (VEC_SIZE * 3)(%rsi), %YMM4
211 vpternlogd $0xde,(VEC_SIZE * 3)(%rdi), %YMM1, %YMM4
253 movl (VEC_SIZE * 3)(%rdi, %rcx, CHAR_SIZE), %eax
255 cmpl (VEC_SIZE * 3)(%rsi, %rcx, CHAR_SIZE), %eax
259 movzbl (VEC_SIZE * 3)(%rdi, %rcx), %eax
260 movzbl (VEC_SIZE * 3)(%rsi, %rcx), %ecx
272 movl VEC_SIZE(%rdi, %rax, CHAR_SIZE), %ecx
274 cmpl VEC_SIZE(%rsi, %rax, CHAR_SIZE), %ecx
278 movzbl VEC_SIZE(%rsi, %rax), %ecx
279 movzbl VEC_SIZE(%rdi, %rax), %eax
290 movl (VEC_SIZE * 2)(%rdi, %rax, CHAR_SIZE), %ecx
292 cmpl (VEC_SIZE * 2)(%rsi, %rax, CHAR_SIZE), %ecx
296 movzbl (VEC_SIZE * 2)(%rsi, %rax), %ecx
297 movzbl (VEC_SIZE * 2)(%rdi, %rax), %eax
305 leaq -(VEC_SIZE * 4)(%rdi, %rdx, CHAR_SIZE), %rdx
310 andq $-VEC_SIZE, %rdi
312 subq $-(VEC_SIZE * 4), %rdi
318 VMOVU VEC_SIZE(%rsi, %rdi), %YMM2
319 vpxorq VEC_SIZE(%rdi), %YMM2, %YMM2
320 VMOVU (VEC_SIZE * 2)(%rsi, %rdi), %YMM3
321 vpxorq (VEC_SIZE * 2)(%rdi), %YMM3, %YMM3
322 VMOVU (VEC_SIZE * 3)(%rsi, %rdi), %YMM4
323 vpternlogd $0xde,(VEC_SIZE * 3)(%rdi), %YMM1, %YMM4
329 subq $-(VEC_SIZE * 4), %rdi
335 cmpl $(VEC_SIZE * 3), %edi
338 VMOVU (VEC_SIZE * 2)(%rsi, %rdx), %YMM3
339 cmpl $(VEC_SIZE * 2), %edi
342 vpxorq (VEC_SIZE * 2)(%rdx), %YMM3, %YMM3
347 VMOVU VEC_SIZE(%rsi, %rdx), %YMM2
348 vpxorq VEC_SIZE(%rdx), %YMM2, %YMM2
349 VMOVU (VEC_SIZE * 3)(%rsi, %rdx), %YMM4
350 vpternlogd $0xde,(VEC_SIZE * 3)(%rdx), %YMM1, %YMM4
362 VPCMP $4,(VEC_SIZE * 2)(%rdx), %YMM3, %k1
368 VMOVU (VEC_SIZE * 3)(%rsi, %rdx), %YMM1
369 VPCMP $4,(VEC_SIZE * 3)(%rdx), %YMM1, %k1
381 subq $VEC_SIZE, %rdx
386 movl (VEC_SIZE * 3)(%rax), %ecx
388 cmpl (VEC_SIZE * 3)(%rsi, %rax), %ecx
393 movzbl (VEC_SIZE * 3)(%rsi, %rax), %ecx
394 movzbl (VEC_SIZE * 3)(%rax), %eax
402 VMOVU -(VEC_SIZE * 2)(%rsi, %rdx, CHAR_SIZE), %YMM1
403 VPCMP $4, -(VEC_SIZE * 2)(%rdi, %rdx, CHAR_SIZE), %YMM1, %k1
411 VMOVU -(VEC_SIZE * 1)(%rsi, %rdx, CHAR_SIZE), %YMM1
412 VPCMP $4, -(VEC_SIZE * 1)(%rdi, %rdx, CHAR_SIZE), %YMM1, %k1
427 movl -(VEC_SIZE * 2)(%rdi, %rax, CHAR_SIZE), %ecx
429 cmpl -(VEC_SIZE * 2)(%rsi, %rax, CHAR_SIZE), %ecx
433 movzbl -(VEC_SIZE * 2)(%rsi, %rax), %ecx
434 movzbl -(VEC_SIZE * 2)(%rdi, %rax), %eax
445 movl -VEC_SIZE(%rdi, %rax, CHAR_SIZE), %ecx
447 cmpl -VEC_SIZE(%rsi, %rax, CHAR_SIZE), %ecx
451 movzbl -VEC_SIZE(%rsi, %rax), %ecx
452 movzbl -VEC_SIZE(%rdi, %rax), %eax