Lines Matching refs:VEC_SIZE

30 # define VEC_SIZE	32  macro
34 # if (VEC_SIZE * 4) != (1 << DIVIDE_BY_VEC_4_SHIFT)
35 # error (VEC_SIZE * 4) != (1 << DIVIDE_BY_VEC_4_SHIFT)
119 cmpl $(PAGE_SIZE - (VEC_SIZE * 4)), %eax
175 addq $VEC_SIZE, %rdx
191 movl VEC_SIZE(%rdi, %rdx), %ecx
192 cmpl VEC_SIZE(%rsi, %rdx), %ecx
195 movzbl VEC_SIZE(%rdi, %rdx), %eax
196 movzbl VEC_SIZE(%rsi, %rdx), %edx
211 addq $(VEC_SIZE * 2), %rdx
227 movl (VEC_SIZE * 2)(%rdi, %rdx), %ecx
228 cmpl (VEC_SIZE * 2)(%rsi, %rdx), %ecx
231 movzbl (VEC_SIZE * 2)(%rdi, %rdx), %eax
232 movzbl (VEC_SIZE * 2)(%rsi, %rdx), %edx
247 addq $(VEC_SIZE * 3), %rdx
263 movl (VEC_SIZE * 3)(%rdi, %rdx), %ecx
264 cmpl (VEC_SIZE * 3)(%rsi, %rdx), %ecx
267 movzbl (VEC_SIZE * 3)(%rdi, %rdx), %eax
268 movzbl (VEC_SIZE * 3)(%rsi, %rdx), %edx
276 VMOVU VEC_SIZE(%rdi), %YMM0
281 VPCMP $0, VEC_SIZE(%rsi), %YMM0, %k1{%k2}
290 VMOVU (VEC_SIZE * 2)(%rdi), %YMM0
295 VPCMP $0, (VEC_SIZE * 2)(%rsi), %YMM0, %k1{%k2}
304 VMOVU (VEC_SIZE * 3)(%rdi), %YMM0
309 VPCMP $0, (VEC_SIZE * 3)(%rsi), %YMM0, %k1{%k2}
318 leaq (VEC_SIZE * 4)(%rdi), %rdx
321 andq $-(VEC_SIZE * 4), %rdx
350 subq $(VEC_SIZE * 4), %r11
353 addq $(VEC_SIZE * 4), %rax
354 addq $(VEC_SIZE * 4), %rdx
362 VMOVA VEC_SIZE(%rax), %YMM2
363 VMOVA (VEC_SIZE * 2)(%rax), %YMM4
364 VMOVA (VEC_SIZE * 3)(%rax), %YMM6
377 vpxorq VEC_SIZE(%rdx), %YMM2, %YMM3
378 vpxorq (VEC_SIZE * 2)(%rdx), %YMM4, %YMM5
379 vpxorq (VEC_SIZE * 3)(%rdx), %YMM6, %YMM7
448 cmpq $VEC_SIZE, %r11
469 addq $VEC_SIZE, %rdi
487 movl VEC_SIZE(%rsi, %rdi), %ecx
488 cmpl VEC_SIZE(%rdx, %rdi), %ecx
491 movzbl VEC_SIZE(%rax, %rdi), %eax
492 movzbl VEC_SIZE(%rdx, %rdi), %edx
503 cmpq $(VEC_SIZE * 2), %r11
524 addq $(VEC_SIZE * 2), %rdi
542 movl (VEC_SIZE * 2)(%rsi, %rdi), %ecx
543 cmpl (VEC_SIZE * 2)(%rdx, %rdi), %ecx
546 movzbl (VEC_SIZE * 2)(%rax, %rdi), %eax
547 movzbl (VEC_SIZE * 2)(%rdx, %rdi), %edx
558 cmpq $(VEC_SIZE * 3), %r11
578 addq $(VEC_SIZE * 3), %rcx
596 movl (VEC_SIZE * 3)(%rsi, %rcx), %esi
597 cmpl (VEC_SIZE * 3)(%rdx, %rcx), %esi
600 movzbl (VEC_SIZE * 3)(%rax, %rcx), %eax
601 movzbl (VEC_SIZE * 3)(%rdx, %rcx), %edx
613 andl $((VEC_SIZE * 4) - 1), %ecx
618 # if (VEC_SIZE * 2) != 64
619 # error (VEC_SIZE * 2) != 64
623 cmpl $(VEC_SIZE * 2), %ecx
627 VMOVU VEC_SIZE(%rax, %r10), %YMM3
647 VPCMP $0, VEC_SIZE(%rdx, %r10), %YMM3, %k3{%k4}
716 VMOVU (VEC_SIZE * 2)(%rax, %r10), %YMM0
717 VMOVU (VEC_SIZE * 3)(%rax, %r10), %YMM1
722 VPCMP $0, (VEC_SIZE * 2)(%rdx, %r10), %YMM0, %k1{%k2}
735 VPCMP $0, (VEC_SIZE * 3)(%rdx, %r10), %YMM1, %k3{%k4}
761 subl $(VEC_SIZE * 2), %ecx
778 movl $(PAGE_SIZE / (VEC_SIZE * 4) - 1), %esi
798 addq $(VEC_SIZE * 2), %rcx
816 movl (VEC_SIZE * 2)(%rsi, %rcx), %edi
817 cmpl (VEC_SIZE * 2)(%rdx, %rcx), %edi
820 movzbl (VEC_SIZE * 2)(%rax, %rcx), %eax
821 movzbl (VEC_SIZE * 2)(%rdx, %rcx), %edx
829 leaq (VEC_SIZE * 4)(%r10), %r10
845 cmpl $(VEC_SIZE * 4), %edx
937 cmpl $(PAGE_SIZE - VEC_SIZE), %eax
954 addl $VEC_SIZE, %edx
956 addl $VEC_SIZE, %eax
963 cmpl $(PAGE_SIZE - VEC_SIZE), %eax