/sysdeps/x86_64/multiarch/ |
A D | memcmpeq-evex.S | 47 # define VEC_SIZE 32 macro 65 cmp $VEC_SIZE, %RDX_LP 103 cmpq $(VEC_SIZE * 2), %rdx 107 VMOVU VEC_SIZE(%rsi), %YMM2 114 cmpq $(VEC_SIZE * 4), %rdx 131 cmpq $(VEC_SIZE * 8), %rdx 173 andq $-VEC_SIZE, %rdi 175 subq $-(VEC_SIZE * 4), %rdi 195 subq $-(VEC_SIZE * 4), %rdi 203 cmpl $(VEC_SIZE * 3), %edi [all …]
|
A D | memmove-vec-unaligned-erms.S | 72 # if VEC_SIZE > 16 115 #if VEC_SIZE == 64 236 # if VEC_SIZE == 16 326 # if VEC_SIZE > 16 349 #if VEC_SIZE != 16 && VEC_SIZE != 32 && VEC_SIZE != 64 352 #if VEC_SIZE > 32 356 #if VEC_SIZE > 16 390 #if VEC_SIZE > 16 402 #if VEC_SIZE > 32 742 # if VEC_SIZE < 64 [all …]
|
A D | strcat-avx2.S | 30 # define VEC_SIZE 32 macro 47 cmp $(VEC_SIZE * 3), %ecx 54 and $-VEC_SIZE, %rax 58 and $-VEC_SIZE, %rax 89 add $(VEC_SIZE * 4), %rax 110 add $(VEC_SIZE * 4), %rax 164 add $VEC_SIZE, %rax 173 add $VEC_SIZE, %rax 182 add $VEC_SIZE, %rax 187 add $VEC_SIZE, %rax [all …]
|
A D | strcat-evex.S | 39 # define VEC_SIZE 32 macro 52 cmp $(VEC_SIZE * 3), %ecx 59 and $-VEC_SIZE, %rax 63 and $-VEC_SIZE, %rax 94 add $(VEC_SIZE * 4), %rax 116 add $(VEC_SIZE * 4), %rax 169 add $VEC_SIZE, %rax 178 add $VEC_SIZE, %rax 187 add $VEC_SIZE, %rax 192 add $VEC_SIZE, %rax [all …]
|
A D | memcmpeq-avx2.S | 52 # define VEC_SIZE 32 macro 61 cmp $VEC_SIZE, %RDX_LP 70 cmpq $(VEC_SIZE * 2), %rdx 74 vmovdqu VEC_SIZE(%rsi), %ymm2 83 cmpq $(VEC_SIZE * 4), %rdx 100 cmpq $(VEC_SIZE * 8), %rdx 202 andq $-VEC_SIZE, %rdi 204 subq $-(VEC_SIZE * 4), %rdi 226 subq $-(VEC_SIZE * 4), %rdi 235 cmpl $(VEC_SIZE * 3), %edi [all …]
|
A D | memcmp-evex-movbe.S | 77 # define VEC_SIZE 32 macro 161 VMOVU VEC_SIZE(%rsi), %YMM2 172 VMOVU (VEC_SIZE * 2)(%rsi), %YMM3 178 VMOVU (VEC_SIZE * 3)(%rsi), %YMM4 310 andq $-VEC_SIZE, %rdi 312 subq $-(VEC_SIZE * 4), %rdi 329 subq $-(VEC_SIZE * 4), %rdi 335 cmpl $(VEC_SIZE * 3), %edi 339 cmpl $(VEC_SIZE * 2), %edi 381 subq $VEC_SIZE, %rdx [all …]
|
A D | memset-vec-unaligned-erms.S | 46 # if VEC_SIZE > 16 59 # if VEC_SIZE > 16 66 #if VEC_SIZE == 64 143 # if VEC_SIZE == 16 168 # if VEC_SIZE == 16 216 # if VEC_SIZE != 16 && VEC_SIZE != 32 && VEC_SIZE != 64 229 # if VEC_SIZE > 32 336 #if VEC_SIZE > 16 360 #if VEC_SIZE > 32 364 #if VEC_SIZE > 16 [all …]
|
A D | memcmp-avx2-movbe.S | 62 # define VEC_SIZE 32 macro 78 cmp $VEC_SIZE, %RDX_LP 91 cmpq $(VEC_SIZE * 2), %rdx 104 cmpq $(VEC_SIZE * 4), %rdx 120 cmpq $(VEC_SIZE * 8), %rdx 243 andq $-VEC_SIZE, %rdi 245 subq $-(VEC_SIZE * 4), %rdi 268 subq $-(VEC_SIZE * 4), %rdi 275 cmpl $(VEC_SIZE * 3), %edi 279 cmpl $(VEC_SIZE * 2), %edi [all …]
|
A D | memrchr-evex.S | 27 # define VEC_SIZE 32 macro 34 sub $VEC_SIZE, %RDX_LP 51 addq $VEC_SIZE, %rdi 52 addq $VEC_SIZE, %rdx 53 andq $-VEC_SIZE, %rdi 170 cmpl $VEC_SIZE, %edx 194 addl $VEC_SIZE, %eax 218 addl $VEC_SIZE, %eax 225 subq $VEC_SIZE, %rdx 261 addl $VEC_SIZE, %edx [all …]
|
A D | strcpy-avx2.S | 31 # ifndef VEC_SIZE 32 # define VEC_SIZE 32 macro 72 and $-VEC_SIZE, %rsi 81 mov $VEC_SIZE, %r10 98 add $VEC_SIZE, %r10 117 mov $VEC_SIZE, %rcx 141 sub $VEC_SIZE, %r8 157 sub $VEC_SIZE, %r8 173 sub $VEC_SIZE, %r8 189 sub $VEC_SIZE, %r8 [all …]
|
A D | strcpy-evex.S | 34 # ifndef VEC_SIZE 35 # define VEC_SIZE 32 macro 83 mov $VEC_SIZE, %r10 100 add $VEC_SIZE, %r10 119 mov $VEC_SIZE, %rcx 125 add $VEC_SIZE, %rcx 143 sub $VEC_SIZE, %r8 159 sub $VEC_SIZE, %r8 175 sub $VEC_SIZE, %r8 191 sub $VEC_SIZE, %r8 [all …]
|
A D | memrchr-avx2.S | 35 # define VEC_SIZE 32 macro 43 sub $VEC_SIZE, %RDX_LP 60 addq $VEC_SIZE, %rdi 61 addq $VEC_SIZE, %rdx 62 andq $-VEC_SIZE, %rdi 188 cmpl $VEC_SIZE, %edx 212 addl $VEC_SIZE, %eax 236 addl $VEC_SIZE, %eax 243 subq $VEC_SIZE, %rdx 284 addl $VEC_SIZE, %edx [all …]
|
A D | memchr-avx2.S | 55 # define VEC_SIZE 32 macro 158 addq $(VEC_SIZE + 1), %rdi 187 orq $(VEC_SIZE - 1), %rdi 195 orq $(VEC_SIZE - 1), %rdi 258 subq $-(VEC_SIZE * 4), %rdi 265 subq $-(VEC_SIZE * 4), %rdi 285 addl $(VEC_SIZE * 2), %edx 290 addl $VEC_SIZE, %edx 299 addq $(VEC_SIZE + 1), %rdi 386 addl $(VEC_SIZE * 2), %edx [all …]
|
A D | memchr-evex.S | 86 # define VEC_SIZE 32 macro 224 andq $-VEC_SIZE, %rdi 232 andq $-VEC_SIZE, %rdi 267 addq $(VEC_SIZE + (VEC_SIZE * 4 - BASE_OFFSET)), %rdi 273 andq $-(4 * VEC_SIZE), %rdi 280 andq $-(4 * VEC_SIZE), %rdi 284 addq $(VEC_SIZE + (VEC_SIZE * 4 - BASE_OFFSET)), %rdi 285 andq $-(4 * VEC_SIZE), %rdi 345 subq $-(VEC_SIZE * 4), %rdi 367 subq $-(VEC_SIZE * 4), %rdi [all …]
|
A D | strlen-avx2.S | 45 # define VEC_SIZE 32 macro 155 addl $(VEC_SIZE + 1), %edi 200 subl $(VEC_SIZE + 1), %ecx 219 orq $(VEC_SIZE - 1), %rdi 299 subq $-(VEC_SIZE * 4), %rdi 358 subl $VEC_SIZE, %esi 368 addl $(VEC_SIZE + 1), %eax 438 subl $(VEC_SIZE * 3), %esi 477 addl $(VEC_SIZE + 1), %eax 488 subl $(VEC_SIZE * 2), %esi [all …]
|
A D | strcmp-avx2.S | 30 # define VEC_SIZE 32 macro 143 addq $VEC_SIZE, %rdx 176 addq $(VEC_SIZE * 2), %rdx 209 addq $(VEC_SIZE * 3), %rdx 293 subq $(VEC_SIZE * 4), %r11 296 addq $(VEC_SIZE * 4), %rax 367 cmpq $VEC_SIZE, %r11 376 addq $VEC_SIZE, %rdi 500 # if (VEC_SIZE * 2) != 64 749 addl $VEC_SIZE, %edx [all …]
|
A D | strcmp-evex.S | 30 # define VEC_SIZE 32 macro 175 addq $VEC_SIZE, %rdx 211 addq $(VEC_SIZE * 2), %rdx 247 addq $(VEC_SIZE * 3), %rdx 350 subq $(VEC_SIZE * 4), %r11 353 addq $(VEC_SIZE * 4), %rax 448 cmpq $VEC_SIZE, %r11 469 addq $VEC_SIZE, %rdi 618 # if (VEC_SIZE * 2) != 64 954 addl $VEC_SIZE, %edx [all …]
|
A D | strchr-evex.S | 59 # define VEC_SIZE 32 macro 73 cmpl $(PAGE_SIZE - VEC_SIZE), %eax 185 andq $-VEC_SIZE, %rdi 193 VMOVA (VEC_SIZE)(%rdi), %YMM1 205 VMOVA (VEC_SIZE * 2)(%rdi), %YMM1 213 VMOVA (VEC_SIZE * 3)(%rdi), %YMM1 223 VMOVA (VEC_SIZE * 4)(%rdi), %YMM1 232 addq $VEC_SIZE, %rdi 233 andq $-(VEC_SIZE * 4), %rdi 270 subq $-(VEC_SIZE * 4), %rdi [all …]
|
A D | strrchr-evex.S | 45 # define VEC_SIZE 32 macro 57 cmpl $VEC_SIZE, %ecx 69 addq $VEC_SIZE, %rdi 77 andq $-VEC_SIZE, %rdi 90 andq $-VEC_SIZE, %rdi 96 andq $-VEC_SIZE, %rdi 116 addq $VEC_SIZE, %rdi 139 addq $VEC_SIZE, %rdi 151 add $VEC_SIZE, %rdi 163 addq $VEC_SIZE, %rdi [all …]
|
A D | strrchr-avx2.S | 43 # define VEC_SIZE 32 macro 55 cmpl $VEC_SIZE, %ecx 63 addq $VEC_SIZE, %rdi 71 andq $-VEC_SIZE, %rdi 84 andq $-VEC_SIZE, %rdi 90 andq $-VEC_SIZE, %rdi 98 addq $VEC_SIZE, %rdi 122 addq $VEC_SIZE, %rdi 131 add $VEC_SIZE, %rdi 140 addq $VEC_SIZE, %rdi [all …]
|
A D | strchr-avx2.S | 47 # define VEC_SIZE 32 macro 88 addq $(VEC_SIZE * 3 + 1), %rdi 119 addq $(VEC_SIZE + 1), %rdi 131 addq $(VEC_SIZE * 2 + 1), %rdi 145 orq $(VEC_SIZE - 1), %rdi 182 andq $-(VEC_SIZE * 4), %rdi 209 subq $-(VEC_SIZE * 4), %rdi 232 subq $(VEC_SIZE * 2), %rdi 245 addq $-(VEC_SIZE * 4), %rdi 263 subq $(VEC_SIZE * 3), %rdi [all …]
|
A D | strlen-evex.S | 50 # define VEC_SIZE 32 macro 72 cmpl $(PAGE_SIZE - VEC_SIZE), %eax 182 andq $-(VEC_SIZE), %rdi 222 addq $VEC_SIZE, %rdi 228 andl $(VEC_SIZE * 4 - 1), %ecx 237 andq $-(VEC_SIZE * 4), %rdi 243 VMOVA (VEC_SIZE * 4)(%rdi), %YMM1 254 VMOVA (VEC_SIZE * 6)(%rdi), %YMM3 259 subq $-(VEC_SIZE * 4), %rdi 295 addq $(VEC_SIZE * 3), %rdi [all …]
|
A D | memmove-avx-unaligned-erms.S | 2 # define VEC_SIZE 32 macro
|
A D | memmove-avx-unaligned-erms-rtm.S | 2 # define VEC_SIZE 32 macro
|
/sysdeps/x86_64/ |
A D | dl-trampoline.S | 55 #define VEC_SIZE 64 macro 63 #undef VEC_SIZE 65 #define VEC_SIZE 32 macro 73 #undef VEC_SIZE 76 #define VEC_SIZE 16 macro 85 #undef VEC_SIZE
|