Created
November 19, 2021 13:47
-
-
Save KristofferC/a3915eec407491b7a4fc8a7d81c16fbe to your computer and use it in GitHub Desktop.
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
pushq %r15 | |
pushq %r14 | |
pushq %r13 | |
pushq %r12 | |
pushq %rbx | |
subq $2320, %rsp # imm = 0x910 | |
movq (%rsi), %rdx | |
vmovupd 80(%rdx), %ymm12 | |
vmovupd 112(%rdx), %ymm9 | |
vmovupd 224(%rdx), %ymm3 | |
vmovupd %ymm3, 320(%rsp) | |
vmovupd 256(%rdx), %ymm4 | |
vmovupd %ymm4, 32(%rsp) | |
vbroadcastsd 72(%rdx), %ymm13 | |
movabsq $139907445577752, %rax # imm = 0x7F3EBD985818 | |
vmulsd (%rax), %xmm13, %xmm2 | |
vmovapd %xmm2, -112(%rsp) | |
vbroadcastsd (%rax), %ymm0 | |
vmulpd %ymm0, %ymm12, %ymm1 | |
vmulpd %ymm0, %ymm9, %ymm0 | |
vbroadcastsd 216(%rdx), %ymm8 | |
vmulpd %ymm1, %ymm8, %ymm1 | |
vbroadcastsd %xmm2, %ymm2 | |
vmulpd %ymm3, %ymm2, %ymm3 | |
vaddpd %ymm3, %ymm1, %ymm1 | |
vmovupd %ymm1, 576(%rsp) | |
vmulpd %ymm0, %ymm8, %ymm0 | |
vmulpd %ymm4, %ymm2, %ymm1 | |
vaddpd %ymm1, %ymm0, %ymm0 | |
vmovupd %ymm0, 608(%rsp) | |
vmovsd 288(%rdx), %xmm0 # xmm0 = mem[0],zero | |
movabsq $139907445577760, %rax # imm = 0x7F3EBD985820 | |
vmulsd (%rax), %xmm0, %xmm2 | |
vmovapd %xmm2, 64(%rsp) | |
vbroadcastsd (%rax), %ymm0 | |
vmulpd 296(%rdx), %ymm0, %ymm1 | |
vmulpd 328(%rdx), %ymm0, %ymm0 | |
vmulpd %ymm1, %ymm13, %ymm1 | |
vbroadcastsd %xmm2, %ymm2 | |
vmulpd %ymm2, %ymm12, %ymm3 | |
vaddpd %ymm3, %ymm1, %ymm1 | |
vmovupd %ymm1, 512(%rsp) | |
vmulpd %ymm0, %ymm13, %ymm0 | |
vmulpd %ymm2, %ymm9, %ymm1 | |
vaddpd %ymm1, %ymm0, %ymm0 | |
vmovupd %ymm0, 544(%rsp) | |
vmovsd 432(%rdx), %xmm2 # xmm2 = mem[0],zero | |
vmovupd 440(%rdx), %ymm0 | |
vpermpd $144, %ymm0, %ymm1 # ymm1 = ymm0[0,0,1,2] | |
vblendpd $1, %ymm2, %ymm1, %ymm1 # ymm1 = ymm2[0],ymm1[1,2,3] | |
vmovapd %ymm2, %ymm4 | |
vmovupd %ymm2, 640(%rsp) | |
movabsq $139907445577776, %r8 # imm = 0x7F3EBD985830 | |
vbroadcastsd (%r8), %ymm2 | |
vmulpd %ymm2, %ymm1, %ymm1 | |
vmovupd %ymm1, 2240(%rsp) | |
vmovupd 472(%rdx), %ymm1 | |
vperm2f128 $33, %ymm1, %ymm0, %ymm3 # ymm3 = ymm0[2,3],ymm1[0,1] | |
vshufpd $5, %ymm1, %ymm3, %ymm3 # ymm3 = ymm3[1],ymm1[0],ymm3[3],ymm1[2] | |
vmulpd %ymm2, %ymm3, %ymm2 | |
vmovupd %ymm2, 2272(%rsp) | |
movabsq $139907445577768, %r9 # imm = 0x7F3EBD985828 | |
vbroadcastsd (%r9), %ymm2 | |
vmulpd %ymm2, %ymm0, %ymm3 | |
vmovupd %ymm3, 384(%rsp) | |
vmulpd %ymm2, %ymm1, %ymm2 | |
vmovupd %ymm2, 2208(%rsp) | |
movabsq $139907445577784, %rax # imm = 0x7F3EBD985838 | |
vbroadcastsd (%rax), %ymm2 | |
vmulpd %ymm2, %ymm0, %ymm0 | |
vmulpd %ymm2, %ymm1, %ymm1 | |
vbroadcastsd 360(%rdx), %ymm6 | |
vmulpd %ymm6, %ymm0, %ymm0 | |
vmovupd 368(%rdx), %ymm5 | |
vmulsd (%rax), %xmm4, %xmm2 | |
vmovapd %xmm2, 96(%rsp) | |
vbroadcastsd %xmm2, %ymm2 | |
vmulpd %ymm5, %ymm2, %ymm3 | |
vmovupd %ymm5, 352(%rsp) | |
vaddpd %ymm3, %ymm0, %ymm0 | |
vmovupd %ymm0, 672(%rsp) | |
vmulpd %ymm6, %ymm1, %ymm0 | |
vmovupd 400(%rdx), %ymm11 | |
vmulpd %ymm2, %ymm11, %ymm1 | |
vaddpd %ymm1, %ymm0, %ymm0 | |
vmovupd %ymm0, 704(%rsp) | |
movabsq $139907445577800, %rax # imm = 0x7F3EBD985848 | |
vmovsd (%rax), %xmm0 # xmm0 = mem[0],zero | |
vmulsd 592(%rdx), %xmm0, %xmm1 | |
vmulsd 600(%rdx), %xmm0, %xmm2 | |
vunpcklpd %xmm2, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm2[0] | |
movabsq $139907445577792, %r10 # imm = 0x7F3EBD985840 | |
vmovupd 584(%rdx), %ymm2 | |
vmovupd 616(%rdx), %ymm3 | |
vbroadcastsd (%r10), %ymm14 | |
vmulpd %ymm2, %ymm14, %ymm4 | |
vmovupd %ymm4, 1536(%rsp) | |
vmulpd %ymm3, %ymm14, %ymm4 | |
vmovupd %ymm4, 1568(%rsp) | |
vperm2f128 $33, %ymm3, %ymm2, %ymm2 # ymm2 = ymm2[2,3],ymm3[0,1] | |
vshufpd $5, %ymm3, %ymm2, %ymm14 # ymm14 = ymm2[1],ymm3[0],ymm2[3],ymm3[2] | |
vmovsd 576(%rdx), %xmm2 # xmm2 = mem[0],zero | |
vmovapd %xmm2, -64(%rsp) | |
vmulsd 584(%rdx), %xmm0, %xmm3 | |
vunpcklpd %xmm3, %xmm2, %xmm3 # xmm3 = xmm2[0],xmm3[0] | |
vinsertf128 $1, %xmm1, %ymm3, %ymm1 | |
movabsq $.rodata.cst32, %rcx | |
vmovapd (%rcx), %xmm3 | |
vunpcklpd %xmm6, %xmm3, %xmm3 # xmm3 = xmm3[0],xmm6[0] | |
vpermpd $84, %ymm3, %ymm3 # ymm3 = ymm3[0,1,1,1] | |
vmulpd %ymm3, %ymm1, %ymm1 | |
vbroadcastsd (%rax), %ymm3 | |
vmulsd 376(%rdx), %xmm1, %xmm4 | |
vmulsd 384(%rdx), %xmm1, %xmm2 | |
vmulpd %ymm3, %ymm14, %ymm3 | |
vunpcklpd %xmm2, %xmm4, %xmm2 # xmm2 = xmm4[0],xmm2[0] | |
vmulsd 368(%rdx), %xmm1, %xmm4 | |
vunpcklpd %xmm4, %xmm6, %xmm4 # xmm4 = xmm6[0],xmm4[0] | |
vinsertf128 $1, %xmm2, %ymm4, %ymm2 | |
vperm2f128 $33, %ymm11, %ymm5, %ymm4 # ymm4 = ymm5[2,3],ymm11[0,1] | |
vshufpd $5, %ymm11, %ymm4, %ymm4 # ymm4 = ymm4[1],ymm11[0],ymm4[3],ymm11[2] | |
vbroadcastsd %xmm1, %ymm14 | |
vmulpd %ymm4, %ymm14, %ymm4 | |
vmulpd %ymm6, %ymm3, %ymm3 | |
vaddpd %ymm4, %ymm3, %ymm3 | |
vmovupd %ymm3, 1504(%rsp) | |
vmulsd 640(%rdx), %xmm0, %xmm0 | |
vmulpd %ymm2, %ymm1, %ymm3 | |
vmovupd %ymm3, 1472(%rsp) | |
vaddpd %ymm2, %ymm1, %ymm2 | |
vmovupd %ymm2, 1440(%rsp) | |
vmulsd 424(%rdx), %xmm1, %xmm1 | |
vmulsd %xmm6, %xmm0, %xmm0 | |
vaddsd %xmm1, %xmm0, %xmm0 | |
vmovapd %xmm0, 144(%rsp) | |
movabsq $139907445577808, %rax # imm = 0x7F3EBD985850 | |
vmovupd 728(%rdx), %ymm0 | |
vbroadcastsd (%rax), %ymm1 | |
vmulpd %ymm1, %ymm0, %ymm2 | |
vmulpd %ymm2, %ymm13, %ymm2 | |
vmovsd 720(%rdx), %xmm4 # xmm4 = mem[0],zero | |
vmulsd (%rax), %xmm4, %xmm3 | |
vbroadcastsd %xmm3, %ymm14 | |
vmulpd %ymm12, %ymm14, %ymm10 | |
vaddpd %ymm2, %ymm10, %ymm2 | |
vmovupd %ymm2, 1088(%rsp) | |
vmovupd 760(%rdx), %ymm10 | |
vmulpd %ymm1, %ymm10, %ymm1 | |
vmulpd %ymm1, %ymm13, %ymm1 | |
vmulpd %ymm9, %ymm14, %ymm2 | |
vaddpd %ymm2, %ymm1, %ymm1 | |
vmovupd %ymm1, 1120(%rsp) | |
movabsq $139907445577816, %rax # imm = 0x7F3EBD985858 | |
vmovsd (%rax), %xmm2 # xmm2 = mem[0],zero | |
vmulsd 736(%rdx), %xmm2, %xmm1 | |
vmulsd 744(%rdx), %xmm2, %xmm7 | |
vunpcklpd %xmm7, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm7[0] | |
vperm2f128 $33, %ymm10, %ymm0, %ymm0 # ymm0 = ymm0[2,3],ymm10[0,1] | |
vshufpd $5, %ymm10, %ymm0, %ymm10 # ymm10 = ymm0[1],ymm10[0],ymm0[3],ymm10[2] | |
vmulsd 728(%rdx), %xmm2, %xmm7 | |
vunpcklpd %xmm7, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm7[0] | |
vinsertf128 $1, %xmm1, %ymm4, %ymm1 | |
movabsq $139907445577984, %rcx # imm = 0x7F3EBD985900 | |
vbroadcastsd (%rdx), %ymm14 | |
vmovapd (%rcx), %xmm4 | |
vunpcklpd %xmm14, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm14[0] | |
vpermpd $84, %ymm4, %ymm4 # ymm4 = ymm4[0,1,1,1] | |
vmulpd %ymm4, %ymm1, %ymm4 | |
vbroadcastsd (%rax), %ymm1 | |
vmulsd 16(%rdx), %xmm4, %xmm7 | |
vmulsd 24(%rdx), %xmm4, %xmm0 | |
vmulpd %ymm1, %ymm10, %ymm10 | |
vunpcklpd %xmm0, %xmm7, %xmm0 # xmm0 = xmm7[0],xmm0[0] | |
vmovupd 8(%rdx), %xmm1 | |
vmulsd %xmm1, %xmm4, %xmm7 | |
vunpcklpd %xmm7, %xmm14, %xmm7 # xmm7 = xmm14[0],xmm7[0] | |
vinsertf128 $1, %xmm0, %ymm7, %ymm7 | |
vinsertf128 $1, %xmm1, %ymm14, %ymm1 | |
vmovupd 8(%rdx), %ymm5 | |
vshufpd $4, %ymm5, %ymm1, %ymm1 # ymm1 = ymm1[0],ymm5[0],ymm1[3],ymm5[2] | |
movabsq $.rodata.cst8, %rcx | |
vbroadcastsd (%rcx), %ymm0 | |
vmulpd %ymm0, %ymm1, %ymm1 | |
vmovupd %ymm1, 160(%rsp) | |
vmovupd 40(%rdx), %ymm1 | |
vperm2f128 $33, %ymm1, %ymm5, %ymm15 # ymm15 = ymm5[2,3],ymm1[0,1] | |
vshufpd $5, %ymm1, %ymm15, %ymm15 # ymm15 = ymm15[1],ymm1[0],ymm15[3],ymm1[2] | |
vmulpd %ymm0, %ymm15, %ymm0 | |
vmovupd %ymm0, 192(%rsp) | |
vbroadcastsd %xmm4, %ymm0 | |
vmulpd %ymm0, %ymm15, %ymm0 | |
vmulpd %ymm14, %ymm10, %ymm10 | |
vaddpd %ymm0, %ymm10, %ymm15 | |
vmulsd 784(%rdx), %xmm2, %xmm0 | |
vmulpd %ymm7, %ymm4, %ymm2 | |
vmovupd %ymm2, 1248(%rsp) | |
vaddpd %ymm7, %ymm4, %ymm2 | |
vmovupd %ymm2, 992(%rsp) | |
vmulsd %xmm0, %xmm14, %xmm0 | |
vmovsd 64(%rdx), %xmm2 # xmm2 = mem[0],zero | |
vmulsd %xmm2, %xmm4, %xmm4 | |
vaddsd %xmm4, %xmm0, %xmm0 | |
vmovapd %xmm0, 128(%rsp) | |
movabsq $139907445577832, %rax # imm = 0x7F3EBD985868 | |
vmovsd 648(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmulsd (%rax), %xmm0, %xmm0 | |
vbroadcastsd (%rax), %ymm4 | |
vmulpd 656(%rdx), %ymm4, %ymm7 | |
vmulpd %ymm7, %ymm13, %ymm7 | |
vbroadcastsd %xmm0, %ymm10 | |
vmulpd %ymm12, %ymm10, %ymm12 | |
vaddpd %ymm7, %ymm12, %ymm7 | |
vmovupd %ymm7, 896(%rsp) | |
vmulsd 64(%rsp), %xmm13, %xmm7 | |
vmovupd %ymm7, 1792(%rsp) | |
vmulpd 688(%rdx), %ymm4, %ymm4 | |
vmulsd %xmm3, %xmm13, %xmm3 | |
vmovupd %ymm3, 960(%rsp) | |
vmulsd %xmm0, %xmm13, %xmm0 | |
vmovupd %ymm0, 928(%rsp) | |
vmulpd %ymm4, %ymm13, %ymm0 | |
vmulpd %ymm9, %ymm10, %ymm3 | |
vaddpd %ymm3, %ymm0, %ymm0 | |
vmovupd %ymm0, 736(%rsp) | |
movabsq $139907445577848, %rax # imm = 0x7F3EBD985878 | |
vbroadcastsd (%rax), %ymm0 | |
vmulpd %ymm0, %ymm5, %ymm3 | |
vmulpd %ymm6, %ymm3, %ymm4 | |
vmulsd (%rax), %xmm14, %xmm3 | |
vbroadcastsd %xmm3, %ymm7 | |
vmovupd 352(%rsp), %ymm10 | |
vmulpd %ymm7, %ymm10, %ymm9 | |
vaddpd %ymm4, %ymm9, %ymm4 | |
vmovupd %ymm4, 768(%rsp) | |
vmulpd %ymm0, %ymm1, %ymm0 | |
vmulpd %ymm6, %ymm0, %ymm0 | |
vmulpd %ymm7, %ymm11, %ymm4 | |
vaddpd %ymm4, %ymm0, %ymm0 | |
vmovupd %ymm0, 64(%rsp) | |
vinsertf128 $1, 224(%rdx), %ymm8, %ymm0 | |
vmovupd 320(%rsp), %ymm13 | |
vshufpd $4, %ymm13, %ymm0, %ymm0 # ymm0 = ymm0[0],ymm13[0],ymm0[3],ymm13[2] | |
movabsq $139907445577864, %r14 # imm = 0x7F3EBD985888 | |
vmovupd 32(%rsp), %ymm12 | |
vperm2f128 $33, %ymm12, %ymm13, %ymm4 # ymm4 = ymm13[2,3],ymm12[0,1] | |
vshufpd $5, %ymm12, %ymm4, %ymm4 # ymm4 = ymm4[1],ymm12[0],ymm4[3],ymm12[2] | |
vbroadcastsd (%r14), %ymm7 | |
vmulpd %ymm7, %ymm0, %ymm9 | |
vmovupd %ymm9, 1376(%rsp) | |
vmulpd %ymm7, %ymm4, %ymm7 | |
vmovupd %ymm7, 1408(%rsp) | |
movabsq $139907445577872, %r15 # imm = 0x7F3EBD985890 | |
vbroadcastsd (%r15), %ymm7 | |
vmulpd %ymm7, %ymm0, %ymm0 | |
vmovupd %ymm0, 448(%rsp) | |
vmulpd %ymm7, %ymm4, %ymm0 | |
vmovupd %ymm0, 480(%rsp) | |
movabsq $139907445577880, %r11 # imm = 0x7F3EBD985898 | |
vmovupd 1080(%rdx), %ymm0 | |
vmovupd 1112(%rdx), %ymm4 | |
vbroadcastsd (%r11), %ymm7 | |
vmulpd %ymm7, %ymm0, %ymm9 | |
vmovupd %ymm9, 1152(%rsp) | |
vmulpd %ymm7, %ymm4, %ymm7 | |
vmovupd %ymm7, 1184(%rsp) | |
movabsq $139907445577888, %r12 # imm = 0x7F3EBD9858A0 | |
vbroadcastsd (%r12), %ymm7 | |
vmulpd %ymm7, %ymm0, %ymm0 | |
vmovupd %ymm0, 1344(%rsp) | |
vmulpd %ymm7, %ymm4, %ymm0 | |
vmovupd %ymm0, 1312(%rsp) | |
movabsq $139907445577896, %rax # imm = 0x7F3EBD9858A8 | |
vmovsd 1152(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmulsd (%rax), %xmm0, %xmm0 | |
vbroadcastsd (%rax), %ymm4 | |
vmulpd 1160(%rdx), %ymm4, %ymm7 | |
vmulpd %ymm6, %ymm7, %ymm7 | |
vbroadcastsd %xmm0, %ymm9 | |
vmulpd %ymm10, %ymm9, %ymm10 | |
vaddpd %ymm7, %ymm10, %ymm7 | |
vmovupd %ymm7, 1056(%rsp) | |
vmulsd 96(%rsp), %xmm6, %xmm7 | |
vmovupd %ymm7, 1856(%rsp) | |
vmulsd %xmm6, %xmm3, %xmm3 | |
vmovupd %ymm3, 96(%rsp) | |
vmulpd 1192(%rdx), %ymm4, %ymm3 | |
vmulsd %xmm6, %xmm0, %xmm0 | |
vmovupd %ymm0, 1024(%rsp) | |
vmulpd %ymm6, %ymm3, %ymm0 | |
vmovupd %ymm0, 1920(%rsp) | |
vmulpd %ymm11, %ymm9, %ymm0 | |
vmovupd %ymm0, 1888(%rsp) | |
vmovsd 1296(%rdx), %xmm11 # xmm11 = mem[0],zero | |
vmovupd 1304(%rdx), %ymm6 | |
vpermpd $144, %ymm6, %ymm0 # ymm0 = ymm6[0,0,1,2] | |
vblendpd $1, %ymm11, %ymm0, %ymm0 # ymm0 = ymm11[0],ymm0[1,2,3] | |
movabsq $139907445577904, %r13 # imm = 0x7F3EBD9858B0 | |
vbroadcastsd (%r13), %ymm3 | |
vmulpd %ymm3, %ymm0, %ymm0 | |
vmovupd %ymm0, 352(%rsp) | |
vmovupd 1336(%rdx), %ymm0 | |
vperm2f128 $33, %ymm0, %ymm6, %ymm4 # ymm4 = ymm6[2,3],ymm0[0,1] | |
vshufpd $5, %ymm0, %ymm4, %ymm4 # ymm4 = ymm4[1],ymm0[0],ymm4[3],ymm0[2] | |
vmulpd %ymm3, %ymm4, %ymm3 | |
vmovupd %ymm3, 1280(%rsp) | |
movabsq $139907445577920, %rax # imm = 0x7F3EBD9858C0 | |
vbroadcastsd (%rax), %ymm4 | |
vmulpd %ymm4, %ymm5, %ymm3 | |
vmulpd %ymm3, %ymm8, %ymm3 | |
vmulsd (%rax), %xmm14, %xmm7 | |
vbroadcastsd %xmm7, %ymm9 | |
vmulpd %ymm13, %ymm9, %ymm10 | |
vaddpd %ymm3, %ymm10, %ymm3 | |
vmovupd %ymm3, (%rsp) | |
vmulsd -112(%rsp), %xmm8, %xmm3 | |
vmovupd %ymm3, 416(%rsp) | |
vmulpd %ymm4, %ymm1, %ymm4 | |
vmulsd %xmm7, %xmm8, %xmm13 | |
vmovupd %ymm13, 1728(%rsp) | |
vmulpd %ymm4, %ymm8, %ymm4 | |
vmulpd %ymm12, %ymm9, %ymm7 | |
vaddpd %ymm7, %ymm4, %ymm3 | |
vmovupd %ymm3, 288(%rsp) | |
movabsq $139907445577912, %rbx # imm = 0x7F3EBD9858B8 | |
vbroadcastsd (%rbx), %ymm4 | |
vmulpd %ymm4, %ymm6, %ymm3 | |
vmovupd %ymm3, 224(%rsp) | |
vmulpd %ymm4, %ymm0, %ymm3 | |
vmovupd %ymm3, 256(%rsp) | |
movabsq $139907445577928, %rax # imm = 0x7F3EBD9858C8 | |
vbroadcastsd (%rax), %ymm4 | |
vmulpd %ymm4, %ymm6, %ymm6 | |
vmulpd %ymm4, %ymm0, %ymm0 | |
vmulpd %ymm6, %ymm14, %ymm4 | |
vmulsd (%rax), %xmm11, %xmm6 | |
vbroadcastsd %xmm6, %ymm8 | |
vmulpd %ymm5, %ymm8, %ymm5 | |
vaddpd %ymm5, %ymm4, %ymm3 | |
vmovupd %ymm3, 320(%rsp) | |
vmulsd %xmm6, %xmm14, %xmm10 | |
vmovupd %ymm10, 2176(%rsp) | |
vmulpd %ymm0, %ymm14, %ymm0 | |
vmulpd %ymm1, %ymm8, %ymm1 | |
vaddpd %ymm1, %ymm0, %ymm0 | |
vmovupd %ymm0, 1216(%rsp) | |
movabsq $.rodata.cst16, %rax | |
vmovapd (%rax), %xmm7 | |
vmovupd 160(%rsp), %ymm0 | |
vpermilpd $1, %xmm0, %xmm1 # xmm1 = xmm0[1,0] | |
vxorpd %xmm7, %xmm1, %xmm1 | |
vextractf128 $1, %ymm0, %xmm4 | |
vmovapd %ymm0, %ymm8 | |
vxorpd %xmm7, %xmm4, %xmm5 | |
vunpcklpd %xmm5, %xmm1, %xmm1 # xmm1 = xmm1[0],xmm5[0] | |
vpermilpd $1, %xmm4, %xmm4 # xmm4 = xmm4[1,0] | |
vxorpd %xmm7, %xmm4, %xmm4 | |
vmovupd 192(%rsp), %ymm0 | |
vxorpd %xmm7, %xmm0, %xmm5 | |
vunpcklpd %xmm5, %xmm4, %xmm4 # xmm4 = xmm4[0],xmm5[0] | |
vmulsd (%rcx), %xmm2, %xmm3 | |
vmovapd %xmm3, -80(%rsp) | |
vpermilpd $1, %xmm0, %xmm2 # xmm2 = xmm0[1,0] | |
vxorpd %xmm7, %xmm2, %xmm2 | |
vextractf128 $1, %ymm0, %xmm5 | |
vxorpd %xmm7, %xmm5, %xmm6 | |
vunpcklpd %xmm6, %xmm2, %xmm2 # xmm2 = xmm2[0],xmm6[0] | |
vpermilpd $1, %xmm5, %xmm5 # xmm5 = xmm5[1,0] | |
vxorpd %xmm7, %xmm5, %xmm5 | |
vxorpd %xmm7, %xmm3, %xmm6 | |
vmovapd %xmm7, -112(%rsp) | |
vunpcklpd %xmm6, %xmm5, %xmm5 # xmm5 = xmm5[0],xmm6[0] | |
vinsertf128 $1, %xmm4, %ymm1, %ymm1 | |
vmovupd %ymm15, 2048(%rsp) | |
vmovupd 992(%rsp), %ymm0 | |
vperm2f128 $33, %ymm15, %ymm0, %ymm4 # ymm4 = ymm0[2,3],ymm15[0,1] | |
vshufpd $5, %ymm4, %ymm0, %ymm4 # ymm4 = ymm0[1],ymm4[0],ymm0[3],ymm4[2] | |
vsubpd %ymm4, %ymm1, %ymm1 | |
vinsertf128 $1, %xmm5, %ymm2, %ymm2 | |
vextractf128 $1, %ymm15, %xmm4 | |
vshufpd $1, 128(%rsp), %xmm4, %xmm5 # xmm5 = xmm4[1],mem[0] | |
vshufpd $1, %xmm4, %xmm15, %xmm4 # xmm4 = xmm15[1],xmm4[0] | |
vinsertf128 $1, %xmm5, %ymm4, %ymm4 | |
movabsq $139907445577824, %rax # imm = 0x7F3EBD985860 | |
vmovsd 864(%rdx), %xmm5 # xmm5 = mem[0],zero | |
vmulsd (%rax), %xmm5, %xmm5 | |
vmovupd %ymm5, 2016(%rsp) | |
vsubpd %ymm4, %ymm2, %ymm9 | |
vbroadcastsd (%rax), %ymm4 | |
vmulpd 872(%rdx), %ymm4, %ymm2 | |
vmovupd %ymm2, 1952(%rsp) | |
vmulpd 904(%rdx), %ymm4, %ymm3 | |
vmovupd %ymm3, 1984(%rsp) | |
movabsq $139907445577840, %rsi # imm = 0x7F3EBD985870 | |
vbroadcastsd (%rsi), %ymm4 | |
vmulpd 944(%rdx), %ymm4, %ymm0 | |
vmovupd %ymm0, 832(%rsp) | |
vmulpd 976(%rdx), %ymm4, %ymm0 | |
vmovupd %ymm0, 864(%rsp) | |
movabsq $139907445577856, %rax # imm = 0x7F3EBD985880 | |
vbroadcastsd (%rax), %ymm4 | |
vmulpd 144(%rdx), %ymm4, %ymm0 | |
vmovupd %ymm0, 1632(%rsp) | |
vmulpd 176(%rdx), %ymm4, %ymm0 | |
vmovupd %ymm0, 1664(%rsp) | |
vmulsd (%rbx), %xmm11, %xmm6 | |
vmovupd %ymm6, 1600(%rsp) | |
movabsq $139907445577936, %rcx # imm = 0x7F3EBD9858D0 | |
vmovsd 1368(%rdx), %xmm4 # xmm4 = mem[0],zero | |
vmulsd (%rcx), %xmm4, %xmm0 | |
vmovupd %ymm0, 2144(%rsp) | |
vbroadcastsd (%rcx), %ymm4 | |
vmulpd 1376(%rdx), %ymm4, %ymm15 | |
vmovupd %ymm15, 2112(%rsp) | |
vmulpd 1408(%rdx), %ymm4, %ymm14 | |
vmovupd %ymm14, 2080(%rsp) | |
vxorpd %xmm7, %xmm8, %xmm4 | |
vsubsd 1248(%rsp), %xmm4, %xmm4 | |
vsubsd 96(%rsp), %xmm4, %xmm4 | |
vsubsd %xmm13, %xmm4, %xmm4 | |
vsubsd %xmm10, %xmm4, %xmm4 | |
vmovupd 416(%rsp), %ymm7 | |
vaddsd %xmm4, %xmm7, %xmm4 | |
vmovupd 1792(%rsp), %ymm13 | |
vaddsd %xmm4, %xmm13, %xmm4 | |
vmovupd 960(%rsp), %ymm10 | |
vaddsd %xmm4, %xmm10, %xmm4 | |
vaddsd %xmm4, %xmm5, %xmm4 | |
vmovupd 928(%rsp), %ymm12 | |
vaddsd %xmm4, %xmm12, %xmm4 | |
vaddsd %xmm4, %xmm6, %xmm4 | |
vaddsd %xmm0, %xmm4, %xmm4 | |
movq (%rdi), %rcx | |
vmovsd 496(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmovsd %xmm0, -8(%rsp) | |
vmovsd 936(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmovsd %xmm0, -16(%rsp) | |
vmovsd 208(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmovsd %xmm0, -32(%rsp) | |
vmovsd 280(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmovsd %xmm0, -24(%rsp) | |
vmovsd 1144(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmovsd %xmm0, -96(%rsp) | |
vmovsd 1360(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmovsd %xmm0, -40(%rsp) | |
vmovsd %xmm4, (%rcx) | |
vsubpd 768(%rsp), %ymm1, %ymm1 | |
vsubpd (%rsp), %ymm1, %ymm1 | |
vsubpd 320(%rsp), %ymm1, %ymm1 | |
vmovupd 576(%rsp), %ymm8 | |
vaddpd %ymm1, %ymm8, %ymm1 | |
vmovupd 512(%rsp), %ymm5 | |
vaddpd %ymm1, %ymm5, %ymm1 | |
vmovupd 1088(%rsp), %ymm0 | |
vaddpd %ymm1, %ymm0, %ymm1 | |
vaddpd %ymm1, %ymm2, %ymm1 | |
vmovupd 896(%rsp), %ymm4 | |
vaddpd %ymm1, %ymm4, %ymm1 | |
vaddpd 224(%rsp), %ymm1, %ymm1 | |
vaddpd %ymm1, %ymm15, %ymm1 | |
vmovupd %ymm1, 8(%rcx) | |
vsubpd 64(%rsp), %ymm9, %ymm1 | |
vsubpd 288(%rsp), %ymm1, %ymm1 | |
vsubpd 1216(%rsp), %ymm1, %ymm1 | |
vmovupd 608(%rsp), %ymm15 | |
vaddpd %ymm1, %ymm15, %ymm1 | |
vmovupd 544(%rsp), %ymm9 | |
vaddpd %ymm1, %ymm9, %ymm1 | |
vmovupd 1120(%rsp), %ymm11 | |
vaddpd %ymm1, %ymm11, %ymm1 | |
vaddpd %ymm1, %ymm3, %ymm1 | |
vaddpd 736(%rsp), %ymm1, %ymm1 | |
vaddpd 256(%rsp), %ymm1, %ymm1 | |
vaddpd %ymm1, %ymm14, %ymm1 | |
vmovupd %ymm1, 40(%rcx) | |
vpermpd $144, %ymm8, %ymm1 # ymm1 = ymm8[0,0,1,2] | |
vmovapd %ymm8, %ymm14 | |
vblendpd $1, %ymm7, %ymm1, %ymm2 # ymm2 = ymm7[0],ymm1[1,2,3] | |
movabsq $139907445577944, %rdx # imm = 0x7F3EBD9858D8 | |
vbroadcastsd (%rdx), %ymm7 | |
vxorpd %ymm7, %ymm2, %ymm8 | |
vmovupd %ymm7, 32(%rsp) | |
vpermpd $144, %ymm5, %ymm2 # ymm2 = ymm5[0,0,1,2] | |
vblendpd $1, %ymm13, %ymm2, %ymm1 # ymm1 = ymm13[0],ymm2[1,2,3] | |
vmovupd %ymm1, 1760(%rsp) | |
vpermpd $144, %ymm0, %ymm2 # ymm2 = ymm0[0,0,1,2] | |
vmovapd %ymm0, %ymm6 | |
vblendpd $1, %ymm10, %ymm2, %ymm0 # ymm0 = ymm10[0],ymm2[1,2,3] | |
vmovupd %ymm0, 416(%rsp) | |
vsubpd %ymm1, %ymm8, %ymm2 | |
vsubpd %ymm0, %ymm2, %ymm2 | |
vpermpd $144, %ymm4, %ymm3 # ymm3 = ymm4[0,0,1,2] | |
vblendpd $1, %ymm12, %ymm3, %ymm3 # ymm3 = ymm12[0],ymm3[1,2,3] | |
vsubpd %ymm3, %ymm2, %ymm1 | |
vperm2f128 $33, %ymm15, %ymm14, %ymm2 # ymm2 = ymm14[2,3],ymm15[0,1] | |
vshufpd $5, %ymm15, %ymm2, %ymm2 # ymm2 = ymm2[1],ymm15[0],ymm2[3],ymm15[2] | |
vxorpd %ymm7, %ymm2, %ymm3 | |
vperm2f128 $33, %ymm9, %ymm5, %ymm2 # ymm2 = ymm5[2,3],ymm9[0,1] | |
vmovapd %ymm5, %ymm12 | |
vshufpd $5, %ymm9, %ymm2, %ymm14 # ymm14 = ymm2[1],ymm9[0],ymm2[3],ymm9[2] | |
vmovupd %ymm14, 1696(%rsp) | |
vmovapd %ymm9, %ymm10 | |
vperm2f128 $33, %ymm11, %ymm6, %ymm2 # ymm2 = ymm6[2,3],ymm11[0,1] | |
vshufpd $5, %ymm11, %ymm2, %ymm6 # ymm6 = ymm2[1],ymm11[0],ymm2[3],ymm11[2] | |
vmovupd %ymm6, 1824(%rsp) | |
vmovapd %ymm11, %ymm7 | |
vsubpd %ymm14, %ymm3, %ymm2 | |
vsubpd %ymm6, %ymm2, %ymm2 | |
vmovupd 736(%rsp), %ymm0 | |
vperm2f128 $33, %ymm0, %ymm4, %ymm14 # ymm14 = ymm4[2,3],ymm0[0,1] | |
vshufpd $5, %ymm0, %ymm14, %ymm14 # ymm14 = ymm14[1],ymm0[0],ymm14[3],ymm0[2] | |
vmovapd %ymm0, %ymm4 | |
vsubpd %ymm14, %ymm2, %ymm0 | |
vextractf128 $1, %ymm15, %xmm2 | |
vpermilpd $1, %xmm2, %xmm2 # xmm2 = xmm2[1,0] | |
vxorpd -112(%rsp), %xmm2, %xmm11 | |
vextractf128 $1, %ymm9, %xmm6 | |
vpermilpd $1, %xmm6, %xmm2 # xmm2 = xmm6[1,0] | |
vmovapd %xmm2, 800(%rsp) | |
vextractf128 $1, %ymm7, %xmm6 | |
vpermilpd $1, %xmm6, %xmm5 # xmm5 = xmm6[1,0] | |
vmovapd %xmm5, 816(%rsp) | |
vsubsd %xmm2, %xmm11, %xmm6 | |
vsubsd %xmm5, %xmm6, %xmm6 | |
vextractf128 $1, %ymm4, %xmm15 | |
vpermilpd $1, %xmm15, %xmm5 # xmm5 = xmm15[1,0] | |
vsubsd %xmm5, %xmm6, %xmm5 | |
vmovupd 160(%rsp), %ymm4 | |
vaddpd %ymm1, %ymm4, %ymm1 | |
vaddpd 352(%rsp), %ymm1, %ymm1 | |
vmovupd %ymm1, 72(%rcx) | |
vmovupd 192(%rsp), %ymm6 | |
vaddpd %ymm0, %ymm6, %ymm0 | |
vaddpd 1280(%rsp), %ymm0, %ymm0 | |
vmovupd %ymm0, 104(%rcx) | |
vmovsd -40(%rsp), %xmm0 # xmm0 = mem[0],zero | |
vmulsd (%r13), %xmm0, %xmm1 | |
vmovapd %xmm1, 608(%rsp) | |
vmovapd -80(%rsp), %xmm2 | |
vaddsd %xmm5, %xmm2, %xmm0 | |
vaddsd %xmm1, %xmm0, %xmm0 | |
vmovsd %xmm0, 136(%rcx) | |
vmovupd 224(%rsp), %ymm5 | |
vpermpd $144, %ymm5, %ymm0 # ymm0 = ymm5[0,0,1,2] | |
vblendpd $1, 1600(%rsp), %ymm0, %ymm1 # ymm1 = mem[0],ymm0[1,2,3] | |
vmovupd %ymm1, 576(%rsp) | |
vmovupd 1632(%rsp), %ymm15 | |
vsubpd %ymm15, %ymm4, %ymm0 | |
vmovupd 448(%rsp), %ymm7 | |
vaddpd %ymm7, %ymm0, %ymm0 | |
vaddpd 1344(%rsp), %ymm0, %ymm0 | |
vaddpd %ymm1, %ymm0, %ymm0 | |
vmovupd %ymm0, 144(%rcx) | |
vmovupd 1664(%rsp), %ymm14 | |
vsubpd %ymm14, %ymm6, %ymm0 | |
vmovupd 480(%rsp), %ymm9 | |
vaddpd %ymm0, %ymm9, %ymm0 | |
vaddpd 1312(%rsp), %ymm0, %ymm0 | |
vmovupd 256(%rsp), %ymm4 | |
vperm2f128 $33, %ymm4, %ymm5, %ymm1 # ymm1 = ymm5[2,3],ymm4[0,1] | |
vshufpd $5, %ymm4, %ymm1, %ymm1 # ymm1 = ymm1[1],ymm4[0],ymm1[3],ymm4[2] | |
vmovapd %ymm4, %ymm6 | |
vmovupd %ymm1, 224(%rsp) | |
vaddpd %ymm1, %ymm0, %ymm0 | |
vmovupd %ymm0, 176(%rcx) | |
vmovsd -32(%rsp), %xmm0 # xmm0 = mem[0],zero | |
vmulsd (%rax), %xmm0, %xmm0 | |
vsubsd %xmm0, %xmm2, %xmm1 | |
vmovsd -24(%rsp), %xmm2 # xmm2 = mem[0],zero | |
vmulsd (%r15), %xmm2, %xmm5 | |
vaddsd %xmm5, %xmm1, %xmm1 | |
vmovsd -96(%rsp), %xmm4 # xmm4 = mem[0],zero | |
vmulsd (%r12), %xmm4, %xmm4 | |
vmovsd %xmm4, -80(%rsp) | |
vaddsd %xmm4, %xmm1, %xmm1 | |
vextractf128 $1, %ymm6, %xmm6 | |
vpermilpd $1, %xmm6, %xmm4 # xmm4 = xmm6[1,0] | |
vmovapd %xmm4, 192(%rsp) | |
vaddsd %xmm4, %xmm1, %xmm1 | |
vmovsd %xmm1, 208(%rcx) | |
vsubpd 1376(%rsp), %ymm8, %ymm1 | |
vsubpd %ymm7, %ymm1, %ymm1 | |
vsubpd 1408(%rsp), %ymm3, %ymm3 | |
vsubpd %ymm9, %ymm3, %ymm3 | |
vmulsd (%r14), %xmm2, %xmm4 | |
vmovsd %xmm4, 480(%rsp) | |
vsubsd %xmm4, %xmm11, %xmm2 | |
vsubsd %xmm5, %xmm2, %xmm2 | |
vmovupd (%rsp), %ymm6 | |
vpermpd $144, %ymm6, %ymm5 # ymm5 = ymm6[0,0,1,2] | |
vblendpd $1, 1728(%rsp), %ymm5, %ymm4 # ymm4 = mem[0],ymm5[1,2,3] | |
vmovupd %ymm4, 256(%rsp) | |
vsubpd %ymm4, %ymm1, %ymm1 | |
vaddpd %ymm1, %ymm15, %ymm1 | |
vmovupd 288(%rsp), %ymm7 | |
vperm2f128 $33, %ymm7, %ymm6, %ymm5 # ymm5 = ymm6[2,3],ymm7[0,1] | |
vshufpd $5, %ymm7, %ymm5, %ymm4 # ymm4 = ymm5[1],ymm7[0],ymm5[3],ymm7[2] | |
vmovupd %ymm4, 160(%rsp) | |
vsubpd %ymm4, %ymm3, %ymm3 | |
vaddpd %ymm3, %ymm14, %ymm3 | |
vextractf128 $1, %ymm7, %xmm5 | |
vpermilpd $1, %xmm5, %xmm4 # xmm4 = xmm5[1,0] | |
vmovapd %xmm4, 288(%rsp) | |
vsubsd %xmm4, %xmm2, %xmm2 | |
vaddsd %xmm2, %xmm0, %xmm0 | |
vmovupd %ymm1, 216(%rcx) | |
vmovupd %ymm3, 248(%rcx) | |
vmovsd %xmm0, 280(%rcx) | |
vmovupd 640(%rsp), %ymm0 | |
vmulsd (%r9), %xmm0, %xmm11 | |
vmovapd -64(%rsp), %xmm0 | |
vmulsd (%r10), %xmm0, %xmm2 | |
vmovupd %ymm2, 448(%rsp) | |
vmovsd -16(%rsp), %xmm0 # xmm0 = mem[0],zero | |
vmulsd (%rsi), %xmm0, %xmm1 | |
vmovupd %ymm1, (%rsp) | |
vsubsd %xmm13, %xmm11, %xmm0 | |
vaddsd %xmm0, %xmm11, %xmm0 | |
vmovupd 1856(%rsp), %ymm3 | |
vaddsd %xmm3, %xmm0, %xmm0 | |
vaddsd %xmm2, %xmm0, %xmm0 | |
vaddsd %xmm1, %xmm0, %xmm0 | |
vmovupd 1024(%rsp), %ymm15 | |
vaddsd %xmm0, %xmm15, %xmm0 | |
vmovsd %xmm0, 288(%rcx) | |
vmovupd 384(%rsp), %ymm1 | |
vsubpd %ymm12, %ymm1, %ymm0 | |
vaddpd %ymm0, %ymm1, %ymm0 | |
vmovupd 672(%rsp), %ymm1 | |
vaddpd %ymm1, %ymm0, %ymm0 | |
vaddpd 1536(%rsp), %ymm0, %ymm0 | |
vmovupd 832(%rsp), %ymm14 | |
vaddpd %ymm0, %ymm14, %ymm0 | |
vmovupd 1056(%rsp), %ymm9 | |
vaddpd %ymm0, %ymm9, %ymm0 | |
vmovupd %ymm0, 296(%rcx) | |
vmovupd 1888(%rsp), %ymm0 | |
vaddpd 1920(%rsp), %ymm0, %ymm7 | |
vmovupd 2208(%rsp), %ymm2 | |
vsubpd %ymm10, %ymm2, %ymm0 | |
vaddpd %ymm0, %ymm2, %ymm0 | |
vmovupd 704(%rsp), %ymm5 | |
vaddpd %ymm5, %ymm0, %ymm0 | |
vaddpd 1568(%rsp), %ymm0, %ymm0 | |
vmovupd 864(%rsp), %ymm8 | |
vaddpd %ymm0, %ymm8, %ymm0 | |
vaddpd %ymm7, %ymm0, %ymm0 | |
vmovupd %ymm0, 328(%rcx) | |
vpermpd $144, %ymm1, %ymm0 # ymm0 = ymm1[0,0,1,2] | |
vmovapd %ymm1, %ymm4 | |
vblendpd $1, %ymm3, %ymm0, %ymm3 # ymm3 = ymm3[0],ymm0[1,2,3] | |
vmovupd %ymm3, 512(%rsp) | |
vmovupd 1440(%rsp), %ymm0 | |
vblendpd $1, 1472(%rsp), %ymm0, %ymm1 # ymm1 = mem[0],ymm0[1,2,3] | |
vmovupd %ymm1, 544(%rsp) | |
vmovupd 32(%rsp), %ymm12 | |
vxorpd %ymm3, %ymm12, %ymm0 | |
vsubpd %ymm1, %ymm0, %ymm0 | |
vmovupd 768(%rsp), %ymm3 | |
vpermpd $144, %ymm3, %ymm1 # ymm1 = ymm3[0,0,1,2] | |
vblendpd $1, 96(%rsp), %ymm1, %ymm1 # ymm1 = mem[0],ymm1[1,2,3] | |
vsubpd %ymm1, %ymm0, %ymm0 | |
vperm2f128 $33, %ymm5, %ymm4, %ymm1 # ymm1 = ymm4[2,3],ymm5[0,1] | |
vshufpd $5, %ymm5, %ymm1, %ymm13 # ymm13 = ymm1[1],ymm5[0],ymm1[3],ymm5[2] | |
vmovapd %ymm5, %ymm6 | |
vxorpd %ymm12, %ymm13, %ymm1 | |
vsubpd 1504(%rsp), %ymm1, %ymm1 | |
vmovupd 64(%rsp), %ymm4 | |
vperm2f128 $33, %ymm4, %ymm3, %ymm5 # ymm5 = ymm3[2,3],ymm4[0,1] | |
vshufpd $5, %ymm4, %ymm5, %ymm5 # ymm5 = ymm5[1],ymm4[0],ymm5[3],ymm4[2] | |
vsubpd %ymm5, %ymm1, %ymm5 | |
vextractf128 $1, %ymm6, %xmm1 | |
vpermilpd $1, %xmm1, %xmm10 # xmm10 = xmm1[1,0] | |
vxorpd -112(%rsp), %xmm10, %xmm3 | |
vsubsd 144(%rsp), %xmm3, %xmm3 | |
vextractf128 $1, %ymm4, %xmm6 | |
vpermilpd $1, %xmm6, %xmm6 # xmm6 = xmm6[1,0] | |
vsubsd %xmm6, %xmm3, %xmm6 | |
vpermpd $144, %ymm9, %ymm3 # ymm3 = ymm9[0,0,1,2] | |
vblendpd $1, %ymm15, %ymm3, %ymm3 # ymm3 = ymm15[0],ymm3[1,2,3] | |
vmovupd %ymm3, 704(%rsp) | |
vsubpd %ymm3, %ymm0, %ymm0 | |
vaddpd 1760(%rsp), %ymm0, %ymm0 | |
vmovupd %ymm7, 640(%rsp) | |
vperm2f128 $33, %ymm7, %ymm9, %ymm3 # ymm3 = ymm9[2,3],ymm7[0,1] | |
vshufpd $5, %ymm7, %ymm3, %ymm1 # ymm1 = ymm3[1],ymm7[0],ymm3[3],ymm7[2] | |
vmovupd %ymm1, 672(%rsp) | |
vsubpd %ymm1, %ymm5, %ymm5 | |
vaddpd 1696(%rsp), %ymm5, %ymm5 | |
vextractf128 $1, %ymm7, %xmm3 | |
vpermilpd $1, %xmm3, %xmm1 # xmm1 = xmm3[1,0] | |
vmovapd %xmm1, -64(%rsp) | |
vsubsd %xmm1, %xmm6, %xmm3 | |
vaddsd 800(%rsp), %xmm3, %xmm3 | |
vmovupd 1152(%rsp), %ymm1 | |
vaddpd %ymm0, %ymm1, %ymm0 | |
vaddpd %ymm0, %ymm1, %ymm0 | |
vmovupd %ymm0, 360(%rcx) | |
vmovupd 1184(%rsp), %ymm1 | |
vaddpd %ymm5, %ymm1, %ymm0 | |
vaddpd %ymm0, %ymm1, %ymm0 | |
vmovupd %ymm0, 392(%rcx) | |
vmovsd -96(%rsp), %xmm0 # xmm0 = mem[0],zero | |
vmulsd (%r11), %xmm0, %xmm1 | |
vmovapd %xmm1, -96(%rsp) | |
vaddsd %xmm3, %xmm1, %xmm0 | |
vaddsd %xmm0, %xmm1, %xmm0 | |
vmovsd %xmm0, 424(%rcx) | |
vmovupd 384(%rsp), %ymm5 | |
vpermpd $144, %ymm5, %ymm0 # ymm0 = ymm5[0,0,1,2] | |
vblendpd $1, %ymm11, %ymm0, %ymm4 # ymm4 = ymm11[0],ymm0[1,2,3] | |
vxorpd %ymm4, %ymm12, %ymm0 | |
vmovupd 2240(%rsp), %ymm1 | |
vsubpd %ymm1, %ymm0, %ymm0 | |
vmovupd 512(%rsp), %ymm9 | |
vsubpd %ymm9, %ymm0, %ymm0 | |
vpermpd $144, %ymm14, %ymm6 # ymm6 = ymm14[0,0,1,2] | |
vblendpd $1, (%rsp), %ymm6, %ymm6 # ymm6 = mem[0],ymm6[1,2,3] | |
vaddpd %ymm6, %ymm0, %ymm3 | |
vperm2f128 $33, %ymm2, %ymm5, %ymm6 # ymm6 = ymm5[2,3],ymm2[0,1] | |
vshufpd $5, %ymm2, %ymm6, %ymm6 # ymm6 = ymm6[1],ymm2[0],ymm6[3],ymm2[2] | |
vxorpd %ymm6, %ymm12, %ymm11 | |
vmovupd 2272(%rsp), %ymm0 | |
vsubpd %ymm0, %ymm11, %ymm11 | |
vsubpd %ymm13, %ymm11, %ymm11 | |
vperm2f128 $33, %ymm8, %ymm14, %ymm14 # ymm14 = ymm14[2,3],ymm8[0,1] | |
vshufpd $5, %ymm8, %ymm14, %ymm14 # ymm14 = ymm14[1],ymm8[0],ymm14[3],ymm8[2] | |
vmovapd %ymm8, %ymm7 | |
vaddpd %ymm14, %ymm11, %ymm11 | |
vmovsd -8(%rsp), %xmm5 # xmm5 = mem[0],zero | |
vmulsd (%r8), %xmm5, %xmm14 | |
vextractf128 $1, %ymm2, %xmm8 | |
vpermilpd $1, %xmm8, %xmm8 # xmm8 = xmm8[1,0] | |
vmovapd -112(%rsp), %xmm12 | |
vxorpd %xmm12, %xmm8, %xmm15 | |
vsubsd %xmm14, %xmm15, %xmm5 | |
vsubsd %xmm10, %xmm5, %xmm5 | |
vextractf128 $1, %ymm7, %xmm2 | |
vpermilpd $1, %xmm2, %xmm2 # xmm2 = xmm2[1,0] | |
vaddsd %xmm2, %xmm5, %xmm2 | |
movq (%rdi), %rax | |
vmovupd %ymm3, 432(%rax) | |
vmovupd %ymm11, 464(%rax) | |
vmovsd %xmm2, 496(%rax) | |
vmovups 992(%rsp), %ymm2 | |
vblendps $3, 1248(%rsp), %ymm2, %ymm2 # ymm2 = mem[0,1],ymm2[2,3,4,5,6,7] | |
vmovups %ymm2, 384(%rsp) | |
vaddpd %ymm1, %ymm4, %ymm2 | |
vaddpd %ymm0, %ymm6, %ymm3 | |
vaddsd %xmm14, %xmm8, %xmm5 | |
vaddpd %ymm2, %ymm9, %ymm2 | |
vaddpd %ymm3, %ymm13, %ymm3 | |
vaddsd %xmm5, %xmm10, %xmm1 | |
vmovupd 1536(%rsp), %ymm8 | |
vpermpd $144, %ymm8, %ymm5 # ymm5 = ymm8[0,0,1,2] | |
vmovupd 448(%rsp), %ymm0 | |
vblendpd $1, %ymm0, %ymm5, %ymm5 # ymm5 = ymm0[0],ymm5[1,2,3] | |
vaddpd %ymm5, %ymm2, %ymm2 | |
vmovupd 1568(%rsp), %ymm10 | |
vperm2f128 $33, %ymm10, %ymm8, %ymm5 # ymm5 = ymm8[2,3],ymm10[0,1] | |
vshufpd $5, %ymm10, %ymm5, %ymm6 # ymm6 = ymm5[1],ymm10[0],ymm5[3],ymm10[2] | |
vmovapd %ymm10, %ymm7 | |
vaddpd %ymm6, %ymm3, %ymm3 | |
vmovupd %ymm2, 504(%rax) | |
vmovupd %ymm3, 536(%rax) | |
vpermilpd $1, %xmm8, %xmm2 # xmm2 = xmm8[1,0] | |
vxorpd %xmm2, %xmm12, %xmm2 | |
vxorpd %xmm12, %xmm8, %xmm3 | |
vmovapd %ymm8, %ymm11 | |
vunpcklpd %xmm2, %xmm3, %xmm2 # xmm2 = xmm3[0],xmm2[0] | |
vxorpd %xmm0, %xmm12, %xmm3 | |
vmovapd %ymm0, %ymm9 | |
vmovddup %xmm3, %xmm3 # xmm3 = xmm3[0,0] | |
vinsertf128 $1, %xmm2, %ymm3, %ymm2 | |
vextractf128 $1, %ymm10, %xmm3 | |
vpermilpd $1, %xmm3, %xmm6 # xmm6 = xmm3[1,0] | |
vaddpd %xmm6, %xmm1, %xmm1 | |
vmovupd 1440(%rsp), %ymm0 | |
vunpcklpd 1472(%rsp), %ymm0, %ymm6 # ymm6 = ymm0[0],mem[0],ymm0[2],mem[2] | |
vinsertf128 $1, %xmm0, %ymm0, %ymm8 | |
vmovapd %ymm0, %ymm4 | |
vshufpd $6, %ymm6, %ymm8, %ymm6 # ymm6 = ymm8[0],ymm6[1],ymm8[3],ymm6[2] | |
vsubpd %ymm6, %ymm2, %ymm2 | |
vblendpd $1, %ymm1, %ymm2, %ymm1 # ymm1 = ymm1[0],ymm2[1,2,3] | |
vmovupd 32(%rsp), %ymm8 | |
vxorpd %ymm5, %ymm8, %ymm2 | |
vmovupd 1504(%rsp), %ymm0 | |
vperm2f128 $33, %ymm0, %ymm4, %ymm5 # ymm5 = ymm4[2,3],ymm0[0,1] | |
vshufpd $5, %ymm0, %ymm5, %ymm5 # ymm5 = ymm5[1],ymm0[0],ymm5[3],ymm0[2] | |
vsubpd %ymm5, %ymm2, %ymm2 | |
vxorpd %xmm3, %xmm12, %xmm3 | |
vextractf128 $1, %ymm0, %xmm5 | |
vmovapd 144(%rsp), %xmm4 | |
vshufpd $1, %xmm4, %xmm5, %xmm5 # xmm5 = xmm5[1],xmm4[0] | |
vsubpd %xmm5, %xmm3, %xmm3 | |
vmovupd %ymm1, 568(%rax) | |
vmovupd %ymm2, 600(%rax) | |
vmovupd %xmm3, 632(%rax) | |
vmovupd 928(%rsp), %ymm15 | |
vsubsd %xmm15, %xmm9, %xmm1 | |
vmovupd 960(%rsp), %ymm10 | |
vaddsd %xmm1, %xmm10, %xmm1 | |
vmovsd %xmm1, 648(%rax) | |
vmovupd 896(%rsp), %ymm14 | |
vsubpd %ymm14, %ymm11, %ymm1 | |
vmovupd 1088(%rsp), %ymm11 | |
vaddpd %ymm1, %ymm11, %ymm1 | |
vmovupd %ymm1, 656(%rax) | |
vmovupd 736(%rsp), %ymm13 | |
vsubpd %ymm13, %ymm7, %ymm1 | |
vmovupd 1120(%rsp), %ymm9 | |
vaddpd %ymm1, %ymm9, %ymm1 | |
vmovupd %ymm1, 688(%rax) | |
vxorpd 416(%rsp), %ymm8, %ymm1 | |
vmovupd 384(%rsp), %ymm6 | |
vsubpd %ymm6, %ymm1, %ymm1 | |
vaddpd 544(%rsp), %ymm1, %ymm1 | |
vxorpd 1824(%rsp), %ymm8, %ymm2 | |
vmovupd 2048(%rsp), %ymm7 | |
vsubpd %ymm7, %ymm2, %ymm2 | |
vaddpd %ymm2, %ymm0, %ymm2 | |
vxorpd 816(%rsp), %xmm12, %xmm3 | |
vmovapd 128(%rsp), %xmm8 | |
vsubsd %xmm8, %xmm3, %xmm3 | |
vaddsd %xmm3, %xmm4, %xmm3 | |
vmovupd 1952(%rsp), %ymm4 | |
vpermpd $144, %ymm4, %ymm5 # ymm5 = ymm4[0,0,1,2] | |
vblendpd $1, 2016(%rsp), %ymm5, %ymm5 # ymm5 = mem[0],ymm5[1,2,3] | |
vaddpd %ymm5, %ymm1, %ymm1 | |
vmovupd %ymm1, 720(%rax) | |
vmovupd 1984(%rsp), %ymm0 | |
vperm2f128 $33, %ymm0, %ymm4, %ymm1 # ymm1 = ymm4[2,3],ymm0[0,1] | |
vshufpd $5, %ymm0, %ymm1, %ymm1 # ymm1 = ymm1[1],ymm0[0],ymm1[3],ymm0[2] | |
vaddpd %ymm1, %ymm2, %ymm2 | |
vmovupd %ymm2, 752(%rax) | |
vextractf128 $1, %ymm0, %xmm2 | |
vpermilpd $1, %xmm2, %xmm2 # xmm2 = xmm2[1,0] | |
vaddsd %xmm2, %xmm3, %xmm3 | |
vmovsd %xmm3, 784(%rax) | |
vmovsd %xmm10, 792(%rax) | |
vmovupd %ymm11, 800(%rax) | |
vmovupd %ymm9, 832(%rax) | |
vsubpd %ymm5, %ymm6, %ymm0 | |
vsubpd %ymm1, %ymm7, %ymm1 | |
movq (%rdi), %rax | |
vmovupd %ymm0, 864(%rax) | |
vmovupd %ymm1, 896(%rax) | |
vsubsd %xmm2, %xmm8, %xmm0 | |
vmovsd %xmm0, 928(%rax) | |
vsubsd (%rsp), %xmm15, %xmm0 | |
vsubpd 832(%rsp), %ymm14, %ymm1 | |
vsubpd 864(%rsp), %ymm13, %ymm2 | |
vmovsd %xmm0, 936(%rax) | |
vmovupd %ymm1, 944(%rax) | |
vmovupd %ymm2, 976(%rax) | |
vmovups 96(%rsp), %ymm0 | |
vmovsd %xmm0, 1008(%rax) | |
vmovups 768(%rsp), %ymm0 | |
vmovups %ymm0, 1016(%rax) | |
vmovups 64(%rsp), %ymm0 | |
vmovups %ymm0, 1048(%rax) | |
vmovupd 32(%rsp), %ymm3 | |
vxorpd 1152(%rsp), %ymm3, %ymm0 | |
vsubpd 1344(%rsp), %ymm0, %ymm0 | |
vxorpd 1184(%rsp), %ymm3, %ymm1 | |
vsubpd 1312(%rsp), %ymm1, %ymm1 | |
vxorpd -96(%rsp), %xmm12, %xmm2 | |
vsubsd -80(%rsp), %xmm2, %xmm2 | |
vaddpd 1376(%rsp), %ymm0, %ymm0 | |
vaddpd 1408(%rsp), %ymm1, %ymm1 | |
vmovupd %ymm0, 1080(%rax) | |
vmovupd %ymm1, 1112(%rax) | |
vaddsd 480(%rsp), %xmm2, %xmm0 | |
vmovsd %xmm0, 1144(%rax) | |
vxorpd 704(%rsp), %ymm3, %ymm0 | |
vmovupd %ymm0, 1152(%rax) | |
vxorpd 672(%rsp), %ymm3, %ymm0 | |
vmovupd %ymm0, 1184(%rax) | |
vxorpd -64(%rsp), %xmm12, %xmm0 | |
vmovlpd %xmm0, 1216(%rax) | |
vmovups 1024(%rsp), %ymm0 | |
vmovsd %xmm0, 1224(%rax) | |
vmovups 1056(%rsp), %ymm0 | |
vmovups %ymm0, 1232(%rax) | |
vmovups 640(%rsp), %ymm0 | |
vmovups %ymm0, 1264(%rax) | |
vxorpd 352(%rsp), %ymm3, %ymm0 | |
vxorpd 1280(%rsp), %ymm3, %ymm1 | |
vxorpd 608(%rsp), %xmm12, %xmm2 | |
vsubpd 576(%rsp), %ymm0, %ymm0 | |
vsubpd 224(%rsp), %ymm1, %ymm1 | |
vsubsd 192(%rsp), %xmm2, %xmm2 | |
vmovupd 320(%rsp), %ymm4 | |
vpermpd $144, %ymm4, %ymm3 # ymm3 = ymm4[0,0,1,2] | |
vmovupd 2176(%rsp), %ymm5 | |
vblendpd $1, %ymm5, %ymm3, %ymm3 # ymm3 = ymm5[0],ymm3[1,2,3] | |
vsubpd %ymm3, %ymm0, %ymm0 | |
vmovupd 1216(%rsp), %ymm6 | |
vperm2f128 $33, %ymm6, %ymm4, %ymm3 # ymm3 = ymm4[2,3],ymm6[0,1] | |
vshufpd $5, %ymm6, %ymm3, %ymm3 # ymm3 = ymm3[1],ymm6[0],ymm3[3],ymm6[2] | |
vsubpd %ymm3, %ymm1, %ymm1 | |
vextractf128 $1, %ymm6, %xmm3 | |
vpermilpd $1, %xmm3, %xmm3 # xmm3 = xmm3[1,0] | |
vsubsd %xmm3, %xmm2, %xmm2 | |
vaddpd 256(%rsp), %ymm0, %ymm0 | |
vaddpd 160(%rsp), %ymm1, %ymm1 | |
vaddsd 288(%rsp), %xmm2, %xmm2 | |
vmovupd 2112(%rsp), %ymm9 | |
vpermpd $144, %ymm9, %ymm3 # ymm3 = ymm9[0,0,1,2] | |
vmovupd 2144(%rsp), %ymm8 | |
vblendpd $1, %ymm8, %ymm3, %ymm3 # ymm3 = ymm8[0],ymm3[1,2,3] | |
vaddpd %ymm3, %ymm0, %ymm0 | |
vmovupd 2080(%rsp), %ymm7 | |
vperm2f128 $33, %ymm7, %ymm9, %ymm3 # ymm3 = ymm9[2,3],ymm7[0,1] | |
vshufpd $5, %ymm7, %ymm3, %ymm3 # ymm3 = ymm3[1],ymm7[0],ymm3[3],ymm7[2] | |
vaddpd %ymm3, %ymm1, %ymm1 | |
vmovupd %ymm0, 1296(%rax) | |
vmovupd %ymm1, 1328(%rax) | |
vextractf128 $1, %ymm7, %xmm0 | |
vpermilpd $1, %xmm0, %xmm0 # xmm0 = xmm0[1,0] | |
vaddsd %xmm0, %xmm2, %xmm0 | |
vmovsd %xmm0, 1360(%rax) | |
vsubsd %xmm8, %xmm5, %xmm0 | |
vsubpd %ymm9, %ymm4, %ymm1 | |
vsubpd %ymm7, %ymm6, %ymm2 | |
vmovsd %xmm0, 1368(%rax) | |
vmovupd %ymm1, 1376(%rax) | |
vmovupd %ymm2, 1408(%rax) | |
addq $2320, %rsp # imm = 0x910 | |
popq %rbx | |
popq %r12 | |
popq %r13 | |
popq %r14 | |
popq %r15 | |
vzeroupper | |
retq | |
nopw %cs:(%rax,%rax) |
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
pushq %r15 | |
pushq %r14 | |
pushq %rbx | |
subq $1728, %rsp # imm = 0x6C0 | |
movq (%rsi), %rdx | |
vmovupd 80(%rdx), %ymm12 | |
vmovupd 112(%rdx), %ymm7 | |
vmovupd 256(%rdx), %ymm5 | |
vmovupd %ymm5, 160(%rsp) | |
vmovupd 224(%rdx), %ymm15 | |
vbroadcastsd 72(%rdx), %ymm4 | |
movabsq $140283456689248, %rax # imm = 0x7F96499A9460 | |
vmulsd (%rax), %xmm4, %xmm2 | |
vmovapd %xmm2, 256(%rsp) | |
vbroadcastsd (%rax), %ymm0 | |
vmulpd %ymm0, %ymm12, %ymm1 | |
vmulpd %ymm0, %ymm7, %ymm0 | |
vbroadcastsd 216(%rdx), %ymm6 | |
vmovupd %ymm6, 128(%rsp) | |
vbroadcastsd %xmm2, %ymm2 | |
vmulpd %ymm2, %ymm15, %ymm3 | |
vmulpd %ymm5, %ymm2, %ymm2 | |
vfmadd231pd %ymm0, %ymm6, %ymm2 # ymm2 = (ymm6 * ymm0) + ymm2 | |
vmovupd %ymm2, 288(%rsp) | |
vmovsd 288(%rdx), %xmm0 # xmm0 = mem[0],zero | |
movabsq $140283456689256, %rax # imm = 0x7F96499A9468 | |
vmulsd (%rax), %xmm0, %xmm5 | |
vfmadd231pd %ymm1, %ymm6, %ymm3 # ymm3 = (ymm6 * ymm1) + ymm3 | |
vmovupd %ymm3, 320(%rsp) | |
vbroadcastsd (%rax), %ymm0 | |
vmulpd 328(%rdx), %ymm0, %ymm1 | |
vmulpd 296(%rdx), %ymm0, %ymm0 | |
vbroadcastsd %xmm5, %ymm2 | |
vmulpd %ymm7, %ymm2, %ymm3 | |
vmulpd %ymm2, %ymm12, %ymm2 | |
vfmadd231pd %ymm0, %ymm4, %ymm2 # ymm2 = (ymm4 * ymm0) + ymm2 | |
vmovupd %ymm2, 960(%rsp) | |
vfmadd231pd %ymm1, %ymm4, %ymm3 # ymm3 = (ymm4 * ymm1) + ymm3 | |
vmovupd %ymm3, 864(%rsp) | |
vmovupd 472(%rdx), %ymm0 | |
vmovupd 440(%rdx), %ymm1 | |
movabsq $140283456689264, %r9 # imm = 0x7F96499A9470 | |
vbroadcastsd (%r9), %ymm2 | |
vmulpd %ymm2, %ymm1, %ymm3 | |
vmovupd %ymm3, 1152(%rsp) | |
vmulpd %ymm2, %ymm0, %ymm2 | |
vmovupd %ymm2, 1120(%rsp) | |
movabsq $140283456689272, %r8 # imm = 0x7F96499A9478 | |
vbroadcastsd (%r8), %ymm2 | |
vmulpd %ymm2, %ymm0, %ymm3 | |
vmovupd %ymm3, 1664(%rsp) | |
vmulpd %ymm2, %ymm1, %ymm2 | |
vmovupd %ymm2, 1696(%rsp) | |
movabsq $140283456689280, %rax # imm = 0x7F96499A9480 | |
vbroadcastsd (%rax), %ymm2 | |
vmulpd %ymm2, %ymm0, %ymm0 | |
vmulpd %ymm2, %ymm1, %ymm1 | |
vmovsd 432(%rdx), %xmm2 # xmm2 = mem[0],zero | |
vmovsd %xmm2, -88(%rsp) | |
vmovupd 368(%rdx), %ymm3 | |
vmulsd (%rax), %xmm2, %xmm2 | |
vmovapd %xmm2, (%rsp) | |
vbroadcastsd 360(%rdx), %ymm8 | |
vbroadcastsd %xmm2, %ymm6 | |
vmulpd %ymm3, %ymm6, %ymm2 | |
vfmadd231pd %ymm1, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm1) + ymm2 | |
vmovupd %ymm2, 1632(%rsp) | |
vmovupd 400(%rdx), %ymm13 | |
vmulpd %ymm6, %ymm13, %ymm1 | |
vfmadd231pd %ymm0, %ymm8, %ymm1 # ymm1 = (ymm8 * ymm0) + ymm1 | |
vmovupd %ymm1, 1600(%rsp) | |
movabsq $140283456689288, %r10 # imm = 0x7F96499A9488 | |
vmovupd 584(%rdx), %ymm0 | |
vmovupd 616(%rdx), %ymm1 | |
vbroadcastsd (%r10), %ymm6 | |
vmulpd %ymm6, %ymm1, %ymm2 | |
vmovupd %ymm2, 1280(%rsp) | |
vmulpd %ymm6, %ymm0, %ymm2 | |
vmovupd %ymm2, 1088(%rsp) | |
movabsq $140283456689296, %rax # imm = 0x7F96499A9490 | |
vbroadcastsd (%rax), %ymm6 | |
vmulpd %ymm6, %ymm1, %ymm9 | |
vmovsd 576(%rdx), %xmm1 # xmm1 = mem[0],zero | |
vmovsd %xmm1, -32(%rsp) | |
vmulsd (%rax), %xmm1, %xmm2 | |
vmovapd %xmm2, -16(%rsp) | |
vmulpd %ymm6, %ymm0, %ymm0 | |
vbroadcastsd %xmm2, %ymm6 | |
vmulpd %ymm3, %ymm6, %ymm2 | |
vfmadd231pd %ymm0, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm0) + ymm2 | |
vmovupd %ymm2, 1248(%rsp) | |
vmulpd %ymm6, %ymm13, %ymm0 | |
vfmadd231pd %ymm9, %ymm8, %ymm0 # ymm0 = (ymm8 * ymm9) + ymm0 | |
vmovupd %ymm0, 1056(%rsp) | |
movabsq $140283456689304, %rax # imm = 0x7F96499A9498 | |
vmovsd 720(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmovupd 760(%rdx), %ymm6 | |
vmulsd (%rax), %xmm0, %xmm1 | |
vbroadcastsd (%rax), %ymm9 | |
vmulpd %ymm6, %ymm9, %ymm10 | |
vbroadcastsd %xmm1, %ymm11 | |
vmulpd %ymm7, %ymm11, %ymm2 | |
vfmadd231pd %ymm10, %ymm4, %ymm2 # ymm2 = (ymm4 * ymm10) + ymm2 | |
vmovupd %ymm2, 800(%rsp) | |
vmovupd 728(%rdx), %ymm10 | |
vmulpd %ymm9, %ymm10, %ymm9 | |
vmulpd %ymm12, %ymm11, %ymm2 | |
vfmadd231pd %ymm9, %ymm4, %ymm2 # ymm2 = (ymm4 * ymm9) + ymm2 | |
vmovupd %ymm2, 832(%rsp) | |
movabsq $140283456689312, %rax # imm = 0x7F96499A94A0 | |
vbroadcastsd (%rax), %ymm9 | |
vmulpd %ymm9, %ymm10, %ymm10 | |
vmulpd %ymm6, %ymm9, %ymm6 | |
vmulsd (%rax), %xmm0, %xmm2 | |
vmovapd %xmm2, -80(%rsp) | |
vbroadcastsd (%rdx), %ymm0 | |
vmovupd 40(%rdx), %ymm9 | |
vbroadcastsd %xmm2, %ymm14 | |
vmulpd %ymm9, %ymm14, %ymm2 | |
vfmadd231pd %ymm6, %ymm0, %ymm2 # ymm2 = (ymm0 * ymm6) + ymm2 | |
vmovupd %ymm2, 1184(%rsp) | |
vmovupd 8(%rdx), %ymm11 | |
vmulpd %ymm11, %ymm14, %ymm2 | |
vfmadd231pd %ymm10, %ymm0, %ymm2 # ymm2 = (ymm0 * ymm10) + ymm2 | |
vmovupd %ymm2, 1216(%rsp) | |
movabsq $140283456689328, %rax # imm = 0x7F96499A94B0 | |
vmovsd 648(%rdx), %xmm6 # xmm6 = mem[0],zero | |
vmulsd (%rax), %xmm6, %xmm6 | |
vbroadcastsd %xmm6, %ymm10 | |
vmulpd %ymm12, %ymm10, %ymm12 | |
vmulpd %ymm7, %ymm10, %ymm2 | |
vbroadcastsd (%rax), %ymm7 | |
vmulpd 688(%rdx), %ymm7, %ymm10 | |
vfmadd231pd %ymm10, %ymm4, %ymm2 # ymm2 = (ymm4 * ymm10) + ymm2 | |
vmovupd %ymm2, 640(%rsp) | |
vmulpd 656(%rdx), %ymm7, %ymm7 | |
vfmadd231pd %ymm7, %ymm4, %ymm12 # ymm12 = (ymm4 * ymm7) + ymm12 | |
vmovupd %ymm12, 704(%rsp) | |
vmulsd %xmm4, %xmm5, %xmm2 | |
vmovsd %xmm2, -120(%rsp) | |
vmulsd %xmm4, %xmm1, %xmm1 | |
vmovapd %xmm1, 208(%rsp) | |
vmulsd %xmm4, %xmm6, %xmm1 | |
vmovsd %xmm1, -112(%rsp) | |
movabsq $140283456689344, %rax # imm = 0x7F96499A94C0 | |
vmulsd (%rax), %xmm0, %xmm7 | |
vbroadcastsd (%rax), %ymm1 | |
vmulpd %ymm1, %ymm11, %ymm4 | |
vbroadcastsd %xmm7, %ymm5 | |
vmulpd %ymm3, %ymm5, %ymm2 | |
vfmadd231pd %ymm4, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm4) + ymm2 | |
vmovupd %ymm2, 352(%rsp) | |
vmulpd %ymm1, %ymm9, %ymm1 | |
vmulpd %ymm5, %ymm13, %ymm2 | |
vfmadd231pd %ymm1, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm1) + ymm2 | |
vmovupd %ymm2, 416(%rsp) | |
movabsq $140283456689392, %rax # imm = 0x7F96499A94F0 | |
vmovsd 1152(%rdx), %xmm1 # xmm1 = mem[0],zero | |
vmulsd (%rax), %xmm1, %xmm1 | |
vmovapd %xmm1, 480(%rsp) | |
vbroadcastsd %xmm1, %ymm1 | |
vmulpd %ymm3, %ymm1, %ymm4 | |
vmulpd %ymm1, %ymm13, %ymm2 | |
vbroadcastsd (%rax), %ymm1 | |
vmulpd 1192(%rdx), %ymm1, %ymm3 | |
vfmadd231pd %ymm3, %ymm8, %ymm2 # ymm2 = (ymm8 * ymm3) + ymm2 | |
vmovupd %ymm2, 736(%rsp) | |
vmulpd 1160(%rdx), %ymm1, %ymm1 | |
vfmadd231pd %ymm1, %ymm8, %ymm4 # ymm4 = (ymm8 * ymm1) + ymm4 | |
vmovupd %ymm4, 768(%rsp) | |
vmovupd %ymm8, 1376(%rsp) | |
movabsq $140283456689360, %r11 # imm = 0x7F96499A94D0 | |
vbroadcastsd (%r11), %ymm1 | |
vmulpd %ymm1, %ymm15, %ymm2 | |
vmovupd %ymm2, 992(%rsp) | |
vmovupd 160(%rsp), %ymm2 | |
vmulpd %ymm1, %ymm2, %ymm1 | |
vmovupd %ymm1, 1024(%rsp) | |
movabsq $140283456689368, %r14 # imm = 0x7F96499A94D8 | |
vbroadcastsd (%r14), %ymm1 | |
vmulpd %ymm1, %ymm2, %ymm3 | |
vmovupd %ymm3, 1408(%rsp) | |
vmovapd %ymm2, %ymm3 | |
vmulpd %ymm1, %ymm15, %ymm1 | |
vmovupd %ymm1, 1440(%rsp) | |
movabsq $140283456689416, %rax # imm = 0x7F96499A9508 | |
vmulsd (%rax), %xmm0, %xmm12 | |
vbroadcastsd %xmm12, %ymm1 | |
vmulpd %ymm1, %ymm15, %ymm2 | |
vmulpd %ymm3, %ymm1, %ymm4 | |
vbroadcastsd (%rax), %ymm1 | |
vmulpd %ymm1, %ymm9, %ymm3 | |
vmovupd 128(%rsp), %ymm10 | |
vfmadd231pd %ymm3, %ymm10, %ymm4 # ymm4 = (ymm10 * ymm3) + ymm4 | |
vmovupd %ymm4, 160(%rsp) | |
vmulpd %ymm1, %ymm11, %ymm1 | |
vfmadd231pd %ymm1, %ymm10, %ymm2 # ymm2 = (ymm10 * ymm1) + ymm2 | |
vmovupd %ymm2, 384(%rsp) | |
movabsq $140283456689400, %rbx # imm = 0x7F96499A94F8 | |
vmovupd 1304(%rdx), %ymm1 | |
vmovupd 1336(%rdx), %ymm3 | |
vbroadcastsd (%rbx), %ymm4 | |
vmulpd %ymm4, %ymm3, %ymm2 | |
vmovupd %ymm2, 928(%rsp) | |
vmulpd %ymm4, %ymm1, %ymm2 | |
vmovupd %ymm2, 896(%rsp) | |
movabsq $140283456689408, %rsi # imm = 0x7F96499A9500 | |
vbroadcastsd (%rsi), %ymm4 | |
vmulpd %ymm4, %ymm1, %ymm2 | |
vmovupd %ymm2, 672(%rsp) | |
vmulpd %ymm4, %ymm3, %ymm2 | |
vmovupd %ymm2, 448(%rsp) | |
movabsq $140283456689424, %rax # imm = 0x7F96499A9510 | |
vbroadcastsd (%rax), %ymm4 | |
vmulpd %ymm4, %ymm3, %ymm3 | |
vmulpd %ymm4, %ymm1, %ymm4 | |
movabsq $.rodata.cst8, %rcx | |
vbroadcastsd (%rcx), %ymm1 | |
vmulpd %ymm1, %ymm11, %ymm2 | |
vmovupd %ymm2, 96(%rsp) | |
vmulpd %ymm1, %ymm9, %ymm1 | |
vmovupd %ymm1, 224(%rsp) | |
vmovsd 1296(%rdx), %xmm2 # xmm2 = mem[0],zero | |
vmulsd (%rax), %xmm2, %xmm6 | |
vbroadcastsd %xmm6, %ymm15 | |
vmulpd %ymm9, %ymm15, %ymm1 | |
vmulpd %ymm11, %ymm15, %ymm9 | |
vfmadd231pd %ymm4, %ymm0, %ymm9 # ymm9 = (ymm0 * ymm4) + ymm9 | |
vmovupd %ymm9, 1504(%rsp) | |
vfmadd231pd %ymm3, %ymm0, %ymm1 # ymm1 = (ymm0 * ymm3) + ymm1 | |
vmovapd %ymm1, %ymm11 | |
vmovupd %ymm1, 1568(%rsp) | |
vmulsd -80(%rsp), %xmm0, %xmm3 | |
vmovsd %xmm3, 40(%rsp) | |
vmulsd %xmm0, %xmm6, %xmm1 | |
vmovsd %xmm1, 56(%rsp) | |
vmulsd (%rcx), %xmm0, %xmm6 | |
vmovapd %xmm6, -48(%rsp) | |
movabsq $140283456689320, %rax # imm = 0x7F96499A94A8 | |
vmovsd 864(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmulsd (%rax), %xmm0, %xmm13 | |
vmovsd %xmm13, 32(%rsp) | |
vbroadcastsd (%rax), %ymm0 | |
vmulpd 872(%rdx), %ymm0, %ymm4 | |
vmovupd %ymm4, 608(%rsp) | |
vmulpd 904(%rdx), %ymm0, %ymm5 | |
vmovupd %ymm5, 1472(%rsp) | |
movabsq $140283456689336, %r15 # imm = 0x7F96499A94B8 | |
vbroadcastsd (%r15), %ymm0 | |
vmulpd 944(%rdx), %ymm0, %ymm4 | |
vmovupd %ymm4, 576(%rsp) | |
vmulsd 256(%rsp), %xmm10, %xmm15 | |
vmovapd %xmm15, -64(%rsp) | |
vmulpd 976(%rdx), %ymm0, %ymm0 | |
vmovupd %ymm0, 544(%rsp) | |
vmulsd %xmm7, %xmm8, %xmm7 | |
vmovsd %xmm7, -104(%rsp) | |
movabsq $140283456689352, %rcx # imm = 0x7F96499A94C8 | |
vbroadcastsd (%rcx), %ymm0 | |
vmulpd 152(%rdx), %ymm0, %ymm4 | |
vmovupd %ymm4, 1312(%rsp) | |
vmulpd 184(%rdx), %ymm0, %ymm0 | |
vmovupd %ymm0, 1344(%rsp) | |
vmulsd %xmm10, %xmm12, %xmm4 | |
vmovsd %xmm4, -80(%rsp) | |
movabsq $140283456689432, %rax # imm = 0x7F96499A9518 | |
vmovsd 1368(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmulsd (%rax), %xmm0, %xmm12 | |
vmovsd %xmm12, 48(%rsp) | |
vbroadcastsd (%rax), %ymm0 | |
vmulpd 1408(%rdx), %ymm0, %ymm10 | |
vmovupd %ymm10, 1536(%rsp) | |
vmulpd 1376(%rdx), %ymm0, %ymm0 | |
vmovupd %ymm0, 256(%rsp) | |
movabsq $140283456689440, %rax # imm = 0x7F96499A9520 | |
vbroadcastsd (%rax), %ymm8 | |
vxorpd %xmm6, %xmm8, %xmm6 | |
vsubsd %xmm3, %xmm6, %xmm6 | |
vsubsd %xmm7, %xmm6, %xmm6 | |
vsubsd %xmm4, %xmm6, %xmm6 | |
vsubsd %xmm1, %xmm6, %xmm6 | |
vaddsd %xmm6, %xmm15, %xmm6 | |
vmovsd -120(%rsp), %xmm15 # xmm15 = mem[0],zero | |
vaddsd %xmm6, %xmm15, %xmm6 | |
vmovapd 208(%rsp), %xmm7 | |
vaddsd %xmm6, %xmm7, %xmm6 | |
vaddsd %xmm6, %xmm13, %xmm6 | |
vmovsd -112(%rsp), %xmm4 # xmm4 = mem[0],zero | |
vaddsd %xmm6, %xmm4, %xmm6 | |
vmulsd (%rsi), %xmm2, %xmm1 | |
vmovsd %xmm1, -96(%rsp) | |
vaddsd %xmm6, %xmm1, %xmm6 | |
vaddsd %xmm6, %xmm12, %xmm1 | |
movq (%rdi), %rsi | |
vmovsd 936(%rdx), %xmm3 # xmm3 = mem[0],zero | |
vmovsd %xmm3, 24(%rsp) | |
vmovsd 144(%rdx), %xmm0 # xmm0 = mem[0],zero | |
vmovsd %xmm0, 16(%rsp) | |
vmovsd 1080(%rdx), %xmm3 # xmm3 = mem[0],zero | |
vmovsd %xmm3, -128(%rsp) | |
vmovups 1120(%rdx), %ymm3 | |
vmovups %ymm3, 512(%rsp) | |
vmovups 1088(%rdx), %ymm3 | |
vmovups %ymm3, 64(%rsp) | |
vmovsd %xmm1, (%rsi) | |
vxorpd 224(%rsp), %ymm8, %ymm1 | |
vsubpd 1184(%rsp), %ymm1, %ymm1 | |
vsubpd 416(%rsp), %ymm1, %ymm1 | |
vsubpd 160(%rsp), %ymm1, %ymm1 | |
vsubpd %ymm11, %ymm1, %ymm1 | |
vmovupd 288(%rsp), %ymm14 | |
vaddpd %ymm1, %ymm14, %ymm1 | |
vmovupd 864(%rsp), %ymm12 | |
vaddpd %ymm1, %ymm12, %ymm1 | |
vmovupd 800(%rsp), %ymm13 | |
vaddpd %ymm1, %ymm13, %ymm1 | |
vaddpd %ymm1, %ymm5, %ymm1 | |
vmovupd 640(%rsp), %ymm6 | |
vaddpd %ymm1, %ymm6, %ymm1 | |
vaddpd 448(%rsp), %ymm1, %ymm1 | |
vaddpd %ymm1, %ymm10, %ymm1 | |
vmovupd %ymm1, 40(%rsi) | |
vxorpd 96(%rsp), %ymm8, %ymm1 | |
vsubpd 1216(%rsp), %ymm1, %ymm1 | |
vsubpd 352(%rsp), %ymm1, %ymm1 | |
vsubpd 384(%rsp), %ymm1, %ymm1 | |
vsubpd %ymm9, %ymm1, %ymm1 | |
vmovupd 320(%rsp), %ymm10 | |
vaddpd %ymm1, %ymm10, %ymm1 | |
vmovupd 960(%rsp), %ymm9 | |
vaddpd %ymm1, %ymm9, %ymm1 | |
vmovupd 832(%rsp), %ymm5 | |
vaddpd %ymm1, %ymm5, %ymm1 | |
vaddpd 608(%rsp), %ymm1, %ymm1 | |
vmovupd 704(%rsp), %ymm3 | |
vaddpd %ymm1, %ymm3, %ymm1 | |
vmovupd 672(%rsp), %ymm11 | |
vaddpd %ymm1, %ymm11, %ymm1 | |
vaddpd 256(%rsp), %ymm1, %ymm1 | |
vmovupd %ymm1, 8(%rsi) | |
vmulsd (%rbx), %xmm2, %xmm1 | |
vmovapd %xmm1, 496(%rsp) | |
vxorpd -64(%rsp), %xmm8, %xmm0 | |
vmovapd %xmm0, -64(%rsp) | |
vsubsd %xmm15, %xmm0, %xmm2 | |
vsubsd %xmm7, %xmm2, %xmm2 | |
vsubsd %xmm4, %xmm2, %xmm2 | |
vmovapd -48(%rsp), %xmm15 | |
vaddsd %xmm2, %xmm15, %xmm2 | |
vaddsd %xmm1, %xmm2, %xmm2 | |
vmovsd %xmm2, 72(%rsi) | |
vxorpd %ymm8, %ymm14, %ymm2 | |
vsubpd %ymm12, %ymm2, %ymm4 | |
vsubpd %ymm13, %ymm4, %ymm4 | |
vsubpd %ymm6, %ymm4, %ymm4 | |
vmovupd 224(%rsp), %ymm7 | |
vaddpd %ymm4, %ymm7, %ymm4 | |
vaddpd 928(%rsp), %ymm4, %ymm4 | |
vmovupd %ymm4, 112(%rsi) | |
vxorpd %ymm8, %ymm10, %ymm4 | |
vsubpd %ymm9, %ymm4, %ymm13 | |
vsubpd %ymm5, %ymm13, %ymm13 | |
vsubpd %ymm3, %ymm13, %ymm13 | |
vmovupd 96(%rsp), %ymm9 | |
vaddpd %ymm13, %ymm9, %ymm13 | |
vaddpd 896(%rsp), %ymm13, %ymm13 | |
vmovupd %ymm13, 80(%rsi) | |
vmovsd 16(%rsp), %xmm0 # xmm0 = mem[0],zero | |
vmulsd (%rcx), %xmm0, %xmm13 | |
movabsq $140283456689384, %rax # imm = 0x7F96499A94E8 | |
vsubsd %xmm13, %xmm15, %xmm3 | |
vmovupd 128(%rsp), %ymm0 | |
vmulsd (%r14), %xmm0, %xmm5 | |
vaddsd %xmm5, %xmm3, %xmm3 | |
vmovsd -128(%rsp), %xmm1 # xmm1 = mem[0],zero | |
vmulsd (%rax), %xmm1, %xmm1 | |
vmovsd %xmm1, 320(%rsp) | |
vaddsd %xmm1, %xmm3, %xmm3 | |
vaddsd -96(%rsp), %xmm3, %xmm3 | |
vmovsd %xmm3, 144(%rsi) | |
vmovupd 1344(%rsp), %ymm10 | |
vsubpd %ymm10, %ymm7, %ymm3 | |
vmovupd 1408(%rsp), %ymm6 | |
vaddpd %ymm6, %ymm3, %ymm3 | |
vbroadcastsd (%rax), %ymm7 | |
vmulpd 512(%rsp), %ymm7, %ymm1 | |
vmovupd %ymm1, 224(%rsp) | |
vaddpd %ymm1, %ymm3, %ymm3 | |
vaddpd 448(%rsp), %ymm3, %ymm3 | |
vmovupd %ymm3, 184(%rsi) | |
vmulpd 64(%rsp), %ymm7, %ymm1 | |
vmovupd %ymm1, 288(%rsp) | |
vmovupd 1312(%rsp), %ymm15 | |
vsubpd %ymm15, %ymm9, %ymm3 | |
vmovupd 1440(%rsp), %ymm7 | |
vaddpd %ymm7, %ymm3, %ymm3 | |
vaddpd %ymm1, %ymm3, %ymm3 | |
vaddpd %ymm3, %ymm11, %ymm3 | |
vmovupd %ymm3, 152(%rsi) | |
vmulsd (%r11), %xmm0, %xmm1 | |
vmovsd %xmm1, -48(%rsp) | |
vmovapd -64(%rsp), %xmm0 | |
vsubsd %xmm1, %xmm0, %xmm1 | |
vsubsd %xmm5, %xmm1, %xmm1 | |
vsubpd 992(%rsp), %ymm4, %ymm3 | |
vsubpd %ymm7, %ymm3, %ymm3 | |
vsubpd 1024(%rsp), %ymm2, %ymm2 | |
vsubpd %ymm6, %ymm2, %ymm2 | |
vsubsd -80(%rsp), %xmm1, %xmm1 | |
vaddsd %xmm1, %xmm13, %xmm1 | |
vsubpd 384(%rsp), %ymm3, %ymm3 | |
vaddpd %ymm3, %ymm15, %ymm3 | |
vsubpd 160(%rsp), %ymm2, %ymm2 | |
vaddpd %ymm2, %ymm10, %ymm2 | |
vmovsd %xmm1, 216(%rsi) | |
vmovupd %ymm2, 256(%rsi) | |
vmovupd %ymm3, 224(%rsi) | |
vmovsd -32(%rsp), %xmm1 # xmm1 = mem[0],zero | |
vmulsd (%r10), %xmm1, %xmm6 | |
vmovapd %xmm6, -32(%rsp) | |
vmovsd 24(%rsp), %xmm1 # xmm1 = mem[0],zero | |
vmulsd (%r15), %xmm1, %xmm5 | |
vmovsd %xmm5, 128(%rsp) | |
vmovupd 1376(%rsp), %ymm1 | |
vmulsd (%rsp), %xmm1, %xmm13 | |
vmulsd 480(%rsp), %xmm1, %xmm9 | |
vmovapd %ymm1, %ymm3 | |
vmovsd -88(%rsp), %xmm1 # xmm1 = mem[0],zero | |
vmulsd (%r9), %xmm1, %xmm10 | |
vmovsd -120(%rsp), %xmm12 # xmm12 = mem[0],zero | |
vsubsd %xmm12, %xmm10, %xmm2 | |
vaddsd %xmm2, %xmm10, %xmm2 | |
vaddsd %xmm2, %xmm13, %xmm2 | |
vaddsd %xmm6, %xmm2, %xmm2 | |
vaddsd %xmm5, %xmm2, %xmm2 | |
vaddsd %xmm2, %xmm9, %xmm2 | |
vmovapd %xmm9, (%rsp) | |
vmovsd %xmm2, 288(%rsi) | |
vmulsd -16(%rsp), %xmm3, %xmm0 | |
vmovsd %xmm0, -16(%rsp) | |
vmovupd 1120(%rsp), %ymm1 | |
vmovupd 864(%rsp), %ymm15 | |
vsubpd %ymm15, %ymm1, %ymm2 | |
vaddpd %ymm2, %ymm1, %ymm2 | |
vmovupd 1600(%rsp), %ymm1 | |
vaddpd %ymm1, %ymm2, %ymm2 | |
vaddpd 1280(%rsp), %ymm2, %ymm2 | |
vmovupd 544(%rsp), %ymm11 | |
vaddpd %ymm2, %ymm11, %ymm2 | |
vmovupd 736(%rsp), %ymm4 | |
vaddpd %ymm4, %ymm2, %ymm2 | |
vmovupd %ymm2, 328(%rsi) | |
movabsq $140283456689376, %rax # imm = 0x7F96499A94E0 | |
vbroadcastsd (%rax), %ymm3 | |
vmulpd 64(%rsp), %ymm3, %ymm2 | |
vmovupd %ymm2, 64(%rsp) | |
vmulpd 512(%rsp), %ymm3, %ymm2 | |
vmovupd %ymm2, 96(%rsp) | |
vmovupd 1152(%rsp), %ymm5 | |
vmovupd 960(%rsp), %ymm2 | |
vsubpd %ymm2, %ymm5, %ymm3 | |
vaddpd %ymm3, %ymm5, %ymm3 | |
vmovupd 1632(%rsp), %ymm14 | |
vaddpd %ymm3, %ymm14, %ymm3 | |
vaddpd 1088(%rsp), %ymm3, %ymm3 | |
vmovupd 576(%rsp), %ymm7 | |
vaddpd %ymm7, %ymm3, %ymm3 | |
vmovupd 768(%rsp), %ymm5 | |
vaddpd %ymm5, %ymm3, %ymm3 | |
vmovupd %ymm3, 296(%rsi) | |
vxorpd %xmm8, %xmm13, %xmm3 | |
vsubsd %xmm0, %xmm3, %xmm3 | |
vsubsd -104(%rsp), %xmm3, %xmm3 | |
vsubsd %xmm9, %xmm3, %xmm3 | |
vaddsd %xmm3, %xmm12, %xmm0 | |
vxorpd %ymm8, %ymm14, %ymm3 | |
vsubpd 1248(%rsp), %ymm3, %ymm3 | |
vsubpd 352(%rsp), %ymm3, %ymm3 | |
vsubpd %ymm5, %ymm3, %ymm3 | |
vaddpd %ymm3, %ymm2, %ymm9 | |
vxorpd %ymm1, %ymm8, %ymm3 | |
vmovapd %ymm1, %ymm5 | |
vsubpd 1056(%rsp), %ymm3, %ymm3 | |
vsubpd 416(%rsp), %ymm3, %ymm3 | |
vsubpd %ymm4, %ymm3, %ymm3 | |
vaddpd %ymm3, %ymm15, %ymm12 | |
vmovsd -128(%rsp), %xmm1 # xmm1 = mem[0],zero | |
vmulsd (%rax), %xmm1, %xmm3 | |
vaddsd %xmm0, %xmm3, %xmm2 | |
vaddsd %xmm2, %xmm3, %xmm2 | |
vmovsd %xmm2, 360(%rsi) | |
vmovupd 96(%rsp), %ymm1 | |
vaddpd %ymm1, %ymm12, %ymm2 | |
vaddpd %ymm2, %ymm1, %ymm2 | |
vmovupd %ymm2, 400(%rsi) | |
vmovupd 64(%rsp), %ymm1 | |
vaddpd %ymm1, %ymm9, %ymm2 | |
vaddpd %ymm2, %ymm1, %ymm2 | |
vmovupd %ymm2, 368(%rsi) | |
vmovsd -88(%rsp), %xmm1 # xmm1 = mem[0],zero | |
vmulsd (%r8), %xmm1, %xmm2 | |
vxorpd %xmm8, %xmm10, %xmm6 | |
vsubsd %xmm2, %xmm6, %xmm6 | |
vsubsd %xmm13, %xmm6, %xmm6 | |
vaddsd 128(%rsp), %xmm6, %xmm6 | |
vmovsd %xmm6, 432(%rsi) | |
vmovupd 1120(%rsp), %ymm4 | |
vxorpd %ymm4, %ymm8, %ymm6 | |
vmovupd 1664(%rsp), %ymm9 | |
vsubpd %ymm9, %ymm6, %ymm6 | |
vsubpd %ymm5, %ymm6, %ymm6 | |
vaddpd %ymm6, %ymm11, %ymm6 | |
vmovupd %ymm6, 472(%rsi) | |
vmovupd 1152(%rsp), %ymm0 | |
vxorpd %ymm0, %ymm8, %ymm6 | |
vmovupd 1696(%rsp), %ymm12 | |
vsubpd %ymm12, %ymm6, %ymm6 | |
vsubpd %ymm14, %ymm6, %ymm6 | |
vaddpd %ymm7, %ymm6, %ymm6 | |
vmovupd %ymm6, 440(%rsi) | |
vaddsd %xmm2, %xmm10, %xmm1 | |
vaddpd %ymm0, %ymm12, %ymm2 | |
vaddpd %ymm4, %ymm9, %ymm6 | |
vaddsd %xmm1, %xmm13, %xmm1 | |
vaddpd %ymm5, %ymm6, %ymm5 | |
vaddpd %ymm2, %ymm14, %ymm2 | |
vmovapd -32(%rsp), %xmm4 | |
vaddsd %xmm4, %xmm1, %xmm1 | |
movq (%rdi), %rax | |
vmovsd %xmm1, 504(%rax) | |
vmovupd 1280(%rsp), %ymm6 | |
vaddpd %ymm6, %ymm5, %ymm1 | |
vmovupd %ymm1, 544(%rax) | |
vmovupd 1088(%rsp), %ymm5 | |
vaddpd %ymm5, %ymm2, %ymm1 | |
vmovupd %ymm1, 512(%rax) | |
vxorpd %xmm4, %xmm8, %xmm1 | |
vmovsd -16(%rsp), %xmm0 # xmm0 = mem[0],zero | |
vsubsd %xmm0, %xmm1, %xmm1 | |
vmovsd %xmm1, 576(%rax) | |
vxorpd %ymm6, %ymm8, %ymm1 | |
vmovupd 1056(%rsp), %ymm9 | |
vsubpd %ymm9, %ymm1, %ymm1 | |
vmovupd %ymm1, 616(%rax) | |
vxorpd %ymm5, %ymm8, %ymm1 | |
vmovupd 1248(%rsp), %ymm7 | |
vsubpd %ymm7, %ymm1, %ymm1 | |
vmovupd %ymm1, 584(%rax) | |
vmovsd -112(%rsp), %xmm11 # xmm11 = mem[0],zero | |
vsubsd %xmm11, %xmm4, %xmm1 | |
vmovapd 208(%rsp), %xmm2 | |
vaddsd %xmm1, %xmm2, %xmm1 | |
vmovsd %xmm1, 648(%rax) | |
vmovupd 640(%rsp), %ymm14 | |
vsubpd %ymm14, %ymm6, %ymm1 | |
vmovupd 800(%rsp), %ymm4 | |
vaddpd %ymm1, %ymm4, %ymm1 | |
vmovupd %ymm1, 688(%rax) | |
vmovupd 704(%rsp), %ymm15 | |
vsubpd %ymm15, %ymm5, %ymm1 | |
vmovupd 832(%rsp), %ymm6 | |
vaddpd %ymm1, %ymm6, %ymm1 | |
vmovupd %ymm1, 656(%rax) | |
vxorpd %xmm2, %xmm8, %xmm1 | |
vmovapd %xmm2, %xmm10 | |
vmovsd 40(%rsp), %xmm5 # xmm5 = mem[0],zero | |
vsubsd %xmm5, %xmm1, %xmm1 | |
vaddsd %xmm1, %xmm0, %xmm1 | |
vxorpd %ymm4, %ymm8, %ymm2 | |
vmovapd %ymm4, %ymm12 | |
vmovupd 1184(%rsp), %ymm0 | |
vsubpd %ymm0, %ymm2, %ymm2 | |
vaddpd %ymm2, %ymm9, %ymm13 | |
vxorpd %ymm6, %ymm8, %ymm4 | |
vmovupd 1216(%rsp), %ymm9 | |
vsubpd %ymm9, %ymm4, %ymm4 | |
vaddpd %ymm4, %ymm7, %ymm4 | |
vmovsd 32(%rsp), %xmm2 # xmm2 = mem[0],zero | |
vaddsd %xmm2, %xmm1, %xmm1 | |
vmovsd %xmm1, 720(%rax) | |
vmovupd 1472(%rsp), %ymm7 | |
vaddpd %ymm7, %ymm13, %ymm1 | |
vmovupd %ymm1, 760(%rax) | |
vmovupd 608(%rsp), %ymm13 | |
vaddpd %ymm4, %ymm13, %ymm1 | |
vmovupd %ymm1, 728(%rax) | |
vmovsd %xmm10, 792(%rax) | |
vmovupd %ymm12, 832(%rax) | |
vmovupd %ymm6, 800(%rax) | |
vsubsd %xmm2, %xmm5, %xmm1 | |
vsubpd %ymm13, %ymm9, %ymm2 | |
vmovsd %xmm1, 864(%rax) | |
vsubpd %ymm7, %ymm0, %ymm1 | |
vmovupd %ymm1, 904(%rax) | |
vmovupd %ymm2, 872(%rax) | |
vsubsd 128(%rsp), %xmm11, %xmm1 | |
vsubpd 576(%rsp), %ymm15, %ymm2 | |
vsubpd 544(%rsp), %ymm14, %ymm4 | |
vmovsd %xmm1, 936(%rax) | |
vmovupd %ymm4, 976(%rax) | |
vmovupd %ymm2, 944(%rax) | |
vmovsd -104(%rsp), %xmm1 # xmm1 = mem[0],zero | |
vmovsd %xmm1, 1008(%rax) | |
vmovups 416(%rsp), %ymm1 | |
vmovups %ymm1, 1048(%rax) | |
vmovups 352(%rsp), %ymm1 | |
vmovups %ymm1, 1016(%rax) | |
vxorpd %xmm3, %xmm8, %xmm1 | |
vsubsd 320(%rsp), %xmm1, %xmm1 | |
vxorpd 96(%rsp), %ymm8, %ymm2 | |
vsubpd 224(%rsp), %ymm2, %ymm2 | |
vxorpd 64(%rsp), %ymm8, %ymm3 | |
vsubpd 288(%rsp), %ymm3, %ymm3 | |
vaddsd -48(%rsp), %xmm1, %xmm1 | |
vaddpd 992(%rsp), %ymm3, %ymm3 | |
vaddpd 1024(%rsp), %ymm2, %ymm2 | |
vmovsd %xmm1, 1080(%rax) | |
vmovupd %ymm2, 1120(%rax) | |
vmovupd %ymm3, 1088(%rax) | |
vmovapd (%rsp), %xmm3 | |
vxorpd %xmm3, %xmm8, %xmm1 | |
vmovlpd %xmm1, 1152(%rax) | |
vmovupd 736(%rsp), %ymm2 | |
vxorpd %ymm2, %ymm8, %ymm1 | |
vmovupd %ymm1, 1192(%rax) | |
vmovupd 768(%rsp), %ymm4 | |
vxorpd %ymm4, %ymm8, %ymm1 | |
vmovupd %ymm1, 1160(%rax) | |
vmovsd %xmm3, 1224(%rax) | |
vmovupd %ymm2, 1264(%rax) | |
vmovupd %ymm4, 1232(%rax) | |
vxorpd 496(%rsp), %xmm8, %xmm1 | |
vxorpd 896(%rsp), %ymm8, %ymm2 | |
vxorpd 928(%rsp), %ymm8, %ymm0 | |
vsubsd -96(%rsp), %xmm1, %xmm1 | |
vsubpd 448(%rsp), %ymm0, %ymm0 | |
vsubpd 672(%rsp), %ymm2, %ymm2 | |
vmovsd 56(%rsp), %xmm5 # xmm5 = mem[0],zero | |
vsubsd %xmm5, %xmm1, %xmm1 | |
vaddsd -80(%rsp), %xmm1, %xmm1 | |
vmovupd 1568(%rsp), %ymm3 | |
vsubpd %ymm3, %ymm0, %ymm0 | |
vaddpd 160(%rsp), %ymm0, %ymm0 | |
vmovupd 1504(%rsp), %ymm4 | |
vsubpd %ymm4, %ymm2, %ymm2 | |
vaddpd 384(%rsp), %ymm2, %ymm2 | |
vmovsd 48(%rsp), %xmm7 # xmm7 = mem[0],zero | |
vaddsd %xmm7, %xmm1, %xmm1 | |
vmovsd %xmm1, 1296(%rax) | |
vmovupd 1536(%rsp), %ymm6 | |
vaddpd %ymm6, %ymm0, %ymm0 | |
vmovupd %ymm0, 1336(%rax) | |
vmovupd 256(%rsp), %ymm1 | |
vaddpd %ymm1, %ymm2, %ymm0 | |
vmovupd %ymm0, 1304(%rax) | |
vsubsd %xmm7, %xmm5, %xmm0 | |
vsubpd %ymm1, %ymm4, %ymm1 | |
vsubpd %ymm6, %ymm3, %ymm2 | |
movq (%rdi), %rax | |
vmovsd %xmm0, 1368(%rax) | |
vmovupd %ymm2, 1408(%rax) | |
vmovupd %ymm1, 1376(%rax) | |
addq $1728, %rsp # imm = 0x6C0 | |
popq %rbx | |
popq %r14 | |
popq %r15 | |
vzeroupper | |
retq | |
nopw %cs:(%rax,%rax) |
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment