diff options
Diffstat (limited to 'secure/lib/libcrypto/amd64/bsaes-x86_64.S')
-rw-r--r-- | secure/lib/libcrypto/amd64/bsaes-x86_64.S | 199 |
1 files changed, 68 insertions, 131 deletions
diff --git a/secure/lib/libcrypto/amd64/bsaes-x86_64.S b/secure/lib/libcrypto/amd64/bsaes-x86_64.S index 671925b..5588ef5 100644 --- a/secure/lib/libcrypto/amd64/bsaes-x86_64.S +++ b/secure/lib/libcrypto/amd64/bsaes-x86_64.S @@ -365,7 +365,6 @@ _bsaes_encrypt8_bitslice: pxor %xmm11,%xmm7 pshufd $78,%xmm3,%xmm1 pxor %xmm12,%xmm8 - pxor %xmm10,%xmm2 pxor %xmm14,%xmm6 pxor %xmm13,%xmm5 @@ -798,148 +797,86 @@ _bsaes_decrypt8: decl %r10d jl .Ldec_done - pshufd $147,%xmm4,%xmm14 - movdqa %xmm5,%xmm9 - pxor %xmm6,%xmm4 - pxor %xmm6,%xmm5 - pshufd $147,%xmm15,%xmm7 - movdqa %xmm6,%xmm12 - pxor %xmm15,%xmm6 - pxor %xmm0,%xmm15 - pshufd $147,%xmm0,%xmm8 - pxor %xmm5,%xmm0 - pxor %xmm2,%xmm15 - pxor %xmm3,%xmm0 - pshufd $147,%xmm3,%xmm10 - pxor %xmm15,%xmm5 - pxor %xmm4,%xmm3 - pxor %xmm2,%xmm4 - pshufd $147,%xmm2,%xmm13 - movdqa %xmm1,%xmm11 - pxor %xmm1,%xmm2 - pxor %xmm3,%xmm1 - pxor %xmm4,%xmm3 - pxor %xmm12,%xmm2 - pxor %xmm9,%xmm3 - pxor %xmm11,%xmm3 - pshufd $147,%xmm12,%xmm12 - - pxor %xmm4,%xmm6 - pxor %xmm7,%xmm4 - pxor %xmm8,%xmm6 - pshufd $147,%xmm9,%xmm9 - pxor %xmm12,%xmm4 - pxor %xmm13,%xmm6 - pxor %xmm14,%xmm4 - pshufd $147,%xmm11,%xmm11 - pxor %xmm13,%xmm14 - pxor %xmm4,%xmm6 - + pshufd $78,%xmm15,%xmm7 + pshufd $78,%xmm2,%xmm13 + pxor %xmm15,%xmm7 + pshufd $78,%xmm4,%xmm14 + pxor %xmm2,%xmm13 + pshufd $78,%xmm0,%xmm8 + pxor %xmm4,%xmm14 + pshufd $78,%xmm5,%xmm9 + pxor %xmm0,%xmm8 + pshufd $78,%xmm3,%xmm10 + pxor %xmm5,%xmm9 + pxor %xmm13,%xmm15 + pxor %xmm13,%xmm0 + pshufd $78,%xmm1,%xmm11 + pxor %xmm3,%xmm10 pxor %xmm7,%xmm5 - pshufd $147,%xmm7,%xmm7 - pxor %xmm8,%xmm15 - pxor %xmm8,%xmm0 - pxor %xmm9,%xmm15 - pshufd $147,%xmm8,%xmm8 - pxor %xmm9,%xmm5 - pxor %xmm9,%xmm3 - pxor %xmm14,%xmm15 - pshufd $147,%xmm9,%xmm9 - pxor %xmm10,%xmm5 - pxor %xmm10,%xmm1 - pxor %xmm10,%xmm0 - pshufd $147,%xmm10,%xmm10 - pxor %xmm11,%xmm2 - pxor %xmm11,%xmm3 - pxor %xmm14,%xmm2 - pxor %xmm12,%xmm5 - pxor %xmm11,%xmm0 - pxor %xmm12,%xmm14 - - pxor %xmm14,%xmm3 - pshufd $147,%xmm11,%xmm11 - pxor %xmm14,%xmm1 + pxor %xmm8,%xmm3 + pshufd $78,%xmm6,%xmm12 + pxor %xmm1,%xmm11 pxor %xmm14,%xmm0 + pxor %xmm9,%xmm1 + pxor %xmm6,%xmm12 - pxor %xmm12,%xmm14 - pshufd $147,%xmm12,%xmm12 - pxor %xmm13,%xmm14 - - - pxor %xmm2,%xmm0 + pxor %xmm14,%xmm5 + pxor %xmm13,%xmm3 + pxor %xmm13,%xmm1 + pxor %xmm10,%xmm6 pxor %xmm11,%xmm2 - pshufd $147,%xmm13,%xmm13 - pxor %xmm7,%xmm15 - pxor %xmm12,%xmm2 - pxor %xmm9,%xmm15 - pshufd $147,%xmm14,%xmm14 - - pxor %xmm6,%xmm5 - pxor %xmm8,%xmm6 - pxor %xmm7,%xmm4 - pxor %xmm7,%xmm5 - pxor %xmm12,%xmm6 - pxor %xmm12,%xmm4 + pxor %xmm14,%xmm1 pxor %xmm14,%xmm6 - pshufd $147,%xmm7,%xmm7 - pxor %xmm13,%xmm4 - pxor %xmm6,%xmm5 + pxor %xmm12,%xmm4 + pshufd $147,%xmm15,%xmm7 + pshufd $147,%xmm0,%xmm8 + pxor %xmm7,%xmm15 + pshufd $147,%xmm5,%xmm9 pxor %xmm8,%xmm0 - pshufd $147,%xmm8,%xmm8 - - pxor %xmm14,%xmm2 - pxor %xmm9,%xmm0 - pxor %xmm9,%xmm3 - pshufd $147,%xmm9,%xmm9 - pxor %xmm13,%xmm15 - pxor %xmm10,%xmm13 - pxor %xmm2,%xmm0 - pxor %xmm13,%xmm5 - - pxor %xmm13,%xmm1 - pxor %xmm12,%xmm3 + pshufd $147,%xmm3,%xmm10 + pxor %xmm9,%xmm5 + pshufd $147,%xmm1,%xmm11 + pxor %xmm10,%xmm3 + pshufd $147,%xmm6,%xmm12 pxor %xmm11,%xmm1 - pshufd $147,%xmm11,%xmm11 - pxor %xmm13,%xmm3 - pxor %xmm14,%xmm1 - pxor %xmm10,%xmm13 - - pshufd $147,%xmm12,%xmm12 - pshufd $147,%xmm13,%xmm13 - pshufd $147,%xmm14,%xmm14 - pshufd $147,%xmm10,%xmm10 - + pshufd $147,%xmm2,%xmm13 + pxor %xmm12,%xmm6 + pshufd $147,%xmm4,%xmm14 + pxor %xmm13,%xmm2 + pxor %xmm14,%xmm4 - pxor %xmm6,%xmm0 - pxor %xmm6,%xmm8 - pxor %xmm12,%xmm7 - pxor %xmm12,%xmm8 - pxor %xmm7,%xmm5 + pxor %xmm15,%xmm8 pxor %xmm4,%xmm7 - pxor %xmm13,%xmm8 - pxor %xmm14,%xmm13 + pxor %xmm4,%xmm8 + pshufd $78,%xmm15,%xmm15 + pxor %xmm0,%xmm9 + pshufd $78,%xmm0,%xmm0 + pxor %xmm1,%xmm12 + pxor %xmm7,%xmm15 + pxor %xmm6,%xmm13 pxor %xmm8,%xmm0 - pxor %xmm11,%xmm2 - pxor %xmm0,%xmm11 - pxor %xmm10,%xmm1 - pxor %xmm5,%xmm10 - pxor %xmm9,%xmm3 - pxor %xmm15,%xmm9 - pxor %xmm14,%xmm10 - pxor %xmm3,%xmm12 - pxor %xmm13,%xmm9 - pxor %xmm13,%xmm12 - pxor %xmm1,%xmm13 + pxor %xmm3,%xmm11 + pshufd $78,%xmm1,%xmm7 pxor %xmm2,%xmm14 - - movdqa %xmm7,%xmm15 - movdqa %xmm8,%xmm0 - movdqa %xmm9,%xmm1 - movdqa %xmm10,%xmm2 - movdqa %xmm11,%xmm3 - movdqa %xmm12,%xmm4 + pshufd $78,%xmm6,%xmm8 + pxor %xmm5,%xmm10 + pshufd $78,%xmm3,%xmm1 + pxor %xmm4,%xmm10 + pshufd $78,%xmm4,%xmm6 + pxor %xmm4,%xmm11 + pshufd $78,%xmm2,%xmm3 + pxor %xmm11,%xmm7 + pshufd $78,%xmm5,%xmm2 + pxor %xmm12,%xmm8 + pxor %xmm1,%xmm10 + pxor %xmm14,%xmm6 + pxor %xmm3,%xmm13 + movdqa %xmm7,%xmm3 + pxor %xmm9,%xmm2 movdqa %xmm13,%xmm5 - movdqa %xmm14,%xmm6 + movdqa %xmm8,%xmm4 + movdqa %xmm2,%xmm1 + movdqa %xmm10,%xmm2 movdqa -16(%r11),%xmm7 jnz .Ldec_loop movdqa -32(%r11),%xmm7 |