summaryrefslogtreecommitdiffstats
path: root/secure/lib/libcrypto/i386/crypt586.S
diff options
context:
space:
mode:
authoremaste <emaste@FreeBSD.org>2016-05-06 13:04:45 +0000
committeremaste <emaste@FreeBSD.org>2016-05-06 13:04:45 +0000
commitc5ae2cf039060fa60177616b3111c3e567c5460a (patch)
tree74de87ed58d858cce41a1eda60bde3ee1b25d757 /secure/lib/libcrypto/i386/crypt586.S
parenta5193740b95ef87e9ab4864032a28f58cb60085a (diff)
downloadFreeBSD-src-c5ae2cf039060fa60177616b3111c3e567c5460a.zip
FreeBSD-src-c5ae2cf039060fa60177616b3111c3e567c5460a.tar.gz
Revert r299139: these are generated files
We'll need to properly generate PIC/non-PIC from the source .pl files. Reported by: jkim
Diffstat (limited to 'secure/lib/libcrypto/i386/crypt586.S')
-rw-r--r--secure/lib/libcrypto/i386/crypt586.S884
1 files changed, 0 insertions, 884 deletions
diff --git a/secure/lib/libcrypto/i386/crypt586.S b/secure/lib/libcrypto/i386/crypt586.S
deleted file mode 100644
index a02a3fc..0000000
--- a/secure/lib/libcrypto/i386/crypt586.S
+++ /dev/null
@@ -1,884 +0,0 @@
- # $FreeBSD$
-.file "crypt586.s"
-.text
-.globl fcrypt_body
-.type fcrypt_body,@function
-.align 16
-fcrypt_body:
-.L_fcrypt_body_begin:
- pushl %ebp
- pushl %ebx
- pushl %esi
- pushl %edi
-
-
- xorl %edi,%edi
- xorl %esi,%esi
-#ifdef PIC
- calll .L1
-.L1:
- popl %edx
- addl $_GLOBAL_OFFSET_TABLE_+(.-.L1), %edx
- movl DES_SPtrans@GOT(%edx), %edx
-#else
- leal DES_SPtrans,%edx
-#endif
- pushl %edx
- movl 28(%esp),%ebp
- pushl $25
-.L000start:
-
-
- movl 36(%esp),%eax
- movl %esi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %esi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl (%ebp),%ebx
- xorl %ebx,%eax
- movl 4(%ebp),%ecx
- xorl %esi,%eax
- xorl %esi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%edi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%edi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%edi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%edi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%edi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%edi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%edi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%edi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %edi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %edi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 8(%ebp),%ebx
- xorl %ebx,%eax
- movl 12(%ebp),%ecx
- xorl %edi,%eax
- xorl %edi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%esi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%esi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%esi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%esi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%esi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%esi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%esi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%esi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %esi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %esi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 16(%ebp),%ebx
- xorl %ebx,%eax
- movl 20(%ebp),%ecx
- xorl %esi,%eax
- xorl %esi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%edi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%edi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%edi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%edi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%edi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%edi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%edi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%edi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %edi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %edi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 24(%ebp),%ebx
- xorl %ebx,%eax
- movl 28(%ebp),%ecx
- xorl %edi,%eax
- xorl %edi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%esi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%esi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%esi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%esi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%esi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%esi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%esi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%esi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %esi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %esi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 32(%ebp),%ebx
- xorl %ebx,%eax
- movl 36(%ebp),%ecx
- xorl %esi,%eax
- xorl %esi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%edi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%edi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%edi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%edi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%edi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%edi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%edi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%edi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %edi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %edi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 40(%ebp),%ebx
- xorl %ebx,%eax
- movl 44(%ebp),%ecx
- xorl %edi,%eax
- xorl %edi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%esi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%esi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%esi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%esi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%esi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%esi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%esi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%esi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %esi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %esi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 48(%ebp),%ebx
- xorl %ebx,%eax
- movl 52(%ebp),%ecx
- xorl %esi,%eax
- xorl %esi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%edi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%edi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%edi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%edi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%edi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%edi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%edi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%edi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %edi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %edi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 56(%ebp),%ebx
- xorl %ebx,%eax
- movl 60(%ebp),%ecx
- xorl %edi,%eax
- xorl %edi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%esi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%esi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%esi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%esi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%esi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%esi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%esi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%esi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %esi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %esi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 64(%ebp),%ebx
- xorl %ebx,%eax
- movl 68(%ebp),%ecx
- xorl %esi,%eax
- xorl %esi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%edi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%edi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%edi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%edi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%edi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%edi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%edi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%edi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %edi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %edi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 72(%ebp),%ebx
- xorl %ebx,%eax
- movl 76(%ebp),%ecx
- xorl %edi,%eax
- xorl %edi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%esi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%esi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%esi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%esi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%esi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%esi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%esi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%esi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %esi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %esi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 80(%ebp),%ebx
- xorl %ebx,%eax
- movl 84(%ebp),%ecx
- xorl %esi,%eax
- xorl %esi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%edi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%edi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%edi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%edi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%edi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%edi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%edi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%edi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %edi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %edi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 88(%ebp),%ebx
- xorl %ebx,%eax
- movl 92(%ebp),%ecx
- xorl %edi,%eax
- xorl %edi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%esi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%esi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%esi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%esi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%esi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%esi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%esi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%esi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %esi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %esi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 96(%ebp),%ebx
- xorl %ebx,%eax
- movl 100(%ebp),%ecx
- xorl %esi,%eax
- xorl %esi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%edi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%edi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%edi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%edi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%edi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%edi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%edi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%edi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %edi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %edi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 104(%ebp),%ebx
- xorl %ebx,%eax
- movl 108(%ebp),%ecx
- xorl %edi,%eax
- xorl %edi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%esi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%esi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%esi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%esi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%esi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%esi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%esi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%esi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %esi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %esi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 112(%ebp),%ebx
- xorl %ebx,%eax
- movl 116(%ebp),%ecx
- xorl %esi,%eax
- xorl %esi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%edi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%edi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%edi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%edi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%edi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%edi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%edi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%edi
- movl 32(%esp),%ebp
-
-
- movl 36(%esp),%eax
- movl %edi,%edx
- shrl $16,%edx
- movl 40(%esp),%ecx
- xorl %edi,%edx
- andl %edx,%eax
- andl %ecx,%edx
- movl %eax,%ebx
- shll $16,%ebx
- movl %edx,%ecx
- shll $16,%ecx
- xorl %ebx,%eax
- xorl %ecx,%edx
- movl 120(%ebp),%ebx
- xorl %ebx,%eax
- movl 124(%ebp),%ecx
- xorl %edi,%eax
- xorl %edi,%edx
- xorl %ecx,%edx
- andl $0xfcfcfcfc,%eax
- xorl %ebx,%ebx
- andl $0xcfcfcfcf,%edx
- xorl %ecx,%ecx
- movb %al,%bl
- movb %ah,%cl
- rorl $4,%edx
- movl 4(%esp),%ebp
- xorl (%ebp,%ebx,1),%esi
- movb %dl,%bl
- xorl 0x200(%ebp,%ecx,1),%esi
- movb %dh,%cl
- shrl $16,%eax
- xorl 0x100(%ebp,%ebx,1),%esi
- movb %ah,%bl
- shrl $16,%edx
- xorl 0x300(%ebp,%ecx,1),%esi
- movb %dh,%cl
- andl $0xff,%eax
- andl $0xff,%edx
- movl 0x600(%ebp,%ebx,1),%ebx
- xorl %ebx,%esi
- movl 0x700(%ebp,%ecx,1),%ebx
- xorl %ebx,%esi
- movl 0x400(%ebp,%eax,1),%ebx
- xorl %ebx,%esi
- movl 0x500(%ebp,%edx,1),%ebx
- xorl %ebx,%esi
- movl 32(%esp),%ebp
- movl (%esp),%ebx
- movl %edi,%eax
- decl %ebx
- movl %esi,%edi
- movl %eax,%esi
- movl %ebx,(%esp)
- jnz .L000start
-
-
- movl 28(%esp),%edx
- rorl $1,%edi
- movl %esi,%eax
- xorl %edi,%esi
- andl $0xaaaaaaaa,%esi
- xorl %esi,%eax
- xorl %esi,%edi
-
- roll $23,%eax
- movl %eax,%esi
- xorl %edi,%eax
- andl $0x03fc03fc,%eax
- xorl %eax,%esi
- xorl %eax,%edi
-
- roll $10,%esi
- movl %esi,%eax
- xorl %edi,%esi
- andl $0x33333333,%esi
- xorl %esi,%eax
- xorl %esi,%edi
-
- roll $18,%edi
- movl %edi,%esi
- xorl %eax,%edi
- andl $0xfff0000f,%edi
- xorl %edi,%esi
- xorl %edi,%eax
-
- roll $12,%esi
- movl %esi,%edi
- xorl %eax,%esi
- andl $0xf0f0f0f0,%esi
- xorl %esi,%edi
- xorl %esi,%eax
-
- rorl $4,%eax
- movl %eax,(%edx)
- movl %edi,4(%edx)
- addl $8,%esp
- popl %edi
- popl %esi
- popl %ebx
- popl %ebp
- ret
-.size fcrypt_body,.-.L_fcrypt_body_begin
OpenPOWER on IntegriCloud